تراشه‌های هوش مصنوعی جدید «AI200» و «AI250» شرکت کوالکام(Qualcomm)، پهنای باند ۱۰ برابری، حافظه ۷۶۸ گیگابایتی، استنتاج هوش مصنوعی مولد سریع‌تر، مقرون‌به‌صرفه‌تر و با کارایی پیشرفته را برای مراکز داده نوید می‌دهند.

به گزارش ایسنا، در اقدامی که می‌تواند آینده عملکرد هوش مصنوعی مراکز داده را تغییر دهد، شرکت «کوالکام» از راه‌حل‌های نسل جدید خود برای بهینه‌سازی استنتاج رونمایی کرده است که کارت‌ها و رَک‌های شتاب‌دهنده AI200 و AI250 نام دارند.

به نقل از آی‌ای، این سیستم‌ها جهشی قابل توجه در تلاش «کوالکام» برای ارائه هوش مصنوعی مولد مقیاس‌پذیر، کم‌مصرف و با کارایی بالا به شرکت‌های جهانی هستند.

این مجموعه جدید که بر پایه رهبری فناوری واحد پردازش عصبی(NPU) «کوالکام» ساخته شده است، نوید عملکرد در مقیاس رَک با ظرفیت حافظه برتر را می‌دهد.

«کوالکام» می‌گوید هدفش واضح است؛ ارائه استنتاج هوش مصنوعی مولد سریع و مقرون‌به‌صرفه در عین به حداکثر رساندن عملکرد به ازای هر دلار در هر وات که یک معیار حیاتی در زیرساخت‌های هوش مصنوعی مدرن است.

تقویت هوش مصنوعی مولد در مقیاس بزرگ

در قلب این اعلامیه، تراشه AI200 قرار دارد که یک راهکار استنتاج هوش مصنوعی است که به طور اختصاصی برای مدل‌های زبان‌ بزرگ و حجم کاری مدل‌های چندوجهی بهینه شده است.

هر کارت AI200 از 768 گیگابایت حافظه LPDDR پشتیبانی می‌کند که امکان مقیاس‌پذیری و انعطاف‌پذیری بالا را برای مدیریت تقاضاهای عظیم استنتاج هوش مصنوعی فراهم می‌کند.

«کوالکام» با ارائه هزینه کلی پایین‌تر قصد دارد استقرار مدل‌های هوش مصنوعی مولد را برای مراکز داده‌ای که به دنبال کارایی بدون افت هستند، در دسترس‌تر کند.

تراشه AI250 این جاه‌طلبی را فراتر می‌برد. این محصول با یک معماری محاسباتی نزدیک به حافظه جدید عرضه می‌شود که به گفته «کوالکام»، بیش از 10 برابر پهنای باند حافظه مؤثر بیشتر و مصرف برق به شدت کاهش‌یافته را ارائه می‌دهد.

این نوآوری امکان استنتاج هوش مصنوعی تفکیک‌شده را فراهم می‌کند و به سخت‌افزار اجازه می‌دهد تا با کارایی بیشتری مورد استفاده قرار گیرد و در عین حال الزامات عملکرد و هزینه مورد نیاز را برآورده کند.

هر دو راهکار با خنک‌کننده مایع مستقیم برای راندمان حرارتی طراحی شده‌اند و از PCIe برای افزایش مقیاس و اترنت برای افزایش مقیاس بهره می‌برند.

این کارت‌ها با مصرف برق ۱۶۰ کیلووات در سطح رَک، نشان‌دهنده‌ قصد «کوالکام» برای ارائه عملکرد در سطح فوق مقیاس‌پذیر با تمرکز بر پایداری و بهینه‌سازی عملیاتی هستند.

ساخته شده برای ادغام یکپارچه

دورگا مالادی(Durga Malladi)، معاون ارشد و مدیر کل برنامه‌ریزی فناوری، راهکارها و مرکز داده «کوالکام» می‌گوید: ما با AI200 و AI250 در حال تعریف مجدد آنچه برای استنتاج هوش مصنوعی در سطح رَک ممکن است، هستیم. این راهکارهای نوآورانه و جدید زیرساخت هوش مصنوعی، مشتریان را قادر می‌کند تا هوش مصنوعی مولد را با هزینه مالکیت(TCO) بی‌سابقه‌ای مستقر کنند، در حالی که انعطاف‌پذیری و امنیت مورد نیاز مراکز داده مدرن را حفظ می‌کنند.

وی افزود که پشته نرم‌افزاری غنی «کوالکام» و پشتیبانی از اکوسیستم باز، ادغام، مدیریت و مقیاس‌بندی مدل‌های هوش مصنوعی از قبل آموزش‌دیده را برای توسعه‌دهندگان و شرکت‌ها آسان‌تر می‌کند.

این پلتفرم از چارچوب‌های پیشروی هوش مصنوعی و استقرار مدل با یک کلیک پشتیبانی می‌کند و «پذیرش بدون اصطکاک و نوآوری سریع» را امکان‌پذیر می‌سازد.

پشته هوش مصنوعی سراسری

پشته نرم‌افزار هوش مصنوعی در سطح فوق مقیاس‌پذیر این شرکت، سخت‌افزار را پشتیبانی می‌کند و پشتیبانی سرتاسری را از لایه‌های نرم‌افزاری برنامه تا سیستم ارائه می‌دهد.

این سیستم برای استنتاج در چارچوب‌های اصلی یادگیری ماشین، پلتفرم‌های هوش مصنوعی مولد و موتورهای استنتاج بهینه شده است.

توسعه‌دهندگان می‌توانند این مدل‌ها را از طریق «کتابخانه مبدل‌های کارآمد کوالکام» و مجموعه استنتاج هوش مصنوعی، به طور یکپارچه روی سیستم خود نصب کنند؛ ابزارهایی که برای عملیاتی کردن هوش مصنوعی از طریق برنامه‌های آماده، عامل‌ها و APIها طراحی شده‌اند.

«کوالکام» انتظار دارد AI200 در سال 2026 و پس از آن AI250 در سال 2027 به صورت تجاری در دسترس قرار گیرد. این شرکت اعلام کرد که قصد دارد روند سالانه به‌روزرسانی محصولات مرکز داده را با تمرکز بر عملکرد، بهره‌وری انرژی و نوآوری مداوم در استنتاج هوش مصنوعی حفظ کند.

این عرضه، «کوالکام» را مستقیماً در رقابت سخت‌افزارهای هوش مصنوعی که به سرعت در حال تکامل هستند، قرار می‌دهد و نشان می‌دهد که این شرکت قصد دارد به عنوان یک نیروی پیشرو در دوران زیرساخت‌های هوش مصنوعی مولد باشد.

انتهای پیام

source

توسط ecokhabari.ir