شتاب دهنده های هوش مصنوعی جدید کوالکام به گزارش عصر لینک، تراشه های هوش مصنوعی جدید «AI200» و «AI250» شرکت کوالکام(Qualcomm)، پهنای باند 10 برابری، حافظه 768 گیگابایتی، استنتاج هوش مصنوعی مولد سریع تر، اقتصادی تر و با کارآمدی پیشرفته را برای مراکز داده نوید می دهند. به گزارش عصر لینک به نقل از ایسنا، در اقدامی که می تواند آینده عملکرد هوش مصنوعی مراکز داده را تغییر دهد، شرکت «کوالکام» از راهکارهای نسل جدید خود برای بهینه سازی استنتاج رونمایی کرده است که کارتها و رَک های شتاب دهنده AI200 و AI250 نام دارند. به نقل از آی ای، این سیستم ها جهشی قابل توجه در تلاش «کوالکام» برای عرضه هوش مصنوعی مولد مقیاس پذیر، کم مصرف و با کارآمدی بالا به شرکت های جهانی هستند. این مجموعه جدید که بر پایه رهبری فناوری واحد پردازش عصبی(NPU) «کوالکام» تولید شده است، نوید عملکرد در مقیاس رَک با ظرفیت حافظه برتر را می دهد. «کوالکام» می گوید هدفش واضح است؛ عرضه استنتاج هوش مصنوعی مولد سریع و اقتصادی در عین به حداکثر رساندن عملکرد به ازای هر دلار در هر وات که یک معیار حیاتی در زیرساخت های هوش مصنوعی مدرن است. تقویت هوش مصنوعی مولد در مقیاس بزرگ در قلب این اعلامیه، تراشه AI200 قرار دارد که یک راه حل استنتاج هوش مصنوعی است که بطور اختصاصی برای مدلهای زبان بزرگ و حجم کاری مدلهای چندوجهی بهینه شده است. هر کارت AI200 از 768 گیگابایت حافظه LPDDR پشتیبانی می کند که امکان مقیاس پذیری و انعطاف پذیری بالا را برای مدیریت تقاضاهای عظیم استنتاج هوش مصنوعی فراهم می آورد. «کوالکام» با عرضه هزینه کلی پایین تر در نظر دارد استقرار مدلهای هوش مصنوعی مولد را برای مراکز داده ای که به دنبال کارآمدی بدون افت هستند، در دسترس تر کند. تراشه AI250 این جاه طلبی را فراتر می برد. این محصول با یک معماری محاسباتی نزدیک به حافظه جدید عرضه می شود که بگفته «کوالکام»، بالاتر از 10 برابر پهنای باند حافظه مؤثر بیشتر و مصرف برق به شدت کاسته شده را ارائه می کند. این نوآوری امکان استنتاج هوش مصنوعی تفکیک شده را فراهم می آورد و به سخت افزار اجازه می دهد با کارآمدی بیشتری مورد استفاده قرار گیرد و با این حال الزامات عملکرد و هزینه مورد نیاز را برآورده کند. هر دو راه حل با خنک کننده مایع مستقیم برای راندمان حرارتی طراحی شده اند و از PCIe برای افزایش مقیاس و اترنت برای افزایش مقیاس بهره می برند. این کارتها با مصرف برق ۱۶۰ کیلووات در سطح رَک، نشان دهنده قصد «کوالکام» برای عرضه عملکرد در سطح فوق مقیاس پذیر با محوریت پایداری و بهینه سازی عملیاتی هستند. ساخته شده برای ادغام یکپارچه دورگا مالادی(Durga Malladi)، معاون ارشد و مدیر کل برنامه ریزی فناوری، راه حل ها و دیتاسنتر «کوالکام» می گوید: ما با AI200 و AI250 درحال تعریف مجدد آن چه برای استنتاج هوش مصنوعی در سطح رَک امکان دارد، هستیم. این راهکارهای نوآورانه و جدید زیرساخت هوش مصنوعی، مشتریان را قادر می کند تا هوش مصنوعی مولد را با هزینه مالکیت(TCO) بی سابقه ای مستقر کنند، در حالیکه انعطاف پذیری و امنیت مورد نیاز مراکز داده مدرن را حفظ می کنند. وی افزود که پشته نرم افزاری غنی «کوالکام» و پشتیبانی از اکوسیستم باز، ادغام، مدیریت و مقیاس بندی مدلهای هوش مصنوعی از قبل آموزش دیده را برای توسعه دهندگان و شرکتها آسان تر می کند. این پلت فرم از چارچوب های پیشروی هوش مصنوعی و استقرار مدل با یک کلیک پشتیبانی می کند و «پذیرش بدون اصطکاک و نوآوری سریع» را امکانپذیر می سازد. پشته هوش مصنوعی سراسری پشته نرم افزار هوش مصنوعی در سطح فوق مقیاس پذیر این شرکت، سخت افزار را پشتیبانی می کند و پشتیبانی سرتاسری را از لایه های نرم افزاری برنامه تا سیستم ارائه می کند. این سیستم برای استنتاج در قالب های اصلی یادگیری ماشین، پلت فرم های هوش مصنوعی مولد و موتورهای استنتاج بهینه شده است. توسعه دهندگان می توانند این مدلها را بوسیله «کتابخانه مبدل های کارآمد کوالکام» و مجموعه استنتاج هوش مصنوعی، بطور یکپارچه روی سیستم خود نصب کنند؛ ابزارهایی که برای عملیاتی کردن هوش مصنوعی بوسیله برنامه های آماده، عامل ها و APIها طراحی شده اند. «کوالکام» انتظار دارد AI200 در سال 2026 و بعد از آن AI250 در سال 2027 بصورت تجاری در دسترس قرار گیرد. این شرکت اعلام نمود که در نظر دارد روند سالانه بروزرسانی محصولات دیتاسنتر را با محوریت عملکرد، بهره وری انرژی و نوآوری مداوم در استنتاج هوش مصنوعی حفظ کند. این عرضه، «کوالکام» را مستقیماً در رقابت سخت افزارهای هوش مصنوعی که به سرعت درحال تکامل هستند، قرار می دهد و نشان داده است که این شرکت در نظر دارد بعنوان یک نیروی پیشرو در دوران زیرساخت های هوش مصنوعی مولد باشد.به طور خلاصه، تقویت هوش مصنوعی مولد در مقیاس بزرگ در قلب این اعلامیه، تراشه AI200 قرار دارد که یک چاره استنتاج هوش مصنوعی است که به طور اختصاصی برای مدل های زبان بزرگ و حجم کاری مدل های چندوجهی بهینه شده است. هر دو چاره با خنک کننده مایع مستقیم برای راندمان حرارتی طراحی شده اند و از PCIe برای افزایش مقیاس و اترنت برای افزایش مقیاس بهره می برند. کوالکام انتظار دارد AI200 در سال 2026 و پس از آن AI250 در سال 2027 به صورت تجاری در دسترس قرار گیرد. منبع: asrelink.ir 1404/08/08 12:01:32 7 0.0 / 5 تگهای مطلب: آموزش , ابزار , اقتصاد , امنیت این پست عصر لینک را می پسندید؟ (0) (0) تازه ترین مطالب مرتبط پرونده گرانی اینترنت باز است هوش مصنوعی میان زمین دولت و آسمان مجلس اختلاف نظرها ترمز توسعه AI می شود جنجال سند تسهیم محتوا ادامه دارد رونمایی از نسخه آلفا پلتفرم ملی هوش مصنوعی تا انتهای سال امداد خودرو غرب تهران نظرات بینندگان در مورد این مطلب نظر شما در مورد این مطلب نام: ایمیل: نظر: سوال: = ۳ بعلاوه ۳