متن خبر

ارائه‌دهنده AI LLM با پشتیبانی هم‌بنیان‌گذار MLPerf روی پردازنده گرافیکی بالغ AMD Instinct MI شرط‌بندی می‌کند – اما MI300 کجاست؟

ارائه‌دهنده AI LLM با پشتیبانی هم‌بنیان‌گذار MLPerf روی پردازنده گرافیکی بالغ AMD Instinct MI شرط‌بندی می‌کند – اما MI300 کجاست؟

شناسهٔ خبر: 440550 -




با افزایش تقاضا برای مدل‌های زبان بزرگ (LLM) در سطح سازمانی در سال گذشته، Lamini درها را به روی Superstation LLM خود با پردازنده‌های گرافیکی Instinct MI AMD باز کرده است.

این شرکت ادعا می کند که در سال گذشته در شرایط تولید - حتی قبل از راه اندازی ChatGPT - LLM ها را روی بیش از ۱۰۰ GPU غریزی AMD به طور مخفیانه اجرا کرده است. با LLM Superstation، درها را به روی مشتریان بالقوه بیشتری باز می کند تا مدل های خود را روی زیرساخت خود اجرا کنند.

این پلتفرم‌ها برخلاف پردازنده‌های گرافیکی پیشرو در صنعت Nvidia H100 از شتاب‌دهنده‌های AMD Instinct MI210 و MI250 استفاده می‌کنند. Lamini به طعنه می گوید که با انتخاب پردازنده های گرافیکی AMD خود، کسب و کارها «می توانند نگران زمان ۵۲ هفته ای نباشند».

پردازنده‌های گرافیکی AMD در مقابل Nvidia برای LLM

اگرچه پردازنده‌های گرافیکی انویدیا – از جمله H100 و A100 – معمولاً برای تأمین انرژی LLM‌هایی مانند ChatGPT استفاده می‌شوند، سخت‌افزار خود AMD قابل مقایسه است.

به عنوان مثال، Instinct MI250 تا ۳۶۲ ترافلاپ قدرت محاسباتی را برای بارهای کاری هوش مصنوعی ارائه می دهد، در حالی که MI250X این قدرت را به ۳۸۳ ترافلاپ فشار می دهد. طبق گفته سایت خواهر TechRadar Pro Tom's Hardware ، در مقابل، پردازنده گرافیکی Nvidia A100، تا ۳۱۲ ترافلاپس قدرت محاسباتی ارائه می دهد.

گرگ دیاموس، مدیر ارشد فناوری Lamini، که همچنین یکی از بنیانگذاران MLPerf است، گفت: "با استفاده از نرم افزار Lamini، ROCm به برابری نرم افزاری با CUDA برای LLM دست یافته است. " تقاضا و ادغام بهینه سازی های دقیق.

ما از ظرفیت بزرگ HBM (128 گیگابایت) در MI250 برای اجرای مدل‌های بزرگ‌تر با پیچیدگی نرم‌افزاری کمتر از خوشه‌های A100 استفاده می‌کنیم.»

Superstation Lamini LLM

(اعتبار تصویر: Lamini)

پردازنده‌های گرافیکی AMD، در تئوری، مطمئناً می‌توانند با پردازنده‌های انویدیا رقابت کنند. اما نکته اصلی در دسترس بودن است، با سیستم هایی مانند Lamini's LLM Superstation که می توانند فرصتی را برای شرکت ها فراهم کنند تا فوراً بارهای کاری را انجام دهند.

با این حال، یک علامت سوال در مورد پردازنده گرافیکی خط بعدی AMD، MI300 نیز وجود دارد. کسب و کارها در حال حاضر می توانند از MI300A نمونه برداری کنند، در حالی که MI300X در ماه های آینده نمونه برداری می شود.

طبق گفته Tom's Hardware، MI300X تا ۱۹۲ گیگابایت حافظه ارائه می دهد که دو برابر H100 است، اگرچه ما هنوز به طور کامل نمی دانیم عملکرد محاسباتی چگونه به نظر می رسد. با این وجود، مطمئناً قابل مقایسه با H100 است. چیزی که LLM Superstation Lamini را تقویت می کند، ساخت و ارائه زیرساخت های آن است که توسط این پردازنده های گرافیکی نسل بعدی تغذیه می شود.

بیشتر از TechRadar Pro

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است