ارائهدهنده AI LLM با پشتیبانی همبنیانگذار MLPerf روی پردازنده گرافیکی بالغ AMD Instinct MI شرطبندی میکند – اما MI300 کجاست؟
با افزایش تقاضا برای مدلهای زبان بزرگ (LLM) در سطح سازمانی در سال گذشته، Lamini درها را به روی Superstation LLM خود با پردازندههای گرافیکی Instinct MI AMD باز کرده است.
این شرکت ادعا می کند که در سال گذشته در شرایط تولید - حتی قبل از راه اندازی ChatGPT - LLM ها را روی بیش از ۱۰۰ GPU غریزی AMD به طور مخفیانه اجرا کرده است. با LLM Superstation، درها را به روی مشتریان بالقوه بیشتری باز می کند تا مدل های خود را روی زیرساخت خود اجرا کنند.
این پلتفرمها برخلاف پردازندههای گرافیکی پیشرو در صنعت Nvidia H100 از شتابدهندههای AMD Instinct MI210 و MI250 استفاده میکنند. Lamini به طعنه می گوید که با انتخاب پردازنده های گرافیکی AMD خود، کسب و کارها «می توانند نگران زمان ۵۲ هفته ای نباشند».
پردازندههای گرافیکی AMD در مقابل Nvidia برای LLM
اگرچه پردازندههای گرافیکی انویدیا – از جمله H100 و A100 – معمولاً برای تأمین انرژی LLMهایی مانند ChatGPT استفاده میشوند، سختافزار خود AMD قابل مقایسه است.
به عنوان مثال، Instinct MI250 تا ۳۶۲ ترافلاپ قدرت محاسباتی را برای بارهای کاری هوش مصنوعی ارائه می دهد، در حالی که MI250X این قدرت را به ۳۸۳ ترافلاپ فشار می دهد. طبق گفته سایت خواهر TechRadar Pro Tom's Hardware ، در مقابل، پردازنده گرافیکی Nvidia A100، تا ۳۱۲ ترافلاپس قدرت محاسباتی ارائه می دهد.
گرگ دیاموس، مدیر ارشد فناوری Lamini، که همچنین یکی از بنیانگذاران MLPerf است، گفت: "با استفاده از نرم افزار Lamini، ROCm به برابری نرم افزاری با CUDA برای LLM دست یافته است. " تقاضا و ادغام بهینه سازی های دقیق.
ما از ظرفیت بزرگ HBM (128 گیگابایت) در MI250 برای اجرای مدلهای بزرگتر با پیچیدگی نرمافزاری کمتر از خوشههای A100 استفاده میکنیم.»
پردازندههای گرافیکی AMD، در تئوری، مطمئناً میتوانند با پردازندههای انویدیا رقابت کنند. اما نکته اصلی در دسترس بودن است، با سیستم هایی مانند Lamini's LLM Superstation که می توانند فرصتی را برای شرکت ها فراهم کنند تا فوراً بارهای کاری را انجام دهند.
با این حال، یک علامت سوال در مورد پردازنده گرافیکی خط بعدی AMD، MI300 نیز وجود دارد. کسب و کارها در حال حاضر می توانند از MI300A نمونه برداری کنند، در حالی که MI300X در ماه های آینده نمونه برداری می شود.
طبق گفته Tom's Hardware، MI300X تا ۱۹۲ گیگابایت حافظه ارائه می دهد که دو برابر H100 است، اگرچه ما هنوز به طور کامل نمی دانیم عملکرد محاسباتی چگونه به نظر می رسد. با این وجود، مطمئناً قابل مقایسه با H100 است. چیزی که LLM Superstation Lamini را تقویت می کند، ساخت و ارائه زیرساخت های آن است که توسط این پردازنده های گرافیکی نسل بعدی تغذیه می شود.
ارسال نظر