متن خبر

گوگل با نمایش Trillium، تراشه هوش مصنوعی رقیب خود، انویدیا را در حالت آماده‌باش قرار می‌دهد، در حالی که قول می‌دهد پردازنده‌های گرافیکی H200 Tensor Core را ظرف چند روز آینده ارائه کند.

گوگل با نمایش Trillium، تراشه هوش مصنوعی رقیب خود، انویدیا را در حالت آماده‌باش قرار می‌دهد، در حالی که قول می‌دهد پردازنده‌های گرافیکی H200 Tensor Core را ظرف چند روز آینده ارائه کند.

شناسهٔ خبر: 811417 -




تریلیوم TPU
(اعتبار تصویر: گوگل)

Trillium 4 برابر تقویت تمرین، 3 برابر بهبود استنتاج نسبت به TPU v5e ارائه می دهد

افزایش پهنای باند HBM و ICI برای پشتیبانی از LLM

مقیاس تا 256 تراشه در هر غلاف، ایده آل برای کارهای گسترده هوش مصنوعی


Google Cloud جدیدترین TPU خود، Trillium، مدل نسل ششم را در مجموعه تراشه‌های AI سفارشی خود، که برای تقویت حجم‌های کاری پیشرفته هوش مصنوعی طراحی شده است، معرفی کرده است.

اولین بار در می 2024 معرفی شد، Trillium برای مدیریت آموزش، تنظیم و استنتاج در مقیاس بزرگ با عملکرد بهبود یافته و کارایی هزینه مهندسی شده است.

این نسخه بخشی از زیرساخت ابررایانه هوش مصنوعی Google Cloud را تشکیل می‌دهد که TPU، GPU و CPU را در کنار نرم‌افزار باز ادغام می‌کند تا نیازهای روزافزون هوش مصنوعی مولد را برآورده کند.

ماشین های مجازی A3 Ultra به زودی وارد می شوند

Trillium نسبت به نسخه قبلی خود، TPU v5e، با بیش از 4 برابر افزایش در عملکرد تمرینی و تا 3 برابر افزایش در توان استنتاج، نوید بهبودهای قابل توجهی را می دهد. Trillium دو برابر ظرفیت HBM و دوبرابر پهنای باند Interchip Interconnect (ICI) را ارائه می دهد، که آن را به ویژه برای مدل های زبان بزرگ مانند Gemma 2 و Llama و همچنین برنامه های استنتاج سنگین محاسباتی، از جمله مدل های انتشار مانند Stable Diffusion XL مناسب می کند.

گوگل مایل است بر تمرکز Trillium بر بهره وری انرژی نیز تاکید کند، با ادعای افزایش 67 درصدی نسبت به نسل های قبلی.

گوگل او میگوید TPU جدیدش عملکرد قابل‌توجهی در تست‌های بنچمارک بهبود یافته نشان داده است و سرعت آموزش را برای مدل‌هایی مانند Gemma 2-27b و Llama2-70B 4 برابر افزایش می‌دهد. برای کارهای استنتاج، Trillium 3 برابر بیشتر از TPU v5e به دست آورد، به ویژه در مدل هایی که نیاز به منابع محاسباتی گسترده دارند.

به گفته گوگل، مقیاس بندی یکی دیگر از نقاط قوت Trillium است. TPU می تواند تا 256 تراشه را در یک غلاف با پهنای باند بالا متصل کند، قابل ارتقا به هزاران تراشه در شبکه مرکز داده مشتری گوگل، و مقیاس تقریباً خطی را برای وظایف آموزشی گسترده هوش مصنوعی ارائه می دهد. با نرم افزار Multislice، Trillium عملکرد ثابتی را در صدها غلاف حفظ می کند.

همزمان با ورود Trillium، گوگل همچنین از ماشین های مجازی A3 Ultra VM با پردازنده های گرافیکی Nvidia H200 Tensor Core خبر داد. برای پیش نمایش در این ماه برنامه ریزی شده است، آنها به مشتریان Google Cloud یک گزینه GPU با عملکرد بالا در زیرساخت هوش مصنوعی این غول فناوری ارائه می دهند.

Trillium TPU، ساخته شده برای تقویت آینده هوش مصنوعی - YouTube Trillium TPU، ساخته شده برای تقویت آینده هوش مصنوعی - YouTube
تماشا کنید

شما هم ممکن است دوست داشته باشید

وین ویلیامز یک فریلنسر است که اخبار را برای TechRadar Pro می نویسد. او 30 سال است که درباره کامپیوتر، فناوری و وب می نویسد. در آن زمان او برای اکثر مجلات PC در بریتانیا می نوشت و تعدادی از آنها را نیز راه اندازی، ویرایش و منتشر کرد.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است