
گوگل ابررایانه ابری جدید A3 خود را معرفی کرد که اکنون به صورت پیش نمایش خصوصی در دسترس است.
نیروگاه جدید را میتوان برای آموزش مدلهای یادگیری ماشین (ML) مورد استفاده قرار داد، و به تلاشهای اخیر غول فناوری برای ارائه زیرساختهای ابری برای اهداف هوش مصنوعی، مانند G2 جدید (در برگه جدید باز میشود) و اولین ماشین مجازی ابری (VM) برای ارائه ادامه میدهد. از پردازنده گرافیکی جدید NVIDIA L4 Tensor Core استفاده کنید.
این شرکت در یک پست وبلاگی (در برگه جدید باز میشود) بیان کرد : «ابر رایانههای Google Compute Engine A3 برای آموزش و خدمترسانی به سختترین مدلهای هوش مصنوعی که به هوش مصنوعی مولد و نوآوری مدلهای زبانی امروزی کمک میکنند، ساخته شدهاند».
A2 در مقابل A3
A3 از پردازنده گرافیکی Nvidia H100 استفاده می کند که جانشین A100 محبوب است که برای تامین انرژی A2 قبلی استفاده می شد. همچنین برای تقویت ChatGPT، نویسنده هوش مصنوعی که مسابقه هوش مصنوعی مولد را در نوامبر سال گذشته راه اندازی کرد، استفاده می شود.
A3 همچنین اولین ماشین مجازی است که در آن پردازندههای گرافیکی از VPUهای سفارشی ۲۰۰ گیگابیت بر ثانیه گوگل استفاده میکنند که پهنای باند شبکه را ده برابر ماشینهای مجازی A2 قبلی میدهد.
A3 همچنین از مرکز داده ژوپیتر گوگل استفاده خواهد کرد که میتواند به دهها هزار پردازنده گرافیکی متصل به هم متصل شود و «پیوندهای نوری قابل تنظیم مجدد با پهنای باند کامل را که میتوانند توپولوژی را در صورت نیاز تنظیم کنند، امکان پذیر میسازد».
گوگل همچنین ادعا میکند که «پهنای باند بار کاری... از پارچههای شبکه غیرمسدودکننده گرانتر غیرقابل تشخیص است که در نتیجه TCO پایینتری دارد». A3 همچنین "تا ۲۶ exaFlops عملکرد هوش مصنوعی را ارائه می دهد که به طور قابل توجهی زمان و هزینه آموزش مدل های بزرگ ML را بهبود می بخشد."
وقتی صحبت از بارهای کاری استنتاج می شود، که کار واقعی هوش مصنوعی مولد است، گوگل دوباره ادعای جسورانه دیگری را مطرح می کند مبنی بر اینکه A3 نسبت به A2 عملکرد استنتاج ۳۰ برابری را افزایش می دهد.
علاوه بر هشت H100 با پهنای باند دوبخشی ۳.۶ ترابایت بر ثانیه، از دیگر مشخصات برجسته A3 میتوان به نسل چهارم پردازندههای نسل چهارم اینتل Xeon Scalable و ۲ ترابایت حافظه میزبان از طریق DIMMهای DDR5 4800 مگاهرتز اشاره کرد.
ایان باک، نایب رئیس بخش هایپرمقیاس و محاسبات با کارایی بالا در انویدیا، گفت: «ماشینهای مجازی A3 Google Cloud، که توسط پردازندههای گرافیکی NVIDIA H100 نسل بعدی پشتیبانی میشوند، آموزش و ارائه برنامههای کاربردی هوش مصنوعی را تسریع میکنند.
در یک اعلامیه تکمیلی در Google I/O 2023 (در برگه جدید باز می شود) ، این شرکت همچنین بیان کرد که پشتیبانی از هوش مصنوعی مولد در Vertex AI در حال حاضر برای مشتریان بیشتری در دسترس خواهد بود، که امکان ساخت مدل های ML را در زیرساخت های کاملاً مدیریت شده فراهم می کند. از نیاز به نگهداری چشم پوشی می کند.
مشتریان همچنین میتوانند A3 را در موتور Google Kubernetes (GKE) و Compute Engine استقرار دهند، به این معنی که میتوانند از پشتیبانی در مقیاس خودکار و هماهنگسازی حجم کار و همچنین حق ارتقای خودکار برخوردار شوند.
به نظر می رسد که گوگل در مورد هوش مصنوعی، به جای اینکه هوش مصنوعی را برای هر کسی که بتواند با آن بازی کند، راه اندازی کند، رویکرد B2B را در پیش گرفته است، شاید با راه اندازی نامطلوب رقیب ChatGPT خود، Google Bard، سوخته باشد. با این حال، آن را نیز در Google I/O معرفی کرد که جانشین آن است و ظاهراً قدرتمندتر از سایر LLM ها است، پس ما باید این فضا را تماشا کنیم.