Inference.ai بارهای کاری هوش مصنوعی را با محاسبات پردازشگر گرافیکی ابری مطابقت می دهد
توانایی پردازندههای گرافیکی برای انجام محاسبات متعدد به صورت موازی، آنها را برای اجرای توانمندترین هوش مصنوعی امروزی مناسب میسازد. اما خرید پردازندههای گرافیکی سختتر میشود، زیرا شرکتهایی در هر اندازه سرمایهگذاری خود را در محصولات مبتنی بر هوش مصنوعی افزایش میدهند.
بهترین عملکرد کارتهای هوش مصنوعی انویدیا در سال گذشته به فروش رفت و مدیر عامل تراشهساز TSMC پیشنهاد کرد که عرضه عمومی ممکن است تا سال 2025 محدود شود. در واقع این مشکل به قدری حاد است که توجه کمیسیون تجارت فدرال ایالات متحده را به خود جلب کرده است - آژانس اخیراً اعلام کرد که تحلیل چندین مشارکت بین استارتآپهای هوش مصنوعی و غولهای ابری مانند گوگل و AWS در مورد اینکه آیا استارتآپها ممکن است دسترسی ممتاز و ضدرقابتی به محاسبات GPU داشته باشند.
راه حل چیست؟ این واقعا به منابع شما بستگی دارد. غول های فناوری مانند متا، گوگل، آمازون و مایکروسافت در حال خرید پردازنده های گرافیکی مورد نیاز خود هستند و تراشه های سفارشی خود را توسعه می دهند. جان یوئه و مایکل یو می گویند، سرمایه گذاری هایی با منابع کمتر در اختیار بازار هستند - اما لازم نیست همیشه اینطور باشد.
Yue و Yu از بنیانگذاران Inference.ai هستند، پلتفرمی که محاسبات پردازشگر گرافیکی ابری زیرساخت به عنوان سرویس را از طریق مشارکت با مراکز داده شخص ثالث فراهم می کند. Yue او میگوید استنتاج از الگوریتمهایی برای تطبیق حجم کاری شرکتها با منابع GPU استفاده میکند - با هدف حذف حدسها از انتخاب و دستیابی به زیرساخت.
Yue گفت: «استنباط با تراشههای جدید از Nvidia، Intel، AMD، Groq [و غیره]، چشمانداز سختافزاری گیجکننده را برای بنیانگذاران و توسعهدهندگان روشن میکند – که امکان خروجی بالاتر، تأخیر کمتر و هزینه کمتر را فراهم میکند. "ابزارها و تیم ما به تصمیم گیرندگان اجازه می دهد تا بسیاری از نویزها را فیلتر کنند و به سرعت مناسب پروژه خود را پیدا کنند."
استنتاج اساساً یک نمونه GPU در فضای ابری به همراه 5 ترابایت فضای ذخیره سازی شی را به مشتریان ارائه می دهد. این شرکت ادعا میکند که – به لطف فناوری تطبیق الگوریتمی خود و معاملات با اپراتورهای مرکز داده – میتواند محاسبات GPU ارزانتری را با در دسترس بودن بهتر نسبت به ارائهدهندگان بزرگ ابر عمومی ارائه دهد.
Yue گفت: "بازار GPU میزبان گیج کننده است و روزانه تغییر می کند." "به علاوه، ما شاهد تغییر قیمت تا 1000٪ برای همان پیکربندی هستیم. ابزارها و تیم ما به تصمیم گیرندگان این امکان را می دهد تا نویزهای زیادی را فیلتر کنند و به سرعت مناسب برای پروژه خود پیدا کنند.
اکنون، TechCrunch قادر به آزمایش این ادعاها نبود. اما صرف نظر از اینکه آیا آنها درست هستند، استنتاج رقابت دارد - و بسیاری از آن.
نگاه کنید به: CoreWeave، یک ارائهدهنده عملیات استخراج کریپتو که تبدیل به GPU شده است، که طبق گزارشها انتظار داریم که تا سال 2024 حدود 1.5 میلیارد دلار درآمد کسب کند. رقیب نزدیک آن، Lambda Labs، در اکتبر گذشته 300 میلیون دلار سرمایه مخاطرهآمیز به دست آورد. همچنین Together - یک ابر GPU - وجود دارد که به استارتآپهایی مانند Run.ai و Exafunction اشاره نمیکنیم که هدفشان کاهش هزینههای توسعهدهندگان هوش مصنوعی با انتزاع کردن سختافزار اصلی است.
به نظر می رسد سرمایه گذاران Inference فکر می کنند که فضایی برای بازیکن دیگری وجود دارد. این استارتآپ اخیراً یک دور 4 میلیون دلاری از Cherubic Ventures، Maple VC و Fusion Fund را بسته است، که Yue او میگوید برای ایجاد زیرساختهای استقرار Inference در نظر گرفته شده است.
در یک بیانیه ایمیلی، مت چنگ Cherubic گفت :
«نیازمندیهای ظرفیت پردازش همچنان در حال افزایش است، زیرا هوش مصنوعی پایه بسیاری از محصولات و سیستمهای امروزی است. ما مطمئن هستیم که تیم Inference با دانش گذشته خود در زمینه سخت افزار و زیرساخت ابری، آنچه را که برای موفقیت لازم است در اختیار دارد. ما تصمیم به سرمایهگذاری گرفتیم زیرا خدمات محاسباتی و ذخیرهسازی سریع انقلاب هوش مصنوعی را هدایت میکنند و محصول استنتاج موج بعدی رشد هوش مصنوعی را تقویت میکند.»
ارسال نظر