متن خبر

Inference.ai بارهای کاری هوش مصنوعی را با محاسبات پردازشگر گرافیکی ابری مطابقت می دهد

Inference.ai بارهای کاری هوش مصنوعی را با محاسبات پردازشگر گرافیکی ابری مطابقت می دهد

شناسهٔ خبر: 446757 -




توانایی پردازنده‌های گرافیکی برای انجام محاسبات متعدد به صورت موازی، آن‌ها را برای اجرای توانمندترین هوش مصنوعی امروزی مناسب می‌سازد. اما خرید پردازنده‌های گرافیکی سخت‌تر می‌شود، زیرا شرکت‌هایی در هر اندازه سرمایه‌گذاری خود را در محصولات مبتنی بر هوش مصنوعی افزایش می‌دهند.

بهترین عملکرد کارت‌های هوش مصنوعی انویدیا در سال گذشته به فروش رفت و مدیر عامل تراشه‌ساز TSMC پیشنهاد کرد که عرضه عمومی ممکن است تا سال 2025 محدود شود. در واقع این مشکل به قدری حاد است که توجه کمیسیون تجارت فدرال ایالات متحده را به خود جلب کرده است - آژانس اخیراً اعلام کرد که تحلیل چندین مشارکت بین استارت‌آپ‌های هوش مصنوعی و غول‌های ابری مانند گوگل و AWS در مورد اینکه آیا استارت‌آپ‌ها ممکن است دسترسی ممتاز و ضدرقابتی به محاسبات GPU داشته باشند.

راه حل چیست؟ این واقعا به منابع شما بستگی دارد. غول های فناوری مانند متا، گوگل، آمازون و مایکروسافت در حال خرید پردازنده های گرافیکی مورد نیاز خود هستند و تراشه های سفارشی خود را توسعه می دهند. جان یوئه و مایکل یو می گویند، سرمایه گذاری هایی با منابع کمتر در اختیار بازار هستند - اما لازم نیست همیشه اینطور باشد.

Yue و Yu از بنیانگذاران Inference.ai هستند، پلتفرمی که محاسبات پردازشگر گرافیکی ابری زیرساخت به عنوان سرویس را از طریق مشارکت با مراکز داده شخص ثالث فراهم می کند. Yue او میگوید استنتاج از الگوریتم‌هایی برای تطبیق حجم کاری شرکت‌ها با منابع GPU استفاده می‌کند - با هدف حذف حدس‌ها از انتخاب و دستیابی به زیرساخت.

Yue گفت: «استنباط با تراشه‌های جدید از Nvidia، Intel، AMD، Groq [و غیره]، چشم‌انداز سخت‌افزاری گیج‌کننده را برای بنیان‌گذاران و توسعه‌دهندگان روشن می‌کند – که امکان خروجی بالاتر، تأخیر کمتر و هزینه کمتر را فراهم می‌کند. "ابزارها و تیم ما به تصمیم گیرندگان اجازه می دهد تا بسیاری از نویزها را فیلتر کنند و به سرعت مناسب پروژه خود را پیدا کنند."

استنتاج اساساً یک نمونه GPU در فضای ابری به همراه 5 ترابایت فضای ذخیره سازی شی را به مشتریان ارائه می دهد. این شرکت ادعا می‌کند که به لطف فناوری تطبیق الگوریتمی خود و معاملات با اپراتورهای مرکز داده – می‌تواند محاسبات GPU ارزان‌تری را با در دسترس بودن بهتر نسبت به ارائه‌دهندگان بزرگ ابر عمومی ارائه دهد.

Yue گفت: "بازار GPU میزبان گیج کننده است و روزانه تغییر می کند." "به علاوه، ما شاهد تغییر قیمت تا 1000٪ برای همان پیکربندی هستیم. ابزارها و تیم ما به تصمیم گیرندگان این امکان را می دهد تا نویزهای زیادی را فیلتر کنند و به سرعت مناسب برای پروژه خود پیدا کنند.

اکنون، TechCrunch قادر به آزمایش این ادعاها نبود. اما صرف نظر از اینکه آیا آنها درست هستند، استنتاج رقابت دارد - و بسیاری از آن.

نگاه کنید به: CoreWeave، یک ارائه‌دهنده عملیات استخراج کریپتو که تبدیل به GPU شده است، که طبق گزارش‌ها انتظار داریم که تا سال 2024 حدود 1.5 میلیارد دلار درآمد کسب کند. رقیب نزدیک آن، Lambda Labs، در اکتبر گذشته 300 میلیون دلار سرمایه مخاطره‌آمیز به دست آورد. همچنین Together - یک ابر GPU - وجود دارد که به استارت‌آپ‌هایی مانند Run.ai و Exafunction اشاره نمی‌کنیم که هدفشان کاهش هزینه‌های توسعه‌دهندگان هوش مصنوعی با انتزاع کردن سخت‌افزار اصلی است.

به نظر می رسد سرمایه گذاران Inference فکر می کنند که فضایی برای بازیکن دیگری وجود دارد. این استارت‌آپ اخیراً یک دور 4 میلیون دلاری از Cherubic Ventures، Maple VC و Fusion Fund را بسته است، که Yue او میگوید برای ایجاد زیرساخت‌های استقرار Inference در نظر گرفته شده است.

در یک بیانیه ایمیلی، مت چنگ Cherubic گفت :

«نیازمندی‌های ظرفیت پردازش همچنان در حال افزایش است، زیرا هوش مصنوعی پایه بسیاری از محصولات و سیستم‌های امروزی است. ما مطمئن هستیم که تیم Inference با دانش گذشته خود در زمینه سخت افزار و زیرساخت ابری، آنچه را که برای موفقیت لازم است در اختیار دارد. ما تصمیم به سرمایه‌گذاری گرفتیم زیرا خدمات محاسباتی و ذخیره‌سازی سریع انقلاب هوش مصنوعی را هدایت می‌کنند و محصول استنتاج موج بعدی رشد هوش مصنوعی را تقویت می‌کند.»

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است