متن خبر

استارت آپ فرانسوی FlexAI با 30 میلیون دلار از مخفی کاری خارج می شود تا دسترسی به محاسبات هوش مصنوعی را آسان کند

استارت آپ فرانسوی FlexAI با 30 میلیون دلار از مخفی کاری خارج می شود تا دسترسی به محاسبات هوش مصنوعی را آسان کند

شناسهٔ خبر: 466589 -




یک استارت‌آپ فرانسوی سرمایه‌گذاری هنگفتی را برای «معماری مجدد زیرساخت‌های محاسباتی» برای توسعه‌دهندگانی که می‌خواهند اپلیکیشن‌های هوش مصنوعی را کارآمدتر بسازند و آموزش دهند، جمع‌آوری کرده است.

FlexAI، همانطور که این شرکت نامیده می شود، از اکتبر 2023 به صورت مخفیانه فعالیت می کند، اما این شرکت مستقر در پاریس به طور رسمی روز چهارشنبه را با 28.5 میلیون یورو (30 میلیون دلار) بودجه راه اندازی می کند، در حالی که اولین محصول خود را به نمایش می گذارد: یک سرویس ابری درخواستی. برای آموزش هوش مصنوعی

این یک تغییر بزرگ برای یک دور دانه است، که معمولاً به معنای شجره بنیانگذار قابل توجه است - و در اینجا چنین است. بنیانگذار و مدیر عامل FlexAI، Brijesh Tripathi، قبلاً یک مهندس طراحی ارشد در غول GPU و در حال حاضر AI عزیز Nvidia بود، قبل از اینکه در نقش های مختلف مهندسی و معماری در اپل قرار گیرد. تسلا (مستقیماً زیر نظر ایلان ماسک کار می کند)؛ Zoox (قبل از اینکه آمازون استارت‌آپ رانندگی مستقل را بدست آورد)؛ و اخیراً Tripathi معاون بخش هوش مصنوعی اینتل و پلت فرم ابر محاسباتی AXG بود.

دالی کیلانی، یکی از بنیانگذاران و مدیر ارشد فناوری FlexAI نیز دارای رزومه چشمگیری است و در نقش‌های فنی مختلف در شرکت‌هایی از جمله Nvidia و Zynga خدمت می‌کند، در حالی که اخیراً نقش CTO را در استارت‌آپ فرانسوی Lifen، که زیرساخت‌های دیجیتالی را برای صنعت مراقبت‌های بهداشتی توسعه می‌دهد، پر کرده است.

دور اولیه توسط Alpha Intelligence Capital (AIC)، Elaia Partners و Heartcore Capital، با مشارکت Frst Capital، Motier Ventures، Partech و مدیرعامل InstaDeep، کریم بگویر، رهبری شد.

تیم FlexAI در پاریس

تیم FlexAI در پاریس اعتبار تصویر : FlexAI

معمای محاسباتی

برای درک آنچه که Tripathi و Kilani با FlexAI تلاش می کنند، ابتدا ارزش این را دارد که توسعه دهندگان و متخصصان هوش مصنوعی از نظر دسترسی به "محاسبات" با چه چیزی روبرو هستند. این به قدرت پردازش، زیرساخت و منابع مورد نیاز برای انجام وظایف محاسباتی مانند پردازش داده‌ها، اجرای الگوریتم‌ها و اجرای مدل‌های یادگیری ماشین اشاره دارد.

استفاده از هر زیرساخت در فضای هوش مصنوعی پیچیده است. تریپاتی به TechCrunch گفت: این برای افراد ضعیف و کم تجربه نیست. قبل از اینکه بتوانید از زیرساخت‌ها استفاده کنید، باید اطلاعات زیادی در مورد نحوه ساخت زیرساخت بدانید.

در مقابل، اکوسیستم ابر عمومی که در چند دهه گذشته تکامل یافته است، به عنوان نمونه ای خوب از چگونگی ظهور یک صنعت از نیاز توسعه دهندگان به ساخت برنامه های کاربردی بدون نگرانی بیش از حد در مورد قسمت های پشتی، عمل می کند.

اگر یک توسعه‌دهنده کوچک هستید و می‌خواهید برنامه‌ای بنویسید، نیازی ندارید که بدانید کجا اجرا می‌شود، یا قسمت پشتی آن چیست - فقط باید یک نمونه EC2 (Amazon Elastic Compute Cloud) را بچرخانید و شما تریپاتی گفت: «تمام شد. "امروز نمی توانید این کار را با محاسبات هوش مصنوعی انجام دهید."

در حوزه هوش مصنوعی، توسعه‌دهندگان باید بفهمند که به چه تعداد GPU (واحد پردازش گرافیکی) نیاز دارند تا از طریق چه نوع شبکه‌ای که از طریق یک اکوسیستم نرم‌افزاری مدیریت می‌شود که کاملاً مسئول راه‌اندازی آن هستند، به یکدیگر متصل شوند. اگر یک GPU یا شبکه از کار بیفتد، یا اگر چیزی در آن زنجیره خراب شود، وظیفه مرتب سازی آن بر عهده توسعه دهنده است.

تریپاتی گفت: «ما می‌خواهیم زیرساخت‌های محاسباتی هوش مصنوعی را به همان سطحی از سادگی برسانیم که ابر هدف عمومی به آن رسیده است - پس از 20 سال، بله، اما دلیلی وجود ندارد که محاسبات هوش مصنوعی نتواند مزایای مشابهی را ببیند. ما می‌خواهیم به نقطه‌ای برسیم که اجرای بارهای کاری هوش مصنوعی نیازی به متخصص شدن در مرکز داده نداشته باشد.»

از آنجایی که نسخه فعلی محصول خود با تعداد انگشت شماری از مشتریان بتا سرعت خود را طی می کند، FlexAI اولین محصول تجاری خود را اواخر امسال عرضه خواهد کرد. این اساساً یک سرویس ابری است که توسعه‌دهندگان را به «محاسبات ناهمگن مجازی» متصل می‌کند، به این معنی که آن‌ها می‌توانند بار کاری خود را اجرا کنند و مدل‌های هوش مصنوعی را در چندین معماری مستقر کنند، به جای اینکه پردازنده‌های گرافیکی را بر اساس دلار در ساعت اجاره کنند.

پردازنده‌های گرافیکی، چرخ‌دنده‌های حیاتی در توسعه هوش مصنوعی هستند که برای مثال برای آموزش و اجرای مدل‌های زبان بزرگ (LLM) خدمت می‌کنند. انویدیا یکی از بازیگران برجسته در فضای پردازنده گرافیکی و یکی از ذینفعان اصلی انقلاب هوش مصنوعی است که توسط OpenAI و ChatGPT آغاز شد. در 12 ماه از زمانی که OpenAI یک API برای ChatGPT در مارس 2023 راه اندازی کرد و به توسعه دهندگان اجازه داد تا عملکرد ChatGPT را در برنامه های خود قرار دهند، سهام انویدیا از حدود 500 میلیارد دلار به بیش از 2 تریلیون دلار افزایش یافت.

در حال حاضر LLM ها از صنعت فناوری خارج می شوند و تقاضا برای GPU ها به طور همزمان افزایش می یابد. اما GPU ها برای اجرا گران هستند و اجاره آنها برای مشاغل کوچکتر یا موارد استفاده موقت همیشه منطقی نیست و می تواند بسیار گران باشد. به همین دلیل است که AWS با اجاره‌های محدود زمانی برای پروژه‌های کوچک‌تر هوش مصنوعی سرگرم شده است. اما اجاره همچنان اجاره است، به همین دلیل است که FlexAI می‌خواهد پیچیدگی‌های اساسی را از بین ببرد و به مشتریان اجازه دهد به محاسبات هوش مصنوعی بر اساس نیاز خود دسترسی داشته باشند.

«چند ابری برای هوش مصنوعی»

نقطه شروع FlexAI این است که اکثر توسعه دهندگان واقعاً برای بیشتر بخش هایی که از پردازنده گرافیکی یا چیپ استفاده می کنند، چه Nvidia، AMD، Intel، Graphcore یا Cerebras، اهمیتی نمی دهند. نگرانی اصلی آنها این است که بتوانند هوش مصنوعی خود را توسعه دهند و برنامه های کاربردی را در چارچوب محدودیت های بودجه خود بسازند.

اینجاست که مفهوم «محاسبات هوش مصنوعی جهانی» FlexAI مطرح می‌شود، جایی که FlexAI نیازمندی‌های کاربر را می‌گیرد و آن را به هر معماری که برای آن شغل خاص منطقی است اختصاص می‌دهد، و مراقبت از تمام تبدیل‌های لازم در پلتفرم‌های مختلف، خواه Gaudi اینتل باشد. زیرساخت، Rocm AMD یا CUDA انویدیا.

تریپاتی گفت: «این بدان معناست که توسعه‌دهنده تنها بر ساخت، آموزش و استفاده از مدل‌ها متمرکز است. "ما از همه چیز زیر مراقبت می کنیم. خرابی‌ها، بازیابی، قابلیت اطمینان، همه توسط ما مدیریت می‌شوند و شما برای آنچه استفاده می‌کنید هزینه می‌پردازید.»

از بسیاری جهات، FlexAI قصد دارد آنچه را که قبلاً در فضای ابری اتفاق افتاده است، برای هوش مصنوعی ردیابی کند، که به معنای چیزی بیش از تکرار مدل پرداخت به ازای استفاده است: به معنای توانایی «چند ابری» با تکیه بر موارد مختلف است. مزایای زیرساخت های مختلف GPU و تراشه

FlexAI حجم کاری خاص مشتری را بسته به اولویت های آنها هدایت می کند. اگر شرکتی بودجه محدودی برای آموزش و تنظیم دقیق مدل‌های هوش مصنوعی خود داشته باشد، می‌تواند آن را در پلتفرم FlexAI تنظیم کند تا حداکثر مقدار بنگ محاسباتی را برای دلار خود دریافت کند. این ممکن است به معنای استفاده از اینتل برای محاسبات ارزان‌تر (اما کندتر) باشد، اما اگر یک توسعه‌دهنده اجرای کوچکی داشته باشد که به سریع‌ترین خروجی ممکن نیاز دارد، در عوض می‌توان آن را از طریق Nvidia کانال‌گذاری کرد.

FlexAI اساساً یک «تجمع کننده تقاضا» است که خود سخت‌افزار را از طریق روش‌های سنتی اجاره می‌کند و با استفاده از «ارتباطات قوی» خود با افراد در اینتل و AMD، قیمت‌های ترجیحی را تضمین می‌کند که در سراسر پایگاه مشتریان خود پخش می‌کند. این لزوماً به معنای کنار گذاشتن انویدیا نیست، اما احتمالاً به این معنی است که تا حد زیادی - با اینتل و AMD که برای ضایعات پردازنده‌های گرافیکی پس از Nvidia می‌جنگند - انگیزه زیادی برای آن‌ها وجود دارد که با جمع‌آوری‌هایی مانند توپ بازی کنند. به عنوان FlexAI.

تریپاتی گفت: "اگر بتوانم آن را برای مشتریان کارساز کنم و ده ها تا صدها مشتری را به زیرساخت های آنها بیاورم، آنها [اینتل و AMD] بسیار خوشحال خواهند شد."

این در تضاد با پخش‌کننده‌های ابری GPU مشابه در فضا است، مانند CoreWeave و Lambda Labs که بودجه خوبی دارند، که کاملاً بر روی سخت‌افزار Nvidia متمرکز شده‌اند.

تریپاتی بيان کرد : «من می‌خواهم محاسبات هوش مصنوعی را به نقطه‌ای برسانم که محاسبات ابری با هدف عمومی فعلی باشد. «شما نمی توانید چند ابری را روی هوش مصنوعی انجام دهید. شما باید سخت افزار خاص، تعداد پردازنده گرافیکی، زیرساخت، اتصال را انتخاب کنید و سپس خودتان آن را نگهداری کنید. امروز، این تنها راه برای دستیابی به محاسبات هوش مصنوعی است. »

وقتی از تریپاتی پرسیده شد که شرکای دقیق پرتاب چه کسانی هستند، بيان کرد که به دلیل عدم وجود "تعهدات رسمی" از سوی برخی از آنها، نتوانست نام همه آنها را ذکر کند.

او گفت: "اینتل یک شریک قوی است، آنها قطعا زیرساخت ها را فراهم می کنند، و AMD شریکی است که زیرساخت ها را فراهم می کند." اما لایه دومی از مشارکت‌ها با انویدیا و چند شرکت سیلیکونی دیگر در حال انجام است که ما هنوز آماده به اشتراک گذاشتن آن نیستیم، اما همه آنها در ترکیب قرار دارند و یادداشت‌های تفاهم در حال امضا شدن هستند. ”

اثر الون

Tripathi برای مقابله با چالش های پیش رو بیش از حد مجهز است، زیرا در برخی از بزرگترین شرکت های فناوری جهان کار کرده است.

من به اندازه کافی در مورد GPU ها می دانم. تریپاتی درباره فعالیت هفت ساله خود در انویدیا بيان کرد که در سال 2007 زمانی که اپل در حال عرضه اولین آیفون بود، برای اپل پرش کرد. در اپل، من روی حل مشکلات واقعی مشتریان متمرکز شدم. زمانی که اپل شروع به ساخت اولین SoC [سیستم روی تراشه‌ها] برای گوشی‌ها کرد، من آنجا بودم.

تریپاتی همچنین از سال 2016 تا 2018 دو سال را در تسلا به عنوان سرپرست مهندسی سخت‌افزار سپری کرد، جایی که پس از ترک ناگهانی دو نفر از افراد بالاتر از او، در شش ماه آخر خود مستقیماً زیر نظر ایلان ماسک کار کرد.

او گفت: «در تسلا، چیزی که من یاد گرفتم و در استارتاپم وارد می‌شوم این است که هیچ محدودیتی جز علم و فیزیک وجود ندارد. «اینکه کارها امروز چگونه انجام می شود، آنگونه که باید باشد یا باید انجام شود، نیست. شما باید به دنبال آنچه که درست از اصول اولیه است، بروید و برای انجام آن، هر جعبه سیاه را بردارید.»

تریپاتی در انتقال تسلا به ساخت تراشه های خود شرکت داشت، حرکتی که از آن زمان توسط جنرال موتورز و هیوندای و سایر خودروسازان تقلید شده است.

یکی از اولین کارهایی که در تسلا انجام دادم این بود که بفهمم چند میکروکنترلر در یک ماشین وجود دارد، و برای انجام این کار، به معنای واقعی کلمه مجبور شدیم دسته‌ای از آن جعبه‌های سیاه بزرگ را با محافظ فلزی و محفظه دور آن مرتب کنیم. تریپاتی گفت: این میکروکنترلرهای بسیار کوچک را در آنجا پیدا کنید. و ما آن را روی یک میز گذاشتیم، آن را گذاشتیم و گفتیم: «ایلان، 50 میکروکنترلر در یک ماشین وجود دارد. و ما گاهی اوقات 1000 برابر حاشیه برای آنها می پردازیم زیرا آنها در یک محفظه فلزی بزرگ محافظت می شوند. و او می گوید، "بیا برویم خودمان را بسازیم." و ما این کار را کردیم.»

پردازنده های گرافیکی به عنوان وثیقه

با نگاهی بیشتر به آینده، FlexAI آرزو دارد زیرساخت های خود را نیز ایجاد کند، از جمله مراکز داده. به گفته تریپاتی، این بودجه از طریق تامین مالی بدهی تامین می‌شود و بر اساس روند اخیری است که رقبای این فضا از جمله CoreWeave و Lambda Labs از تراشه‌های Nvidia به عنوان وثیقه برای تضمین وام‌ها استفاده می‌کنند - به جای دادن سهام بیشتر.

Tripathi گفت: «بانک‌داران اکنون می‌دانند که چگونه از GPUها به عنوان وثیقه استفاده کنند. «چرا سهام را واگذار کنیم؟ تا زمانی که ما به یک ارائه‌دهنده محاسباتی واقعی تبدیل نشده‌ایم، ارزش شرکت ما برای دریافت صدها میلیون دلار مورد نیاز برای سرمایه‌گذاری در ساخت مراکز داده کافی نیست. اگر ما فقط سهام عدالت را انجام دهیم، وقتی پول از بین برود ناپدید می شویم. اما اگر ما واقعاً آن را به عنوان وثیقه روی پردازنده‌های گرافیکی بانکی کنیم، می‌توانند پردازنده‌های گرافیکی را برداشته و در مرکز داده دیگری قرار دهند.»

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است