MIT یک روش بزرگ الهام گرفته از مدل زبانی را برای آموزش مهارت های جدید به روبات ها معرفی کرد
MIT این هفته مدل جدیدی را برای آموزش روبات ها به نمایش گذاشت. این روش به جای مجموعه استاندارد دادههای متمرکزی که برای آموزش وظایف جدید به روباتها استفاده میشود، بسیار بزرگ است و از حجم عظیمی از اطلاعات مورد استفاده برای آموزش مدلهای زبان بزرگ (LLM) تقلید میکند.
محققان خاطرنشان می کنند که یادگیری تقلیدی – که در آن عامل با پیروی از فردی که یک کار را انجام می دهد، یاد می گیرد – زمانی که چالش های کوچک مطرح می شود، می تواند شکست بخورد. اینها می توانند چیزهایی مانند نورپردازی، یک محیط متفاوت یا موانع جدید باشند. در این سناریوها، رباتها به سادگی دادههای کافی برای تطبیق با آنها را ندارند.
این تیم به مدل هایی مانند GPT-4 برای نوعی رویکرد داده نیروی بی رحم برای حل مسئله نگاه کرد.
لیروی وانگ، نویسنده اصلی مقاله جدید او میگوید : «در حوزه زبان، دادهها فقط جملات هستند. در رباتیک، با توجه به همه ناهمگونیها در دادهها، اگر میخواهید به روشی مشابه پیشآموزش کنید، به معماری متفاوتی نیاز داریم.»
این تیم معماری جدیدی به نام ترانسفورماتورهای پیشآموزش ناهمگن (HPT) معرفی کرد که اطلاعات را از حسگرهای مختلف و محیطهای مختلف جمعآوری میکند. سپس از یک ترانسفورماتور برای جمع آوری داده ها در مدل های آموزشی استفاده شد. هرچه ترانسفورماتور بزرگتر باشد، خروجی بهتری دارد.
سپس کاربران طراحی ربات، پیکربندی و کاری که می خواهند انجام شود را وارد می کنند.
بیشتر بخوانید
نظر شما درباره این عکس چیست/ کدام سریال زنده یاد فردوس کاویانی تاثیرگذار بود
دیوید هلد، دانشیار CMU درباره این تحقیق گفت: «رویای ما داشتن یک مغز روبات جهانی است که بتوانید آن را دانلود کنید و برای ربات خود بدون هیچ آموزشی از آن استفاده کنید. "در حالی که ما در مراحل اولیه هستیم، به سختی ادامه می دهیم و امیدواریم که مقیاس بندی منجر به پیشرفتی در سیاست های روباتیک شود، مانند مدل های زبان بزرگ."
این تحقیق تا حدی توسط موسسه تحقیقاتی تویوتا پایه گذاری شده است. سال گذشته در TechCrunch Disrupt، TRI روشی را برای آموزش یک شبه روباتها معرفی کرد. اخیراً، شراکتی را ایجاد کرده است که تحقیقات یادگیری ربات خود را با سخت افزار Boston Dynamics متحد می کند.
ارسال نظر