OpenAI یکی دیگر از محققین ارشد ایمنی، لیلیان ونگ را از دست داد
یکی دیگر از محققین ارشد ایمنی OpenAI، لیلیان ونگ، روز جمعه اعلام کرد که استارت آپ را ترک می کند. ونگ از ماه آگوست به عنوان معاون تحقیقات و ایمنی فعالیت می کرد و پیش از آن رئیس تیم سیستم های ایمنی OpenAI بود.
در پستی در X، ونگ بيان کرد که "پس از 7 سال در OpenAI، احساس می کنم آماده هستم تا چیز جدیدی را بازنشانی کنم و کشف کنم." ونگ بيان کرد آخرین روز او 15 نوامبر خواهد بود، اما مشخص نکرد که بعداً کجا خواهد رفت.
ونگ در این پست گفت: «تصمیم بسیار سختی را گرفتم که OpenAI را ترک کنم. با نگاهی به آنچه که به دست آوردهایم، به همه اعضای تیم Safety Systems بسیار افتخار میکنم و بسیار اطمینان دارم که تیم به پیشرفت خود ادامه خواهد داد.
خروج Weng آخرین مورد در یک رشته طولانی از محققان ایمنی هوش مصنوعی، محققان سیاستگذاری و سایر مدیرانی است که در سال گذشته از شرکت خارج شده اند و چندین نفر OpenAI را به اولویت دادن به محصولات تجاری بر ایمنی هوش مصنوعی متهم کرده اند. ونگ به Ilya Sutskever و Jan Leike - رهبران تیم Superalignment منحل شده OpenAI که سعی در توسعه روشهایی برای هدایت سیستمهای هوش مصنوعی فوقهوشمند داشتند - میپیوندد - که امسال نیز استارتآپ را ترک کردند تا در جاهای دیگر روی ایمنی هوش مصنوعی کار کنند.
ونگ برای اولین بار در سال 2018 به OpenAI پیوست، طبق گفته لینکدین خود، و روی تیم روباتیک این استارت آپ کار می کرد که در نهایت دست رباتی ساخت که می توانست مکعب روبیک را حل کند – کاری که بر اساس پست او دو سال طول کشید.
همانطور که OpenAI شروع به تمرکز بیشتر روی پارادایم GPT کرد، Weng نیز چنین کرد. این محقق برای کمک به ساخت تیم تحقیقاتی هوش مصنوعی کاربردی استارتاپ در سال 2021 تغییر مکان داد. پس از راه اندازی GPT-4، ونگ وظیفه ایجاد یک تیم اختصاصی برای ساخت سیستم های ایمنی برای این استارتاپ در سال 2023 را بر عهده گرفت. امروز، واحد سیستم های ایمنی OpenAI بیش از 80 دانشمند، محقق و متخصص سیاست، طبق پست Weng.
این بسیاری از افراد ایمنی هوش مصنوعی هستند، اما بسیاری نگرانیهایی را در مورد تمرکز OpenAI بر ایمنی ایجاد کردهاند، زیرا تلاش میکند تا سیستمهای هوش مصنوعی قدرتمندتر بسازد. مایلز بروندج، محقق قدیمی سیاستگذاری، در ماه اکتبر این استارتاپ را ترک کرد و اعلام کرد که OpenAI در حال انحلال تیم آمادگی AGI خود است که او به او توصیه کرده بود. در همان روز، نیویورک تایمز یک محقق سابق OpenAI به نام سوچیر بالاجی را معرفی کرد که بيان کرد او OpenAI را ترک کرد زیرا فکر میکرد که فناوری استارتآپ آسیب بیشتری به جامعه وارد میکند تا سود.
OpenAI به TechCrunch می گوید که مدیران اجرایی و محققان ایمنی در حال کار بر روی انتقالی برای جایگزینی Weng هستند.
سخنگوی OpenAI در بیانیه ای ایمیلی گفت: "ما عمیقا از کمک های لیلیان در تحقیقات ایمنی و ایجاد پادمان های فنی دقیق قدردانی می کنیم." ما مطمئن هستیم که تیم Safety Systems به ایفای نقش کلیدی در اطمینان از ایمن و قابل اعتماد بودن سیستمهای ما ادامه خواهد داد و به صدها میلیون نفر در سراسر جهان خدمت میکند.
سایر مدیران اجرایی که در ماههای اخیر OpenAI را ترک کردهاند عبارتند از CTO Mira Murati، مدیر ارشد تحقیقات Bob McGrew و معاون تحقیقات Barret Zoph. در ماه آگوست، محقق برجسته آندری کارپاتی و یکی از بنیانگذاران جان شولمن نیز اعلام کردند که استارتاپ را ترک خواهند کرد. برخی از این افراد، از جمله Leike و Schulman، برای پیوستن به یک رقیب OpenAI، Anthropic، ترک کردند، در حالی که برخی دیگر سرمایهگذاریهای خود را شروع کردند.
ارسال نظر