متن خبر

OpenAI یکی دیگر از محققین ارشد ایمنی، لیلیان ونگ را از دست داد

OpenAI یکی دیگر از محققین ارشد ایمنی، لیلیان ونگ را از دست داد

شناسهٔ خبر: 811480 -




یکی دیگر از محققین ارشد ایمنی OpenAI، لیلیان ونگ، روز جمعه اعلام کرد که استارت آپ را ترک می کند. ونگ از ماه آگوست به عنوان معاون تحقیقات و ایمنی فعالیت می کرد و پیش از آن رئیس تیم سیستم های ایمنی OpenAI بود.

در پستی در X، ونگ بيان کرد که "پس از 7 سال در OpenAI، احساس می کنم آماده هستم تا چیز جدیدی را بازنشانی کنم و کشف کنم." ونگ بيان کرد آخرین روز او 15 نوامبر خواهد بود، اما مشخص نکرد که بعداً کجا خواهد رفت.

ونگ در این پست گفت: «تصمیم بسیار سختی را گرفتم که OpenAI را ترک کنم. با نگاهی به آنچه که به دست آورده‌ایم، به همه اعضای تیم Safety Systems بسیار افتخار می‌کنم و بسیار اطمینان دارم که تیم به پیشرفت خود ادامه خواهد داد.

خروج Weng آخرین مورد در یک رشته طولانی از محققان ایمنی هوش مصنوعی، محققان سیاستگذاری و سایر مدیرانی است که در سال گذشته از شرکت خارج شده اند و چندین نفر OpenAI را به اولویت دادن به محصولات تجاری بر ایمنی هوش مصنوعی متهم کرده اند. ونگ به Ilya Sutskever و Jan Leike - رهبران تیم Superalignment منحل شده OpenAI که سعی در توسعه روش‌هایی برای هدایت سیستم‌های هوش مصنوعی فوق‌هوشمند داشتند - می‌پیوندد - که امسال نیز استارت‌آپ را ترک کردند تا در جاهای دیگر روی ایمنی هوش مصنوعی کار کنند.

ونگ برای اولین بار در سال 2018 به OpenAI پیوست، طبق گفته لینکدین خود، و روی تیم روباتیک این استارت آپ کار می کرد که در نهایت دست رباتی ساخت که می توانست مکعب روبیک را حل کند – کاری که بر اساس پست او دو سال طول کشید.

همانطور که OpenAI شروع به تمرکز بیشتر روی پارادایم GPT کرد، Weng نیز چنین کرد. این محقق برای کمک به ساخت تیم تحقیقاتی هوش مصنوعی کاربردی استارتاپ در سال 2021 تغییر مکان داد. پس از راه اندازی GPT-4، ونگ وظیفه ایجاد یک تیم اختصاصی برای ساخت سیستم های ایمنی برای این استارتاپ در سال 2023 را بر عهده گرفت. امروز، واحد سیستم های ایمنی OpenAI بیش از 80 دانشمند، محقق و متخصص سیاست، طبق پست Weng.

این بسیاری از افراد ایمنی هوش مصنوعی هستند، اما بسیاری نگرانی‌هایی را در مورد تمرکز OpenAI بر ایمنی ایجاد کرده‌اند، زیرا تلاش می‌کند تا سیستم‌های هوش مصنوعی قدرتمندتر بسازد. مایلز بروندج، محقق قدیمی سیاستگذاری، در ماه اکتبر این استارتاپ را ترک کرد و اعلام کرد که OpenAI در حال انحلال تیم آمادگی AGI خود است که او به او توصیه کرده بود. در همان روز، نیویورک تایمز یک محقق سابق OpenAI به نام سوچیر بالاجی را معرفی کرد که بيان کرد او OpenAI را ترک کرد زیرا فکر می‌کرد که فناوری استارت‌آپ آسیب بیشتری به جامعه وارد می‌کند تا سود.

OpenAI به TechCrunch می گوید که مدیران اجرایی و محققان ایمنی در حال کار بر روی انتقالی برای جایگزینی Weng هستند.

سخنگوی OpenAI در بیانیه ای ایمیلی گفت: "ما عمیقا از کمک های لیلیان در تحقیقات ایمنی و ایجاد پادمان های فنی دقیق قدردانی می کنیم." ما مطمئن هستیم که تیم Safety Systems به ایفای نقش کلیدی در اطمینان از ایمن و قابل اعتماد بودن سیستم‌های ما ادامه خواهد داد و به صدها میلیون نفر در سراسر جهان خدمت می‌کند.

سایر مدیران اجرایی که در ماه‌های اخیر OpenAI را ترک کرده‌اند عبارتند از CTO Mira Murati، مدیر ارشد تحقیقات Bob McGrew و معاون تحقیقات Barret Zoph. در ماه آگوست، محقق برجسته آندری کارپاتی و یکی از بنیانگذاران جان شولمن نیز اعلام کردند که استارتاپ را ترک خواهند کرد. برخی از این افراد، از جمله Leike و Schulman، برای پیوستن به یک رقیب OpenAI، Anthropic، ترک کردند، در حالی که برخی دیگر سرمایه‌گذاری‌های خود را شروع کردند.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است