از دولت بریتانیا خواسته شد که چشم انداز مثبت تری را برای LLM ها اتخاذ کند تا از دست نرفتن “AI goldrush” جلوگیری کند.
بر اساس گزارشی که امروز منتشر شد، دولت بریتانیا دیدگاه بسیار محدودی نسبت به ایمنی هوش مصنوعی دارد و خطرات عقب افتادن در هجوم طلا در هوش مصنوعی را تهدید می کند.
این گزارش که توسط کمیته ارتباطات و دیجیتال مجلس اعیان پارلمان منتشر شده است، به دنبال یک تلاش چند ماهه برای گردآوری شواهد شامل نظرات طیف گسترده ای از سهامداران، از جمله شرکت های بزرگ فناوری، دانشگاه ها، سرمایه گذاران خطرپذیر، رسانه ها و دولت است.
یکی از یافتههای کلیدی این گزارش این بود که دولت باید تلاشهای خود را بر روی خطرات کوتاهمدت امنیتی و اجتماعی ناشی از مدلهای زبانی بزرگ (LLM) مانند نقض حق چاپ و اطلاعات نادرست متمرکز کند، نه اینکه بیش از حد نگران سناریوهای آخرالزمانی و وجودی فرضی باشد. تهدیدهایی که می گوید "اغراق آمیز" هستند.
«توسعه سریع مدلهای زبان بزرگ هوش مصنوعی احتمالاً تأثیر عمیقی بر جامعه میگذارد، قابل مقایسه با معرفی اینترنت – که این امر برای دولت حیاتی میکند که رویکرد خود را به درستی انجام دهد و فرصتها را از دست ندهد، بهویژه اگر چنین نباشد. بارونس استوول، رئیس کمیته ارتباطات و دیجیتال، در بیانیهای گفت: برای خطرات دور و غیرمحتمل، احتیاط نمیشود. ما باید به خطرات رسیدگی کنیم تا بتوانیم از فرصت ها استفاده کنیم – اما باید متناسب و عملی باشیم. ما باید از دست ندادن بریتانیا به طلای بالقوه هوش مصنوعی جلوگیری کنیم.»
این یافتهها در حالی به دست میآیند که بسیاری از جهان با یورش رو به رشد هوش مصنوعی دست و پنجه نرم میکنند که به نظر میرسد صنعت و جامعه را تغییر میدهد، و ChatGPT OpenAI به عنوان فرزند پوستر جنبشی عمل میکند که LLMها را در آگاهی عمومی در یک سال گذشته منجنیق کرد. این هیاهو هیجان و ترس را در دوزهای مساوی ایجاد کرده است و همه نوع بحث ها را در مورد حکمرانی هوش مصنوعی برانگیخته است - رئیس جمهور بایدن اخیراً یک فرمان اجرایی با هدف تعیین استانداردهایی برای ایمنی و امنیت هوش مصنوعی صادر کرده است، در حالی که بریتانیا در تلاش است تا خود را در این زمینه قرار دهد. خط مقدم حکمرانی هوش مصنوعی از طریق ابتکاراتی مانند اجلاس ایمنی هوش مصنوعی، که برخی از رهبران سیاسی و شرکتی جهان را در همان اتاق در بلچلی پارک در ماه نوامبر گرد هم آورد .
در همان زمان، یک شکاف در مورد اینکه تا چه حد باید این فناوری جدید را تنظیم کنیم، در حال ظهور است.
ضبط نظارتی
یان لکون، دانشمند ارشد هوش مصنوعی متا، اخیراً در نامهای سرگشاده به دهها امضاکننده ملحق شد و خواستار باز بودن بیشتر در توسعه هوش مصنوعی شد، تلاشی که برای مقابله با فشار فزاینده شرکتهای فناوری مانند OpenAI و Google برای ایمن کردن "تسخیر نظارتی صنعت هوش مصنوعی" طراحی شده است. لابی گری علیه تحقیق و توسعه هوش مصنوعی باز
در این نامه آمده است: «تاریخ به ما نشان میدهد که عجله کردن سریع به سمت قوانین نادرست میتواند منجر به تمرکز قدرت به شیوههایی شود که به رقابت و نوآوری لطمه میزند». «مدلهای باز میتوانند به یک بحث آزاد کمک کنند و سیاستگذاری را بهبود بخشند. اگر اهداف ما ایمنی، امنیت و مسئولیت پذیری است، باز بودن و شفافیت اجزای ضروری برای رسیدن ما به آن جا هستند.»
و این تنش است که به عنوان یک نیروی محرکه اصلی در پشت گزارش مجلس اعیان «مدلهای زبان بزرگ و هوش مصنوعی مولد» عمل میکند، که از دولت میخواهد رقابت در بازار را «هدف صریح سیاستهای هوش مصنوعی» برای محافظت در برابر تسخیر مقرراتی از سوی برخی افراد قرار دهد. از مدیران فعلی مانند OpenAI و Google.
در واقع، موضوع «بسته» در مقابل «باز» در چندین صفحه در گزارش مطرح میشود، با این نتیجه که «دینامیک رقابت» نه تنها برای اینکه چه کسی در بازار AI / LLM رهبری میشود، مهم خواهد بود، بلکه چه نوع آن را نیز تعیین میکند. نظارت نظارتی در نهایت کار می کند. این گزارش خاطرنشان می کند:
در قلب خود، این شامل یک رقابت بین کسانی است که اکوسیستمهای بسته را اداره میکنند و کسانی که بیشتر فناوری زیربنایی را آشکارا در دسترس قرار میدهند.
کمیته در یافتههای خود بيان کرد که تحلیل میکند که آیا دولت باید موضعی صریح در این مورد اتخاذ کند، در مقابل طرفداری از رویکرد باز یا بسته، و به این نتیجه رسید که «رویکرد ظریف و تکراری ضروری خواهد بود». اما شواهد جمع آوری شده تا حدودی با منافع ذینفعان مرتبط بود.
به عنوان مثال، در حالی که مایکروسافت و گوگل بيان کرد ند که عموماً از فناوریهای «دسترسی باز» حمایت میکنند، اما معتقد بودند که خطرات امنیتی مرتبط با LLMهایی که بهطور آشکار در دسترس هستند بسیار مهم هستند و پس به نردههای محافظ بیشتری نیاز دارند. به عنوان مثال، در شواهد مکتوب مایکروسافت، این شرکت بيان کرد که « همه بازیگران دارای نیت خوب یا مجهز برای مقابله با چالشهایی نیستند که مدلهای [ زبان بزرگ ] بسیار توانمند هستند».
برخی از بازیگران از هوش مصنوعی بهعنوان یک سلاح استفاده میکنند، نه ابزار، و برخی دیگر چالشهای ایمنی پیش رو را دست کم میگیرند. اکنون کار مهمی برای استفاده از هوش مصنوعی برای محافظت از دموکراسی و حقوق اساسی، فراهم کردن دسترسی گسترده به مهارتهای هوش مصنوعی که باعث رشد فراگیر میشود، و استفاده از قدرت هوش مصنوعی برای پیشبرد نیازهای پایداری سیاره مورد نیاز است.
چارچوبهای نظارتی باید از سوء استفاده عمدی از مدلهای توانا برای ایجاد آسیب محافظت کنند، به عنوان مثال با تلاش برای شناسایی و بهرهبرداری از آسیبپذیریهای سایبری در مقیاس، یا توسعه مواد خطرناک زیستمحیطی، و همچنین خطرات آسیب ناشی از تصادف، برای مثال اگر هوش مصنوعی باشد. برای مدیریت زیرساخت های حیاتی در مقیاس بزرگ بدون نرده های محافظ مناسب استفاده می شود.
اما از طرف دیگر، LLM های باز در دسترس تر هستند و به عنوان یک " دایره با فضیلت" عمل می کنند که به افراد بیشتری اجازه می دهد تا با چیزها سرهم بندی کنند و آنچه را که در زیر کاپوت می گذرد تحلیل کنند. ایرنه سلیمان، مدیر سیاست جهانی در پلتفرم هوش مصنوعی Hugging Face، در جلسه شواهد خود بيان کرد که باز کردن دسترسی به مواردی مانند آموزش دادهها و انتشار مقالات فنی بخش مهمی از فرآیند ارزیابی ریسک است.
آنچه واقعاً در باز بودن مهم است، افشاگری است. ما در Hugging Face روی سطوح شفافیت [….] سخت کار کردهایم تا به محققان، مصرفکنندگان و تنظیمکنندهها به روشی بسیار قابل مصرف اجازه دهیم تا اجزای مختلفی را که با این سیستم منتشر میشوند، درک کنند. یکی از چیزهای دشوار در مورد انتشار این است که فرآیندها اغلب منتشر نمی شوند، پس توسعه دهندگان تقریباً کنترل کاملی بر روش انتشار در امتداد آن گرادیان گزینه ها دارند و ما بینشی نسبت به ملاحظات قبل از استقرار نداریم.
ایان هوگارت، رئیس مؤسسه ایمنی هوش مصنوعی دولت بریتانیا که اخیراً راه اندازی شده است، همچنین بيان کرد که ما امروز در موقعیتی هستیم که مرزهای LLM و هوش مصنوعی مولد توسط شرکت های خصوصی مشخص می شود که به طور موثر «تکلیف خود را مشخص می کنند» همانطور که مربوط می شود. برای ارزیابی ریسک هوگارت گفت:
این چند مشکل کاملاً ساختاری را نشان می دهد. اولین مورد این است که وقتی نوبت به ارزیابی ایمنی این سیستمها میرسد، نمیخواهیم در موقعیتی باشیم که به شرکتهایی که تکالیف خود را علامتگذاری میکنند تکیه کنیم. به عنوان مثال، زمانی که [OpenAI's LLM] GPT-4 منتشر شد، تیم پشت آن واقعاً تلاش جدی برای ارزیابی ایمنی سیستم خود انجام داد و چیزی به نام کارت سیستم GPT-4 را منتشر کرد. اساساً، این سندی بود که آزمایش های ایمنی را که آنها انجام داده بودند و اینکه چرا آنها احساس کردند مناسب است آن را برای عموم منتشر کنند، خلاصه می کرد. هنگامی که DeepMind AlphaFold، مدل تاشو پروتئین خود را منتشر کرد، کار مشابهی را انجام داد، جایی که سعی کرد کاربردهای بالقوه استفاده دوگانه این فناوری را ارزیابی کند و خطر آن کج است.
شما این پویایی کمی عجیب را داشته اید که در آن مرز توسط سازمان های بخش خصوصی هدایت شده است، و رهبران این سازمان ها تلاش جدی می کنند تا تکالیف خود را مشخص کنند، اما با توجه به قدرت این وضعیت، حرکت رو به جلو قابل تحمل نیست. تکنولوژی و اینکه چقدر می تواند پیامد باشد.
اجتناب یا تلاش برای دستیابی به تسخیر نظارتی در قلب بسیاری از این مسائل نهفته است. همان شرکتهایی که ابزارها و فناوریهای پیشرو LLM را میسازند نیز خواستار تنظیم مقررات هستند، که بسیاری استدلال میکنند که واقعاً برای قفل کردن کسانی است که به دنبال بازی کردن هستند. پس ، این گزارش نگرانیهای مربوط به لابیگری در صنعت برای مقررات، یا وابستگی بیش از حد مقامات دولتی به دانش فنی یک «محوطه باریک تخصص بخش خصوصی» برای اطلاعرسانی به سیاستها و استانداردها را تأیید میکند.
به این ترتیب، کمیته « اقدامات حاکمیتی تقویتشده در DSIT [وزارت علوم، نوآوری و فناوری] و تنظیمکنندهها را برای کاهش خطرات ناشی از دستگیری ناخواسته نظارتی و تفکر گروهی توصیه میکند».
بر اساس این گزارش، این امر باید:
.... برای کار سیاست داخلی، تعاملات صنعتی و تصمیمات برای سفارش مشاوره خارجی اعمال شود. گزینهها شامل معیارهایی برای ارزیابی تأثیر سیاستها و استانداردهای جدید بر رقابت است. تعبیه تیم قرمز، چالش سیستماتیک و نقد خارجی در فرآیندهای سی است. آموزش بیشتر برای مقامات برای بهبود دانش فنی؛ و حصول اطمینان از انتشار پیشنهادها برای استانداردهای فنی یا معیارها برای مشاوره.
تمرکز باریک
با این حال، همه اینها منجر به یکی از محورهای تکراری اصلی توصیه این گزارش می شود، این که بحث ایمنی هوش مصنوعی بیش از حد تحت تسلط روایتی متمرکز بر ریسک فاجعه بار قرار گرفته است، به ویژه از سوی « کسانی که در وهله اول چنین مدل هایی را توسعه دادند ».
در واقع، از یک سو، این گزارش خواستار آزمایشهای ایمنی اجباری برای «مدلهای پرخطر و با تأثیر بالا» است - آزمایشهایی که فراتر از تعهدات داوطلبانه چند شرکت است. اما در عین حال، او میگوید که نگرانیها در مورد ریسک وجودی اغراقآمیز است و این هذلگویی صرفاً در خدمت منحرف کردن تمرکز از مسائل مبرمتری است که امروزه LLM ها آن را قادر میسازند.
این گزارش در پایان او میگوید : «تقریباً مطمئن است که خطرات وجودی ظرف سه سال و به احتمال زیاد در دهه آینده ظاهر نمیشوند.» با افزایش درک ما از این فناوری و افزایش توسعه مسئولانه، امیدواریم نگرانی در مورد خطر وجودی کاهش یابد. دولت وظیفه نظارت بر همه احتمالات را برعهده دارد - اما این نباید آن را از سرمایه گذاری از فرصت ها و پرداختن به خطرات فوری محدودتر منحرف کند.
این گزارش اذعان میکند که گرفتن این «فرصتها» مستلزم پرداختن به برخی ریسکهای فوری است. این شامل سهولت ایجاد و انتشار اطلاعات نادرست و نادرست است - از طریق رسانه های مبتنی بر متن و با "دیپ جعلی" صوتی و بصری که "حتی کارشناسان تشخیص آنها را به طور فزاینده ای دشوار می دانند". این امر به ویژه با نزدیک شدن به انتخابات عمومی در بریتانیا اهمیت پیدا می کند.
مرکز ملی امنیت سایبری ارزیابی میکند که مدلهای زبان بزرگ «تقریباً مطمئناً برای تولید محتوای ساختگی استفاده خواهند شد. که ربات های بیش از حد واقع گرایانه انتشار اطلاعات نادرست را آسان تر می کنند. و اینکه کمپینهای دیپفیک احتمالاً در آستانه رأیگیری سراسری بعدی، که قرار است تا ژانویه 2025 برگزار شود، پیشرفتهتر میشوند.»
علاوه بر این، کمیته درباره موضع خود در مورد استفاده از مطالب دارای حق چاپ برای آموزش LLM ها صریح بود - کاری که OpenAI و سایر شرکت های بزرگ فناوری انجام داده اند، با این استدلال که آموزش هوش مصنوعی یک سناریوی استفاده منصفانه است. به همین دلیل است که هنرمندان و شرکت های رسانه ای مانند نیویورک تایمز در حال پیگیری پرونده های حقوقی علیه شرکت های هوش مصنوعی هستند که از محتوای وب برای آموزش LLM استفاده می کنند.
این گزارش خاطرنشان میکند: «یکی از زمینههای اختلال هوش مصنوعی که میتوان و باید به سرعت با آن مقابله کرد، استفاده از مطالب دارای حق چاپ برای آموزش LLM است. LLM ها برای درست کار کردن به دریافت مجموعه داده های عظیم متکی هستند، اما این بدان معنا نیست که آنها باید بتوانند از هر ماده ای که می توانند بیابند بدون اجازه یا پرداخت به صاحبان حقوق برای امتیاز استفاده کنند. این موضوعی است که دولت می تواند به سرعت به آن دست پیدا کند و باید این کار را انجام دهد.»
شایان ذکر است که کمیته ارتباطات و دیجیتال لردها به طور کامل سناریوهای روز قیامت را رد نمی کند. در واقع، این گزارش توصیه میکند که موسسه ایمنی هوش مصنوعی دولت باید «ارزیابی مسیرهای مهندسی به خطر فاجعهبار و شاخصهای هشداردهنده را به عنوان یک اولویت فوری» انجام و منتشر کند.
علاوه بر این، این گزارش خاطرنشان میکند که یک «خطر امنیتی معتبر» ناشی از در دسترس بودن مدلهای هوش مصنوعی قدرتمند که به راحتی میتوانند مورد سوء استفاده قرار گیرند یا خراب شوند، وجود دارد. اما علیرغم این اعترافات، کمیته بر این باور است که ممنوعیت کامل چنین مدلهایی با توازن احتمال به نتیجه نرسیدن بدترین سناریوها و دشواری مطلق در ممنوعیت آنها، راه حلی نیست. و اینجاست که می بیند موسسه ایمنی هوش مصنوعی دولتی وارد بازی می شود، با توصیه هایی مبنی بر توسعه "راه های جدید" برای شناسایی و ردیابی مدل هایی که پس از استقرار در سناریوهای دنیای واقعی است.
این گزارش بيان کرد : «ممنوع کردن کامل آنها نامتناسب و احتمالاً بیاثر خواهد بود». اما یک تلاش هماهنگ برای نظارت و کاهش اثرات تجمعی مورد نیاز است.
پس ، در بیشتر موارد، گزارش نمی گوید که LLM ها و جنبش گسترده تر هوش مصنوعی با خطرات واقعی همراه نیستند. اما او میگوید که دولت باید استراتژی خود را با تمرکز کمتر بر «سناریوهای علمی تخیلی پایان جهان» «تعادل مجدد» کند و بیشتر بر روی مزایایی که ممکن است به همراه داشته باشد، تمرکز کند.
در این گزارش آمده است: «تمرکز دولت بیش از حد به سمت یک دیدگاه محدود از ایمنی هوش مصنوعی منحرف شده است. باید دوباره تعادل برقرار کند، وگرنه در استفاده از فرصتهای LLM شکست خواهد خورد، از رقبای بینالمللی عقب میماند و از نظر استراتژیک به شرکتهای فناوری خارج از کشور برای یک فناوری حیاتی وابسته میشود.»
ارسال نظر