متن خبر

از دولت بریتانیا خواسته شد که چشم انداز مثبت تری را برای LLM ها اتخاذ کند تا از دست نرفتن “AI goldrush” جلوگیری کند.

از دولت بریتانیا خواسته شد که چشم انداز مثبت تری را برای LLM ها اتخاذ کند تا از دست نرفتن “AI goldrush” جلوگیری کند.

شناسهٔ خبر: 447444 -




بر اساس گزارشی که امروز منتشر شد، دولت بریتانیا دیدگاه بسیار محدودی نسبت به ایمنی هوش مصنوعی دارد و خطرات عقب افتادن در هجوم طلا در هوش مصنوعی را تهدید می کند.

این گزارش که توسط کمیته ارتباطات و دیجیتال مجلس اعیان پارلمان منتشر شده است، به دنبال یک تلاش چند ماهه برای گردآوری شواهد شامل نظرات طیف گسترده ای از سهامداران، از جمله شرکت های بزرگ فناوری، دانشگاه ها، سرمایه گذاران خطرپذیر، رسانه ها و دولت است.

یکی از یافته‌های کلیدی این گزارش این بود که دولت باید تلاش‌های خود را بر روی خطرات کوتاه‌مدت امنیتی و اجتماعی ناشی از مدل‌های زبانی بزرگ (LLM) مانند نقض حق چاپ و اطلاعات نادرست متمرکز کند، نه اینکه بیش از حد نگران سناریوهای آخرالزمانی و وجودی فرضی باشد. تهدیدهایی که می گوید "اغراق آمیز" هستند.

«توسعه سریع مدل‌های زبان بزرگ هوش مصنوعی احتمالاً تأثیر عمیقی بر جامعه می‌گذارد، قابل مقایسه با معرفی اینترنت – که این امر برای دولت حیاتی می‌کند که رویکرد خود را به درستی انجام دهد و فرصت‌ها را از دست ندهد، به‌ویژه اگر چنین نباشد. بارونس استوول، رئیس کمیته ارتباطات و دیجیتال، در بیانیه‌ای گفت: برای خطرات دور و غیرمحتمل، احتیاط نمی‌شود. ما باید به خطرات رسیدگی کنیم تا بتوانیم از فرصت ها استفاده کنیم – اما باید متناسب و عملی باشیم. ما باید از دست ندادن بریتانیا به طلای بالقوه هوش مصنوعی جلوگیری کنیم.»

این یافته‌ها در حالی به دست می‌آیند که بسیاری از جهان با یورش رو به رشد هوش مصنوعی دست و پنجه نرم می‌کنند که به نظر می‌رسد صنعت و جامعه را تغییر می‌دهد، و ChatGPT OpenAI به عنوان فرزند پوستر جنبشی عمل می‌کند که LLM‌ها را در آگاهی عمومی در یک سال گذشته منجنیق کرد. این هیاهو هیجان و ترس را در دوزهای مساوی ایجاد کرده است و همه نوع بحث ها را در مورد حکمرانی هوش مصنوعی برانگیخته است - رئیس جمهور بایدن اخیراً یک فرمان اجرایی با هدف تعیین استانداردهایی برای ایمنی و امنیت هوش مصنوعی صادر کرده است، در حالی که بریتانیا در تلاش است تا خود را در این زمینه قرار دهد. خط مقدم حکمرانی هوش مصنوعی از طریق ابتکاراتی مانند اجلاس ایمنی هوش مصنوعی، که برخی از رهبران سیاسی و شرکتی جهان را در همان اتاق در بلچلی پارک در ماه نوامبر گرد هم آورد .

در همان زمان، یک شکاف در مورد اینکه تا چه حد باید این فناوری جدید را تنظیم کنیم، در حال ظهور است.

ضبط نظارتی

یان لکون، دانشمند ارشد هوش مصنوعی متا، اخیراً در نامه‌ای سرگشاده به ده‌ها امضاکننده ملحق شد و خواستار باز بودن بیشتر در توسعه هوش مصنوعی شد، تلاشی که برای مقابله با فشار فزاینده شرکت‌های فناوری مانند OpenAI و Google برای ایمن کردن "تسخیر نظارتی صنعت هوش مصنوعی" طراحی شده است. لابی گری علیه تحقیق و توسعه هوش مصنوعی باز

در این نامه آمده است: «تاریخ به ما نشان می‌دهد که عجله کردن سریع به سمت قوانین نادرست می‌تواند منجر به تمرکز قدرت به شیوه‌هایی شود که به رقابت و نوآوری لطمه می‌زند». «مدل‌های باز می‌توانند به یک بحث آزاد کمک کنند و سیاست‌گذاری را بهبود بخشند. اگر اهداف ما ایمنی، امنیت و مسئولیت پذیری است، باز بودن و شفافیت اجزای ضروری برای رسیدن ما به آن جا هستند.»

و این تنش است که به عنوان یک نیروی محرکه اصلی در پشت گزارش مجلس اعیان «مدل‌های زبان بزرگ و هوش مصنوعی مولد» عمل می‌کند، که از دولت می‌خواهد رقابت در بازار را «هدف صریح سیاست‌های هوش مصنوعی» برای محافظت در برابر تسخیر مقرراتی از سوی برخی افراد قرار دهد. از مدیران فعلی مانند OpenAI و Google.

در واقع، موضوع «بسته» در مقابل «باز» در چندین صفحه در گزارش مطرح می‌شود، با این نتیجه که «دینامیک رقابت» نه تنها برای اینکه چه کسی در بازار AI / LLM رهبری می‌شود، مهم خواهد بود، بلکه چه نوع آن را نیز تعیین می‌کند. نظارت نظارتی در نهایت کار می کند. این گزارش خاطرنشان می کند:

در قلب خود، این شامل یک رقابت بین کسانی است که اکوسیستم‌های بسته را اداره می‌کنند و کسانی که بیشتر فناوری زیربنایی را آشکارا در دسترس قرار می‌دهند.

کمیته در یافته‌های خود بيان کرد که تحلیل می‌کند که آیا دولت باید موضعی صریح در این مورد اتخاذ کند، در مقابل طرفداری از رویکرد باز یا بسته، و به این نتیجه رسید که «رویکرد ظریف و تکراری ضروری خواهد بود». اما شواهد جمع آوری شده تا حدودی با منافع ذینفعان مرتبط بود.

به عنوان مثال، در حالی که مایکروسافت و گوگل بيان کرد ند که عموماً از فناوری‌های «دسترسی باز» حمایت می‌کنند، اما معتقد بودند که خطرات امنیتی مرتبط با LLM‌هایی که به‌طور آشکار در دسترس هستند بسیار مهم هستند و پس به نرده‌های محافظ بیشتری نیاز دارند. به عنوان مثال، در شواهد مکتوب مایکروسافت، این شرکت بيان کرد که « همه بازیگران دارای نیت خوب یا مجهز برای مقابله با چالش‌هایی نیستند که مدل‌های [ زبان بزرگ ] بسیار توانمند هستند».

این شرکت بيان کرد :

برخی از بازیگران از هوش مصنوعی به‌عنوان یک سلاح استفاده می‌کنند، نه ابزار، و برخی دیگر چالش‌های ایمنی پیش رو را دست کم می‌گیرند. اکنون کار مهمی برای استفاده از هوش مصنوعی برای محافظت از دموکراسی و حقوق اساسی، فراهم کردن دسترسی گسترده به مهارت‌های هوش مصنوعی که باعث رشد فراگیر می‌شود، و استفاده از قدرت هوش مصنوعی برای پیشبرد نیازهای پایداری سیاره مورد نیاز است.

چارچوب‌های نظارتی باید از سوء استفاده عمدی از مدل‌های توانا برای ایجاد آسیب محافظت کنند، به عنوان مثال با تلاش برای شناسایی و بهره‌برداری از آسیب‌پذیری‌های سایبری در مقیاس، یا توسعه مواد خطرناک زیست‌محیطی، و همچنین خطرات آسیب ناشی از تصادف، برای مثال اگر هوش مصنوعی باشد. برای مدیریت زیرساخت های حیاتی در مقیاس بزرگ بدون نرده های محافظ مناسب استفاده می شود.

اما از طرف دیگر، LLM های باز در دسترس تر هستند و به عنوان یک " دایره با فضیلت" عمل می کنند که به افراد بیشتری اجازه می دهد تا با چیزها سرهم بندی کنند و آنچه را که در زیر کاپوت می گذرد تحلیل کنند. ایرنه سلیمان، مدیر سیاست جهانی در پلتفرم هوش مصنوعی Hugging Face، در جلسه شواهد خود بيان کرد که باز کردن دسترسی به مواردی مانند آموزش داده‌ها و انتشار مقالات فنی بخش مهمی از فرآیند ارزیابی ریسک است.

آنچه واقعاً در باز بودن مهم است، افشاگری است. ما در Hugging Face روی سطوح شفافیت [….] سخت کار کرده‌ایم تا به محققان، مصرف‌کنندگان و تنظیم‌کننده‌ها به روشی بسیار قابل مصرف اجازه دهیم تا اجزای مختلفی را که با این سیستم منتشر می‌شوند، درک کنند. یکی از چیزهای دشوار در مورد انتشار این است که فرآیندها اغلب منتشر نمی شوند، پس توسعه دهندگان تقریباً کنترل کاملی بر روش انتشار در امتداد آن گرادیان گزینه ها دارند و ما بینشی نسبت به ملاحظات قبل از استقرار نداریم.

ایان هوگارت، رئیس مؤسسه ایمنی هوش مصنوعی دولت بریتانیا که اخیراً راه اندازی شده است، همچنین بيان کرد که ما امروز در موقعیتی هستیم که مرزهای LLM و هوش مصنوعی مولد توسط شرکت های خصوصی مشخص می شود که به طور موثر «تکلیف خود را مشخص می کنند» همانطور که مربوط می شود. برای ارزیابی ریسک هوگارت گفت:

این چند مشکل کاملاً ساختاری را نشان می دهد. اولین مورد این است که وقتی نوبت به ارزیابی ایمنی این سیستم‌ها می‌رسد، نمی‌خواهیم در موقعیتی باشیم که به شرکت‌هایی که تکالیف خود را علامت‌گذاری می‌کنند تکیه کنیم. به عنوان مثال، زمانی که [OpenAI's LLM] GPT-4 منتشر شد، تیم پشت آن واقعاً تلاش جدی برای ارزیابی ایمنی سیستم خود انجام داد و چیزی به نام کارت سیستم GPT-4 را منتشر کرد. اساساً، این سندی بود که آزمایش های ایمنی را که آنها انجام داده بودند و اینکه چرا آنها احساس کردند مناسب است آن را برای عموم منتشر کنند، خلاصه می کرد. هنگامی که DeepMind AlphaFold، مدل تاشو پروتئین خود را منتشر کرد، کار مشابهی را انجام داد، جایی که سعی کرد کاربردهای بالقوه استفاده دوگانه این فناوری را ارزیابی کند و خطر آن کج است.

شما این پویایی کمی عجیب را داشته اید که در آن مرز توسط سازمان های بخش خصوصی هدایت شده است، و رهبران این سازمان ها تلاش جدی می کنند تا تکالیف خود را مشخص کنند، اما با توجه به قدرت این وضعیت، حرکت رو به جلو قابل تحمل نیست. تکنولوژی و اینکه چقدر می تواند پیامد باشد.

اجتناب یا تلاش برای دستیابی به تسخیر نظارتی در قلب بسیاری از این مسائل نهفته است. همان شرکت‌هایی که ابزارها و فناوری‌های پیشرو LLM را می‌سازند نیز خواستار تنظیم مقررات هستند، که بسیاری استدلال می‌کنند که واقعاً برای قفل کردن کسانی است که به دنبال بازی کردن هستند. پس ، این گزارش نگرانی‌های مربوط به لابی‌گری در صنعت برای مقررات، یا وابستگی بیش از حد مقامات دولتی به دانش فنی یک «محوطه باریک تخصص بخش خصوصی» برای اطلاع‌رسانی به سیاست‌ها و استانداردها را تأیید می‌کند.

به این ترتیب، کمیته « اقدامات حاکمیتی تقویت‌شده در DSIT [وزارت علوم، نوآوری و فناوری] و تنظیم‌کننده‌ها را برای کاهش خطرات ناشی از دستگیری ناخواسته نظارتی و تفکر گروهی توصیه می‌کند».

بر اساس این گزارش، این امر باید:

.... برای کار سیاست داخلی، تعاملات صنعتی و تصمیمات برای سفارش مشاوره خارجی اعمال شود. گزینه‌ها شامل معیارهایی برای ارزیابی تأثیر سیاست‌ها و استانداردهای جدید بر رقابت است. تعبیه تیم قرمز، چالش سیستماتیک و نقد خارجی در فرآیندهای سی است. آموزش بیشتر برای مقامات برای بهبود دانش فنی؛ و حصول اطمینان از انتشار پیشنهادها برای استانداردهای فنی یا معیارها برای مشاوره.

تمرکز باریک

با این حال، همه اینها منجر به یکی از محورهای تکراری اصلی توصیه این گزارش می شود، این که بحث ایمنی هوش مصنوعی بیش از حد تحت تسلط روایتی متمرکز بر ریسک فاجعه بار قرار گرفته است، به ویژه از سوی « کسانی که در وهله اول چنین مدل هایی را توسعه دادند ».

در واقع، از یک سو، این گزارش خواستار آزمایش‌های ایمنی اجباری برای «مدل‌های پرخطر و با تأثیر بالا» است - آزمایش‌هایی که فراتر از تعهدات داوطلبانه چند شرکت است. اما در عین حال، او میگوید که نگرانی‌ها در مورد ریسک وجودی اغراق‌آمیز است و این هذل‌گویی صرفاً در خدمت منحرف کردن تمرکز از مسائل مبرم‌تری است که امروزه LLM ها آن را قادر می‌سازند.

این گزارش در پایان او میگوید : «تقریباً مطمئن است که خطرات وجودی ظرف سه سال و به احتمال زیاد در دهه آینده ظاهر نمی‌شوند.» با افزایش درک ما از این فناوری و افزایش توسعه مسئولانه، امیدواریم نگرانی در مورد خطر وجودی کاهش یابد. دولت وظیفه نظارت بر همه احتمالات را برعهده دارد - اما این نباید آن را از سرمایه گذاری از فرصت ها و پرداختن به خطرات فوری محدودتر منحرف کند.

این گزارش اذعان می‌کند که گرفتن این «فرصت‌ها» مستلزم پرداختن به برخی ریسک‌های فوری است. این شامل سهولت ایجاد و انتشار اطلاعات نادرست و نادرست است - از طریق رسانه های مبتنی بر متن و با "دیپ جعلی" صوتی و بصری که "حتی کارشناسان تشخیص آنها را به طور فزاینده ای دشوار می دانند". این امر به ویژه با نزدیک شدن به انتخابات عمومی در بریتانیا اهمیت پیدا می کند.

مرکز ملی امنیت سایبری ارزیابی می‌کند که مدل‌های زبان بزرگ «تقریباً مطمئناً برای تولید محتوای ساختگی استفاده خواهند شد. که ربات های بیش از حد واقع گرایانه انتشار اطلاعات نادرست را آسان تر می کنند. و اینکه کمپین‌های دیپ‌فیک احتمالاً در آستانه رأی‌گیری سراسری بعدی، که قرار است تا ژانویه 2025 برگزار شود، پیشرفته‌تر می‌شوند.»

علاوه بر این، کمیته درباره موضع خود در مورد استفاده از مطالب دارای حق چاپ برای آموزش LLM ها صریح بود - کاری که OpenAI و سایر شرکت های بزرگ فناوری انجام داده اند، با این استدلال که آموزش هوش مصنوعی یک سناریوی استفاده منصفانه است. به همین دلیل است که هنرمندان و شرکت های رسانه ای مانند نیویورک تایمز در حال پیگیری پرونده های حقوقی علیه شرکت های هوش مصنوعی هستند که از محتوای وب برای آموزش LLM استفاده می کنند.

این گزارش خاطرنشان می‌کند: «یکی از زمینه‌های اختلال هوش مصنوعی که می‌توان و باید به سرعت با آن مقابله کرد، استفاده از مطالب دارای حق چاپ برای آموزش LLM است. LLM ها برای درست کار کردن به دریافت مجموعه داده های عظیم متکی هستند، اما این بدان معنا نیست که آنها باید بتوانند از هر ماده ای که می توانند بیابند بدون اجازه یا پرداخت به صاحبان حقوق برای امتیاز استفاده کنند. این موضوعی است که دولت می تواند به سرعت به آن دست پیدا کند و باید این کار را انجام دهد.»

شایان ذکر است که کمیته ارتباطات و دیجیتال لردها به طور کامل سناریوهای روز قیامت را رد نمی کند. در واقع، این گزارش توصیه می‌کند که موسسه ایمنی هوش مصنوعی دولت باید «ارزیابی مسیرهای مهندسی به خطر فاجعه‌بار و شاخص‌های هشداردهنده را به عنوان یک اولویت فوری» انجام و منتشر کند.

علاوه بر این، این گزارش خاطرنشان می‌کند که یک «خطر امنیتی معتبر» ناشی از در دسترس بودن مدل‌های هوش مصنوعی قدرتمند که به راحتی می‌توانند مورد سوء استفاده قرار گیرند یا خراب شوند، وجود دارد. اما علیرغم این اعترافات، کمیته بر این باور است که ممنوعیت کامل چنین مدل‌هایی با توازن احتمال به نتیجه نرسیدن بدترین سناریوها و دشواری مطلق در ممنوعیت آنها، راه حلی نیست. و اینجاست که می بیند موسسه ایمنی هوش مصنوعی دولتی وارد بازی می شود، با توصیه هایی مبنی بر توسعه "راه های جدید" برای شناسایی و ردیابی مدل هایی که پس از استقرار در سناریوهای دنیای واقعی است.

این گزارش بيان کرد : «ممنوع کردن کامل آنها نامتناسب و احتمالاً بی‌اثر خواهد بود». اما یک تلاش هماهنگ برای نظارت و کاهش اثرات تجمعی مورد نیاز است.

پس ، در بیشتر موارد، گزارش نمی گوید که LLM ها و جنبش گسترده تر هوش مصنوعی با خطرات واقعی همراه نیستند. اما او میگوید که دولت باید استراتژی خود را با تمرکز کمتر بر «سناریوهای علمی تخیلی پایان جهان» «تعادل مجدد» کند و بیشتر بر روی مزایایی که ممکن است به همراه داشته باشد، تمرکز کند.

در این گزارش آمده است: «تمرکز دولت بیش از حد به سمت یک دیدگاه محدود از ایمنی هوش مصنوعی منحرف شده است. باید دوباره تعادل برقرار کند، وگرنه در استفاده از فرصت‌های LLM شکست خواهد خورد، از رقبای بین‌المللی عقب می‌ماند و از نظر استراتژیک به شرکت‌های فناوری خارج از کشور برای یک فناوری حیاتی وابسته می‌شود.»

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است