متن خبر

ایالات متحده، بریتانیا و اتحادیه اروپا پیمان ایمنی سطح بالای هوش مصنوعی شورای اروپا را امضا کردند

ایالات متحده، بریتانیا و اتحادیه اروپا پیمان ایمنی سطح بالای هوش مصنوعی شورای اروپا را امضا کردند

شناسهٔ خبر: 732654 -




ما به جزئیات دقیقی در مورد چگونگی اجرای دقیق و تضمین مقررات هوش مصنوعی نزدیک نیستیم، اما امروز گروهی از کشورها از جمله ایالات متحده، بریتانیا و اتحادیه اروپا معاهده ای را در مورد ایمنی هوش مصنوعی امضا کردند. شورای اروپا (COE)، یک سازمان بین المللی استانداردها و حقوق بشر.

کنوانسیون چارچوب شورای اروپا در مورد هوش مصنوعی و حقوق بشر، دموکراسی و حاکمیت قانون - همانطور که این معاهده به طور رسمی نامیده می شود - توسط COE به عنوان "اولین معاهده بین المللی الزام آور قانونی با هدف اطمینان از استفاده از سیستم‌های هوش مصنوعی کاملاً با حقوق بشر، دموکراسی و حاکمیت قانون سازگار است. »

در نشست امروز در ویلنیوس، لیتوانی، این معاهده به طور رسمی برای امضا باز شد. در کنار سه بازار عمده فوق الذکر، سایر امضاکنندگان عبارتند از آندورا، گرجستان، ایسلند، نروژ، جمهوری مولداوی، سن مارینو و اسرائیل.

این فهرست به این معنی است که چارچوب COE تعدادی از کشورهایی را که برخی از بزرگ‌ترین شرکت‌های هوش مصنوعی جهان در آن‌ها مقر هستند یا در حال ساخت عملیات‌های قابل توجهی هستند، جمع‌آوری کرده است. اما شاید کشورهایی که تاکنون در این فهرست قرار نگرفته اند، به همان اندازه مهم باشند: مثلاً هیچ کدام در آسیا، خاورمیانه و یا روسیه.

این معاهده سطح بالا بر روی چگونگی تلاقی هوش مصنوعی با سه حوزه اصلی تمرکز دارد: حقوق بشر، که شامل محافظت در برابر سوء استفاده از داده ها و تبعیض، و تضمین حریم خصوصی است. حفاظت از دموکراسی؛ و حمایت از "حاکمیت قانون". اساساً سومین مورد از این کشورها، کشورهای امضاکننده را متعهد می‌کند که تنظیم‌کننده‌هایی را برای محافظت در برابر "خطرات هوش مصنوعی" ایجاد کنند. (مشخص نمی کند که این خطرات چه چیزی ممکن است باشند، اما همچنین یک الزام دایره ای است که به دو حوزه اصلی دیگری که به آن توجه می کند اشاره دارد.)

هدف خاص تر این معاهده به اندازه حوزه هایی است که می خواهد به آن رسیدگی کند. COE خاطرنشان می کند: "این معاهده یک چارچوب قانونی ارائه می دهد که کل چرخه حیات سیستم های هوش مصنوعی را پوشش می دهد." "این پیشرفت و نوآوری هوش مصنوعی را ترویج می کند، در حالی که خطراتی را که ممکن است برای حقوق بشر، دموکراسی و حاکمیت قانون ایجاد کند، مدیریت می کند. برای تحمل آزمایش زمان، از نظر فناوری خنثی است. »

(برای پیشینه: COE یک نهاد قانونگذار نیست، اما در پی جنگ جهانی دوم با وظیفه ای برای حمایت از حقوق بشر، دموکراسی و سیستم های حقوقی اروپا تأسیس شد. این معاهدات را تنظیم می کند که از نظر قانونی برای امضاکنندگان آن الزام آور است و آنها را اجرا می کند. به عنوان مثال، این سازمان پشت دادگاه حقوق بشر اروپا است. )

مقررات هوش مصنوعی یک سیب زمینی داغ در دنیای فناوری بوده است که در میان ماتریس پیچیده ای از سهامداران پرتاب شده است.

ناظران مختلف ضد انحصار، حفاظت از داده‌ها، مالی و ارتباطات - احتمالاً به این فکر می‌کنند که چگونه دیگر نوآوری‌ها و مشکلات تکنولوژیک را پیش‌بینی نکرده‌اند - اقدامات اولیه‌ای را انجام داده‌اند تا تلاش کنند چگونه تسلط بهتری بر هوش مصنوعی داشته باشند.

به نظر می رسد ایده این است که اگر هوش مصنوعی نشان دهنده تغییر بزرگی در نحوه عملکرد جهان باشد، اگر به دقت رصد نشود، ممکن است همه این تغییرات به بهترین شکل ظاهر نشوند، پس مهم است که فعال باشیم. با این حال، در میان تنظیم‌کننده‌ها نیز به وضوح در مورد فراتر رفتن از حد مجاز و متهم شدن به کاهش نوآوری با اقدام خیلی زودهنگام یا استفاده از یک قلم موی بسیار گسترده، عصبی بودن وجود دارد.

شرکت‌های هوش مصنوعی نیز زودتر اعلام کردند که آنها نیز به همان اندازه به چیزی که به عنوان ایمنی هوش مصنوعی توصیف می‌شود علاقه‌مند هستند. بدبین ها منافع خصوصی را به عنوان تسخیر نظارتی توصیف می کنند. خوش بینان معتقدند که شرکت ها به صندلی هایی در جدول نظارتی نیاز دارند تا در مورد آنچه انجام می دهند و آنچه ممکن است در آینده برای اطلاع رسانی در مورد سیاست ها و قوانین مناسب در راه است ارتباط برقرار کنند.

سیاستمداران نیز همیشه حضور دارند، گاهی اوقات از تنظیم‌کننده‌ها حمایت می‌کنند، اما گاهی موضعی حتی طرفدار کسب‌وکار دارند که منافع شرکت‌ها را به نام رشد اقتصاد کشورهایشان متمرکز می‌کند. (آخرین دولت بریتانیا در این اردوگاه تشویق کننده هوش مصنوعی سقوط کرد. )

این ترکیب مجموعه‌ای از چارچوب‌ها و بیانیه‌ها را تولید کرده است، مانند مواردی که از رویدادهایی مانند اجلاس ایمنی هوش مصنوعی بریتانیا در سال ۲۰۲۳ یا فرآیند هوش مصنوعی هیروشیما به رهبری G7 یا قطعنامه‌ای که در اوایل سال جاری توسط سازمان ملل به تصویب رسید. ما همچنین شاهد تاسیس موسسات ایمنی هوش مصنوعی مستقر در کشور بوده ایم که مقررات منطقه ای مانند لایحه SB 1047 در کالیفرنیا، قانون هوش مصنوعی اتحادیه اروپا و موارد دیگر را ایجاد کرده اند.

به نظر می رسد که معاهده COE امیدوار است راهی برای هماهنگی همه این تلاش ها فراهم کند.

وزارت دادگستری بریتانیا در بیانیه امضای این معاهده بيان کرد : «این معاهده تضمین می‌کند که کشورها بر توسعه آن نظارت می‌کنند و اطمینان می‌دهند که هر فناوری در چارچوب پارامترهای دقیق مدیریت می‌شود». پس از تصویب و اجرایی شدن این معاهده در بریتانیا، قوانین و اقدامات موجود تقویت خواهد شد.

ماریا پژچینوویچ بوریک، دبیر کل COE در بیانیه ای گفت: «ما باید اطمینان حاصل کنیم که افزایش هوش مصنوعی استانداردهای ما را حفظ می کند، نه اینکه آنها را تضعیف کنیم. «کنوانسیون چارچوب برای تضمین این امر طراحی شده است. این یک متن قوی و متعادل است - نتیجه رویکرد باز و فراگیر که توسط آن پیش نویس تهیه شد و تضمین کرد که از دیدگاه های متعدد و متخصص بهره می برد.

«کنوانسیون چارچوب یک معاهده باز با دامنه بالقوه جهانی است. من امیدوارم که این اولین امضا از بسیاری از امضاها باشد و به سرعت تصویب شود تا این معاهده در اسرع وقت لازم‌الاجرا شود.»

در حالی که کنوانسیون چارچوب اولیه برای اولین بار توسط کمیته وزرای COE در ماه مه 2024 مورد مذاکره و تصویب قرار گرفت، رسماً "در اولین روز ماه پس از انقضای دوره سه ماهه پس از تاریخی که در آن پنج امضاکننده، لازم الاجرا خواهد شد، از جمله حداقل سه کشور عضو شورای اروپا، آن را تصویب کرده اند.

به عبارت دیگر، کشورهایی که روز پنج‌شنبه آن را امضا کرده‌اند، همچنان باید به‌صورت جداگانه آن را تصویب کنند و از آن زمان سه ماه دیگر طول می‌کشد تا مقررات اجرایی شود.

مشخص نیست که این فرآیند چقدر ممکن است طول بکشد. برای مثال، بریتانیا گفته است که قصد دارد روی قوانین هوش مصنوعی کار کند، اما جدول زمانی مشخصی برای زمان ارائه پیش‌نویس لایحه تعیین نکرده است. به طور خاص در چارچوب COE، فقط او میگوید که به‌روزرسانی‌های بیشتری در مورد اجرای آن «در زمان مناسب» خواهد داشت.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است