قانون هوش مصنوعی اتحادیه اروپا در ژورنال رسمی بلوک منتشر می شود و از مهلت های قانونی شروع می شود
متن کامل و نهایی قانون هوش مصنوعی اتحادیه اروپا، مقررات مهم مبتنی بر ریسک اتحادیه اروپا برای کاربردهای هوش مصنوعی، در مجله رسمی این اتحادیه منتشر شده است.
20 روز دیگر، در 1 آگوست، قانون جدید اجرایی خواهد شد و در 24 ماه - پس تا اواسط سال 2026 - مفاد آن به طور کلی برای توسعه دهندگان هوش مصنوعی قابل اجرا خواهد بود. با این حال، قانون رویکردی مرحلهای را برای اجرای دستورالعملهای هوش مصنوعی اتحادیه اروپا اتخاذ میکند، که به این معنی است که مهلتهای متفاوتی از هماکنون تا آن زمان وجود دارد - و برخی حتی بعداً - زیرا مقررات قانونی متفاوتی اعمال خواهند شد.
قانونگذاران اتحادیه اروپا در دسامبر سال گذشته به یک توافق سیاسی در مورد اولین دستورالعمل جامع این اتحادیه برای هوش مصنوعی دست یافتند.
این چارچوب، بسته به موارد استفاده و ریسک درک شده، تعهدات مختلفی را بر دوش توسعه دهندگان هوش مصنوعی می گذارد. اکثر موارد استفاده از هوش مصنوعی تحت نظارت قرار نخواهند گرفت زیرا کم خطر محسوب می شوند، اما تعداد کمی از موارد استفاده بالقوه برای هوش مصنوعی بر اساس قانون ممنوع شده است.
موارد استفاده به اصطلاح "پرخطر" - مانند استفادههای بیومتریک از هوش مصنوعی، یا هوش مصنوعی مورد استفاده در اجرای قانون، اشتغال، آموزش و زیرساختهای حیاتی - طبق قانون مجاز هستند، اما توسعهدهندگان چنین برنامههایی در زمینههایی مانند کیفیت دادهها و ضدیت با تعهداتی روبرو هستند. جانبداری.
سطح ریسک سوم نیز برخی از الزامات شفافیت سبک تر را برای سازندگان ابزارهایی مانند چت ربات های هوش مصنوعی اعمال می کند.
برای سازندگان مدلهای هوش مصنوعی عمومی (GPAI) مانند GPT OpenAI، فناوری زیربنای ChatGPT، برخی الزامات شفافیت نیز وجود دارد. قدرتمندترین GPAIها که عموماً بر اساس آستانه محاسباتی تنظیم میشوند، میتوانند برای ارزیابی ریسک سیستمی نیز مورد نیاز باشند.
لابی سنگین برخی از عناصر صنعت هوش مصنوعی با حمایت تعدادی از دولت های کشورهای عضو به دنبال کاهش تعهدات مربوط به GPAI به دلیل نگرانی هایی بود که قانون می تواند مانع از توانایی اروپا برای تولید غول های هوش مصنوعی داخلی برای رقابت با رقبای خود در ایالات متحده و چین شود.
اجرای مرحله ای
در مرحله اول، فهرست استفاده های ممنوعه از هوش مصنوعی شش ماه پس از اجرایی شدن قانون اعمال خواهد شد - پس در اوایل سال 2025.
موارد استفاده ممنوعه (یا «خطر غیرقابل قبول») برای هوش مصنوعی که به زودی غیرقانونی خواهد شد، شامل امتیازدهی اعتبار اجتماعی به سبک چینی است. جمعآوری پایگاههای اطلاعاتی تشخیص چهره با خراش دادن بدون هدف از اینترنت یا دوربین مدار بسته؛ استفاده از بیومتریک از راه دور بیدرنگ توسط مجریان قانون در مکانهای عمومی، مگر اینکه یکی از چندین استثنا اعمال شود، مانند جستجوی افراد مفقود یا ربوده شده.
در مرحله بعد، نه ماه پس از لازمالاجرا شدن - یعنی حدود آوریل 2025 - کدهای عملی روی توسعهدهندگان برنامههای هوش مصنوعی در محدوده اعمال خواهند شد.
دفتر هوش مصنوعی اتحادیه اروپا، یک نهاد اکوسیستم سازی و نظارتی که توسط قانون تأسیس شده است، مسئول ارائه این کدها است. اما اینکه چه کسی واقعاً دستورالعمل ها را می نویسد هنوز سؤالاتی را ایجاد می کند.
بر اساس گزارش Euractiv که پیش از این در ماه جاری منتشر شد، اتحادیه اروپا به دنبال شرکتهای مشاوره برای پیشنویس کدها بوده است و این نگرانیها را از سوی جامعه مدنی در مورد اینکه بازیگران صنعت هوش مصنوعی میتوانند بر شکل قوانینی که برای آنها اعمال میشود تأثیر بگذارند، برانگیخته است. اخیراً، MLex گزارش داد که دفتر هوش مصنوعی فراخوانی را برای ابراز علاقه برای ذینفعان منتخب برای پیشنویس کدهای عملی برای مدلهای هوش مصنوعی عمومی به دنبال فشار نمایندگان پارلمان اروپا برای فراگیر کردن فرآیند راهاندازی میکند.
یک ضربالاجل کلیدی دیگر 12 ماه پس از لازمالاجرا شدن - یا 1 اوت 2025 - میرسد، زمانی که قوانین قانون در مورد GPAI که باید با الزامات شفافیت مطابقت داشته باشد، شروع به اعمال میکند.
به زیرمجموعهای از سیستمهای هوش مصنوعی پرخطر، سخاوتمندانهترین مهلت انطباق داده شده است، به طوری که 36 ماه پس از لازمالاجرا شدن - تا سال 2027 - به آنها اجازه داده شد تا به تعهدات خود عمل کنند. سایر سیستم های پرخطر باید زودتر و پس از 24 ماه مطابقت داشته باشند.
ارسال نظر