متن خبر

قانون هوش مصنوعی اتحادیه اروپا در ژورنال رسمی بلوک منتشر می شود و از مهلت های قانونی شروع می شود

قانون هوش مصنوعی اتحادیه اروپا در ژورنال رسمی بلوک منتشر می شود و از مهلت های قانونی شروع می شود

شناسهٔ خبر: 646224 -




متن کامل و نهایی قانون هوش مصنوعی اتحادیه اروپا، مقررات مهم مبتنی بر ریسک اتحادیه اروپا برای کاربردهای هوش مصنوعی، در مجله رسمی این اتحادیه منتشر شده است.

20 روز دیگر، در 1 آگوست، قانون جدید اجرایی خواهد شد و در 24 ماه - پس تا اواسط سال 2026 - مفاد آن به طور کلی برای توسعه دهندگان هوش مصنوعی قابل اجرا خواهد بود. با این حال، قانون رویکردی مرحله‌ای را برای اجرای دستورالعمل‌های هوش مصنوعی اتحادیه اروپا اتخاذ می‌کند، که به این معنی است که مهلت‌های متفاوتی از هم‌اکنون تا آن زمان وجود دارد - و برخی حتی بعداً - زیرا مقررات قانونی متفاوتی اعمال خواهند شد.

قانونگذاران اتحادیه اروپا در دسامبر سال گذشته به یک توافق سیاسی در مورد اولین دستورالعمل جامع این اتحادیه برای هوش مصنوعی دست یافتند.

این چارچوب، بسته به موارد استفاده و ریسک درک شده، تعهدات مختلفی را بر دوش توسعه دهندگان هوش مصنوعی می گذارد. اکثر موارد استفاده از هوش مصنوعی تحت نظارت قرار نخواهند گرفت زیرا کم خطر محسوب می شوند، اما تعداد کمی از موارد استفاده بالقوه برای هوش مصنوعی بر اساس قانون ممنوع شده است.

موارد استفاده به اصطلاح "پرخطر" - مانند استفاده‌های بیومتریک از هوش مصنوعی، یا هوش مصنوعی مورد استفاده در اجرای قانون، اشتغال، آموزش و زیرساخت‌های حیاتی - طبق قانون مجاز هستند، اما توسعه‌دهندگان چنین برنامه‌هایی در زمینه‌هایی مانند کیفیت داده‌ها و ضدیت با تعهداتی روبرو هستند. جانبداری.

سطح ریسک سوم نیز برخی از الزامات شفافیت سبک تر را برای سازندگان ابزارهایی مانند چت ربات های هوش مصنوعی اعمال می کند.

برای سازندگان مدل‌های هوش مصنوعی عمومی (GPAI) مانند GPT OpenAI، فناوری زیربنای ChatGPT، برخی الزامات شفافیت نیز وجود دارد. قدرتمندترین GPAIها که عموماً بر اساس آستانه محاسباتی تنظیم می‌شوند، می‌توانند برای ارزیابی ریسک سیستمی نیز مورد نیاز باشند.

لابی سنگین برخی از عناصر صنعت هوش مصنوعی با حمایت تعدادی از دولت های کشورهای عضو به دنبال کاهش تعهدات مربوط به GPAI به دلیل نگرانی هایی بود که قانون می تواند مانع از توانایی اروپا برای تولید غول های هوش مصنوعی داخلی برای رقابت با رقبای خود در ایالات متحده و چین شود.

اجرای مرحله ای

در مرحله اول، فهرست استفاده های ممنوعه از هوش مصنوعی شش ماه پس از اجرایی شدن قانون اعمال خواهد شد - پس در اوایل سال 2025.

موارد استفاده ممنوعه (یا «خطر غیرقابل قبول») برای هوش مصنوعی که به زودی غیرقانونی خواهد شد، شامل امتیازدهی اعتبار اجتماعی به سبک چینی است. جمع‌آوری پایگاه‌های اطلاعاتی تشخیص چهره با خراش دادن بدون هدف از اینترنت یا دوربین مدار بسته؛ استفاده از بیومتریک از راه دور بی‌درنگ توسط مجریان قانون در مکان‌های عمومی، مگر اینکه یکی از چندین استثنا اعمال شود، مانند جستجوی افراد مفقود یا ربوده شده.

در مرحله بعد، نه ماه پس از لازم‌الاجرا شدن - یعنی حدود آوریل 2025 - کدهای عملی روی توسعه‌دهندگان برنامه‌های هوش مصنوعی در محدوده اعمال خواهند شد.

دفتر هوش مصنوعی اتحادیه اروپا، یک نهاد اکوسیستم سازی و نظارتی که توسط قانون تأسیس شده است، مسئول ارائه این کدها است. اما اینکه چه کسی واقعاً دستورالعمل ها را می نویسد هنوز سؤالاتی را ایجاد می کند.

بر اساس گزارش Euractiv که پیش از این در ماه جاری منتشر شد، اتحادیه اروپا به دنبال شرکت‌های مشاوره برای پیش‌نویس کدها بوده است و این نگرانی‌ها را از سوی جامعه مدنی در مورد اینکه بازیگران صنعت هوش مصنوعی می‌توانند بر شکل قوانینی که برای آنها اعمال می‌شود تأثیر بگذارند، برانگیخته است. اخیراً، MLex گزارش داد که دفتر هوش مصنوعی فراخوانی را برای ابراز علاقه برای ذینفعان منتخب برای پیش‌نویس کدهای عملی برای مدل‌های هوش مصنوعی عمومی به دنبال فشار نمایندگان پارلمان اروپا برای فراگیر کردن فرآیند راه‌اندازی می‌کند.

یک ضرب‌الاجل کلیدی دیگر 12 ماه پس از لازم‌الاجرا شدن - یا 1 اوت 2025 - می‌رسد، زمانی که قوانین قانون در مورد GPAI که باید با الزامات شفافیت مطابقت داشته باشد، شروع به اعمال می‌کند.

به زیرمجموعه‌ای از سیستم‌های هوش مصنوعی پرخطر، سخاوتمندانه‌ترین مهلت انطباق داده شده است، به طوری که 36 ماه پس از لازم‌الاجرا شدن - تا سال 2027 - به آنها اجازه داده شد تا به تعهدات خود عمل کنند. سایر سیستم های پرخطر باید زودتر و پس از 24 ماه مطابقت داشته باشند.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است