متن خبر

امضا یا وتو: لایحه فاجعه هوش مصنوعی کالیفرنیا، SB 1047 چه چیزی در آینده است؟

امضا یا وتو: لایحه فاجعه هوش مصنوعی کالیفرنیا، SB 1047 چه چیزی در آینده است؟

شناسهٔ خبر: 726197 -




لایحه بحث برانگیز کالیفرنیا برای جلوگیری از بلایای هوش مصنوعی، SB 1047، در مجلس سنای این ایالت به رای نهایی رسیده و اکنون به میز فرماندار گاوین نیوسام می رود. او باید شدیدترین خطرات نظری سیستم‌های هوش مصنوعی - از جمله نقش بالقوه آنها در مرگ انسان‌ها - را در مقابل خنثی کردن بالقوه رونق هوش مصنوعی کالیفرنیا بسنجید. او تا 30 سپتامبر فرصت دارد تا SB 1047 را امضا کند و یا به طور کلی آن را وتو کند.

SB 1047 که توسط سناتور ایالتی اسکات وینر معرفی شد، با هدف جلوگیری از احتمال ایجاد رویدادهای فاجعه آمیز توسط مدل های بسیار بزرگ هوش مصنوعی، مانند تلفات جانی یا حملات سایبری با هزینه بیش از 500 میلیون دلار، جلوگیری می کند.

برای روشن بودن، امروزه تعداد بسیار کمی از مدل‌های هوش مصنوعی وجود دارند که به اندازه کافی بزرگ هستند که تحت پوشش این لایحه قرار گیرند، و هوش مصنوعی هرگز برای حمله سایبری در این مقیاس استفاده نشده است. اما این لایحه مربوط به آینده مدل های هوش مصنوعی است، نه مشکلاتی که امروز وجود دارد.

SB 1047 توسعه‌دهندگان مدل‌های هوش مصنوعی را مسئول آسیب‌هایشان می‌کند - مانند مسئول ساختن تولیدکنندگان اسلحه در قبال تیراندازی‌های دسته‌جمعی - و به دادستان کل کالیفرنیا این اختیار را می‌دهد که از شرکت‌های هوش مصنوعی برای مجازات‌های سنگین در صورت استفاده از فناوری آنها در یک رویداد فاجعه‌بار شکایت کند. در صورتی که یک شرکت بی احتیاطی عمل کند، دادگاه می تواند به آنها دستور دهد که عملیات را متوقف کنند. مدل‌های تحت پوشش نیز باید دارای یک "سوئیچ کشتن" باشند که در صورت خطرناک تلقی می‌شوند، خاموش شوند.

این لایحه می‌تواند صنعت هوش مصنوعی آمریکا را تغییر دهد و امضایی از تبدیل شدن به قانون است. در اینجا نحوه عملکرد آینده SB 1047 آمده است.

چرا Newsom ممکن است آن را امضا کند

وینر استدلال می‌کند که سیلیکون ولی به مسئولیت بیشتری نیاز دارد، و قبلاً به TechCrunch گفته بود که آمریکا باید از شکست‌های گذشته خود در تنظیم فناوری درس بگیرد. Newsom می تواند انگیزه داشته باشد تا قاطعانه در مورد مقررات هوش مصنوعی عمل کند و Big Tech را پاسخگو نگه دارد.

تعدادی از مدیران هوش مصنوعی نسبت به SB 1047 خوشبینانه محتاطانه ظاهر شده اند، از جمله ایلان ماسک.

یکی دیگر از خوشبینان محتاط در SB 1047، سوفیا ولاستگی، مدیر ارشد سابق هوش مصنوعی مایکروسافت است. او به TechCrunch بيان کرد که "SB 1047 مصالحه خوبی است"، در حالی که اعتراف کرد که این صورتحساب کامل نیست. "من فکر می کنم ما به یک دفتر هوش مصنوعی مسئول برای آمریکا یا هر کشوری که روی آن کار می کند نیاز داریم. ولاستگی گفت: نباید فقط مایکروسافت باشد.

Anthropic یکی دیگر از حامیان محتاط SB 1047 است، اگرچه این شرکت موضع رسمی در مورد این لایحه اتخاذ نکرده است. چندین مورد از تغییرات پیشنهادی این استارتاپ به SB 1047 اضافه شد و داریو آمودی، مدیرعامل این لایحه اکنون در نامه ای به فرماندار کالیفرنیا می گوید "مزایای این لایحه احتمالاً بیشتر از هزینه های آن است". به لطف اصلاحات آنتروپیک، شرکت‌های هوش مصنوعی تنها زمانی می‌توانند شکایت کنند که مدل‌های هوش مصنوعی آنها آسیب فاجعه‌باری ایجاد کند، نه قبل از آن، همانطور که نسخه قبلی SB 1047 بیان کرد.

چرا Newsom ممکن است آن را وتو کند

با توجه به مخالفت پر سر و صدای صنعت با این لایحه، تعجب آور نخواهد بود که نیوسام آن را وتو کند. اگر او آن را امضا کند، شهرت خود را در SB 1047 آویزان می کند، اما اگر وتو کند، می تواند یک سال دیگر قوطی را از بین ببرد یا اجازه دهد کنگره آن را مدیریت کند.

مارتین کاسادو، شریک عمومی Andreessen Horowitz، در مصاحبه ای با TechCrunch گفت: «این [SB 1047] سابقه ای را تغییر می دهد که ما برای 30 سال با سیاست های نرم افزاری سروکار داشته ایم. "این مسئولیت را از برنامه ها دور می کند و آن را در زیرساخت ها اعمال می کند، کاری که ما هرگز انجام نداده ایم."

صنعت فناوری با اعتراض شدیدی علیه SB 1047 پاسخ داده است. در کنار a16z، سخنران نانسی پلوسی، OpenAI، گروه های تجاری Big Tech و محققان برجسته هوش مصنوعی نیز از Newsom می خواهند که این لایحه را امضا نکند. آنها نگرانند که این تغییر پارادایم در مسئولیت تأثیری سرد کننده بر نوآوری هوش مصنوعی کالیفرنیا داشته باشد.

تأثیر سرد کننده بر اقتصاد استارتاپ آخرین چیزی است که هر کسی می خواهد. رونق هوش مصنوعی یک محرک بزرگ برای اقتصاد آمریکا بوده است و نیوسام با فشار مواجه است تا آن را هدر ندهد. حتی اتاق بازرگانی ایالات متحده در نامه ای به نیوسام از نیوسام خواسته است که این لایحه را وتو کند و گفت: "هوش مصنوعی برای رشد اقتصادی آمریکا اساسی است. "

اگر SB 1047 قانون شود

منبعی که در تهیه پیش نویس SB 1047 دخیل است به TechCrunch می گوید اگر Newsom لایحه را امضا کند، هیچ اتفاقی در روز اول نمی افتد.

تا اول ژانویه 2025، شرکت های فناوری باید گزارش های ایمنی را برای مدل های هوش مصنوعی خود بنویسند. در این مرحله، دادستان کل کالیفرنیا می‌تواند از یک شرکت هوش مصنوعی درخواست کند تا در صورت خطرناک بودن مدل‌های هوش مصنوعی، آموزش یا عملیاتی کردن مدل‌های هوش مصنوعی خود را متوقف کند.

در سال 2026، تعداد بیشتری از این صورتحساب وارد چرخه می شود. در آن مرحله، هیئت مدل های مرزی ایجاد می شود و شروع به جمع آوری گزارش های ایمنی از شرکت های فناوری می کند. هیئت 9 نفره ای که توسط فرماندار و قانونگذار کالیفرنیا انتخاب شده است، توصیه هایی را به دادستان کل کالیفرنیا در مورد اینکه کدام شرکت ها رعایت می کنند و کدام شرکت ها را رعایت نمی کنند، ارائه می کند.

در همان سال، SB 1047 همچنین مستلزم آن بود که توسعه دهندگان مدل هوش مصنوعی حسابرسانی را برای ارزیابی عملکردهای ایمنی خود استخدام کنند و به طور موثر صنعت جدیدی را برای رعایت ایمنی هوش مصنوعی ایجاد کنند. و دادستان کل کالیفرنیا می تواند در صورت استفاده از ابزارهای توسعه دهندگان مدل هوش مصنوعی در رویدادهای فاجعه بار، شکایت کند.

تا سال 2027، هیئت مدل های مرزی می تواند شروع به صدور راهنمایی برای توسعه دهندگان مدل های هوش مصنوعی در مورد نحوه آموزش ایمن و ایمن مدل های هوش مصنوعی کند.

اگر SB 1047 وتو شود

اگر Newsom SB 1047 را وتو کند، خواسته‌های OpenAI محقق می‌شود و تنظیم‌کننده‌های فدرال احتمالاً در تنظیم مدل‌های AI پیشتاز خواهند شد ... در نهایت.

روز پنجشنبه، OpenAI و Anthropic پایه و اساس قوانین فدرال هوش مصنوعی را ایجاد کردند. طبق یک بیانیه مطبوعاتی، آنها موافقت کردند که به موسسه ایمنی هوش مصنوعی، یک نهاد فدرال، دسترسی زودهنگام به مدل های پیشرفته هوش مصنوعی خود را بدهند. در همان زمان، OpenAI لایحه‌ای را تایید کرده است که به موسسه ایمنی هوش مصنوعی اجازه می‌دهد استانداردهایی را برای مدل‌های هوش مصنوعی تعیین کند.

سام آلتمن، مدیر عامل OpenAI در روز پنجشنبه در توییتی نوشت: «به دلایل زیادی، ما فکر می‌کنیم مهم است که این اتفاق در سطح ملی رخ دهد.

با خواندن بین خطوط، آژانس‌های فدرال معمولاً مقررات فنی سخت‌تری نسبت به کالیفرنیا تولید می‌کنند و انجام آن به میزان قابل توجهی زمان می‌برد. اما بیش از آن، سیلیکون ولی از لحاظ تاریخی یک شریک تاکتیکی و تجاری مهم برای دولت ایالات متحده بوده است.

کاسادو او میگوید : «در واقع سابقه طولانی‌ای از پیشرفته‌ترین سیستم‌های رایانه‌ای وجود دارد که با فدرال رزرو کار می‌کنند. وقتی برای آزمایشگاه‌های ملی کار می‌کردم، هر بار که یک ابرکامپیوتر جدید بیرون می‌آمد، اولین نسخه آن به دولت می‌رفت. ما این کار را انجام می‌دهیم تا دولت توانایی‌هایی داشته باشد و من فکر می‌کنم این دلیل بهتری نسبت به آزمایش ایمنی است. »

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است