متن خبر

لایحه هوش مصنوعی کالیفرنیا SB 1047 با هدف جلوگیری از فاجعه های هوش مصنوعی است، اما سیلیکون ولی هشدار می دهد که باعث بروز یک فاجعه می شود.

لایحه هوش مصنوعی کالیفرنیا SB 1047 با هدف جلوگیری از فاجعه های هوش مصنوعی است، اما سیلیکون ولی هشدار می دهد که باعث بروز یک فاجعه می شود.

شناسهٔ خبر: 720951 -




به روز رسانی: کمیته تخصیصات کالیفرنیا SB 1047 را با اصلاحات قابل توجهی تصویب کرد که این لایحه را در روز پنجشنبه، 15 اوت تغییر می دهد. می توانید در مورد آنها اینجا بخوانید.

خارج از فیلم های علمی تخیلی، هیچ سابقه ای وجود ندارد که سیستم های هوش مصنوعی افراد را بکشند یا در حملات سایبری گسترده استفاده شوند. با این حال، برخی از قانون‌گذاران می‌خواهند قبل از اینکه بازیگران بد آن آینده دیستوپیایی را به واقعیت تبدیل کنند، تدابیری را اجرا کنند. یک لایحه در کالیفرنیا، معروف به SB 1047، تلاش می‌کند تا بلایای دنیای واقعی ناشی از سیستم‌های هوش مصنوعی را قبل از وقوع متوقف کند. در ماه اوت به تصویب سنای ایالت رسید و اکنون در انتظار تایید یا وتو از سوی فرماندار کالیفرنیا گاوین نیوسام است.

در حالی که به نظر می رسد این هدفی است که همه ما می توانیم در مورد آن توافق داشته باشیم، SB 1047 خشم بازیگران بزرگ و کوچک سیلیکون ولی، از جمله سرمایه گذاران خطرپذیر، گروه های تجاری بزرگ فناوری، محققان و بنیانگذاران استارت آپ را برانگیخته است. بسیاری از صورت‌حساب‌های هوش مصنوعی در حال حاضر در سراسر کشور در حال پرواز هستند، اما قانون نوآوری ایمن و مطمئن کالیفرنیا برای مدل‌های هوش مصنوعی مرزی به یکی از بحث‌برانگیزترین قانون تبدیل شده است. در اینجا دلیل آن است.

SB 1047 چه کاری انجام می دهد؟

SB 1047 سعی می کند از استفاده از مدل های بزرگ هوش مصنوعی برای ایجاد "آسیب های حیاتی" علیه بشریت جلوگیری کند.

این لایحه نمونه‌هایی از «آسیب‌های حیاتی» را به‌عنوان یک بازیگر بد که از مدل هوش مصنوعی استفاده می‌کند برای ایجاد سلاحی که منجر به تلفات جمعی می‌شود، یا دستور سازماندهی یک حمله سایبری که بیش از 500 میلیون دلار خسارت ایجاد می‌کند، ارائه می‌کند (برای مقایسه، قطعی CrowdStrike تخمین زده می‌شود. بیش از 5 میلیارد دلار ایجاد کرده است). این لایحه توسعه دهندگان را - یعنی شرکت هایی که مدل ها را توسعه می دهند - مسئول اجرای پروتکل های ایمنی کافی برای جلوگیری از چنین نتایجی می کند.

چه مدل ها و شرکت هایی مشمول این قوانین هستند؟

قوانین SB 1047 فقط برای بزرگترین مدل های هوش مصنوعی جهان اعمال می شود: مدل هایی که حداقل 100 میلیون دلار هزینه دارند و از 10^26 FLOPS (عملیات ممیز شناور، روشی برای اندازه گیری محاسبات) در طول آموزش استفاده می کنند. این حجم عظیمی از محاسبه است، اگرچه سام آلتمن، مدیر عامل OpenAI، بيان کرد که آموزش GPT-4 تقریباً این مقدار هزینه دارد. در صورت نیاز می توان این آستانه ها را افزایش داد.

امروزه تعداد کمی از شرکت‌ها محصولات هوش مصنوعی عمومی را به اندازه کافی بزرگ ساخته‌اند که این نیازها را برآورده کنند، اما غول‌های فناوری مانند OpenAI، گوگل و مایکروسافت احتمالاً خیلی زود این کار را خواهند کرد. مدل‌های هوش مصنوعی - اساساً موتورهای آماری عظیمی که الگوهای داده‌ها را شناسایی و پیش‌بینی می‌کنند - معمولاً با بزرگ‌تر شدن دقیق‌تر شده‌اند، روندی که بسیاری انتظار دارند ادامه یابد. مارک زاکربرگ اخیراً گفته است که نسل بعدی لاما متا به 10 برابر محاسبات بیشتر نیاز دارد که آن را تحت اختیار SB 1047 قرار می دهد.

وقتی نوبت به مدل‌های منبع باز و مشتقات آن‌ها می‌رسد، این صورت‌حساب مشخص می‌کند که توسعه‌دهنده اصلی مسئول است، مگر اینکه توسعه‌دهنده دیگری ۱۰ میلیون دلار دیگر برای ایجاد مشتقی از مدل اصلی هزینه کند.

این لایحه همچنین نیازمند یک پروتکل ایمنی برای جلوگیری از سوء استفاده از محصولات تحت پوشش هوش مصنوعی، از جمله دکمه «توقف اضطراری» است که کل مدل هوش مصنوعی را خاموش می‌کند. توسعه‌دهندگان همچنین باید رویه‌های آزمایشی ایجاد کنند که خطرات ناشی از مدل‌های هوش مصنوعی را تحلیل کند و باید سالانه حسابرسان شخص ثالث را برای ارزیابی شیوه‌های ایمنی هوش مصنوعی استخدام کنند.

نتیجه باید «اطمینان معقول» باشد که پیروی از این پروتکل‌ها از آسیب‌های مهم جلوگیری می‌کند - نه اطمینان مطلق، که البته ارائه آن غیرممکن است.

چه کسی و چگونه آن را اجرا می کند؟

یک آژانس جدید کالیفرنیا، هیئت مدل های مرزی، بر قوانین نظارت خواهد کرد. هر مدل هوش مصنوعی عمومی جدیدی که آستانه‌های SB 1047 را برآورده می‌کند، باید به صورت جداگانه با یک نسخه کتبی از پروتکل ایمنی آن تأیید شود.

هیئت مدل‌های مرزی توسط 9 نفر، از جمله نمایندگانی از صنعت هوش مصنوعی، جامعه منبع باز و دانشگاهی که توسط فرماندار و مجلس قانونگذاری کالیفرنیا منصوب می‌شوند، اداره خواهد شد. هیئت مدیره به دادستان کل کالیفرنیا در مورد نقض احتمالی SB 1047 مشاوره خواهد داد و راهنمایی هایی را برای توسعه دهندگان مدل هوش مصنوعی در مورد اقدامات ایمنی صادر خواهد کرد.

مدیر ارشد فناوری یک توسعه‌دهنده باید گواهینامه سالانه‌ای را به هیئت مدیره ارائه کند که خطرات بالقوه مدل هوش مصنوعی را ارزیابی می‌کند، پروتکل ایمنی چقدر مؤثر است و شرحی از نحوه پیروی شرکت با SB 1047. مشابه اعلان‌های نقض، در صورت بروز «حادثه ایمنی هوش مصنوعی» ” رخ می دهد، توسعه دهنده باید آن را ظرف 72 ساعت پس از اطلاع از حادثه به FMD گزارش دهد.

اگر اقدامات ایمنی یک توسعه‌دهنده ناکافی تشخیص داده شود، SB 1047 به دادستان کل کالیفرنیا اجازه می‌دهد تا حکمی را علیه توسعه‌دهنده صادر کند. این می تواند به این معنی باشد که توسعه دهنده باید عملیات یا آموزش مدل خود را متوقف کند.

اگر واقعاً مشخص شود که یک مدل هوش مصنوعی در یک رویداد فاجعه بار استفاده می شود، دادستان کل کالیفرنیا می تواند از شرکت شکایت کند. برای مدلی که هزینه آموزش آن 100 میلیون دلار است، جریمه در اولین تخلف ممکن است به 10 میلیون دلار و در تخلفات بعدی به 30 میلیون دلار برسد. این نرخ جریمه با گران شدن مدل‌های هوش مصنوعی افزایش می‌یابد.

در نهایت، این لایحه شامل محافظت از افشاگران برای کارمندان در صورت تلاش برای افشای اطلاعات مربوط به یک مدل هوش مصنوعی ناامن به دادستان کل کالیفرنیا است.

موافقان چه می گویند؟

سناتور ایالت کالیفرنیا، اسکات وینر، نویسنده این لایحه و نماینده سانفرانسیسکو، به TechCrunch می گوید که SB 1047 تلاشی است برای عبرت گرفتن از شکست های سیاست گذشته در رسانه های اجتماعی و حریم خصوصی داده ها و محافظت از شهروندان قبل از اینکه خیلی دیر شود.

وینر گفت: "ما سابقه ای در زمینه فناوری داریم که منتظر وقوع آسیب و سپس فشار دادن دستان خود هستیم." بیایید منتظر اتفاق بد نباشیم. بیایید جلوتر برویم.»

حتی اگر شرکتی یک مدل 100 میلیون دلاری را در تگزاس یا فرانسه آموزش دهد، تا زمانی که در کالیفرنیا تجارت کند تحت پوشش SB 1047 قرار خواهد گرفت. وینر او میگوید که کنگره «قانون‌گذاری بسیار کمی در مورد فناوری در ربع قرن گذشته» انجام داده است، پس او فکر می‌کند که این به کالیفرنیا بستگی دارد که در اینجا سابقه ایجاد کند.

وقتی از وینر پرسیده شد که آیا با OpenAI و Meta در SB 1047 ملاقات کرده است یا خیر، وینر می گوید: "ما با همه آزمایشگاه های بزرگ ملاقات کرده ایم."

جفری هینتون و یوشوا بنجیو، دو محقق هوش مصنوعی که گاهی اوقات «پدرخوانده هوش مصنوعی» نامیده می شوند، از این لایحه حمایت کرده اند. این دو متعلق به گروهی از جامعه هوش مصنوعی هستند که نگران سناریوهای خطرناک و روز رستاخیز هستند که فناوری هوش مصنوعی می تواند ایجاد کند. این "محافظان هوش مصنوعی" برای مدتی در دنیای تحقیقات وجود داشته اند و SB 1047 می تواند برخی از پادمان های ترجیحی آنها را به قانون تبدیل کند. گروه دیگری که از SB 1047 حمایت می کند، مرکز ایمنی هوش مصنوعی، در ماه مه 2023 نامه ای سرگشاده نوشت و از جهان درخواست کرد که «کاهش خطر انقراض از هوش مصنوعی» را به جدیت همه گیرها یا جنگ هسته ای در اولویت قرار دهد.

دن هندریکس، مدیر مرکز ایمنی هوش مصنوعی، در ایمیلی به این موضوع گفت: «این به نفع بلندمدت صنعت در کالیفرنیا و ایالات متحده است، زیرا یک حادثه ایمنی بزرگ احتمالاً بزرگترین مانع برای پیشرفت بیشتر خواهد بود. TechCrunch.

اخیراً انگیزه های خود هندریکس زیر سوال رفته است. طبق بیانیه مطبوعاتی، او در ماه جولای، استارت‌آپ Grey Swan را به صورت عمومی راه‌اندازی کرد که «ابزارهایی برای کمک به شرکت‌ها برای ارزیابی خطرات سیستم‌های هوش مصنوعی خود» می‌سازد. به دنبال انتقاداتی مبنی بر اینکه استارت آپ هندریکس می تواند در صورت تصویب این لایحه به سود خود برسد، به طور بالقوه به دلیل اینکه یکی از حسابرسان SB 1047 نیاز به استخدام توسعه دهندگان دارد، او سهام خود را در Grey Swan واگذار کرد.

هندریکس در ایمیلی به TechCrunch گفت: «من واگذار کردم تا سیگنال واضحی ارسال کنم. "اگر میلیاردر VC مخالف ایمنی هوش مصنوعی متعارف می خواهد نشان دهد که انگیزه های خود خالص است، اجازه دهید آنها را دنبال کنند."

پس از اینکه چندین اصلاحیه پیشنهادی آنتروپیک به SB 1047 اضافه شد، داریو آمودی، مدیرعامل، نامه‌ای صادر کرد و گفت: «مزایای این لایحه احتمالاً بیشتر از هزینه‌های آن است». این یک تایید نیست، اما یک سیگنال گرم از حمایت است. اندکی پس از آن، ایلان ماسک اعلام کرد که موافق این لایحه است.

مخالفان چه می گویند؟

گروه کر رو به رشدی از بازیکنان سیلیکون ولی با SB 1047 مخالفت می کنند.

«مخالف VC میلیاردر» هندریکس احتمالاً به a16z اشاره دارد، شرکتی که توسط مارک اندرسن و بن هوروویتز تأسیس شد و به شدت با SB 1047 مخالفت کرده است. در اوایل ماه اوت، جایکومار راماسوامی، مدیر ارشد حقوقی شرکت خطرپذیر، نامه ای به سناتور وینر ارائه کرد. ، ادعا می کند که این لایحه "به دلیل آستانه های خودسرانه و در حال تغییر، بار استارتاپ ها را سنگین می کند" و تأثیری سرد بر اکوسیستم هوش مصنوعی ایجاد می کند. با پیشرفت فناوری هوش مصنوعی، گران‌تر می‌شود، به این معنی که استارت‌آپ‌های بیشتری از آستانه 100 میلیون دلاری عبور خواهند کرد و تحت پوشش SB 1047 قرار خواهند گرفت. a16z او میگوید که چندین استارت‌آپ آن‌ها در حال حاضر این مقدار را برای مدل‌های آموزشی دریافت می‌کنند.

Fei-Fei Li که اغلب مادرخوانده هوش مصنوعی نامیده می شود، در اوایل ماه اوت سکوت خود را در SB 1047 شکست و در ستون Fortune نوشت که این صورتحساب به اکوسیستم هوش مصنوعی در حال رشد ما آسیب می رساند. در حالی که لی یک پیشگام در تحقیقات هوش مصنوعی از استنفورد است، او همچنین در ماه آوریل یک استارتاپ هوش مصنوعی به نام آزمایشگاه جهانی ایجاد کرد که ارزش آن یک میلیارد دلار بود و توسط a16z پشتیبانی می‌شد.

او به دانشگاهیان با نفوذ هوش مصنوعی مانند اندرو نگ، محقق دانشگاه استنفورد می‌پیوندد که طی سخنرانی در یک رویداد Y Combinator در ماه ژوئیه، این لایحه را «حمله به منبع باز» خواند. مدل‌های منبع باز ممکن است خطرات بیشتری را برای سازندگان خود ایجاد کنند، زیرا مانند هر نرم‌افزار باز، آنها به راحتی تغییر می‌کنند و برای اهداف خودسرانه و بالقوه مخرب استفاده می‌شوند.

یان لکون، دانشمند ارشد هوش مصنوعی متا، بيان کرد که SB 1047 به تلاش‌های تحقیقاتی لطمه می‌زند و مبتنی بر "توهم "خطر وجودی" است که توسط تعدادی اتاق فکر متوهم ایجاد می‌شود. از مهمترین نمونه های LLM منبع باز.

استارت‌آپ‌ها نیز از این صورت‌حساب راضی نیستند. جرمی نیکسون، مدیرعامل استارت‌آپ هوش مصنوعی Omniscience و بنیانگذار AGI House SF، مرکز استارت‌آپ‌های هوش مصنوعی در سانفرانسیسکو، نگران است که SB 1047 اکوسیستم او را در هم بکوبد. او استدلال می کند که بازیگران بد باید به دلیل ایجاد آسیب های جدی مجازات شوند، نه آزمایشگاه های هوش مصنوعی که آشکارا این فناوری را توسعه و توزیع می کنند.

نیکسون گفت: «یک سردرگمی عمیق در مرکز این لایحه وجود دارد، اینکه LLM ها می توانند به نحوی در سطوح توانایی خطرناک خود متفاوت باشند. "به نظر من این احتمال وجود دارد که همه مدل ها دارای قابلیت های خطرناکی باشند که در لایحه تعریف شده است. "

OpenAI در اواخر اوت با SB 1047 مخالفت کرد و بيان کرد که اقدامات امنیت ملی مربوط به مدل‌های هوش مصنوعی باید در سطح فدرال تنظیم شود. آنها از یک لایحه فدرال حمایت کرده اند که این کار را انجام می دهد.

اما Big Tech که لایحه مستقیماً روی آن متمرکز است، در مورد SB 1047 نیز وحشت دارد. اتاق پیشرفت - یک گروه تجاری به نمایندگی از گوگل، اپل، آمازون و دیگر غول‌های فناوری بزرگ - با انتشار نامه‌ای سرگشاده با این لایحه مخالفت کرد و گفت: SB 1047 آزادی بیان را محدود می‌کند و «نوآوری‌های فناوری را از کالیفرنیا بیرون می‌کشد». سال گذشته، ساندار پیچای، مدیرعامل گوگل و سایر مدیران فناوری، ایده مقررات فدرال هوش مصنوعی را تایید کردند.

رو خانا، عضو کنگره ایالات متحده، که نماینده سیلیکون ولی است، بیانیه ای در مخالفت با SB 1047 در ماه اوت منتشر کرد. او ابراز نگرانی کرد که این لایحه "بی اثر خواهد بود، کارآفرینان فردی و مشاغل کوچک را مجازات می کند و به روحیه نوآوری کالیفرنیا آسیب می رساند." از آن زمان به بعد نانسی پلوسی سخنران و اتاق بازرگانی ایالات متحده به او ملحق شدند که همچنین گفته اند این لایحه به نوآوری لطمه می زند.

سیلیکون ولی به طور سنتی زمانی را دوست ندارد که کالیفرنیا مقررات فناوری گسترده ای را مانند این وضع می کند. در سال 2019، Big Tech کارت مشابهی را زمانی که یک لایحه حفظ حریم خصوصی ایالتی دیگر، قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا، نیز تهدید به تغییر چشم انداز فناوری کرد، برداشت. دره سیلیکون علیه این لایحه لابی کرد و ماه ها قبل از اجرایی شدن آن، جف بزوس، بنیانگذار آمازون و 50 مدیر دیگر، نامه ای سرگشاده نوشتند و خواستار لایحه فدرال حفظ حریم خصوصی شدند.

بعد چه اتفاقی می افتد؟

SB 1047 در حال حاضر روی میز فرماندار کالیفرنیا گاوین نیوسام نشسته است، جایی که او در نهایت تصمیم خواهد گرفت که آیا این لایحه را قبل از پایان ماه اوت امضا کند یا خیر. وینر می گوید که درباره این لایحه با نیوسام صحبت نکرده است و از موضع خود اطلاعی ندارد.

این لایحه فوراً اجرایی نمی‌شود، زیرا هیئت مدل‌های مرزی قرار است در سال 2026 تشکیل شود. علاوه بر این، اگر این لایحه تصویب شود، احتمالاً قبل از آن با چالش‌های قانونی مواجه خواهد شد، شاید از سوی برخی از همان گروه‌هایی که صحبت کردن در مورد آن در حال حاضر

تصحیح: این داستان در ابتدا به پیش نویس قبلی زبان SB 1047 در مورد اینکه چه کسی مسئول مدل های تنظیم شده است، اشاره می کند. در حال حاضر، SB 1047 او میگوید توسعه‌دهنده یک مدل مشتق شده تنها در صورتی مسئول یک مدل است که سه برابر هزینه‌ای که توسعه‌دهنده مدل اصلی برای آموزش انجام داده است، خرج کند.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است