لایحه هوش مصنوعی کالیفرنیا SB 1047 با هدف جلوگیری از فاجعه های هوش مصنوعی است، اما سیلیکون ولی هشدار می دهد که باعث بروز یک فاجعه می شود.


به روز رسانی: کمیته تخصیصات کالیفرنیا SB 1047 را با اصلاحات قابل توجهی تصویب کرد که این لایحه را در روز پنجشنبه، 15 اوت تغییر می دهد. می توانید در مورد آنها اینجا بخوانید.
خارج از فیلم های علمی تخیلی، هیچ سابقه ای وجود ندارد که سیستم های هوش مصنوعی افراد را بکشند یا در حملات سایبری گسترده استفاده شوند. با این حال، برخی از قانونگذاران میخواهند قبل از اینکه بازیگران بد آن آینده دیستوپیایی را به واقعیت تبدیل کنند، تدابیری را اجرا کنند. لایحه ای در کالیفرنیا، معروف به SB 1047، تلاش می کند تا بلایای دنیای واقعی ناشی از سیستم های هوش مصنوعی را قبل از وقوع آنها متوقف کند و در اواخر ماه اوت در سنای این ایالت به رأی گیری نهایی می رسد.
در حالی که به نظر می رسد این هدفی است که همه ما می توانیم در مورد آن توافق داشته باشیم، SB 1047 خشم بازیگران بزرگ و کوچک سیلیکون ولی، از جمله سرمایه گذاران خطرپذیر، گروه های تجاری بزرگ فناوری، محققان و بنیانگذاران استارت آپ را برانگیخته است. بسیاری از صورتحسابهای هوش مصنوعی در حال حاضر در سراسر کشور در حال پرواز هستند، اما قانون نوآوری ایمن و مطمئن کالیفرنیا برای مدلهای هوش مصنوعی مرزی به یکی از بحثبرانگیزترین قانون تبدیل شده است. در اینجا دلیل آن است.
SB 1047 چه کاری انجام می دهد؟
SB 1047 سعی می کند از استفاده از مدل های بزرگ هوش مصنوعی برای ایجاد "آسیب های حیاتی" علیه بشریت جلوگیری کند.
این لایحه نمونههایی از «آسیبهای حیاتی» را بهعنوان یک بازیگر بد که از مدل هوش مصنوعی استفاده میکند برای ایجاد سلاحی که منجر به تلفات جمعی میشود، یا دستور سازماندهی یک حمله سایبری که بیش از 500 میلیون دلار خسارت ایجاد میکند، ارائه میکند (برای مقایسه، قطعی CrowdStrike تخمین زده میشود. بیش از 5 میلیارد دلار ایجاد کرده است). این لایحه توسعه دهندگان را - یعنی شرکت هایی که مدل ها را توسعه می دهند - مسئول اجرای پروتکل های ایمنی کافی برای جلوگیری از چنین نتایجی می کند.
چه مدل ها و شرکت هایی مشمول این قوانین هستند؟
قوانین SB 1047 فقط برای بزرگترین مدلهای هوش مصنوعی جهان اعمال میشود: مدلهایی که حداقل 100 میلیون دلار قیمت دارند و از 10^26 FLOPS در طول آموزش استفاده میکنند - حجم عظیمی از محاسبات، اما مدیر عامل OpenAI، سام آلتمن، بيان کرد که GPT-4 تقریباً برای آموزش هزینه دارد. . در صورت نیاز می توان این آستانه ها را افزایش داد.
امروزه تعداد کمی از شرکتها محصولات هوش مصنوعی عمومی را به اندازه کافی بزرگ ساختهاند که این نیازها را برآورده کنند، اما غولهای فناوری مانند OpenAI، گوگل و مایکروسافت احتمالاً خیلی زود این کار را خواهند کرد. مدلهای هوش مصنوعی - اساساً موتورهای آماری عظیمی که الگوهای دادهها را شناسایی و پیشبینی میکنند - معمولاً با بزرگتر شدن دقیقتر شدهاند، روندی که بسیاری انتظار دارند ادامه یابد. مارک زاکربرگ اخیراً گفته است که نسل بعدی لاما متا به 10 برابر محاسبات بیشتر نیاز دارد که آن را تحت اختیار SB 1047 قرار می دهد.
وقتی نوبت به مدلهای منبع باز و مشتقات آنها میرسد، صورتحساب تعیین میکند که توسعهدهنده اصلی مسئول است، مگر اینکه توسعهدهنده دیگری سه برابر بیشتر برای ایجاد یک مشتق از مدل اصلی هزینه کند.
این لایحه همچنین نیازمند یک پروتکل ایمنی برای جلوگیری از سوء استفاده از محصولات تحت پوشش هوش مصنوعی، از جمله دکمه "توقف اضطراری" است که کل مدل هوش مصنوعی را خاموش می کند. توسعه دهندگان همچنین باید رویه های آزمایشی ایجاد کنند که خطرات ناشی از مدل های هوش مصنوعی را تحلیل کند و باید سالانه حسابرسان شخص ثالث را برای ارزیابی شیوه های ایمنی هوش مصنوعی استخدام کنند.
نتیجه باید «اطمینان معقول» باشد که پیروی از این پروتکلها از آسیبهای مهم جلوگیری میکند - نه اطمینان مطلق، که البته ارائه آن غیرممکن است.
چه کسی و چگونه آن را اجرا خواهد کرد؟
یک آژانس جدید کالیفرنیا، بخش مدل مرزی (FMD)، بر قوانین نظارت خواهد کرد. هر مدل جدید هوش مصنوعی عمومی که آستانههای SB 1047 را برآورده میکند، باید به صورت جداگانه با یک نسخه کتبی از پروتکل ایمنی آن تأیید شود.
FMD توسط یک هیئت پنج نفره، شامل نمایندگانی از صنعت هوش مصنوعی، جامعه منبع باز و دانشگاه، که توسط فرماندار و قانونگذار کالیفرنیا منصوب می شوند، اداره می شود. هیئت مدیره به دادستان کل کالیفرنیا در مورد نقض احتمالی SB 1047 مشاوره خواهد داد و راهنمایی هایی را برای توسعه دهندگان مدل هوش مصنوعی در مورد اقدامات ایمنی صادر خواهد کرد.
مدیر ارشد فناوری یک توسعهدهنده باید گواهینامه سالانهای را به FMD ارائه کند که خطرات احتمالی مدل هوش مصنوعی را ارزیابی میکند، پروتکل ایمنی آن چقدر مؤثر است و شرحی از نحوه تطابق شرکت با SB 1047. مشابه اعلانهای نقض، در صورت بروز «حادثه ایمنی هوش مصنوعی» ” اتفاق می افتد، توسعه دهنده باید آن را ظرف 72 ساعت پس از اطلاع از حادثه به FMD گزارش دهد.
اگر توسعهدهندهای از هر یک از این مفاد پیروی نکند، SB 1047 به دادستان کل کالیفرنیا اجازه میدهد که علیه توسعهدهنده دعوای مدنی اقامه کند. برای مدلی که هزینه آموزش آن 100 میلیون دلار است، جریمه در اولین تخلف ممکن است به 10 میلیون دلار و در تخلفات بعدی به 30 میلیون دلار برسد. این نرخ جریمه با گران شدن مدلهای هوش مصنوعی افزایش مییابد.
در نهایت، این لایحه شامل محافظت از افشاگران برای کارمندان در صورت تلاش برای افشای اطلاعات مربوط به یک مدل هوش مصنوعی ناامن به دادستان کل کالیفرنیا است.
موافقان چه می گویند؟
سناتور ایالت کالیفرنیا، اسکات وینر، نویسنده این لایحه و نماینده سانفرانسیسکو، به TechCrunch می گوید که SB 1047 تلاشی است برای عبرت گرفتن از شکست های سیاست گذشته در رسانه های اجتماعی و حریم خصوصی داده ها و محافظت از شهروندان قبل از اینکه خیلی دیر شود.
وینر گفت: "ما سابقه ای در زمینه فناوری داریم که منتظر وقوع آسیب و سپس فشار دادن دستان خود هستیم." بیایید منتظر اتفاق بد نباشیم. بیایید جلوتر برویم.»
حتی اگر شرکتی یک مدل 100 میلیون دلاری را در تگزاس یا فرانسه آموزش دهد، تا زمانی که در کالیفرنیا تجارت کند تحت پوشش SB 1047 قرار خواهد گرفت. وینر او میگوید که کنگره «قانونگذاری بسیار کمی در مورد فناوری در ربع قرن گذشته» انجام داده است، پس او فکر میکند که این به کالیفرنیا بستگی دارد که در اینجا سابقه ایجاد کند.
وقتی از وینر پرسیده شد که آیا با OpenAI و Meta در SB 1047 ملاقات کرده است یا خیر، وینر می گوید: "ما با همه آزمایشگاه های بزرگ ملاقات کرده ایم."
جفری هینتون و یوشوا بنجیو، دو محقق هوش مصنوعی که گاهی اوقات «پدرخوانده هوش مصنوعی» نامیده می شوند، از این لایحه حمایت کرده اند. این دو متعلق به گروهی از جامعه هوش مصنوعی هستند که نگران سناریوهای خطرناک و روز رستاخیز هستند که فناوری هوش مصنوعی می تواند ایجاد کند. این "محافظان هوش مصنوعی" برای مدتی در دنیای تحقیقات وجود داشته اند و SB 1047 می تواند برخی از پادمان های ترجیحی آنها را به قانون تبدیل کند. گروه دیگری که از SB 1047 حمایت می کند، مرکز ایمنی هوش مصنوعی، در ماه مه 2023 نامه ای سرگشاده نوشت و از جهان درخواست کرد که «کاهش خطر انقراض از هوش مصنوعی» را به جدیت همه گیرها یا جنگ هسته ای در اولویت قرار دهد.
دن هندریکس، مدیر مرکز ایمنی هوش مصنوعی، در ایمیلی به این موضوع گفت: «این به نفع بلندمدت صنعت در کالیفرنیا و ایالات متحده است، زیرا یک حادثه ایمنی بزرگ احتمالاً بزرگترین مانع برای پیشرفت بیشتر خواهد بود. TechCrunch.
اخیراً انگیزه های خود هندریکس زیر سوال رفته است. طبق بیانیه مطبوعاتی، او در ماه جولای، استارتآپ Grey Swan را به صورت عمومی راهاندازی کرد که «ابزارهایی برای کمک به شرکتها برای ارزیابی خطرات سیستمهای هوش مصنوعی خود» میسازد. به دنبال انتقاداتی مبنی بر اینکه استارت آپ هندریکس می تواند در صورت تصویب این لایحه به سود خود برسد، به طور بالقوه به دلیل اینکه یکی از حسابرسان SB 1047 نیاز به استخدام توسعه دهندگان دارد، او سهام خود را در Grey Swan واگذار کرد.
هندریکس در ایمیلی به TechCrunch گفت: «من به منظور ارسال یک سیگنال واضح، واگذار کردم. "اگر میلیاردر VC مخالف ایمنی هوش مصنوعی متعارف می خواهد نشان دهد که انگیزه های خود خالص است، اجازه دهید آنها را دنبال کنند."
مخالفان چه می گویند؟
گروه کر رو به رشدی از بازیکنان سیلیکون ولی با SB 1047 مخالفت می کنند.
«مخالف VC میلیاردر» هندریکس احتمالاً به a16z اشاره دارد، شرکتی که توسط مارک اندرسن و بن هوروویتز تأسیس شد و به شدت با SB 1047 مخالفت کرده است. در اوایل ماه اوت، جایکومار راماسوامی، مدیر ارشد حقوقی شرکت خطرپذیر، نامه ای به سناتور وینر ارائه کرد. ، ادعا می کند که این لایحه "به دلیل آستانه های خودسرانه و در حال تغییر، بار استارتاپ ها را سنگین می کند" و تأثیری سرد بر اکوسیستم هوش مصنوعی ایجاد می کند. با پیشرفت فناوری هوش مصنوعی، گرانتر میشود، به این معنی که استارتآپهای بیشتری از آستانه 100 میلیون دلاری عبور خواهند کرد و تحت پوشش SB 1047 قرار خواهند گرفت. a16z او میگوید که چندین استارتآپ آنها در حال حاضر این مقدار را برای مدلهای آموزشی دریافت میکنند.
Fei-Fei Li که اغلب مادرخوانده هوش مصنوعی نامیده می شود، در اوایل ماه اوت سکوت خود را در SB 1047 شکست و در ستون Fortune نوشت که این صورتحساب به اکوسیستم هوش مصنوعی در حال رشد ما آسیب می رساند. در حالی که لی یک پیشگام در تحقیقات هوش مصنوعی از استنفورد است، او همچنین در ماه آوریل یک استارتاپ هوش مصنوعی به نام آزمایشگاه جهانی ایجاد کرد که ارزش آن یک میلیارد دلار بود و توسط a16z پشتیبانی میشد.
او به دانشگاهیان با نفوذ هوش مصنوعی مانند اندرو نگ، محقق دانشگاه استنفورد میپیوندد که طی سخنرانی در یک رویداد Y Combinator در ماه ژوئیه، این لایحه را «حمله به منبع باز» خواند. مدلهای منبع باز ممکن است خطرات بیشتری را برای سازندگان خود ایجاد کنند، زیرا مانند هر نرمافزار باز، راحتتر تغییر داده میشوند و برای اهداف خودسرانه و بالقوه مخرب استفاده میشوند.
یان لکون، دانشمند ارشد هوش مصنوعی متا، بيان کرد که SB 1047 به تلاشهای تحقیقاتی لطمه میزند و مبتنی بر "توهم "خطر وجودی" است که توسط تعدادی اتاق فکر متوهم ایجاد میشود. از مهمترین نمونه های LLM منبع باز.
استارتآپها نیز از این صورتحساب راضی نیستند. جرمی نیکسون، مدیرعامل استارتآپ هوش مصنوعی Omniscience و بنیانگذار AGI House SF، مرکز استارتآپهای هوش مصنوعی در سانفرانسیسکو، نگران است که SB 1047 اکوسیستم او را در هم بکوبد. او استدلال می کند که بازیگران بد باید به دلیل ایجاد آسیب های جدی مجازات شوند، نه آزمایشگاه های هوش مصنوعی که آشکارا این فناوری را توسعه و توزیع می کنند.
نیکسون گفت: "یک سردرگمی عمیق در مرکز این لایحه وجود دارد، اینکه LLM ها می توانند به نوعی در سطوح توانایی خطرناک خود متفاوت باشند." "به نظر من این احتمال وجود دارد که همه مدل ها دارای قابلیت های خطرناکی باشند که در لایحه تعریف شده است. "
اما Big Tech که لایحه مستقیماً روی آن متمرکز است، در مورد SB 1047 نیز وحشت دارد. اتاق پیشرفت - یک گروه تجاری به نمایندگی از گوگل، اپل، آمازون و دیگر غولهای فناوری بزرگ - با انتشار نامهای سرگشاده با این لایحه مخالفت کرد و گفت: SB 1047 آزادی بیان را محدود میکند و «نوآوریهای فناوری را از کالیفرنیا بیرون میکشد». سال گذشته، ساندار پیچای، مدیرعامل گوگل و سایر مدیران فناوری، ایده مقررات فدرال هوش مصنوعی را تایید کردند.
رو خانا، نماینده کنگره ایالات متحده، که نماینده سیلیکون ولی است، روز سه شنبه بیانیه ای در مخالفت با SB 1047 منتشر کرد. او ابراز نگرانی کرد که این لایحه "بی اثر خواهد بود، کارآفرینان فردی و مشاغل کوچک را مجازات می کند و به روحیه نوآوری کالیفرنیا آسیب می رساند."
سیلیکون ولی به طور سنتی زمانی را دوست ندارد که کالیفرنیا مقررات فناوری گسترده ای را مانند این وضع می کند. در سال 2019، Big Tech کارت مشابهی را زمانی که یک لایحه حفظ حریم خصوصی ایالتی دیگر، قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا، نیز تهدید به تغییر چشم انداز فناوری کرد، برداشت. دره سیلیکون علیه این لایحه لابی کرد و ماه ها قبل از اجرایی شدن آن، جف بزوس، بنیانگذار آمازون و 50 مدیر دیگر، نامه ای سرگشاده نوشتند و خواستار لایحه فدرال حفظ حریم خصوصی شدند.
بعد چه اتفاقی می افتد؟
در 15 آگوست، SB 1047 با هر اصلاحیه ای که تصویب شود به صحن مجلس سنای کالیفرنیا ارسال خواهد شد. به گفته وینر، اینجا جایی است که لوایح در سنای کالیفرنیا "زندگی می کنند یا می میرند". با توجه به حمایت قاطع قانونگذاران تا کنون، پیش بینی می شود که تصویب شود.
Anthropic در اواخر ژوئیه تعدادی اصلاحیه پیشنهادی را برای SB 1047 ارائه کرد که وینر می گوید که او و کمیته های سیاست سنای کالیفرنیا فعالانه در حال تحلیل آن هستند. Anthropic اولین توسعه دهنده یک مدل پیشرفته هوش مصنوعی است که به صورت عمومی اعلام می کند که مایل است با Wiener در SB 1047 کار کند، حتی اگر این لایحه را به شکل فعلی پشتیبانی نمی کند. این تا حد زیادی به عنوان یک پیروزی برای این لایحه در نظر گرفته شد.
تغییرات پیشنهادی Anthropic شامل خلاص شدن از شر FMD، کاهش قدرت دادستان کل برای شکایت از توسعه دهندگان هوش مصنوعی قبل از وقوع آسیب، و خلاص شدن از شرایط حفاظت از افشاگران در SB 1047 است. وینر می گوید که او به طور کلی در مورد اصلاحات مثبت است، اما نیاز به تایید چندین نفر دارد. کمیته های سیاست سنا قبل از اضافه کردن آنها به لایحه.
اگر SB 1047 سنا را تصویب کند، این لایحه به میز فرماندار کالیفرنیا گاوین نیوسام فرستاده خواهد شد، جایی که او در نهایت تصمیم خواهد گرفت که آیا این لایحه را قبل از پایان ماه اوت امضا کند یا خیر. وینر می گوید که درباره این لایحه با نیوسام صحبت نکرده است و از موضع خود اطلاعی ندارد.
این لایحه فوراً اجرایی نخواهد شد، زیرا FMD قرار است در سال 2026 تشکیل شود. علاوه بر این، اگر این لایحه تصویب شود، احتمالاً قبل از آن با چالش های قانونی مواجه خواهد شد، شاید از سوی برخی از همان گروه هایی که در مورد آن صحبت می کنند. آن را در حال حاضر.
تصحیح: این داستان در ابتدا به پیش نویس قبلی زبان SB 1047 در مورد اینکه چه کسی مسئول مدل های تنظیم شده است، اشاره می کند. در حال حاضر، SB 1047 او میگوید توسعهدهنده یک مدل مشتق شده تنها در صورتی مسئول یک مدل است که سه برابر هزینهای که توسعهدهنده مدل اصلی برای آموزش انجام داده است، خرج کند.
ارسال نظر