لایحه هوش مصنوعی کالیفرنیا SB 1047 با هدف جلوگیری از فاجعه های هوش مصنوعی است، اما سیلیکون ولی هشدار می دهد که باعث بروز یک فاجعه می شود.
به روز رسانی: کمیته تخصیصات کالیفرنیا SB 1047 را با اصلاحات قابل توجهی تصویب کرد که این لایحه را در روز پنجشنبه، 15 اوت تغییر می دهد. می توانید در مورد آنها اینجا بخوانید.
خارج از فیلم های علمی تخیلی، هیچ سابقه ای وجود ندارد که سیستم های هوش مصنوعی افراد را بکشند یا در حملات سایبری گسترده استفاده شوند. با این حال، برخی از قانونگذاران میخواهند قبل از اینکه بازیگران بد آن آینده دیستوپیایی را به واقعیت تبدیل کنند، تدابیری را اجرا کنند. یک لایحه در کالیفرنیا، معروف به SB 1047، تلاش میکند تا بلایای دنیای واقعی ناشی از سیستمهای هوش مصنوعی را قبل از وقوع متوقف کند. در ماه اوت به تصویب سنای ایالت رسید و اکنون در انتظار تایید یا وتو از سوی فرماندار کالیفرنیا گاوین نیوسام است.
در حالی که به نظر می رسد این هدفی است که همه ما می توانیم در مورد آن توافق داشته باشیم، SB 1047 خشم بازیگران بزرگ و کوچک سیلیکون ولی، از جمله سرمایه گذاران خطرپذیر، گروه های تجاری بزرگ فناوری، محققان و بنیانگذاران استارت آپ را برانگیخته است. بسیاری از صورتحسابهای هوش مصنوعی در حال حاضر در سراسر کشور در حال پرواز هستند، اما قانون نوآوری ایمن و مطمئن کالیفرنیا برای مدلهای هوش مصنوعی مرزی به یکی از بحثبرانگیزترین قانون تبدیل شده است. در اینجا دلیل آن است.
SB 1047 چه کاری انجام می دهد؟
SB 1047 سعی می کند از استفاده از مدل های بزرگ هوش مصنوعی برای ایجاد "آسیب های حیاتی" علیه بشریت جلوگیری کند.
این لایحه نمونههایی از «آسیبهای حیاتی» را بهعنوان یک بازیگر بد که از مدل هوش مصنوعی استفاده میکند برای ایجاد سلاحی که منجر به تلفات جمعی میشود، یا دستور سازماندهی یک حمله سایبری که بیش از 500 میلیون دلار خسارت ایجاد میکند، ارائه میکند (برای مقایسه، قطعی CrowdStrike تخمین زده میشود. بیش از 5 میلیارد دلار ایجاد کرده است). این لایحه توسعه دهندگان را - یعنی شرکت هایی که مدل ها را توسعه می دهند - مسئول اجرای پروتکل های ایمنی کافی برای جلوگیری از چنین نتایجی می کند.
چه مدل ها و شرکت هایی مشمول این قوانین هستند؟
قوانین SB 1047 فقط برای بزرگترین مدل های هوش مصنوعی جهان اعمال می شود: مدل هایی که حداقل 100 میلیون دلار هزینه دارند و از 10^26 FLOPS (عملیات ممیز شناور، روشی برای اندازه گیری محاسبات) در طول آموزش استفاده می کنند. این حجم عظیمی از محاسبه است، اگرچه سام آلتمن، مدیر عامل OpenAI، بيان کرد که آموزش GPT-4 تقریباً این مقدار هزینه دارد. در صورت نیاز می توان این آستانه ها را افزایش داد.
امروزه تعداد کمی از شرکتها محصولات هوش مصنوعی عمومی را به اندازه کافی بزرگ ساختهاند که این نیازها را برآورده کنند، اما غولهای فناوری مانند OpenAI، گوگل و مایکروسافت احتمالاً خیلی زود این کار را خواهند کرد. مدلهای هوش مصنوعی - اساساً موتورهای آماری عظیمی که الگوهای دادهها را شناسایی و پیشبینی میکنند - معمولاً با بزرگتر شدن دقیقتر شدهاند، روندی که بسیاری انتظار دارند ادامه یابد. مارک زاکربرگ اخیراً گفته است که نسل بعدی لاما متا به 10 برابر محاسبات بیشتر نیاز دارد که آن را تحت اختیار SB 1047 قرار می دهد.
وقتی نوبت به مدلهای منبع باز و مشتقات آنها میرسد، این صورتحساب مشخص میکند که توسعهدهنده اصلی مسئول است، مگر اینکه توسعهدهنده دیگری ۱۰ میلیون دلار دیگر برای ایجاد مشتقی از مدل اصلی هزینه کند.
این لایحه همچنین نیازمند یک پروتکل ایمنی برای جلوگیری از سوء استفاده از محصولات تحت پوشش هوش مصنوعی، از جمله دکمه «توقف اضطراری» است که کل مدل هوش مصنوعی را خاموش میکند. توسعهدهندگان همچنین باید رویههای آزمایشی ایجاد کنند که خطرات ناشی از مدلهای هوش مصنوعی را تحلیل کند و باید سالانه حسابرسان شخص ثالث را برای ارزیابی شیوههای ایمنی هوش مصنوعی استخدام کنند.
نتیجه باید «اطمینان معقول» باشد که پیروی از این پروتکلها از آسیبهای مهم جلوگیری میکند - نه اطمینان مطلق، که البته ارائه آن غیرممکن است.
چه کسی و چگونه آن را اجرا می کند؟
یک آژانس جدید کالیفرنیا، هیئت مدل های مرزی، بر قوانین نظارت خواهد کرد. هر مدل هوش مصنوعی عمومی جدیدی که آستانههای SB 1047 را برآورده میکند، باید به صورت جداگانه با یک نسخه کتبی از پروتکل ایمنی آن تأیید شود.
هیئت مدلهای مرزی توسط 9 نفر، از جمله نمایندگانی از صنعت هوش مصنوعی، جامعه منبع باز و دانشگاهی که توسط فرماندار و مجلس قانونگذاری کالیفرنیا منصوب میشوند، اداره خواهد شد. هیئت مدیره به دادستان کل کالیفرنیا در مورد نقض احتمالی SB 1047 مشاوره خواهد داد و راهنمایی هایی را برای توسعه دهندگان مدل هوش مصنوعی در مورد اقدامات ایمنی صادر خواهد کرد.
مدیر ارشد فناوری یک توسعهدهنده باید گواهینامه سالانهای را به هیئت مدیره ارائه کند که خطرات بالقوه مدل هوش مصنوعی را ارزیابی میکند، پروتکل ایمنی چقدر مؤثر است و شرحی از نحوه پیروی شرکت با SB 1047. مشابه اعلانهای نقض، در صورت بروز «حادثه ایمنی هوش مصنوعی» ” رخ می دهد، توسعه دهنده باید آن را ظرف 72 ساعت پس از اطلاع از حادثه به FMD گزارش دهد.
اگر اقدامات ایمنی یک توسعهدهنده ناکافی تشخیص داده شود، SB 1047 به دادستان کل کالیفرنیا اجازه میدهد تا حکمی را علیه توسعهدهنده صادر کند. این می تواند به این معنی باشد که توسعه دهنده باید عملیات یا آموزش مدل خود را متوقف کند.
اگر واقعاً مشخص شود که یک مدل هوش مصنوعی در یک رویداد فاجعه بار استفاده می شود، دادستان کل کالیفرنیا می تواند از شرکت شکایت کند. برای مدلی که هزینه آموزش آن 100 میلیون دلار است، جریمه در اولین تخلف ممکن است به 10 میلیون دلار و در تخلفات بعدی به 30 میلیون دلار برسد. این نرخ جریمه با گران شدن مدلهای هوش مصنوعی افزایش مییابد.
در نهایت، این لایحه شامل محافظت از افشاگران برای کارمندان در صورت تلاش برای افشای اطلاعات مربوط به یک مدل هوش مصنوعی ناامن به دادستان کل کالیفرنیا است.
موافقان چه می گویند؟
سناتور ایالت کالیفرنیا، اسکات وینر، نویسنده این لایحه و نماینده سانفرانسیسکو، به TechCrunch می گوید که SB 1047 تلاشی است برای عبرت گرفتن از شکست های سیاست گذشته در رسانه های اجتماعی و حریم خصوصی داده ها و محافظت از شهروندان قبل از اینکه خیلی دیر شود.
وینر گفت: "ما سابقه ای در زمینه فناوری داریم که منتظر وقوع آسیب و سپس فشار دادن دستان خود هستیم." بیایید منتظر اتفاق بد نباشیم. بیایید جلوتر برویم.»
حتی اگر شرکتی یک مدل 100 میلیون دلاری را در تگزاس یا فرانسه آموزش دهد، تا زمانی که در کالیفرنیا تجارت کند تحت پوشش SB 1047 قرار خواهد گرفت. وینر او میگوید که کنگره «قانونگذاری بسیار کمی در مورد فناوری در ربع قرن گذشته» انجام داده است، پس او فکر میکند که این به کالیفرنیا بستگی دارد که در اینجا سابقه ایجاد کند.
وقتی از وینر پرسیده شد که آیا با OpenAI و Meta در SB 1047 ملاقات کرده است یا خیر، وینر می گوید: "ما با همه آزمایشگاه های بزرگ ملاقات کرده ایم."
جفری هینتون و یوشوا بنجیو، دو محقق هوش مصنوعی که گاهی اوقات «پدرخوانده هوش مصنوعی» نامیده می شوند، از این لایحه حمایت کرده اند. این دو متعلق به گروهی از جامعه هوش مصنوعی هستند که نگران سناریوهای خطرناک و روز رستاخیز هستند که فناوری هوش مصنوعی می تواند ایجاد کند. این "محافظان هوش مصنوعی" برای مدتی در دنیای تحقیقات وجود داشته اند و SB 1047 می تواند برخی از پادمان های ترجیحی آنها را به قانون تبدیل کند. گروه دیگری که از SB 1047 حمایت می کند، مرکز ایمنی هوش مصنوعی، در ماه مه 2023 نامه ای سرگشاده نوشت و از جهان درخواست کرد که «کاهش خطر انقراض از هوش مصنوعی» را به جدیت همه گیرها یا جنگ هسته ای در اولویت قرار دهد.
دن هندریکس، مدیر مرکز ایمنی هوش مصنوعی، در ایمیلی به این موضوع گفت: «این به نفع بلندمدت صنعت در کالیفرنیا و ایالات متحده است، زیرا یک حادثه ایمنی بزرگ احتمالاً بزرگترین مانع برای پیشرفت بیشتر خواهد بود. TechCrunch.
اخیراً انگیزه های خود هندریکس زیر سوال رفته است. طبق بیانیه مطبوعاتی، او در ماه جولای، استارتآپ Grey Swan را به صورت عمومی راهاندازی کرد که «ابزارهایی برای کمک به شرکتها برای ارزیابی خطرات سیستمهای هوش مصنوعی خود» میسازد. به دنبال انتقاداتی مبنی بر اینکه استارت آپ هندریکس می تواند در صورت تصویب این لایحه به سود خود برسد، به طور بالقوه به دلیل اینکه یکی از حسابرسان SB 1047 نیاز به استخدام توسعه دهندگان دارد، او سهام خود را در Grey Swan واگذار کرد.
هندریکس در ایمیلی به TechCrunch گفت: «من واگذار کردم تا سیگنال واضحی ارسال کنم. "اگر میلیاردر VC مخالف ایمنی هوش مصنوعی متعارف می خواهد نشان دهد که انگیزه های خود خالص است، اجازه دهید آنها را دنبال کنند."
پس از اینکه چندین اصلاحیه پیشنهادی آنتروپیک به SB 1047 اضافه شد، داریو آمودی، مدیرعامل، نامهای صادر کرد و گفت: «مزایای این لایحه احتمالاً بیشتر از هزینههای آن است». این یک تایید نیست، اما یک سیگنال گرم از حمایت است. اندکی پس از آن، ایلان ماسک اعلام کرد که موافق این لایحه است.
مخالفان چه می گویند؟
گروه کر رو به رشدی از بازیکنان سیلیکون ولی با SB 1047 مخالفت می کنند.
«مخالف VC میلیاردر» هندریکس احتمالاً به a16z اشاره دارد، شرکتی که توسط مارک اندرسن و بن هوروویتز تأسیس شد و به شدت با SB 1047 مخالفت کرده است. در اوایل ماه اوت، جایکومار راماسوامی، مدیر ارشد حقوقی شرکت خطرپذیر، نامه ای به سناتور وینر ارائه کرد. ، ادعا می کند که این لایحه "به دلیل آستانه های خودسرانه و در حال تغییر، بار استارتاپ ها را سنگین می کند" و تأثیری سرد بر اکوسیستم هوش مصنوعی ایجاد می کند. با پیشرفت فناوری هوش مصنوعی، گرانتر میشود، به این معنی که استارتآپهای بیشتری از آستانه 100 میلیون دلاری عبور خواهند کرد و تحت پوشش SB 1047 قرار خواهند گرفت. a16z او میگوید که چندین استارتآپ آنها در حال حاضر این مقدار را برای مدلهای آموزشی دریافت میکنند.
Fei-Fei Li که اغلب مادرخوانده هوش مصنوعی نامیده می شود، در اوایل ماه اوت سکوت خود را در SB 1047 شکست و در ستون Fortune نوشت که این صورتحساب به اکوسیستم هوش مصنوعی در حال رشد ما آسیب می رساند. در حالی که لی یک پیشگام در تحقیقات هوش مصنوعی از استنفورد است، او همچنین در ماه آوریل یک استارتاپ هوش مصنوعی به نام آزمایشگاه جهانی ایجاد کرد که ارزش آن یک میلیارد دلار بود و توسط a16z پشتیبانی میشد.
او به دانشگاهیان با نفوذ هوش مصنوعی مانند اندرو نگ، محقق دانشگاه استنفورد میپیوندد که طی سخنرانی در یک رویداد Y Combinator در ماه ژوئیه، این لایحه را «حمله به منبع باز» خواند. مدلهای منبع باز ممکن است خطرات بیشتری را برای سازندگان خود ایجاد کنند، زیرا مانند هر نرمافزار باز، آنها به راحتی تغییر میکنند و برای اهداف خودسرانه و بالقوه مخرب استفاده میشوند.
یان لکون، دانشمند ارشد هوش مصنوعی متا، بيان کرد که SB 1047 به تلاشهای تحقیقاتی لطمه میزند و مبتنی بر "توهم "خطر وجودی" است که توسط تعدادی اتاق فکر متوهم ایجاد میشود. از مهمترین نمونه های LLM منبع باز.
استارتآپها نیز از این صورتحساب راضی نیستند. جرمی نیکسون، مدیرعامل استارتآپ هوش مصنوعی Omniscience و بنیانگذار AGI House SF، مرکز استارتآپهای هوش مصنوعی در سانفرانسیسکو، نگران است که SB 1047 اکوسیستم او را در هم بکوبد. او استدلال می کند که بازیگران بد باید به دلیل ایجاد آسیب های جدی مجازات شوند، نه آزمایشگاه های هوش مصنوعی که آشکارا این فناوری را توسعه و توزیع می کنند.
نیکسون گفت: «یک سردرگمی عمیق در مرکز این لایحه وجود دارد، اینکه LLM ها می توانند به نحوی در سطوح توانایی خطرناک خود متفاوت باشند. "به نظر من این احتمال وجود دارد که همه مدل ها دارای قابلیت های خطرناکی باشند که در لایحه تعریف شده است. "
OpenAI در اواخر اوت با SB 1047 مخالفت کرد و بيان کرد که اقدامات امنیت ملی مربوط به مدلهای هوش مصنوعی باید در سطح فدرال تنظیم شود. آنها از یک لایحه فدرال حمایت کرده اند که این کار را انجام می دهد.
اما Big Tech که لایحه مستقیماً روی آن متمرکز است، در مورد SB 1047 نیز وحشت دارد. اتاق پیشرفت - یک گروه تجاری به نمایندگی از گوگل، اپل، آمازون و دیگر غولهای فناوری بزرگ - با انتشار نامهای سرگشاده با این لایحه مخالفت کرد و گفت: SB 1047 آزادی بیان را محدود میکند و «نوآوریهای فناوری را از کالیفرنیا بیرون میکشد». سال گذشته، ساندار پیچای، مدیرعامل گوگل و سایر مدیران فناوری، ایده مقررات فدرال هوش مصنوعی را تایید کردند.
رو خانا، عضو کنگره ایالات متحده، که نماینده سیلیکون ولی است، بیانیه ای در مخالفت با SB 1047 در ماه اوت منتشر کرد. او ابراز نگرانی کرد که این لایحه "بی اثر خواهد بود، کارآفرینان فردی و مشاغل کوچک را مجازات می کند و به روحیه نوآوری کالیفرنیا آسیب می رساند." از آن زمان به بعد نانسی پلوسی سخنران و اتاق بازرگانی ایالات متحده به او ملحق شدند که همچنین گفته اند این لایحه به نوآوری لطمه می زند.
سیلیکون ولی به طور سنتی زمانی را دوست ندارد که کالیفرنیا مقررات فناوری گسترده ای را مانند این وضع می کند. در سال 2019، Big Tech کارت مشابهی را زمانی که یک لایحه حفظ حریم خصوصی ایالتی دیگر، قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا، نیز تهدید به تغییر چشم انداز فناوری کرد، برداشت. دره سیلیکون علیه این لایحه لابی کرد و ماه ها قبل از اجرایی شدن آن، جف بزوس، بنیانگذار آمازون و 50 مدیر دیگر، نامه ای سرگشاده نوشتند و خواستار لایحه فدرال حفظ حریم خصوصی شدند.
بعد چه اتفاقی می افتد؟
SB 1047 در حال حاضر روی میز فرماندار کالیفرنیا گاوین نیوسام نشسته است، جایی که او در نهایت تصمیم خواهد گرفت که آیا این لایحه را قبل از پایان ماه اوت امضا کند یا خیر. وینر می گوید که درباره این لایحه با نیوسام صحبت نکرده است و از موضع خود اطلاعی ندارد.
این لایحه فوراً اجرایی نمیشود، زیرا هیئت مدلهای مرزی قرار است در سال 2026 تشکیل شود. علاوه بر این، اگر این لایحه تصویب شود، احتمالاً قبل از آن با چالشهای قانونی مواجه خواهد شد، شاید از سوی برخی از همان گروههایی که صحبت کردن در مورد آن در حال حاضر
تصحیح: این داستان در ابتدا به پیش نویس قبلی زبان SB 1047 در مورد اینکه چه کسی مسئول مدل های تنظیم شده است، اشاره می کند. در حال حاضر، SB 1047 او میگوید توسعهدهنده یک مدل مشتق شده تنها در صورتی مسئول یک مدل است که سه برابر هزینهای که توسعهدهنده مدل اصلی برای آموزش انجام داده است، خرج کند.
ارسال نظر