متن خبر

لایحه هوش مصنوعی کالیفرنیا SB 1047 با هدف جلوگیری از فاجعه های هوش مصنوعی است، اما سیلیکون ولی هشدار می دهد که باعث بروز یک فاجعه می شود.

لایحه هوش مصنوعی کالیفرنیا SB 1047 با هدف جلوگیری از فاجعه های هوش مصنوعی است، اما سیلیکون ولی هشدار می دهد که باعث بروز یک فاجعه می شود.

شناسهٔ خبر: 698882 -




به روز رسانی: کمیته تخصیصات کالیفرنیا SB 1047 را با اصلاحات قابل توجهی تصویب کرد که این لایحه را در روز پنجشنبه، 15 اوت تغییر می دهد. می توانید در مورد آنها اینجا بخوانید.

خارج از فیلم های علمی تخیلی، هیچ سابقه ای وجود ندارد که سیستم های هوش مصنوعی افراد را بکشند یا در حملات سایبری گسترده استفاده شوند. با این حال، برخی از قانون‌گذاران می‌خواهند قبل از اینکه بازیگران بد آن آینده دیستوپیایی را به واقعیت تبدیل کنند، تدابیری را اجرا کنند. لایحه ای در کالیفرنیا، معروف به SB 1047، تلاش می کند تا بلایای دنیای واقعی ناشی از سیستم های هوش مصنوعی را قبل از وقوع آنها متوقف کند و در اواخر ماه اوت در سنای این ایالت به رأی گیری نهایی می رسد.

در حالی که به نظر می رسد این هدفی است که همه ما می توانیم در مورد آن توافق داشته باشیم، SB 1047 خشم بازیگران بزرگ و کوچک سیلیکون ولی، از جمله سرمایه گذاران خطرپذیر، گروه های تجاری بزرگ فناوری، محققان و بنیانگذاران استارت آپ را برانگیخته است. بسیاری از صورت‌حساب‌های هوش مصنوعی در حال حاضر در سراسر کشور در حال پرواز هستند، اما قانون نوآوری ایمن و مطمئن کالیفرنیا برای مدل‌های هوش مصنوعی مرزی به یکی از بحث‌برانگیزترین قانون تبدیل شده است. در اینجا دلیل آن است.

SB 1047 چه کاری انجام می دهد؟

SB 1047 سعی می کند از استفاده از مدل های بزرگ هوش مصنوعی برای ایجاد "آسیب های حیاتی" علیه بشریت جلوگیری کند.

این لایحه نمونه‌هایی از «آسیب‌های حیاتی» را به‌عنوان یک بازیگر بد که از مدل هوش مصنوعی استفاده می‌کند برای ایجاد سلاحی که منجر به تلفات جمعی می‌شود، یا دستور سازماندهی یک حمله سایبری که بیش از 500 میلیون دلار خسارت ایجاد می‌کند، ارائه می‌کند (برای مقایسه، قطعی CrowdStrike تخمین زده می‌شود. بیش از 5 میلیارد دلار ایجاد کرده است). این لایحه توسعه دهندگان را - یعنی شرکت هایی که مدل ها را توسعه می دهند - مسئول اجرای پروتکل های ایمنی کافی برای جلوگیری از چنین نتایجی می کند.

چه مدل ها و شرکت هایی مشمول این قوانین هستند؟

قوانین SB 1047 فقط برای بزرگترین مدل‌های هوش مصنوعی جهان اعمال می‌شود: مدل‌هایی که حداقل 100 میلیون دلار قیمت دارند و از 10^26 FLOPS در طول آموزش استفاده می‌کنند - حجم عظیمی از محاسبات، اما مدیر عامل OpenAI، سام آلتمن، بيان کرد که GPT-4 تقریباً برای آموزش هزینه دارد. . در صورت نیاز می توان این آستانه ها را افزایش داد.

امروزه تعداد کمی از شرکت‌ها محصولات هوش مصنوعی عمومی را به اندازه کافی بزرگ ساخته‌اند که این نیازها را برآورده کنند، اما غول‌های فناوری مانند OpenAI، گوگل و مایکروسافت احتمالاً خیلی زود این کار را خواهند کرد. مدل‌های هوش مصنوعی - اساساً موتورهای آماری عظیمی که الگوهای داده‌ها را شناسایی و پیش‌بینی می‌کنند - معمولاً با بزرگ‌تر شدن دقیق‌تر شده‌اند، روندی که بسیاری انتظار دارند ادامه یابد. مارک زاکربرگ اخیراً گفته است که نسل بعدی لاما متا به 10 برابر محاسبات بیشتر نیاز دارد که آن را تحت اختیار SB 1047 قرار می دهد.

وقتی نوبت به مدل‌های منبع باز و مشتقات آن‌ها می‌رسد، صورت‌حساب تعیین می‌کند که توسعه‌دهنده اصلی مسئول است، مگر اینکه توسعه‌دهنده دیگری سه برابر بیشتر برای ایجاد یک مشتق از مدل اصلی هزینه کند.

این لایحه همچنین نیازمند یک پروتکل ایمنی برای جلوگیری از سوء استفاده از محصولات تحت پوشش هوش مصنوعی، از جمله دکمه "توقف اضطراری" است که کل مدل هوش مصنوعی را خاموش می کند. توسعه دهندگان همچنین باید رویه های آزمایشی ایجاد کنند که خطرات ناشی از مدل های هوش مصنوعی را تحلیل کند و باید سالانه حسابرسان شخص ثالث را برای ارزیابی شیوه های ایمنی هوش مصنوعی استخدام کنند.

نتیجه باید «اطمینان معقول» باشد که پیروی از این پروتکل‌ها از آسیب‌های مهم جلوگیری می‌کند - نه اطمینان مطلق، که البته ارائه آن غیرممکن است.

چه کسی و چگونه آن را اجرا خواهد کرد؟

یک آژانس جدید کالیفرنیا، بخش مدل مرزی (FMD)، بر قوانین نظارت خواهد کرد. هر مدل جدید هوش مصنوعی عمومی که آستانه‌های SB 1047 را برآورده می‌کند، باید به صورت جداگانه با یک نسخه کتبی از پروتکل ایمنی آن تأیید شود.

FMD توسط یک هیئت پنج نفره، شامل نمایندگانی از صنعت هوش مصنوعی، جامعه منبع باز و دانشگاه، که توسط فرماندار و قانونگذار کالیفرنیا منصوب می شوند، اداره می شود. هیئت مدیره به دادستان کل کالیفرنیا در مورد نقض احتمالی SB 1047 مشاوره خواهد داد و راهنمایی هایی را برای توسعه دهندگان مدل هوش مصنوعی در مورد اقدامات ایمنی صادر خواهد کرد.

مدیر ارشد فناوری یک توسعه‌دهنده باید گواهینامه سالانه‌ای را به FMD ارائه کند که خطرات احتمالی مدل هوش مصنوعی را ارزیابی می‌کند، پروتکل ایمنی آن چقدر مؤثر است و شرحی از نحوه تطابق شرکت با SB 1047. مشابه اعلان‌های نقض، در صورت بروز «حادثه ایمنی هوش مصنوعی» ” اتفاق می افتد، توسعه دهنده باید آن را ظرف 72 ساعت پس از اطلاع از حادثه به FMD گزارش دهد.

اگر توسعه‌دهنده‌ای از هر یک از این مفاد پیروی نکند، SB 1047 به دادستان کل کالیفرنیا اجازه می‌دهد که علیه توسعه‌دهنده دعوای مدنی اقامه کند. برای مدلی که هزینه آموزش آن 100 میلیون دلار است، جریمه در اولین تخلف ممکن است به 10 میلیون دلار و در تخلفات بعدی به 30 میلیون دلار برسد. این نرخ جریمه با گران شدن مدل‌های هوش مصنوعی افزایش می‌یابد.

در نهایت، این لایحه شامل محافظت از افشاگران برای کارمندان در صورت تلاش برای افشای اطلاعات مربوط به یک مدل هوش مصنوعی ناامن به دادستان کل کالیفرنیا است.

موافقان چه می گویند؟

سناتور ایالت کالیفرنیا، اسکات وینر، نویسنده این لایحه و نماینده سانفرانسیسکو، به TechCrunch می گوید که SB 1047 تلاشی است برای عبرت گرفتن از شکست های سیاست گذشته در رسانه های اجتماعی و حریم خصوصی داده ها و محافظت از شهروندان قبل از اینکه خیلی دیر شود.

وینر گفت: "ما سابقه ای در زمینه فناوری داریم که منتظر وقوع آسیب و سپس فشار دادن دستان خود هستیم." بیایید منتظر اتفاق بد نباشیم. بیایید جلوتر برویم.»

حتی اگر شرکتی یک مدل 100 میلیون دلاری را در تگزاس یا فرانسه آموزش دهد، تا زمانی که در کالیفرنیا تجارت کند تحت پوشش SB 1047 قرار خواهد گرفت. وینر او میگوید که کنگره «قانون‌گذاری بسیار کمی در مورد فناوری در ربع قرن گذشته» انجام داده است، پس او فکر می‌کند که این به کالیفرنیا بستگی دارد که در اینجا سابقه ایجاد کند.

وقتی از وینر پرسیده شد که آیا با OpenAI و Meta در SB 1047 ملاقات کرده است یا خیر، وینر می گوید: "ما با همه آزمایشگاه های بزرگ ملاقات کرده ایم."

جفری هینتون و یوشوا بنجیو، دو محقق هوش مصنوعی که گاهی اوقات «پدرخوانده هوش مصنوعی» نامیده می شوند، از این لایحه حمایت کرده اند. این دو متعلق به گروهی از جامعه هوش مصنوعی هستند که نگران سناریوهای خطرناک و روز رستاخیز هستند که فناوری هوش مصنوعی می تواند ایجاد کند. این "محافظان هوش مصنوعی" برای مدتی در دنیای تحقیقات وجود داشته اند و SB 1047 می تواند برخی از پادمان های ترجیحی آنها را به قانون تبدیل کند. گروه دیگری که از SB 1047 حمایت می کند، مرکز ایمنی هوش مصنوعی، در ماه مه 2023 نامه ای سرگشاده نوشت و از جهان درخواست کرد که «کاهش خطر انقراض از هوش مصنوعی» را به جدیت همه گیرها یا جنگ هسته ای در اولویت قرار دهد.

دن هندریکس، مدیر مرکز ایمنی هوش مصنوعی، در ایمیلی به این موضوع گفت: «این به نفع بلندمدت صنعت در کالیفرنیا و ایالات متحده است، زیرا یک حادثه ایمنی بزرگ احتمالاً بزرگترین مانع برای پیشرفت بیشتر خواهد بود. TechCrunch.

اخیراً انگیزه های خود هندریکس زیر سوال رفته است. طبق بیانیه مطبوعاتی، او در ماه جولای، استارت‌آپ Grey Swan را به صورت عمومی راه‌اندازی کرد که «ابزارهایی برای کمک به شرکت‌ها برای ارزیابی خطرات سیستم‌های هوش مصنوعی خود» می‌سازد. به دنبال انتقاداتی مبنی بر اینکه استارت آپ هندریکس می تواند در صورت تصویب این لایحه به سود خود برسد، به طور بالقوه به دلیل اینکه یکی از حسابرسان SB 1047 نیاز به استخدام توسعه دهندگان دارد، او سهام خود را در Grey Swan واگذار کرد.

هندریکس در ایمیلی به TechCrunch گفت: «من به منظور ارسال یک سیگنال واضح، واگذار کردم. "اگر میلیاردر VC مخالف ایمنی هوش مصنوعی متعارف می خواهد نشان دهد که انگیزه های خود خالص است، اجازه دهید آنها را دنبال کنند."

مخالفان چه می گویند؟

گروه کر رو به رشدی از بازیکنان سیلیکون ولی با SB 1047 مخالفت می کنند.

«مخالف VC میلیاردر» هندریکس احتمالاً به a16z اشاره دارد، شرکتی که توسط مارک اندرسن و بن هوروویتز تأسیس شد و به شدت با SB 1047 مخالفت کرده است. در اوایل ماه اوت، جایکومار راماسوامی، مدیر ارشد حقوقی شرکت خطرپذیر، نامه ای به سناتور وینر ارائه کرد. ، ادعا می کند که این لایحه "به دلیل آستانه های خودسرانه و در حال تغییر، بار استارتاپ ها را سنگین می کند" و تأثیری سرد بر اکوسیستم هوش مصنوعی ایجاد می کند. با پیشرفت فناوری هوش مصنوعی، گران‌تر می‌شود، به این معنی که استارت‌آپ‌های بیشتری از آستانه 100 میلیون دلاری عبور خواهند کرد و تحت پوشش SB 1047 قرار خواهند گرفت. a16z او میگوید که چندین استارت‌آپ آن‌ها در حال حاضر این مقدار را برای مدل‌های آموزشی دریافت می‌کنند.

Fei-Fei Li که اغلب مادرخوانده هوش مصنوعی نامیده می شود، در اوایل ماه اوت سکوت خود را در SB 1047 شکست و در ستون Fortune نوشت که این صورتحساب به اکوسیستم هوش مصنوعی در حال رشد ما آسیب می رساند. در حالی که لی یک پیشگام در تحقیقات هوش مصنوعی از استنفورد است، او همچنین در ماه آوریل یک استارتاپ هوش مصنوعی به نام آزمایشگاه جهانی ایجاد کرد که ارزش آن یک میلیارد دلار بود و توسط a16z پشتیبانی می‌شد.

او به دانشگاهیان با نفوذ هوش مصنوعی مانند اندرو نگ، محقق دانشگاه استنفورد می‌پیوندد که طی سخنرانی در یک رویداد Y Combinator در ماه ژوئیه، این لایحه را «حمله به منبع باز» خواند. مدل‌های منبع باز ممکن است خطرات بیشتری را برای سازندگان خود ایجاد کنند، زیرا مانند هر نرم‌افزار باز، راحت‌تر تغییر داده می‌شوند و برای اهداف خودسرانه و بالقوه مخرب استفاده می‌شوند.

یان لکون، دانشمند ارشد هوش مصنوعی متا، بيان کرد که SB 1047 به تلاش‌های تحقیقاتی لطمه می‌زند و مبتنی بر "توهم "خطر وجودی" است که توسط تعدادی اتاق فکر متوهم ایجاد می‌شود. از مهمترین نمونه های LLM منبع باز.

استارت‌آپ‌ها نیز از این صورت‌حساب راضی نیستند. جرمی نیکسون، مدیرعامل استارت‌آپ هوش مصنوعی Omniscience و بنیانگذار AGI House SF، مرکز استارت‌آپ‌های هوش مصنوعی در سانفرانسیسکو، نگران است که SB 1047 اکوسیستم او را در هم بکوبد. او استدلال می کند که بازیگران بد باید به دلیل ایجاد آسیب های جدی مجازات شوند، نه آزمایشگاه های هوش مصنوعی که آشکارا این فناوری را توسعه و توزیع می کنند.

نیکسون گفت: "یک سردرگمی عمیق در مرکز این لایحه وجود دارد، اینکه LLM ها می توانند به نوعی در سطوح توانایی خطرناک خود متفاوت باشند." "به نظر من این احتمال وجود دارد که همه مدل ها دارای قابلیت های خطرناکی باشند که در لایحه تعریف شده است. "

اما Big Tech که لایحه مستقیماً روی آن متمرکز است، در مورد SB 1047 نیز وحشت دارد. اتاق پیشرفت - یک گروه تجاری به نمایندگی از گوگل، اپل، آمازون و دیگر غول‌های فناوری بزرگ - با انتشار نامه‌ای سرگشاده با این لایحه مخالفت کرد و گفت: SB 1047 آزادی بیان را محدود می‌کند و «نوآوری‌های فناوری را از کالیفرنیا بیرون می‌کشد». سال گذشته، ساندار پیچای، مدیرعامل گوگل و سایر مدیران فناوری، ایده مقررات فدرال هوش مصنوعی را تایید کردند.

رو خانا، نماینده کنگره ایالات متحده، که نماینده سیلیکون ولی است، روز سه شنبه بیانیه ای در مخالفت با SB 1047 منتشر کرد. او ابراز نگرانی کرد که این لایحه "بی اثر خواهد بود، کارآفرینان فردی و مشاغل کوچک را مجازات می کند و به روحیه نوآوری کالیفرنیا آسیب می رساند."

سیلیکون ولی به طور سنتی زمانی را دوست ندارد که کالیفرنیا مقررات فناوری گسترده ای را مانند این وضع می کند. در سال 2019، Big Tech کارت مشابهی را زمانی که یک لایحه حفظ حریم خصوصی ایالتی دیگر، قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا، نیز تهدید به تغییر چشم انداز فناوری کرد، برداشت. دره سیلیکون علیه این لایحه لابی کرد و ماه ها قبل از اجرایی شدن آن، جف بزوس، بنیانگذار آمازون و 50 مدیر دیگر، نامه ای سرگشاده نوشتند و خواستار لایحه فدرال حفظ حریم خصوصی شدند.

بعد چه اتفاقی می افتد؟

در 15 آگوست، SB 1047 با هر اصلاحیه ای که تصویب شود به صحن مجلس سنای کالیفرنیا ارسال خواهد شد. به گفته وینر، اینجا جایی است که لوایح در سنای کالیفرنیا "زندگی می کنند یا می میرند". با توجه به حمایت قاطع قانونگذاران تا کنون، پیش بینی می شود که تصویب شود.

Anthropic در اواخر ژوئیه تعدادی اصلاحیه پیشنهادی را برای SB 1047 ارائه کرد که وینر می گوید که او و کمیته های سیاست سنای کالیفرنیا فعالانه در حال تحلیل آن هستند. Anthropic اولین توسعه دهنده یک مدل پیشرفته هوش مصنوعی است که به صورت عمومی اعلام می کند که مایل است با Wiener در SB 1047 کار کند، حتی اگر این لایحه را به شکل فعلی پشتیبانی نمی کند. این تا حد زیادی به عنوان یک پیروزی برای این لایحه در نظر گرفته شد.

تغییرات پیشنهادی Anthropic شامل خلاص شدن از شر FMD، کاهش قدرت دادستان کل برای شکایت از توسعه دهندگان هوش مصنوعی قبل از وقوع آسیب، و خلاص شدن از شرایط حفاظت از افشاگران در SB 1047 است. وینر می گوید که او به طور کلی در مورد اصلاحات مثبت است، اما نیاز به تایید چندین نفر دارد. کمیته های سیاست سنا قبل از اضافه کردن آنها به لایحه.

اگر SB 1047 سنا را تصویب کند، این لایحه به میز فرماندار کالیفرنیا گاوین نیوسام فرستاده خواهد شد، جایی که او در نهایت تصمیم خواهد گرفت که آیا این لایحه را قبل از پایان ماه اوت امضا کند یا خیر. وینر می گوید که درباره این لایحه با نیوسام صحبت نکرده است و از موضع خود اطلاعی ندارد.

این لایحه فوراً اجرایی نخواهد شد، زیرا FMD قرار است در سال 2026 تشکیل شود. علاوه بر این، اگر این لایحه تصویب شود، احتمالاً قبل از آن با چالش های قانونی مواجه خواهد شد، شاید از سوی برخی از همان گروه هایی که در مورد آن صحبت می کنند. آن را در حال حاضر.

تصحیح: این داستان در ابتدا به پیش نویس قبلی زبان SB 1047 در مورد اینکه چه کسی مسئول مدل های تنظیم شده است، اشاره می کند. در حال حاضر، SB 1047 او میگوید توسعه‌دهنده یک مدل مشتق شده تنها در صورتی مسئول یک مدل است که سه برابر هزینه‌ای که توسعه‌دهنده مدل اصلی برای آموزش انجام داده است، خرج کند.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است