این هفته در هوش مصنوعی: چرا OpenAI’s o1 بازی تنظیم هوش مصنوعی را تغییر می دهد

سلام، دوستان، به خبرنامه معمولی هوش مصنوعی TechCrunch خوش آمدید. اگر میخواهید هر چهارشنبه این را در صندوق پستی خود داشته باشید، اینجا ثبت نام کنید.
چند روزی است که OpenAI جدیدترین مدل تولیدی پرچمدار خود، o1 را به دنیا معرفی کرده است. به عنوان یک مدل «استدلال» بازاریابی، o1 اساساً برای «اندیشیدن» در مورد سؤالات قبل از پاسخ دادن به آنها، تجزیه مشکلات و تحلیل پاسخ های خود زمان بیشتری می برد.
بسیاری از چیزها وجود دارد که o1 نمی تواند به خوبی انجام دهد - و خود OpenAI نیز این را تایید می کند. اما در برخی از وظایف، مانند فیزیک و ریاضی، o1 علیرغم اینکه الزاما پارامترهای بیشتری نسبت به مدل قبلی OpenAI، GPT-4o ندارد، برتر است. (در هوش مصنوعی و یادگیری ماشینی، «پارامترها»، معمولاً میلیاردی، تقریباً با مهارتهای حل مسئله مدل مطابقت دارند.)
و این پیامدهایی برای مقررات هوش مصنوعی دارد.
به عنوان مثال، لایحه پیشنهادی کالیفرنیا SB 1047، الزامات ایمنی را بر مدلهای هوش مصنوعی تحمیل میکند که یا بیش از 100 میلیون دلار هزینه برای توسعه دارند یا با استفاده از توان محاسباتی فراتر از یک آستانه مشخص آموزش دیدهاند. با این حال، مدلهایی مانند o1 نشان میدهند که افزایش مقیاس محاسبات آموزشی تنها راه برای بهبود عملکرد یک مدل نیست.
جیم فن، مدیر تحقیقات انویدیا، در پستی در X، اظهار داشت که سیستمهای هوش مصنوعی آینده ممکن است به «هستههای استدلال» کوچک و آسانتر برای آموزش متکی باشند، برخلاف معماریهای فشرده (مثلاً Llama 405B متا) که قبلاً بوده است. روند اخیر او خاطرنشان می کند که مطالعات آکادمیک اخیر نشان داده است که مدل های کوچکی مانند o1 می توانند تا حد زیادی بهتر از مدل های بزرگ عمل کنند که زمان بیشتری برای نودل کردن در مورد سؤالات وجود دارد.
پس آیا برای سیاستگذاران کوته بینانه بود که اقدامات نظارتی هوش مصنوعی را به محاسبه گره بزنند؟ سارا هوکر، رئیس آزمایشگاه تحقیقاتی استارتاپ Cohere در هوش مصنوعی در مصاحبه با TechCrunch او میگوید :
[o1] با استفاده از اندازه مدل به عنوان نماینده ای برای ریسک، به نوعی اشاره می کند که این دیدگاه چقدر ناقص است. هر کاری را که می توانید با استنتاج یا اجرای یک مدل انجام دهید در نظر نمی گیرد. برای من، این ترکیبی از علم بد همراه با سیاست هایی است که بر خطرات فعلی که اکنون در جهان می بینیم، تأکید نمی کند، بلکه بر خطرات آینده تأکید دارد.
حال، آیا این بدان معناست که قانونگذاران باید لوایح هوش مصنوعی را از پایه جدا کنند و از نو شروع کنند؟ خیر. بسیاری از آنها به گونه ای نوشته شده بودند که به راحتی قابل اصلاح باشند، با این فرض که هوش مصنوعی بسیار فراتر از وضع آنها تکامل خواهد یافت. برای مثال، لایحه کالیفرنیا به آژانس عملیات دولتی این ایالت اختیار میدهد تا آستانههای محاسباتی را که الزامات ایمنی قانون را آغاز میکنند، دوباره تعریف کند.
مسلماً بخش دشوار این است که بفهمیم کدام معیار می تواند پروکسی بهتری برای ریسک نسبت به محاسبات آموزشی باشد . مانند بسیاری از جنبههای دیگر مقررات هوش مصنوعی، وقتی لوایح در سراسر ایالات متحده - و جهان - به سمت تصویب حرکت میکنند، جای تأمل دارد.
اخبار

اولین واکنشها به o1: مکس برداشتهای اولیه را از محققان هوش مصنوعی، بنیانگذاران استارتآپ و VCها در o1 دریافت کرد - و خودش مدل را آزمایش کرد.
آلتمن کمیته ایمنی را ترک کرد: سام آلتمن، مدیر عامل OpenAI، از کمیته استارت آپ که مسئول تحلیل ایمنی مدل هایی مانند o1 بود، استعفا داد، احتمالاً در پاسخ به این نگرانی که او بی طرفانه عمل نمی کند.
Slack به یک مرکز عامل تبدیل میشود: در کنفرانس سالانه Dreamforce شرکت مادرش Salesforce، Slack آپشن های جدیدی از جمله خلاصههای جلسات ایجاد شده توسط هوش مصنوعی و ادغام با ابزارهایی برای تولید تصویر و جستجوهای وب مبتنی بر هوش مصنوعی را اعلام کرد.
گوگل پرچمگذاری تصاویر هوش مصنوعی را آغاز میکند: گوگل او میگوید که قصد دارد تغییراتی را در جستجوی Google اعمال کند تا واضحتر نشان دهد که کدام تصاویر در نتایج توسط هوش مصنوعی تولید شدهاند - یا توسط ابزارهای هوش مصنوعی ویرایش شدهاند.
Mistral یک لایه رایگان راه اندازی کرد: استارتاپ فرانسوی هوش مصنوعی Mistral یک ردیف رایگان جدید راه اندازی کرد تا به توسعه دهندگان اجازه دهد برنامه های آزمایشی را با مدل های هوش مصنوعی این استارت آپ بسازند.
اسنپ یک تولید کننده ویدئو راه اندازی کرد: در اجلاس سالانه شرکای اسنپ در روز سه شنبه، اسنپ چت اعلام کرد که در حال معرفی ابزار جدیدی برای تولید ویدئو با هوش مصنوعی برای سازندگان است. این ابزار به سازندگان منتخب اجازه میدهد ویدیوهای هوش مصنوعی را از پیامهای متنی و به زودی از پیامهای تصویر تولید کنند.
اینتل قرارداد اصلی تراشه را امضا می کند: اینتل می گوید که با استفاده از فرآیند ساخت تراشه 18A اینتل، یک تراشه هوش مصنوعی را با AWS توسعه خواهد داد. این شرکت ها این معامله را به عنوان یک "چارچوب چند ساله و چند میلیارد دلاری" توصیف کردند که به طور بالقوه می تواند شامل طراحی های اضافی تراشه باشد.
برنامه ویژه هوش مصنوعی اپرا: اپرا وینفری با مهمانانی مانند سم آلتمن از OpenAI، بیل گیتس از مایکروسافت، مارکس براونلی، تأثیرگذار فناوری و کریستوفر رای، مدیر فعلی FBI، برنامه ویژه هوش مصنوعی را پخش کرد.
مقاله پژوهشی هفته
ما میدانیم که هوش مصنوعی میتواند متقاعدکننده باشد، اما آیا میتواند کسی را عمیقاً در یک سوراخ خرگوش توطئهآمیز کند؟ خوب، نه همه به خودی خود. اما یک مدل جدید از Costello و همکاران. در MIT و Cornell میتوانند باورهای مربوط به توطئههای نادرست را که حداقل برای چند ماه ادامه مییابد، کاهش دهند.
در این آزمایش، آنها افرادی را داشتند که به اظهارات مرتبط با توطئه اعتقاد داشتند (مثلاً «11 سپتامبر یک کار درونی بود») با یک ربات چت صحبت میکردند که به آرامی، صبورانه و بیپایان برای استدلالهایشان شواهد متقابل ارائه می کرد. این مکالمات باعث شد که انسانهای درگیر دو ماه بعد، حداقل تا جایی که این چیزها قابل اندازهگیری باشد، 20 درصد کاهش در باور مرتبط را بیان کنند. در اینجا نمونه ای از یکی از گفتگوهای در حال انجام است:

بعید است که کسانی که عمیقاً در خزندگان و توطئه های دولت عمیق هستند، احتمالاً با هوش مصنوعی مانند این مشورت کرده یا باور کنند، اما این رویکرد اگر در مقطع حساسی مانند اولین حمله یک فرد به این نظریه ها استفاده شود، می تواند مؤثرتر باشد. به عنوان مثال، اگر یک نوجوان عبارت "آیا سوخت جت می تواند تیرهای فولادی را ذوب کند؟" را جستجو کند. آنها ممکن است یک لحظه یادگیری را به جای یک لحظه غم انگیز تجربه کنند.
مدل هفته
این یک مدل نیست، اما به مدلها مربوط میشود: محققان مایکروسافت این هفته یک معیار هوش مصنوعی به نام Eureka را منتشر کردند که هدف آن (به قول آنها) «مقیاسسازی [مدل] ارزیابیها به شیوهای باز و شفاف است».
معیارهای هوش مصنوعی یک دوجین سکه هستند. پس چه چیزی اورکا را متفاوت می کند؟ خب، محققان میگویند که برای Eureka - که در واقع مجموعهای از معیارهای موجود است - وظایفی را انتخاب کردند که برای «حتی تواناترین مدلها» همچنان چالشبرانگیز باقی میماند. به طور خاص، Eureka برای قابلیتهایی که اغلب در معیارهای هوش مصنوعی نادیده گرفته میشوند، آزمایش میکند، مانند مهارتهای ناوبری بصری-فضایی.
برای اینکه نشان دهند اورکا چقدر برای مدلها دشوار است، محققان سیستمهایی از جمله Anthropic's Claude، OpenAI's GPT-4o و Meta's Llama را در معیار آزمایش کردند. هیچ مدل واحدی در تمام آزمایشهای Eureka امتیاز خوبی کسب نکرد، که به گفته محققان، بر اهمیت «نوآوری مستمر» و «بهبودهای هدفمند» در مدلها تأکید میکند.
کیف بگیر
کالیفرنیا در یک پیروزی برای بازیگران حرفه ای، دو قانون AB 2602 و AB 1836 را تصویب کرد که استفاده از کپی های دیجیتالی هوش مصنوعی را محدود می کند.
این قانون که توسط SAG-AFTRA، اتحادیه اجراکنندگان حمایت میشود، از شرکتهایی میخواهد که به کپی دیجیتالی یک اجراکننده (مثلاً صدا یا تصویر شبیهسازیشده) تکیه میکنند، توصیفی «معقولاً خاص» از استفاده مورد نظر از ماکت ارائه کنند و با اجراکننده مذاکره کنند. مشاور حقوقی یا اتحادیه کارگری همچنین مستلزم آن است که کارفرمایان سرگرمی قبل از استفاده از کپی دیجیتالی آن شخص، رضایت دارایی یک مجری متوفی را کسب کنند.
همانطور که هالیوود ریپورتر در پوشش خود اشاره می کند، این لوایح مفاهیمی را تدوین می کند که SAG-AFTRA در اعتصاب 118 روزه خود در سال گذشته با استودیوها و پلتفرم های پخش عمده برای آن مبارزه کرد. کالیفرنیا دومین ایالت بعد از تنسی است که محدودیت هایی را برای استفاده از شباهت های بازیگران دیجیتال اعمال می کند. SAG-AFTRA همچنین از تلاش های تنسی حمایت کرد.
ارسال نظر