متن خبر

این هفته در هوش مصنوعی: چرا OpenAI’s o1 بازی تنظیم هوش مصنوعی را تغییر می دهد

این هفته در هوش مصنوعی: چرا OpenAI’s o1 بازی تنظیم هوش مصنوعی را تغییر می دهد

شناسهٔ خبر: 756469 -




سلام، دوستان، به خبرنامه معمولی هوش مصنوعی TechCrunch خوش آمدید. اگر می‌خواهید هر چهارشنبه این را در صندوق پستی خود داشته باشید، اینجا ثبت نام کنید.

چند روزی است که OpenAI جدیدترین مدل تولیدی پرچمدار خود، o1 را به دنیا معرفی کرده است. به عنوان یک مدل «استدلال» بازاریابی، o1 اساساً برای «اندیشیدن» در مورد سؤالات قبل از پاسخ دادن به آنها، تجزیه مشکلات و تحلیل پاسخ های خود زمان بیشتری می برد.

بسیاری از چیزها وجود دارد که o1 نمی تواند به خوبی انجام دهد - و خود OpenAI نیز این را تایید می کند. اما در برخی از وظایف، مانند فیزیک و ریاضی، o1 علیرغم اینکه الزاما پارامترهای بیشتری نسبت به مدل قبلی OpenAI، GPT-4o ندارد، برتر است. (در هوش مصنوعی و یادگیری ماشینی، «پارامترها»، معمولاً میلیاردی، تقریباً با مهارت‌های حل مسئله مدل مطابقت دارند.)

و این پیامدهایی برای مقررات هوش مصنوعی دارد.

به عنوان مثال، لایحه پیشنهادی کالیفرنیا SB 1047، الزامات ایمنی را بر مدل‌های هوش مصنوعی تحمیل می‌کند که یا بیش از 100 میلیون دلار هزینه برای توسعه دارند یا با استفاده از توان محاسباتی فراتر از یک آستانه مشخص آموزش دیده‌اند. با این حال، مدل‌هایی مانند o1 نشان می‌دهند که افزایش مقیاس محاسبات آموزشی تنها راه برای بهبود عملکرد یک مدل نیست.

جیم فن، مدیر تحقیقات انویدیا، در پستی در X، اظهار داشت که سیستم‌های هوش مصنوعی آینده ممکن است به «هسته‌های استدلال» کوچک و آسان‌تر برای آموزش متکی باشند، برخلاف معماری‌های فشرده (مثلاً Llama 405B متا) که قبلاً بوده است. روند اخیر او خاطرنشان می کند که مطالعات آکادمیک اخیر نشان داده است که مدل های کوچکی مانند o1 می توانند تا حد زیادی بهتر از مدل های بزرگ عمل کنند که زمان بیشتری برای نودل کردن در مورد سؤالات وجود دارد.

پس آیا برای سیاستگذاران کوته بینانه بود که اقدامات نظارتی هوش مصنوعی را به محاسبه گره بزنند؟ سارا هوکر، رئیس آزمایشگاه تحقیقاتی استارتاپ Cohere در هوش مصنوعی در مصاحبه با TechCrunch او میگوید :

[o1] با استفاده از اندازه مدل به عنوان نماینده ای برای ریسک، به نوعی اشاره می کند که این دیدگاه چقدر ناقص است. هر کاری را که می توانید با استنتاج یا اجرای یک مدل انجام دهید در نظر نمی گیرد. برای من، این ترکیبی از علم بد همراه با سیاست هایی است که بر خطرات فعلی که اکنون در جهان می بینیم، تأکید نمی کند، بلکه بر خطرات آینده تأکید دارد.

حال، آیا این بدان معناست که قانونگذاران باید لوایح هوش مصنوعی را از پایه جدا کنند و از نو شروع کنند؟ خیر. بسیاری از آنها به گونه ای نوشته شده بودند که به راحتی قابل اصلاح باشند، با این فرض که هوش مصنوعی بسیار فراتر از وضع آنها تکامل خواهد یافت. برای مثال، لایحه کالیفرنیا به آژانس عملیات دولتی این ایالت اختیار می‌دهد تا آستانه‌های محاسباتی را که الزامات ایمنی قانون را آغاز می‌کنند، دوباره تعریف کند.

مسلماً بخش دشوار این است که بفهمیم کدام معیار می تواند پروکسی بهتری برای ریسک نسبت به محاسبات آموزشی باشد . مانند بسیاری از جنبه‌های دیگر مقررات هوش مصنوعی، وقتی لوایح در سراسر ایالات متحده - و جهان - به سمت تصویب حرکت می‌کنند، جای تأمل دارد.

اخبار

اعتبار تصویر: دیوید پل موریس / بلومبرگ / گتی ایماژ

اولین واکنش‌ها به o1: مکس برداشت‌های اولیه را از محققان هوش مصنوعی، بنیان‌گذاران استارت‌آپ و VCها در o1 دریافت کرد - و خودش مدل را آزمایش کرد.

آلتمن کمیته ایمنی را ترک کرد: سام آلتمن، مدیر عامل OpenAI، از کمیته استارت آپ که مسئول تحلیل ایمنی مدل هایی مانند o1 بود، استعفا داد، احتمالاً در پاسخ به این نگرانی که او بی طرفانه عمل نمی کند.

Slack به یک مرکز عامل تبدیل می‌شود: در کنفرانس سالانه Dreamforce شرکت مادرش Salesforce، Slack آپشن های جدیدی از جمله خلاصه‌های جلسات ایجاد شده توسط هوش مصنوعی و ادغام با ابزارهایی برای تولید تصویر و جستجوهای وب مبتنی بر هوش مصنوعی را اعلام کرد.

گوگل پرچم‌گذاری تصاویر هوش مصنوعی را آغاز می‌کند: گوگل او میگوید که قصد دارد تغییراتی را در جستجوی Google اعمال کند تا واضح‌تر نشان دهد که کدام تصاویر در نتایج توسط هوش مصنوعی تولید شده‌اند - یا توسط ابزارهای هوش مصنوعی ویرایش شده‌اند.

Mistral یک لایه رایگان راه اندازی کرد: استارتاپ فرانسوی هوش مصنوعی Mistral یک ردیف رایگان جدید راه اندازی کرد تا به توسعه دهندگان اجازه دهد برنامه های آزمایشی را با مدل های هوش مصنوعی این استارت آپ بسازند.

اسنپ ​​یک تولید کننده ویدئو راه اندازی کرد: در اجلاس سالانه شرکای اسنپ در روز سه شنبه، اسنپ چت اعلام کرد که در حال معرفی ابزار جدیدی برای تولید ویدئو با هوش مصنوعی برای سازندگان است. این ابزار به سازندگان منتخب اجازه می‌دهد ویدیوهای هوش مصنوعی را از پیام‌های متنی و به زودی از پیام‌های تصویر تولید کنند.

اینتل قرارداد اصلی تراشه را امضا می کند: اینتل می گوید که با استفاده از فرآیند ساخت تراشه 18A اینتل، یک تراشه هوش مصنوعی را با AWS توسعه خواهد داد. این شرکت ها این معامله را به عنوان یک "چارچوب چند ساله و چند میلیارد دلاری" توصیف کردند که به طور بالقوه می تواند شامل طراحی های اضافی تراشه باشد.

برنامه ویژه هوش مصنوعی اپرا: اپرا وینفری با مهمانانی مانند سم آلتمن از OpenAI، بیل گیتس از مایکروسافت، مارکس براونلی، تأثیرگذار فناوری و کریستوفر رای، مدیر فعلی FBI، برنامه ویژه هوش مصنوعی را پخش کرد.

مقاله پژوهشی هفته

ما می‌دانیم که هوش مصنوعی می‌تواند متقاعدکننده باشد، اما آیا می‌تواند کسی را عمیقاً در یک سوراخ خرگوش توطئه‌آمیز کند؟ خوب، نه همه به خودی خود. اما یک مدل جدید از Costello و همکاران. در MIT و Cornell می‌توانند باورهای مربوط به توطئه‌های نادرست را که حداقل برای چند ماه ادامه می‌یابد، کاهش دهند.

در این آزمایش، آن‌ها افرادی را داشتند که به اظهارات مرتبط با توطئه اعتقاد داشتند (مثلاً «11 سپتامبر یک کار درونی بود») با یک ربات چت صحبت می‌کردند که به آرامی، صبورانه و بی‌پایان برای استدلال‌هایشان شواهد متقابل ارائه می‌ کرد. این مکالمات باعث شد که انسان‌های درگیر دو ماه بعد، حداقل تا جایی که این چیزها قابل اندازه‌گیری باشد، 20 درصد کاهش در باور مرتبط را بیان کنند. در اینجا نمونه ای از یکی از گفتگوهای در حال انجام است:

بعید است که کسانی که عمیقاً در خزندگان و توطئه های دولت عمیق هستند، احتمالاً با هوش مصنوعی مانند این مشورت کرده یا باور کنند، اما این رویکرد اگر در مقطع حساسی مانند اولین حمله یک فرد به این نظریه ها استفاده شود، می تواند مؤثرتر باشد. به عنوان مثال، اگر یک نوجوان عبارت "آیا سوخت جت می تواند تیرهای فولادی را ذوب کند؟" را جستجو کند. آنها ممکن است یک لحظه یادگیری را به جای یک لحظه غم انگیز تجربه کنند.

مدل هفته

این یک مدل نیست، اما به مدل‌ها مربوط می‌شود: محققان مایکروسافت این هفته یک معیار هوش مصنوعی به نام Eureka را منتشر کردند که هدف آن (به قول آنها) «مقیاس‌سازی [مدل] ارزیابی‌ها به شیوه‌ای باز و شفاف است».

معیارهای هوش مصنوعی یک دوجین سکه هستند. پس چه چیزی اورکا را متفاوت می کند؟ خب، محققان می‌گویند که برای Eureka - که در واقع مجموعه‌ای از معیارهای موجود است - وظایفی را انتخاب کردند که برای «حتی تواناترین مدل‌ها» همچنان چالش‌برانگیز باقی می‌ماند. به طور خاص، Eureka برای قابلیت‌هایی که اغلب در معیارهای هوش مصنوعی نادیده گرفته می‌شوند، آزمایش می‌کند، مانند مهارت‌های ناوبری بصری-فضایی.

برای اینکه نشان دهند اورکا چقدر برای مدل‌ها دشوار است، محققان سیستم‌هایی از جمله Anthropic's Claude، OpenAI's GPT-4o و Meta's Llama را در معیار آزمایش کردند. هیچ مدل واحدی در تمام آزمایش‌های Eureka امتیاز خوبی کسب نکرد، که به گفته محققان، بر اهمیت «نوآوری مستمر» و «بهبودهای هدفمند» در مدل‌ها تأکید می‌کند.

کیف بگیر

کالیفرنیا در یک پیروزی برای بازیگران حرفه ای، دو قانون AB 2602 و AB 1836 را تصویب کرد که استفاده از کپی های دیجیتالی هوش مصنوعی را محدود می کند.

این قانون که توسط SAG-AFTRA، اتحادیه اجراکنندگان حمایت می‌شود، از شرکت‌هایی می‌خواهد که به کپی دیجیتالی یک اجراکننده (مثلاً صدا یا تصویر شبیه‌سازی‌شده) تکیه می‌کنند، توصیفی «معقولاً خاص» از استفاده مورد نظر از ماکت ارائه کنند و با اجراکننده مذاکره کنند. مشاور حقوقی یا اتحادیه کارگری همچنین مستلزم آن است که کارفرمایان سرگرمی قبل از استفاده از کپی دیجیتالی آن شخص، رضایت دارایی یک مجری متوفی را کسب کنند.

همانطور که هالیوود ریپورتر در پوشش خود اشاره می کند، این لوایح مفاهیمی را تدوین می کند که SAG-AFTRA در اعتصاب 118 روزه خود در سال گذشته با استودیوها و پلتفرم های پخش عمده برای آن مبارزه کرد. کالیفرنیا دومین ایالت بعد از تنسی است که محدودیت هایی را برای استفاده از شباهت های بازیگران دیجیتال اعمال می کند. SAG-AFTRA همچنین از تلاش های تنسی حمایت کرد.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است