اپرا به تازگی یک برنامه ویژه هوش مصنوعی با سم آلتمن و بیل گیتس داشته است – در اینجا نکات برجسته است
اواخر عصر پنجشنبه، اپرا وینفری برنامه ویژه ای را با عنوان "هوش مصنوعی و آینده ما" پخش کرد. میهمانان شامل سم آلتمن، مدیر عامل OpenAI، مارکز براونلی، تأثیرگذار فناوری و کریستوفر رای، مدیر فعلی FBI بودند.
لحن غالب لحن شکاکیت و احتیاط بود.
اپرا در اظهارات آماده شده بيان کرد که جن هوش مصنوعی، خوب یا بد، از بطری خارج شده است و بشریت باید یاد بگیرد که با عواقب آن زندگی کند.
او گفت: "هوش مصنوعی هنوز خارج از کنترل ما و تا حد زیادی ... درک ما است. " اما اینجاست، و ما با فناوری زندگی خواهیم کرد که می تواند متحد ما و همچنین رقیب ما باشد... ما سازگارترین موجودات این سیاره هستیم. ما دوباره سازگار خواهیم شد. اما نگاه خود را به آنچه واقعی است. خطرات نمی توانست بالاتر باشد.»
سام آلتمن بیش از حد قول می دهد
آلتمن، اولین مصاحبه شبانه اپرا، این مورد سوال برانگیز را مطرح کرد که هوش مصنوعی امروزی در حال یادگیری مفاهیم با داده هایی است که روی آنها آموزش دیده است.
او به اپرا گفت: «ما هزاران کلمه را در یک توالی به سیستم نشان میدهیم و از آن میخواهیم تا اتفاقات بعدی را پیشبینی کند. «سیستم یاد میگیرد که پیشبینی کند، و سپس در آنجا، مفاهیم زیربنایی را یاد میگیرد.»
بسیاری از کارشناسان مخالف هستند.
سیستمهای هوش مصنوعی مانند ChatGPT و o1 که OpenAI روز پنجشنبه معرفی شد، در واقع محتملترین کلمات بعدی را در یک جمله پیشبینی میکنند. اما آنها صرفاً ماشین های آماری هستند - آنها الگوهای داده را یاد می گیرند. آنها عمدی ندارند. آنها فقط حدس های آگاهانه می زنند.
در حالی که آلتمن احتمالاً توانایی های سیستم های هوش مصنوعی امروزی را اغراق کرده است، او بر اهمیت کشف چگونگی تست ایمنی همان سیستم ها تأکید کرد.
او گفت: «یکی از اولین کارهایی که باید انجام دهیم - و این در حال حاضر اتفاق میافتد - این است که دولت را وادار کنیم که چگونه آزمایش ایمنی این سیستمها را انجام دهد، مانند هواپیماها یا داروهای جدید. من شخصاً احتمالاً هر چند روز یک بار با شخصی در دولت صحبت می کنم.
فشار آلتمن برای مقررات ممکن است به نفع شخصی باشد. OpenAI با لایحه ایمنی هوش مصنوعی کالیفرنیا معروف به SB 1047 مخالفت کرده و گفته است که این لایحه "نوآوری را خفه می کند." با این حال، کارمندان سابق OpenAI و کارشناسان هوش مصنوعی مانند جفری هینتون از این لایحه حمایت کردند و استدلال کردند که این لایحه تدابیر لازم را برای توسعه هوش مصنوعی اعمال می کند.
اپرا همچنین آلتمن را در مورد نقش او به عنوان رهبر OpenAI تشویق کرد. او پرسید که چرا مردم باید به او اعتماد کنند و او تا حد زیادی از این سوال طفره رفت و بيان کرد که شرکت او در تلاش است در طول زمان اعتماد ایجاد کند.
پیش از این، آلتمن به طور مستقیم بيان کرد که مردم نباید به او یا هر فرد دیگری اعتماد کنند تا مطمئن شوند که هوش مصنوعی به نفع جهان است.
مدیر عامل OpenAI بعداً بيان کرد که شنیدن اینکه اپرا میپرسد آیا او «قویترین و خطرناکترین مرد جهان» است، عجیب است. او مخالف بود، اما بيان کرد که احساس مسئولیت میکند تا هوش مصنوعی را در جهتی مثبت برای بشریت سوق دهد.
اپرا در مورد دیپ فیک
همانطور که قرار بود در یک برنامه ویژه درباره هوش مصنوعی اتفاق بیفتد، موضوع دیپ فیک مطرح شد.
برای نشان دادن میزان قانعکننده شدن رسانههای مصنوعی، براونلی تصاویر نمونه از Sora، تولیدکننده ویدیوی مبتنی بر هوش مصنوعی OpenAI را با فیلمهای تولید شده توسط هوش مصنوعی از یک سیستم هوش مصنوعی چند ماهه مقایسه کرد. نمونه Sora مایل ها جلوتر بود - که نشان دهنده پیشرفت سریع میدان بود.
براونلی درباره فیلم سورا گفت: «اکنون، هنوز میتوانید به تکههایی از این نگاه کنید و بگویید که چیزی کاملاً درست نیست. اپرا بيان کرد که برای او واقعی به نظر می رسد.
ویترین دیپ فیک به عنوان دنبالهای برای مصاحبه با Wray عمل کرد، او لحظهای را که برای اولین بار با فناوری دیپفیک هوش مصنوعی آشنا شد را بازگو کرد.
Wray گفت: "من در یک اتاق کنفرانس بودم و تعدادی از افراد [اف بی آی] دور هم جمع شدند تا به من نشان دهند که چگونه می توان دیپ فیک های تقویت شده با هوش مصنوعی ایجاد کرد. " و آنها ویدیویی از من ساخته بودند که چیزهایی را می گویم که قبلاً هرگز نگفته بودم و هرگز نخواهم گفت.»
Wray در مورد شیوع روزافزون جنایات جنسی به کمک هوش مصنوعی صحبت کرد. به گفته شرکت امنیت سایبری ESET، در بین سالهای 2022 تا 2023، 178 درصد افزایش در موارد جنایت جنسی وجود داشته است که بخشی از آن ناشی از فناوری هوش مصنوعی بوده است.
رای گفت: «کسی که خود را به عنوان همسال نشان میدهد، نوجوانی را هدف قرار میدهد، سپس از تصاویر مخرب [تولید شده توسط هوش مصنوعی] استفاده میکند تا کودک را متقاعد کند که در ازای آن عکسهای واقعی بفرستد. در واقع، این مردی پشت یک صفحه کلید در نیجریه است، و به محض اینکه آنها تصاویر را در اختیار دارند، کودک را تهدید به سیاه نمایی می کنند و می گویند، اگر پول را پرداخت نکنید، ما این تصاویر را به اشتراک می گذاریم که زندگی شما را خراب می کند. ”
وی همچنین به اطلاعات نادرست در مورد انتخابات ریاست جمهوری آینده ایالات متحده اشاره کرد. او ضمن تاکید بر اینکه «زمان وحشت نرسیده»، تأکید کرد که بر «همه در آمریکا» موظف است که «حس تمرکز و احتیاط شدید» را برای استفاده از هوش مصنوعی به ارمغان بیاورند و به خاطر داشته باشند که هوش مصنوعی «می تواند توسط هوش مصنوعی مورد استفاده قرار گیرد. آدم های بد علیه همه ما.»
رای گفت: «ما خیلی وقتها متوجه میشویم که چیزی در رسانههای اجتماعی که شبیه بیل اهل توپکا یا مری اهل دیتون است، در واقع یک افسر اطلاعاتی روسی یا چینی در حومه پکن یا مسکو است.
در واقع، یک نظرسنجی Statista نشان داد که بیش از یک سوم از پاسخ دهندگان آمریکایی اطلاعات گمراه کننده - یا آنچه آنها گمان می بردند اطلاعات نادرست است - در مورد موضوعات کلیدی در اواخر سال 2023 مشاهده کردند. امسال، تصاویر گمراه کننده ایجاد شده توسط هوش مصنوعی از نامزدهای معاون کامالا هریس و رئیس جمهور سابق. دونالد ترامپ میلیون ها بازدید را در شبکه های اجتماعی از جمله X به دست آورده است.
بیل گیتس در مورد اختلال هوش مصنوعی
برای تغییر سرعت فنی و خوش بینانه، اپرا با بیل گیتس، بنیانگذار مایکروسافت، مصاحبه کرد که ابراز امیدواری کرد که هوش مصنوعی زمینه های آموزشی و پزشکی را افزایش دهد.
گیتس گفت: «هوش مصنوعی مانند شخص سومی است که در [یک قرار ملاقات پزشکی] نشسته است، رونوشت را انجام می دهد و نسخه ای را پیشنهاد می کند. و پس به جای اینکه دکتر رو به صفحه کامپیوتر باشد، آنها با شما درگیر هستند و نرم افزار مطمئن می شود که رونوشت واقعا خوبی وجود دارد.
با این حال، گیتس پتانسیل سوگیری ناشی از آموزش ضعیف هوش مصنوعی را نادیده گرفت.
یک مطالعه اخیر نشان داد که سیستمهای تشخیص گفتار از شرکتهای پیشرو در فناوری، دو برابر بیشتر از بلندگوهای سفید، بهطور نادرست صدای بلندگوهای سیاهپوست را رونویسی میکنند. تحقیقات دیگر نشان داده است که سیستمهای هوش مصنوعی این باورهای قدیمی و نادرست را تقویت میکنند که تفاوتهای بیولوژیکی بین سیاهپوستان و سفیدپوستان وجود دارد - نادرستی که پزشکان را به اشتباه در تشخیص مشکلات سلامتی سوق میدهد.
گیتس گفت، در کلاس درس، هوش مصنوعی میتواند «همیشه در دسترس باشد» و «درک کند که چگونه به شما انگیزه دهد… هر سطح دانش شما که باشد».
این دقیقاً تعداد کلاس های درس آن را نمی بینند.
تابستان گذشته، مدارس و کالجها عجله کردند تا ChatGPT را به دلیل سرقت ادبی و ترس از اطلاعات نادرست ممنوع کنند. از آن زمان، برخی ممنوعیت های خود را لغو کردند. اما همه از پتانسیل GenAI برای خوب بودن متقاعد نشدهاند و به نظرسنجیهایی مانند مرکز اینترنت امنتر بریتانیا اشاره میکنند که نشان میدهد بیش از نیمی از بچهها گزارش میدهند که افراد هم سن و سال خود را دیدهاند که از GenAI به شیوهای منفی استفاده میکنند - به عنوان مثال ایجاد اطلاعات نادرست قابل باور یا تصاویر استفاده شده. ناراحت کردن کسی
سازمان آموزشی، علمی و فرهنگی سازمان ملل متحد (یونسکو) اواخر سال گذشته از دولتها فشار آورد تا استفاده از GenAI در آموزش را تنظیم کنند، از جمله اجرای محدودیتهای سنی برای کاربران و نردههای محافظ برای حفاظت از دادهها و حریم خصوصی کاربران.
ارسال نظر