متن خبر

اپرا به تازگی یک برنامه ویژه هوش مصنوعی با سم آلتمن و بیل گیتس داشته است – در اینجا نکات برجسته است

اپرا به تازگی یک برنامه ویژه هوش مصنوعی با سم آلتمن و بیل گیتس داشته است – در اینجا نکات برجسته است

شناسهٔ خبر: 747644 -




اواخر عصر پنجشنبه، اپرا وینفری برنامه ویژه ای را با عنوان "هوش مصنوعی و آینده ما" پخش کرد. میهمانان شامل سم آلتمن، مدیر عامل OpenAI، مارکز براونلی، تأثیرگذار فناوری و کریستوفر رای، مدیر فعلی FBI بودند.

لحن غالب لحن شکاکیت و احتیاط بود.

اپرا در اظهارات آماده شده بيان کرد که جن هوش مصنوعی، خوب یا بد، از بطری خارج شده است و بشریت باید یاد بگیرد که با عواقب آن زندگی کند.

او گفت: "هوش مصنوعی هنوز خارج از کنترل ما و تا حد زیادی ... درک ما است. " اما اینجاست، و ما با فناوری زندگی خواهیم کرد که می تواند متحد ما و همچنین رقیب ما باشد... ما سازگارترین موجودات این سیاره هستیم. ما دوباره سازگار خواهیم شد. اما نگاه خود را به آنچه واقعی است. خطرات نمی توانست بالاتر باشد.»

سام آلتمن بیش از حد قول می دهد

آلتمن، اولین مصاحبه شبانه اپرا، این مورد سوال برانگیز را مطرح کرد که هوش مصنوعی امروزی در حال یادگیری مفاهیم با داده هایی است که روی آنها آموزش دیده است.

او به اپرا گفت: «ما هزاران کلمه را در یک توالی به سیستم نشان می‌دهیم و از آن می‌خواهیم تا اتفاقات بعدی را پیش‌بینی کند. «سیستم یاد می‌گیرد که پیش‌بینی کند، و سپس در آنجا، مفاهیم زیربنایی را یاد می‌گیرد.»

بسیاری از کارشناسان مخالف هستند.

سیستم‌های هوش مصنوعی مانند ChatGPT و o1 که OpenAI روز پنجشنبه معرفی شد، در واقع محتمل‌ترین کلمات بعدی را در یک جمله پیش‌بینی می‌کنند. اما آنها صرفاً ماشین های آماری هستند - آنها الگوهای داده را یاد می گیرند. آنها عمدی ندارند. آنها فقط حدس های آگاهانه می زنند.

در حالی که آلتمن احتمالاً توانایی های سیستم های هوش مصنوعی امروزی را اغراق کرده است، او بر اهمیت کشف چگونگی تست ایمنی همان سیستم ها تأکید کرد.

او گفت: «یکی از اولین کارهایی که باید انجام دهیم - و این در حال حاضر اتفاق می‌افتد - این است که دولت را وادار کنیم که چگونه آزمایش ایمنی این سیستم‌ها را انجام دهد، مانند هواپیماها یا داروهای جدید. من شخصاً احتمالاً هر چند روز یک بار با شخصی در دولت صحبت می کنم.

فشار آلتمن برای مقررات ممکن است به نفع شخصی باشد. OpenAI با لایحه ایمنی هوش مصنوعی کالیفرنیا معروف به SB 1047 مخالفت کرده و گفته است که این لایحه "نوآوری را خفه می کند." با این حال، کارمندان سابق OpenAI و کارشناسان هوش مصنوعی مانند جفری هینتون از این لایحه حمایت کردند و استدلال کردند که این لایحه تدابیر لازم را برای توسعه هوش مصنوعی اعمال می کند.

اپرا همچنین آلتمن را در مورد نقش او به عنوان رهبر OpenAI تشویق کرد. او پرسید که چرا مردم باید به او اعتماد کنند و او تا حد زیادی از این سوال طفره رفت و بيان کرد که شرکت او در تلاش است در طول زمان اعتماد ایجاد کند.

پیش از این، آلتمن به طور مستقیم بيان کرد که مردم نباید به او یا هر فرد دیگری اعتماد کنند تا مطمئن شوند که هوش مصنوعی به نفع جهان است.

مدیر عامل OpenAI بعداً بيان کرد که شنیدن اینکه اپرا می‌پرسد آیا او «قوی‌ترین و خطرناک‌ترین مرد جهان» است، عجیب است. او مخالف بود، اما بيان کرد که احساس مسئولیت می‌کند تا هوش مصنوعی را در جهتی مثبت برای بشریت سوق دهد.

اپرا در مورد دیپ فیک

همانطور که قرار بود در یک برنامه ویژه درباره هوش مصنوعی اتفاق بیفتد، موضوع دیپ فیک مطرح شد.

برای نشان دادن میزان قانع‌کننده شدن رسانه‌های مصنوعی، براونلی تصاویر نمونه از Sora، تولیدکننده ویدیوی مبتنی بر هوش مصنوعی OpenAI را با فیلم‌های تولید شده توسط هوش مصنوعی از یک سیستم هوش مصنوعی چند ماهه مقایسه کرد. نمونه Sora مایل ها جلوتر بود - که نشان دهنده پیشرفت سریع میدان بود.

براونلی درباره فیلم سورا گفت: «اکنون، هنوز می‌توانید به تکه‌هایی از این نگاه کنید و بگویید که چیزی کاملاً درست نیست. اپرا بيان کرد که برای او واقعی به نظر می رسد.

ویترین دیپ فیک به عنوان دنباله‌ای برای مصاحبه با Wray عمل کرد، او لحظه‌ای را که برای اولین بار با فناوری دیپ‌فیک هوش مصنوعی آشنا شد را بازگو کرد.

Wray گفت: "من در یک اتاق کنفرانس بودم و تعدادی از افراد [اف بی آی] دور هم جمع شدند تا به من نشان دهند که چگونه می توان دیپ فیک های تقویت شده با هوش مصنوعی ایجاد کرد. " و آنها ویدیویی از من ساخته بودند که چیزهایی را می گویم که قبلاً هرگز نگفته بودم و هرگز نخواهم گفت.»

Wray در مورد شیوع روزافزون جنایات جنسی به کمک هوش مصنوعی صحبت کرد. به گفته شرکت امنیت سایبری ESET، در بین سال‌های 2022 تا 2023، 178 درصد افزایش در موارد جنایت جنسی وجود داشته است که بخشی از آن ناشی از فناوری هوش مصنوعی بوده است.

رای گفت: «کسی که خود را به عنوان همسال نشان می‌دهد، نوجوانی را هدف قرار می‌دهد، سپس از تصاویر مخرب [تولید شده توسط هوش مصنوعی] استفاده می‌کند تا کودک را متقاعد کند که در ازای آن عکس‌های واقعی بفرستد. در واقع، این مردی پشت یک صفحه کلید در نیجریه است، و به محض اینکه آنها تصاویر را در اختیار دارند، کودک را تهدید به سیاه نمایی می کنند و می گویند، اگر پول را پرداخت نکنید، ما این تصاویر را به اشتراک می گذاریم که زندگی شما را خراب می کند. ”

وی همچنین به اطلاعات نادرست در مورد انتخابات ریاست جمهوری آینده ایالات متحده اشاره کرد. او ضمن تاکید بر اینکه «زمان وحشت نرسیده»، تأکید کرد که بر «همه در آمریکا» موظف است که «حس تمرکز و احتیاط شدید» را برای استفاده از هوش مصنوعی به ارمغان بیاورند و به خاطر داشته باشند که هوش مصنوعی «می تواند توسط هوش مصنوعی مورد استفاده قرار گیرد. آدم های بد علیه همه ما.»

رای گفت: «ما خیلی وقت‌ها متوجه می‌شویم که چیزی در رسانه‌های اجتماعی که شبیه بیل اهل توپکا یا مری اهل دیتون است، در واقع یک افسر اطلاعاتی روسی یا چینی در حومه پکن یا مسکو است.

در واقع، یک نظرسنجی Statista نشان داد که بیش از یک سوم از پاسخ دهندگان آمریکایی اطلاعات گمراه کننده - یا آنچه آنها گمان می بردند اطلاعات نادرست است - در مورد موضوعات کلیدی در اواخر سال 2023 مشاهده کردند. امسال، تصاویر گمراه کننده ایجاد شده توسط هوش مصنوعی از نامزدهای معاون کامالا هریس و رئیس جمهور سابق. دونالد ترامپ میلیون ها بازدید را در شبکه های اجتماعی از جمله X به دست آورده است.

بیل گیتس در مورد اختلال هوش مصنوعی

برای تغییر سرعت فنی و خوش بینانه، اپرا با بیل گیتس، بنیانگذار مایکروسافت، مصاحبه کرد که ابراز امیدواری کرد که هوش مصنوعی زمینه های آموزشی و پزشکی را افزایش دهد.

گیتس گفت: «هوش مصنوعی مانند شخص سومی است که در [یک قرار ملاقات پزشکی] نشسته است، رونوشت را انجام می دهد و نسخه ای را پیشنهاد می کند. و پس به جای اینکه دکتر رو به صفحه کامپیوتر باشد، آنها با شما درگیر هستند و نرم افزار مطمئن می شود که رونوشت واقعا خوبی وجود دارد.

با این حال، گیتس پتانسیل سوگیری ناشی از آموزش ضعیف هوش مصنوعی را نادیده گرفت.

یک مطالعه اخیر نشان داد که سیستم‌های تشخیص گفتار از شرکت‌های پیشرو در فناوری، دو برابر بیشتر از بلندگوهای سفید، به‌طور نادرست صدای بلندگوهای سیاه‌پوست را رونویسی می‌کنند. تحقیقات دیگر نشان داده است که سیستم‌های هوش مصنوعی این باورهای قدیمی و نادرست را تقویت می‌کنند که تفاوت‌های بیولوژیکی بین سیاه‌پوستان و سفیدپوستان وجود دارد - نادرستی که پزشکان را به اشتباه در تشخیص مشکلات سلامتی سوق می‌دهد.

گیتس گفت، در کلاس درس، هوش مصنوعی می‌تواند «همیشه در دسترس باشد» و «درک کند که چگونه به شما انگیزه دهد… هر سطح دانش شما که باشد».

این دقیقاً تعداد کلاس های درس آن را نمی بینند.

تابستان گذشته، مدارس و کالج‌ها عجله کردند تا ChatGPT را به دلیل سرقت ادبی و ترس از اطلاعات نادرست ممنوع کنند. از آن زمان، برخی ممنوعیت های خود را لغو کردند. اما همه از پتانسیل GenAI برای خوب بودن متقاعد نشده‌اند و به نظرسنجی‌هایی مانند مرکز اینترنت امن‌تر بریتانیا اشاره می‌کنند که نشان می‌دهد بیش از نیمی از بچه‌ها گزارش می‌دهند که افراد هم سن و سال خود را دیده‌اند که از GenAI به شیوه‌ای منفی استفاده می‌کنند - به عنوان مثال ایجاد اطلاعات نادرست قابل باور یا تصاویر استفاده شده. ناراحت کردن کسی

سازمان آموزشی، علمی و فرهنگی سازمان ملل متحد (یونسکو) اواخر سال گذشته از دولت‌ها فشار آورد تا استفاده از GenAI در آموزش را تنظیم کنند، از جمله اجرای محدودیت‌های سنی برای کاربران و نرده‌های محافظ برای حفاظت از داده‌ها و حریم خصوصی کاربران.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است