چت رباتهای هوش مصنوعی ممکن است با اطلاعات ساختگی توهمآمیز دست و پنجه نرم کنند، اما تحقیقات جدید نشان داده است که ممکن است برای عقبنشینی از ایدههای بیاساس و توهمآمیز در ذهن انسان مفید باشند. دانشمندان دانشگاه MIT Sloan و Cornell مقاله ای را در Science منتشر کرده اند که در آن ادعا می شود که مکالمه با یک ربات چت با یک مدل زبان بزرگ (LLM) باعث کاهش اعتقاد به توطئه تا حدود 20٪ می شود.
برای اینکه ببیند چگونه یک ربات چت هوش مصنوعی میتواند بر تفکر توطئهآمیز تأثیر بگذارد، دانشمند ترتیبی داد تا 2190 شرکتکننده درباره تئوریهای توطئه با یک ربات چت که مدل GPT-4 Turbo OpenAI را اجرا میکند، بحث کنند. از شرکت کنندگان خواسته شد که نظریه توطئه ای را که به نظرشان معتبر است، شامل دلایل و شواهدی که معتقد بودند آن را تایید می کند، توصیف کنند. ربات چت که متقاعد کننده بود، پاسخ هایی را مطابق با این جزئیات ارائه کرد. همانطور که آنها با چت بات صحبت می کردند، بر اساس نظرات شرکت کنندگان، استدلال های متقابلی را ارائه می کرد. این مطالعه با یک حقیقتسنجی حرفهای که ۱۲۸ ادعای مطرحشده توسط ربات چت را در طول مطالعه ارزیابی میکرد، مشکل همیشگی توهم هوش مصنوعی را تحلیل کرد. این ادعاها 99.2 درصد دقیق بود، که به گفته محققان به لطف مستندات آنلاین گسترده تئوری های توطئه ارائه شده در داده های آموزشی مدل بود.
ایده روی آوردن به هوش مصنوعی برای از بین بردن تئوریهای توطئه این بود که مخازن اطلاعات عمیق و رویکردهای مکالمه قابل انطباق آنها میتواند با شخصیسازی رویکرد به افراد برسد. بر اساس ارزیابی های بعدی ده روز و دو ماه پس از اولین مکالمه، کارساز بود. اکثر شرکتکنندگان به تئوریهای توطئهای که از آنها حمایت کرده بودند، اعتقاد کمتری داشتند، از توطئههای کلاسیک مربوط به ترور جان اف کندی، بیگانگان و ایلومیناتی گرفته تا مواردی که مربوط به رویدادهای موضوعی مانند کووید-19 و انتخابات ریاست جمهوری 2020 آمریکا بود. "محققان دریافتند .
Factbot Fun
نتایج واقعاً برای محققان شگفتانگیز بود، زیرا این فرضیه را مطرح کرده بودند که مردم تا حد زیادی نسبت به استدلالهای مبتنی بر شواهد که تئوریهای توطئه را رد میکنند، پذیرا نیستند. در عوض، نشان میدهد که یک چت ربات هوش مصنوعی خوب طراحی شده میتواند به طور موثر استدلالهای متقابل ارائه کند که منجر به تغییر قابل اندازهگیری در باورها شود. آنها به این نتیجه رسیدند که ابزارهای هوش مصنوعی میتوانند برای مبارزه با اطلاعات نادرست یک موهبت باشند، هرچند که نیازمند احتیاط است زیرا چگونه میتواند افراد را با اطلاعات نادرست بیشتر گمراه کند.
این مطالعه از ارزش پروژه هایی با اهداف مشابه پشتیبانی می کند. به عنوان مثال، سایت راستیآزمایی Snopes اخیراً یک ابزار هوش مصنوعی به نام FactBot منتشر کرد تا به مردم کمک کند بفهمند چیزی که شنیدهاند واقعی است یا نه. FactBot از آرشیو و هوش مصنوعی Snopes برای پاسخ دادن به سوالات بدون نیاز به تحلیل مقالات با استفاده از روشهای جستجوی سنتی استفاده میکند. در همین حال، واشنگتن پست پاسخ های آب و هوایی را برای رفع سردرگمی در مورد مسائل مربوط به تغییرات آب و هوا ایجاد کرد، و با تکیه بر روزنامه نگاری آب و هوای خود به طور مستقیم به سؤالات مربوط به این موضوع پاسخ داد.
محققان گفت: "بسیاری از افرادی که قویاً به باورهای توطئه آمیز به ظاهر مقاوم در برابر واقعیت اعتقاد دارند، می توانند با ارائه شواهد قانع کننده نظر خود را تغییر دهند. از منظر نظری، این تصویری شگفت انگیز خوش بینانه از استدلال انسان ارائه می دهد: سوراخ های توطئه گر خرگوش ممکن است در واقع راه خروجی داشته باشند." نوشت. عملاً، با نشان دادن قدرت متقاعدکننده LLMها، یافتههای ما هم بر تأثیرات مثبت بالقوه هوش مصنوعی مولد در صورت استقرار مسئولانه و هم بر اهمیت مبرم به حداقل رساندن فرصتها برای استفاده غیرمسئولانه از این فناوری تأکید میکند.»
ارسال نظر