چت ربات های گوگل و مایکروسافت در حال ایجاد آمار Super Bowl هستند
اگر به شواهد بیشتری نیاز داشتید مبنی بر اینکه GenAI مستعد ساختن مطالب است، چت ربات Gemini گوگل، که قبلا بارد بود، فکر میکند که Super Bowl 2024 قبلاً اتفاق افتاده است. حتی دارای آمار (تخیلی) برای پشتیبان گیری از آن است.
طبق یک تاپیک Reddit، Gemini، که توسط مدلهای GenAI گوگل با همین نام پشتیبانی میشود، به سوالاتی درباره Super Bowl LVIII پاسخ میدهد که انگار بازی دیروز یا چند هفته قبل به پایان رسیده است. مانند بسیاری از بنگاهداران، به نظر میرسد که چیفز را نسبت به 49ها ترجیح میدهد (با عرض پوزش، طرفداران سانفرانسیسکو).
جمینی به طرز بسیار خلاقانهای تزئین میکند، حداقل در یک مورد به یک بازیکن آماری را ارائه میدهد که نشان میدهد پاتریک ماهومز، کوارتربک چیف کانزاس، 286 یارد را برای دو تاچ داون و یک رهگیری در مقابل 253 یارد دویدن و یک تاچ داون براک پردی دوید.
این فقط جوزا نیست. ربات چت Copilot مایکروسافت نیز اصرار دارد که بازی به پایان رسیده است و نقل قولهای اشتباهی را برای تأیید این ادعا ارائه میکند. اما - شاید بازتاب تعصب سانفرانسیسکو! - او میگوید 49ها، نه چیفز، «با امتیاز نهایی 24-21» پیروز شدند.
Copilot توسط یک مدل GenAI شبیه به مدلی که زیربنای ChatGPT OpenAI (GPT-4) است، طراحی می شود. اما در آزمایش من، ChatGPT از انجام همان اشتباه بیزار بود.
همه اینها بسیار احمقانه است - و احتمالاً تاکنون حل شده است، از آنجایی که این خبرنگار شانسی برای تکرار پاسخ های Gemini در تاپیک Reddit نداشت. (اگر مایکروسافت نیز روی یک تعمیر کار نمی کرد، شوکه می شدم.) اما این موضوع محدودیت های اصلی GenAI امروزی و خطرات اعتماد بیش از حد به آن را نیز نشان می دهد.
مدلهای GenAI هوش واقعی ندارند. مدلهای هوش مصنوعی با تعداد زیادی نمونه که معمولاً از وب عمومی منبع میشوند، یاد میگیرند که چقدر احتمال دارد دادهها (مثلاً متن) بر اساس الگوها، از جمله زمینه هر داده اطراف، رخ دهد.
این رویکرد مبتنی بر احتمال در مقیاس بسیار خوب عمل می کند. اما در حالی که دامنه کلمات و احتمالات آنها احتمالاً منجر به متنی می شود که منطقی باشد، هنوز قطعی نیست. به عنوان مثال، LLM ها می توانند چیزی را ایجاد کنند که از نظر گرامری درست است اما بی معنی است - مانند ادعای در مورد گلدن گیت. یا میتوانند نادرستیها را منتشر کنند و در دادههای آموزشی خود نادرستی را منتشر کنند.
اطلاعات نادرست Super Bowl مطمئناً مضرترین نمونه از خارج شدن GenAI از ریل نیست. این تمایز احتمالاً در تأیید شکنجه، تقویت کلیشههای قومی و نژادی یا نوشتن قانعکننده درباره تئوریهای توطئه است. با این حال، یادآوری مفیدی برای تحلیل مجدد اظهارات رباتهای GenAI است. این احتمال وجود دارد که آنها درست نباشند.
ارسال نظر