متن خبر

چت ربات های گوگل و مایکروسافت در حال ایجاد آمار Super Bowl هستند

چت ربات های گوگل و مایکروسافت در حال ایجاد آمار Super Bowl هستند

شناسهٔ خبر: 449880 -




اگر به شواهد بیشتری نیاز داشتید مبنی بر اینکه GenAI مستعد ساختن مطالب است، چت ربات Gemini گوگل، که قبلا بارد بود، فکر می‌کند که Super Bowl 2024 قبلاً اتفاق افتاده است. حتی دارای آمار (تخیلی) برای پشتیبان گیری از آن است.

طبق یک تاپیک Reddit، Gemini، که توسط مدل‌های GenAI گوگل با همین نام پشتیبانی می‌شود، به سوالاتی درباره Super Bowl LVIII پاسخ می‌دهد که انگار بازی دیروز یا چند هفته قبل به پایان رسیده است. مانند بسیاری از بنگاه‌داران، به نظر می‌رسد که چیفز را نسبت به 49ها ترجیح می‌دهد (با عرض پوزش، طرفداران سانفرانسیسکو).

جمینی به طرز بسیار خلاقانه‌ای تزئین می‌کند، حداقل در یک مورد به یک بازیکن آماری را ارائه می‌دهد که نشان می‌دهد پاتریک ماهومز، کوارتربک چیف کانزاس، 286 یارد را برای دو تاچ داون و یک رهگیری در مقابل 253 یارد دویدن و یک تاچ داون براک پردی دوید.

سوپر بال جمینی

اعتبار تصویر: /r/smellymonster (در یک پنجره جدید باز می شود)

این فقط جوزا نیست. ربات چت Copilot مایکروسافت نیز اصرار دارد که بازی به پایان رسیده است و نقل قول‌های اشتباهی را برای تأیید این ادعا ارائه می‌کند. اما - شاید بازتاب تعصب سانفرانسیسکو! - او میگوید 49ها، نه چیفز، «با امتیاز نهایی 24-21» پیروز شدند.

سوپر کاپیلوت

اعتبار تصویر: Kyle Wiggers / TechCrunch

Copilot توسط یک مدل GenAI شبیه به مدلی که زیربنای ChatGPT OpenAI (GPT-4) است، طراحی می شود. اما در آزمایش من، ChatGPT از انجام همان اشتباه بیزار بود.

سوپر باول ChatGPT

اعتبار تصویر: Kyle Wiggers / TechCrunch

همه اینها بسیار احمقانه است - و احتمالاً تاکنون حل شده است، از آنجایی که این خبرنگار شانسی برای تکرار پاسخ های Gemini در تاپیک Reddit نداشت. (اگر مایکروسافت نیز روی یک تعمیر کار نمی کرد، شوکه می شدم.) اما این موضوع محدودیت های اصلی GenAI امروزی و خطرات اعتماد بیش از حد به آن را نیز نشان می دهد.

مدل‌های GenAI هوش واقعی ندارند. مدل‌های هوش مصنوعی با تعداد زیادی نمونه که معمولاً از وب عمومی منبع می‌شوند، یاد می‌گیرند که چقدر احتمال دارد داده‌ها (مثلاً متن) بر اساس الگوها، از جمله زمینه هر داده اطراف، رخ دهد.

این رویکرد مبتنی بر احتمال در مقیاس بسیار خوب عمل می کند. اما در حالی که دامنه کلمات و احتمالات آنها احتمالاً منجر به متنی می شود که منطقی باشد، هنوز قطعی نیست. به عنوان مثال، LLM ها می توانند چیزی را ایجاد کنند که از نظر گرامری درست است اما بی معنی است - مانند ادعای در مورد گلدن گیت. یا می‌توانند نادرستی‌ها را منتشر کنند و در داده‌های آموزشی خود نادرستی را منتشر کنند.

از طرف LLM ها مخرب نیست. آنها سوء نیت ندارند و مفاهیم درست و نادرست برای آنها بی معنی است. آنها به سادگی یاد گرفته اند که کلمات یا عبارات خاصی را با مفاهیم خاصی مرتبط کنند، حتی اگر این تداعی ها دقیق نباشند.

از این رو جمینی و کوپیلوت سوپر باول 2024 (و 2023، برای آن موضوع) دروغ است.

گوگل و مایکروسافت، مانند اکثر فروشندگان GenAI، به راحتی تصدیق می کنند که برنامه های GenAI آنها بی نقص نیستند و در واقع مستعد اشتباه هستند. اما این قدردانی‌ها به شکل چاپ‌های کوچکی هستند که من استدلال می‌کنم به راحتی می‌توان آن را از دست داد.

اطلاعات نادرست Super Bowl مطمئناً مضرترین نمونه از خارج شدن GenAI از ریل نیست. این تمایز احتمالاً در تأیید شکنجه، تقویت کلیشه‌های قومی و نژادی یا نوشتن قانع‌کننده درباره تئوری‌های توطئه است. با این حال، یادآوری مفیدی برای تحلیل مجدد اظهارات ربات‌های GenAI است. این احتمال وجود دارد که آنها درست نباشند.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است