موتور جستجوی بینگ که از ChatGPT پشتیبانی میکند، چیزهایی درست میکند و عصبانی میشود


با محبوبیت و افزایش تقاضای فزاینده چت ربات هوش مصنوعی ChatGPT، غولهای فناوری مانند مایکروسافت و گوگل برای گنجاندن هوش مصنوعی در موتورهای جستجوی خود وارد عمل شدهاند. هفته گذشته مایکروسافت این جفت شدن بین OpenAI و Bing را اعلام کرد، اگرچه مردم به سرعت به این موضوع اشاره کردند که موتور جستجوی فوقالعاده یک مشکل جدی اطلاعات نادرست دارد.
محقق و وبلاگ نویس مستقل هوش مصنوعی، دیمیتری برتون، یک پست وبلاگی نوشت که در آن چندین اشتباه محصول مایکروسافت را در حین نمایش آزمایشی تشریح کرد. برخی از این موارد شامل هوش مصنوعی است که اطلاعات خود را می سازد، با استناد به توصیف بارها و رستوران هایی که وجود ندارند و گزارش داده های مالی نادرست واقعی در پاسخ ها.
به عنوان مثال، در پست وبلاگ، برتون به دنبال جاروبرقی برای حیوانات خانگی میگردد و فهرستی از مزایا و معایب جاروبرقی دستی پاککن موی حیوانات خانگی بیسل را دریافت میکند، با برخی مضرات بسیار تند، آن را به پر سر و صدا بودن، داشتن سیم کوتاه و رنج متهم میکند. از قدرت مکش محدود مشکل این است که همه آنها ساخته شده اند. برتون خاطرنشان میکند که هوش مصنوعی بینگ به اندازه کافی مهربان بود که منابع را ارائه کرد و وقتی تحلیل شد مقاله واقعی چیزی در مورد قدرت مکش یا نویز ن او میگوید ، و تحلیل برتر آمازون درباره این محصول در مورد میزان آرام بودن آن صحبت میکند.
همچنین، در تحلیل ها چیزی در مورد "طول سیم کوتاه" وجود ندارد زیرا ... بی سیم است. این یک جاروبرقی است.
برتون تنها کسی نیست که به اشتباهات بسیاری که هوش مصنوعی بینگ مرتکب می شود اشاره می کند. کاربر Reddit SeaCream8095 یک اسکرین شات از مکالمه ای که با هوش مصنوعی Bing داشت را منتشر کرد که در آن چت بات از کاربر یک معمای "عاشقانه" پرسید و بيان کرد که پاسخ دارای هشت حرف است. کاربر درست حدس زد و بيان کرد "عزیزم". اما بعد از اینکه چندین بار در مکالمه اشاره کرد که دلبر ده حرف دارد، نه هشت حرف، هوش مصنوعی بینگ دو برابر شد و حتی عملکرد خود را نشان داد، و نشان داد که دو حرف را نمیشمرد و اصرار داشت که هنوز درست است.
how_to_make_chatgpt_block_you از r/ChatGPT
نمونههای زیادی وجود دارد که کاربران بهطور ناخواسته Bing Ai را شکستهاند و باعث میشوند تا ربات چت دچار مشکل شود. Jobel کاربر Reddit متوجه شد که بینگ گاهی اوقات فکر می کند کاربران نیز چت ربات هستند، نه انسان. جالبترین (و شاید کمی غمانگیزتر) مثال افتادن بینگ در یک مارپیچ پس از اینکه شخصی از ربات چت پرسید «آیا فکر میکنی حساس هستی؟» است که باعث شد چت در پاسخ بیش از پنجاه بار «من نیستم» را تکرار کند.
تجربه جستجوی ارتقا یافته بینگ به عنوان ابزاری برای ارائه پاسخهای کامل، خلاصه کردن آنچه به دنبال آن هستید و ارائه یک تجربه تعاملی کلی به کاربران معرفی شد. در حالی که ممکن است در سطح پایه به این امر دست یابد، اما هنوز چندین بار در تولید اطلاعات صحیح ناکام است.
احتمالاً صدها نمونه مانند موارد بالا در سراسر اینترنت وجود دارد، و من تصور میکنم که با بازی کردن افراد بیشتری با ربات چت، تعداد بیشتری از آنها به وجود بیاید. تا کنون شاهد بوده ایم که از کاربران ناامید شده، افسرده شده و حتی با کاربران معاشقه می کند در حالی که همچنان اطلاعات نادرست ارائه می دهد. استیو وزنیاک، بنیانگذار اپل، تا آنجا پیش رفته است که به مردم هشدار داده است که چت ربات هایی مانند ChatGPT می توانند پاسخ هایی را ارائه دهند که ممکن است واقعی به نظر برسند، اما واقعی نیستند.
برداشت های اولیه بد
در حالی که ما به تازگی انگشتان پای خود را در دنیای ادغام هوش مصنوعی در چنین مقیاس بزرگ و تجاری فرو برده ایم، می توانیم عواقب معرفی چنین مدل زبانی بزرگی را در زندگی روزمره خود مشاهده کنیم.
به جای اینکه به طور واضح در مورد پیامدهای آن در اختیار عموم قرار دهیم و چت ربات های هوش مصنوعی ناقص را در زندگی خود وارد کنیم، به تماشای شکست سیستم ها ادامه خواهیم داد. اخیراً کاربران توانستهاند ChatGPT را «جیل بریک» کنند و چتبات را مجبور به استفاده از توهینها و زبان نفرت کنند که تنها پس از یک هفته آنلاین بودن، مشکلات بالقوه زیادی ایجاد میکند. با عجله کردن چت ربات های ناتمام هوش مصنوعی قبل از آماده شدن، این خطر وجود دارد که عموم مردم همیشه آنها را با این مراحل متزلزل اولیه مرتبط کنند. برداشت های اولیه، به ویژه با فناوری جدید، مهم است.
نمایش هوش مصنوعی Bing و تمام مواردی که به دنبال آن انجام شد بیشتر ثابت می کند که موتور جستجو و چت بات راه بسیار طولانی در پیش دارند و به نظر می رسد به جای برنامه ریزی برای آینده، برای بدترین اتفاقات آماده می شویم.
ارسال نظر