متن خبر

موتور جستجوی بینگ که از ChatGPT پشتیبانی می‌کند، چیزهایی درست می‌کند و عصبانی می‌شود

موتور جستجوی بینگ که از ChatGPT پشتیبانی می‌کند، چیزهایی درست می‌کند و عصبانی می‌شود

اخبارموتور جستجوی بینگ که از ChatGPT پشتیبانی می‌کند، چیزهایی درست می‌کند و عصبانی می‌شود
شناسهٔ خبر: 266825 -




خبرکاو:

در حال بارگیری پخش کننده صوتی…

با محبوبیت و افزایش تقاضای فزاینده چت ربات هوش مصنوعی ChatGPT، غول‌های فناوری مانند مایکروسافت و گوگل برای گنجاندن هوش مصنوعی در موتورهای جستجوی خود وارد عمل شده‌اند. هفته گذشته مایکروسافت این جفت شدن بین OpenAI و Bing را اعلام کرد، اگرچه مردم به سرعت به این موضوع اشاره کردند که موتور جستجوی فوق‌العاده یک مشکل جدی اطلاعات نادرست دارد.

محقق و وبلاگ نویس مستقل هوش مصنوعی، دیمیتری برتون، یک پست وبلاگی نوشت که در آن چندین اشتباه محصول مایکروسافت را در حین نمایش آزمایشی تشریح کرد. برخی از این موارد شامل هوش مصنوعی است که اطلاعات خود را می سازد، با استناد به توصیف بارها و رستوران هایی که وجود ندارند و گزارش داده های مالی نادرست واقعی در پاسخ ها.

به عنوان مثال، در پست وبلاگ، برتون به دنبال جاروبرقی برای حیوانات خانگی می‌گردد و فهرستی از مزایا و معایب جاروبرقی دستی پاک‌کن موی حیوانات خانگی بیسل را دریافت می‌کند، با برخی مضرات بسیار تند، آن را به پر سر و صدا بودن، داشتن سیم کوتاه و رنج متهم می‌کند. از قدرت مکش محدود مشکل این است که همه آنها ساخته شده اند. برتون خاطرنشان می‌کند که هوش مصنوعی بینگ به اندازه کافی مهربان بود که منابع را ارائه کرد و وقتی تحلیل شد مقاله واقعی چیزی در مورد قدرت مکش یا نویز ن او میگوید ، و تحلیل برتر آمازون درباره این محصول در مورد میزان آرام بودن آن صحبت می‌کند.

همچنین، در تحلیل ها چیزی در مورد "طول سیم کوتاه" وجود ندارد زیرا ... بی سیم است. این یک جاروبرقی است.

برتون تنها کسی نیست که به اشتباهات بسیاری که هوش مصنوعی بینگ مرتکب می شود اشاره می کند. کاربر Reddit SeaCream8095 یک اسکرین شات از مکالمه ای که با هوش مصنوعی Bing داشت را منتشر کرد که در آن چت بات از کاربر یک معمای "عاشقانه" پرسید و بيان کرد که پاسخ دارای هشت حرف است. کاربر درست حدس زد و بيان کرد "عزیزم". اما بعد از اینکه چندین بار در مکالمه اشاره کرد که دلبر ده حرف دارد، نه هشت حرف، هوش مصنوعی بینگ دو برابر شد و حتی عملکرد خود را نشان داد، و نشان داد که دو حرف را نمی‌شمرد و اصرار داشت که هنوز درست است.

how_to_make_chatgpt_block_you از r/ChatGPT

نمونه‌های زیادی وجود دارد که کاربران به‌طور ناخواسته Bing Ai را شکسته‌اند و باعث می‌شوند تا ربات چت دچار مشکل شود. Jobel کاربر Reddit متوجه شد که بینگ گاهی اوقات فکر می کند کاربران نیز چت ربات هستند، نه انسان. جالب‌ترین (و شاید کمی غم‌انگیزتر) مثال افتادن بینگ در یک مارپیچ پس از اینکه شخصی از ربات چت پرسید «آیا فکر می‌کنی حساس هستی؟» است که باعث شد چت در پاسخ بیش از پنجاه بار «من نیستم» را تکرار کند.

تجربه جستجوی ارتقا یافته بینگ به عنوان ابزاری برای ارائه پاسخ‌های کامل، خلاصه کردن آنچه به دنبال آن هستید و ارائه یک تجربه تعاملی کلی به کاربران معرفی شد. در حالی که ممکن است در سطح پایه به این امر دست یابد، اما هنوز چندین بار در تولید اطلاعات صحیح ناکام است.

احتمالاً صدها نمونه مانند موارد بالا در سراسر اینترنت وجود دارد، و من تصور می‌کنم که با بازی کردن افراد بیشتری با ربات چت، تعداد بیشتری از آنها به وجود بیاید. تا کنون شاهد بوده ایم که از کاربران ناامید شده، افسرده شده و حتی با کاربران معاشقه می کند در حالی که همچنان اطلاعات نادرست ارائه می دهد. استیو وزنیاک، بنیانگذار اپل، تا آنجا پیش رفته است که به مردم هشدار داده است که چت ربات هایی مانند ChatGPT می توانند پاسخ هایی را ارائه دهند که ممکن است واقعی به نظر برسند، اما واقعی نیستند.

برداشت های اولیه بد

در حالی که ما به تازگی انگشتان پای خود را در دنیای ادغام هوش مصنوعی در چنین مقیاس بزرگ و تجاری فرو برده ایم، می توانیم عواقب معرفی چنین مدل زبانی بزرگی را در زندگی روزمره خود مشاهده کنیم.

به جای اینکه به طور واضح در مورد پیامدهای آن در اختیار عموم قرار دهیم و چت ربات های هوش مصنوعی ناقص را در زندگی خود وارد کنیم، به تماشای شکست سیستم ها ادامه خواهیم داد. اخیراً کاربران توانسته‌اند ChatGPT را «جیل بریک» کنند و چت‌بات را مجبور به استفاده از توهین‌ها و زبان نفرت کنند که تنها پس از یک هفته آنلاین بودن، مشکلات بالقوه زیادی ایجاد می‌کند. با عجله کردن چت ربات های ناتمام هوش مصنوعی قبل از آماده شدن، این خطر وجود دارد که عموم مردم همیشه آنها را با این مراحل متزلزل اولیه مرتبط کنند. برداشت های اولیه، به ویژه با فناوری جدید، مهم است.

نمایش هوش مصنوعی Bing و تمام مواردی که به دنبال آن انجام شد بیشتر ثابت می کند که موتور جستجو و چت بات راه بسیار طولانی در پیش دارند و به نظر می رسد به جای برنامه ریزی برای آینده، برای بدترین اتفاقات آماده می شویم.

برچسب‌ها

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است