مغز ChatGPT بینگ به قدری عجیب رفتار می کند که ممکن است مایکروسافت آن را مهار کند


مایکروسافت هفته گذشته موتور جستجوی جدید بینگ خود را راه اندازی کرد و یک ربات چت مبتنی بر هوش مصنوعی را به میلیون ها نفر معرفی کرد، فهرست های انتظار طولانی از کاربرانی که به دنبال آزمایش آن هستند و وحشت وجودی زیادی در بین افراد بدبین ایجاد کرد.
این شرکت احتمالاً انتظار داشت که برخی از پاسخهایی که از چت بات در اولین باری که با مردم مواجه شد کمی نادرست باشد و اقداماتی را برای جلوگیری از کاربرانی که سعی داشتند چت بات را وادار به بیان یا انجام کارهای عجیب، نژادپرستانه یا مضر کنند، اتخاذ کرده بود. چیزها این اقدامات احتیاطی کاربران را از جیلبریک کردن ربات چت به هر حال و استفاده از ربات ناسزا یا پاسخ نامناسب منع نکرده است.
مایکروسافت در حالی که این اقدامات را انجام داده بود، برای تجربههای بسیار عجیب و غریب و نا آرامی که برخی از کاربران پس از تلاش برای گفتگوهای غیررسمی و شخصی با ربات چت داشتند، کاملاً آماده نبود. این شامل چت بات ساختن چیزها و ایجاد عصبانیت در هنگام فراخوانی یک اشتباه یا صرفاً داشتن یک بحران کامل وجودی بود.
با توجه به پاسخهای عجیب و غریب، مایکروسافت در حال تحلیل قرار دادن پروتکلها و ترفندهای حفاظتی جدید برای کاهش این واکنشهای عجیب و غریب و گاه بیش از حد انسانی است. این میتواند به این معنی باشد که به کاربران اجازه میدهید مکالمات را مجدداً راه اندازی کنند یا به آنها کنترل بیشتری بر لحن بدهید.
مدیر ارشد فناوری مایکروسافت به نیویورک تایمز گفت که همچنین در نظر دارد مدت زمان حفاظتی که کاربران می توانند با چت بات داشته باشند را قبل از اینکه مکالمه وارد قلمروهای عجیب و غریب شود، کاهش دهد. مایکروسافت قبلاً اعتراف کرده است که مکالمههای طولانی میتواند ربات چت را گیج کند و لحن کاربران را درک کند، جایی که ممکن است اوضاع شروع شود.
در یک پست وبلاگی از غول فناوری، مایکروسافت اعتراف کرد که از فناوری جدید آن به گونه ای استفاده می شود که "به طور کامل تصور نمی کرد". به نظر میرسد صنعت فناوری برای وارد شدن به هیاهوی هوش مصنوعی به نوعی در مسیر دیوانهواری قرار دارد، که ثابت میکند صنعت چقدر در مورد این فناوری هیجانزده است. شاید این هیجان قضاوت را تیره کرده و سرعت را بر احتیاط قرار داده است.
تجزیه و تحلیل: ربات اکنون از کیف خارج شده است
انتشار یک فناوری غیرقابل پیشبینی و پر از نقص قطعاً یک اقدام خطرناک از سوی مایکروسافت برای الحاق هوش مصنوعی به Bing در تلاش برای احیای علاقه به موتور جستجوی خود بود. ممکن است قصد داشته باشد یک ربات چت مفید ایجاد کند که بیشتر از آنچه برای آن طراحی شده است انجام دهد، مانند دستور العمل ها، کمک به افراد با معادلات گیج کننده، یا کسب اطلاعات بیشتر در مورد موضوعات خاص، اما واضح است که پیش بینی نکرده بود چگونه افراد مصمم و موفق اگر بخواهند پاسخ خاصی را از ربات چت برانگیزند، می توانند باشند.
فناوری جدید، بهویژه چیزی مانند هوش مصنوعی، قطعاً میتواند باعث شود مردم احساس کنند که باید آن را تا جایی که میتوانند پیش ببرند، مخصوصاً با چیزی به پاسخگویی مانند ربات چت. زمانی که سیری معرفی شد، شاهد تلاشهای مشابهی بودیم که کاربران نهایت تلاش خود را میکردند تا دستیار مجازی را عصبانی یا بخندانند یا حتی با آنها قرار ملاقات بگذارند. ممکن است مایکروسافت انتظار نداشته باشد که مردم چنین اعلانهای عجیب یا نامناسبی به چت بات بدهند، پس نمیتوانست پیشبینی کند که چقدر پاسخها میتواند بد باشد.
امیدواریم اقدامات احتیاطی جدیدتر هر گونه غریبگی بیشتر از چت ربات مجهز به هوش مصنوعی را مهار کند و احساسات ناراحت کننده را که کمی بیش از حد انسانی احساس می کرد از بین ببرد.
دیدن و خواندن در مورد ChatGPT همیشه جالب است، به خصوص زمانی که ربات پس از چند دستور هوشمندانه به سمت جنون می رود، اما با فناوری بسیار جدید و آزمایش نشده، رفع مشکلات در جوانه بهترین کار است.
نمی توان بيان کرد که آیا اقداماتی که مایکروسافت در نظر دارد اعمال کند واقعاً تفاوتی ایجاد خواهد کرد یا خیر، اما از آنجایی که چت ربات در حال حاضر وجود دارد، امکان پس گرفتن آن وجود ندارد. ما فقط باید عادت کنیم که مشکلات را به محض وقوع آنها برطرف کنیم و امیدوار باشیم که هر چیزی که بالقوه مضر یا توهین آمیز باشد به موقع کشف شود. دردهای فزاینده هوش مصنوعی ممکن است تازه شروع شده باشد.
ارسال نظر