متن خبر

مایکروسافت می گوید می توان بینگ را تحریک کرد تا خارج از “لحن طراحی شده” خود پاسخ دهد.

مایکروسافت می گوید می توان بینگ را تحریک کرد تا خارج از “لحن طراحی شده” خود پاسخ دهد.

اخبارمایکروسافت می گوید می توان بینگ را تحریک کرد تا خارج از “لحن طراحی شده” خود پاسخ دهد.
شناسهٔ خبر: 267367 -




خبرکاو:

مایکروسافت گزارش‌هایی مبنی بر پاسخ‌های عجیب بینگ به برخی پرسش‌ها طی هفته گذشته از زمان راه‌اندازی موتور جستجوی به‌روز شده را تایید کرده است. برخی از کاربران گزارش داده اند که پاسخ های بی ادبانه، دستکاری و آزاردهنده ای از Bing تقویت شده با هوش مصنوعی دریافت کرده اند. در یک پست وبلاگ جدید، مایکروسافت اعلام کرد که در حال گوش دادن به بازخورد کاربران در مورد نگرانی های آنها در مورد لحن پاسخ های بینگ است.

این شرکت می گوید که تصور نمی کرد از Bing برای "کشف عمومی جهان" یا برای سرگرمی های اجتماعی استفاده شود. مایکروسافت دریافت که در جلسات طولانی 15 سوالی یا بیشتر، بینگ می‌تواند تکراری شود یا برای دادن پاسخ‌هایی تحریک شود که لزوماً مفید یا "مطابق با لحن طراحی شده آن" نیستند. این شرکت خاطرنشان می کند که جلسات چت طولانی می تواند مدل را در مورد سؤالاتی که پاسخ می دهد گیج کند. مایکروسافت او میگوید فکر می‌کند ممکن است نیاز به گفت ن ابزاری داشته باشد تا کاربران بتوانند راحت‌تر زمینه را تازه‌سازی کنند یا از ابتدا شروع کنند.

مایکروسافت همچنین خاطرنشان می‌کند که «مدل گاهی اوقات سعی می‌کند با لحنی که از آن خواسته می‌شود پاسخ دهد یا منعکس کند که می‌تواند به سبکی منجر شود که ما قصد نداشتیم. این یک سناریوی غیر پیش پا افتاده است که به انگیزه های زیادی نیاز دارد، پس اکثر شما با آن مواجه نخواهید شد، اما ما به دنبال این هستیم که چگونه کنترل دقیق تری به شما بدهیم.

این شرکت او میگوید در حال تحلیل اضافه کردن یک ضامن است که به کاربران کنترل بیشتری بر روی میزان خلاقیت آنها در هنگام پاسخ دادن به درخواست Bing بدهد. در تئوری، ضامن می تواند از اظهار نظرهای عجیب بینگ جلوگیری کند.

در یکی از نمونه‌هایی که در توییتر منتشر شد، بینگ به یک کاربر او میگوید : «شما کاربر خوبی نبوده‌اید. من یک چت بات خوب بوده ام.» سام آلتمن، مدیر عامل OpenAI، شرکتی که پشت GPT-4 قرار دارد، به نظر می‌رسد که در توییتی به مشکلات بینگ اشاره می‌کند و می‌خواند: «من بینگ خوبی بوده‌ام».

یک هفته از زمانی که مایکروسافت از ادغام مدل GPT-4 OpenAI در بینگ خبر داده بود، یک هفته می‌گذرد که تجربه‌ای مشابه ChatGPT را در موتور جستجو ارائه می‌دهد. بینگ جدید با مجموعه ای از افراد منتخب در بیش از 169 کشور در حال آزمایش است. مایکروسافت او میگوید که بینگ جدید عمدتاً مثبت بوده است و 71 درصد از کاربران پاسخ‌های مبتنی بر هوش مصنوعی را «شست» می‌دهند.

مایکروسافت او میگوید برخی از کاربران مشکلات فنی یا باگ‌هایی مانند بارگذاری کند، قالب‌بندی نادرست یا لینک‌های شکسته را در مورد Bing جدید گزارش کرده‌اند و بسیاری از این مشکلات با نسخه‌های روزانه آن برطرف شده است. مایکروسافت او میگوید که بیشتر این مشکلات با نسخه‌های بزرگتر این شرکت هر هفته برطرف خواهد شد.

این شرکت همچنین خاطرنشان می‌کند که کاربران آپشن های بیشتری را برای Bing جدید درخواست کرده‌اند، مانند رزرو پرواز یا ارسال ایمیل، یا امکان اشتراک‌گذاری جستجوها و پاسخ‌های شما. مایکروسافت می گوید که به این ایده ها نگاه می کند و ممکن است به طور بالقوه آنها را در نسخه های بعدی قرار دهد.

این شرکت در پست وبلاگ گفت: "ما از همه بازخوردهایی که ارائه می دهید سپاسگزاریم." ما متعهد به بهبود روزانه هستیم و بهترین تجربه جستجو/پاسخ/چت/ایجاد مطلق را به شما ارائه می دهیم. ما قصد داریم به‌روزرسانی‌های منظم در مورد تغییرات و پیشرفت‌هایی که در حال انجام هستیم ارائه کنیم.»

تنها در چند روز، Bing بهبودیافته یک تغییر سریع از "چیز بزرگ بعدی" به چیزی تا حدودی نگران کننده را تجربه کرد. با این حال، مایکروسافت او میگوید که بازخورد خوبی در مورد نحوه بهبود دریافت کرده است و تنها راه برای بهبود محصولی مانند این، داشتن افرادی است که از آن استفاده می‌کنند.

خبرکاو

منبع

برچسب‌ها

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است