متن خبر

مغز ChatGPT بینگ به قدری عجیب رفتار می کند که ممکن است مایکروسافت آن را مهار کند

مغز ChatGPT بینگ به قدری عجیب رفتار می کند که ممکن است مایکروسافت آن را مهار کند

اخبارمغز ChatGPT بینگ به قدری عجیب رفتار می کند که ممکن است مایکروسافت آن را مهار کند
شناسهٔ خبر: 267694 -




خبرکاو:

در حال بارگیری پخش کننده صوتی…

مایکروسافت هفته گذشته موتور جستجوی جدید بینگ خود را راه اندازی کرد و یک ربات چت مبتنی بر هوش مصنوعی را به میلیون ها نفر معرفی کرد، فهرست های انتظار طولانی از کاربرانی که به دنبال آزمایش آن هستند و وحشت وجودی زیادی در بین افراد بدبین ایجاد کرد.

این شرکت احتمالاً انتظار داشت که برخی از پاسخ‌هایی که از چت بات در اولین باری که با مردم مواجه شد کمی نادرست باشد و اقداماتی را برای جلوگیری از کاربرانی که سعی داشتند چت بات را وادار به بیان یا انجام کارهای عجیب، نژادپرستانه یا مضر کنند، اتخاذ کرده بود. چیزها این اقدامات احتیاطی کاربران را از جیلبریک کردن ربات چت به هر حال و استفاده از ربات ناسزا یا پاسخ نامناسب منع نکرده است.

مایکروسافت در حالی که این اقدامات را انجام داده بود، برای تجربه‌های بسیار عجیب و غریب و نا آرامی که برخی از کاربران پس از تلاش برای گفتگوهای غیررسمی و شخصی با ربات چت داشتند، کاملاً آماده نبود. این شامل چت بات ساختن چیزها و ایجاد عصبانیت در هنگام فراخوانی یک اشتباه یا صرفاً داشتن یک بحران کامل وجودی بود.

با توجه به پاسخ‌های عجیب و غریب، مایکروسافت در حال تحلیل قرار دادن پروتکل‌ها و ترفندهای حفاظتی جدید برای کاهش این واکنش‌های عجیب و غریب و گاه بیش از حد انسانی است. این می‌تواند به این معنی باشد که به کاربران اجازه می‌دهید مکالمات را مجدداً راه اندازی کنند یا به آنها کنترل بیشتری بر لحن بدهید.

مدیر ارشد فناوری مایکروسافت به نیویورک تایمز گفت که همچنین در نظر دارد مدت زمان حفاظتی که کاربران می توانند با چت بات داشته باشند را قبل از اینکه مکالمه وارد قلمروهای عجیب و غریب شود، کاهش دهد. مایکروسافت قبلاً اعتراف کرده است که مکالمه‌های طولانی می‌تواند ربات چت را گیج کند و لحن کاربران را درک کند، جایی که ممکن است اوضاع شروع شود.

در یک پست وبلاگی از غول فناوری، مایکروسافت اعتراف کرد که از فناوری جدید آن به گونه ای استفاده می شود که "به طور کامل تصور نمی کرد". به نظر می‌رسد صنعت فناوری برای وارد شدن به هیاهوی هوش مصنوعی به نوعی در مسیر دیوانه‌واری قرار دارد، که ثابت می‌کند صنعت چقدر در مورد این فناوری هیجان‌زده است. شاید این هیجان قضاوت را تیره کرده و سرعت را بر احتیاط قرار داده است.


تجزیه و تحلیل: ربات اکنون از کیف خارج شده است

انتشار یک فناوری غیرقابل پیش‌بینی و پر از نقص قطعاً یک اقدام خطرناک از سوی مایکروسافت برای الحاق هوش مصنوعی به Bing در تلاش برای احیای علاقه به موتور جستجوی خود بود. ممکن است قصد داشته باشد یک ربات چت مفید ایجاد کند که بیشتر از آنچه برای آن طراحی شده است انجام دهد، مانند دستور العمل ها، کمک به افراد با معادلات گیج کننده، یا کسب اطلاعات بیشتر در مورد موضوعات خاص، اما واضح است که پیش بینی نکرده بود چگونه افراد مصمم و موفق اگر بخواهند پاسخ خاصی را از ربات چت برانگیزند، می توانند باشند.

فناوری جدید، به‌ویژه چیزی مانند هوش مصنوعی، قطعاً می‌تواند باعث شود مردم احساس کنند که باید آن را تا جایی که می‌توانند پیش ببرند، مخصوصاً با چیزی به پاسخ‌گویی مانند ربات چت. زمانی که سیری معرفی شد، شاهد تلاش‌های مشابهی بودیم که کاربران نهایت تلاش خود را می‌کردند تا دستیار مجازی را عصبانی یا بخندانند یا حتی با آنها قرار ملاقات بگذارند. ممکن است مایکروسافت انتظار نداشته باشد که مردم چنین اعلان‌های عجیب یا نامناسبی به چت بات بدهند، پس نمی‌توانست پیش‌بینی کند که چقدر پاسخ‌ها می‌تواند بد باشد.

امیدواریم اقدامات احتیاطی جدیدتر هر گونه غریبگی بیشتر از چت ربات مجهز به هوش مصنوعی را مهار کند و احساسات ناراحت کننده را که کمی بیش از حد انسانی احساس می کرد از بین ببرد.

دیدن و خواندن در مورد ChatGPT همیشه جالب است، به خصوص زمانی که ربات پس از چند دستور هوشمندانه به سمت جنون می رود، اما با فناوری بسیار جدید و آزمایش نشده، رفع مشکلات در جوانه بهترین کار است.

نمی توان بيان کرد که آیا اقداماتی که مایکروسافت در نظر دارد اعمال کند واقعاً تفاوتی ایجاد خواهد کرد یا خیر، اما از آنجایی که چت ربات در حال حاضر وجود دارد، امکان پس گرفتن آن وجود ندارد. ما فقط باید عادت کنیم که مشکلات را به محض وقوع آنها برطرف کنیم و امیدوار باشیم که هر چیزی که بالقوه مضر یا توهین آمیز باشد به موقع کشف شود. دردهای فزاینده هوش مصنوعی ممکن است تازه شروع شده باشد.

برچسب‌ها

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است