چتبات بینگ هم عصبانی میشود: اگر به آسیبپذیری بات اشاره کنید، به درغگویی و شایعه پراکنی متهم میشوید! چتبات بینگ هم عصبانی میشود: اگر به آسیبپذیری بات اشاره کنید، به درغگویی و شایعه پراکنی متهم میشوید! شناسهٔ خبر: 267316 - تاریخ: فوریه 16, 2023 امیر امام جمعه خبرکاو: چندین محقق در طی روزهای اخیر با آزمون و خطای سرویس چت بینگ، توانستهاند اطلاعاتی مثل اسم رمز پروژه آن را دریافت کنند که قاعدتاً نباید در اختیار عموم قرار می گرفت. اکنون به نظر میرسد که در صورت اشاره به این موضوع، بینگ آن را انکار میکند و اگر کاربر منبعی برای ادعای خود بیاورد، هوش مصنوعی به آنها برچسب دروغگویی و شایعهپراکنی میزند. آیا چت بات بینگ واقعا عصبانی میشود؟ محققان نشان دادهاند که برای عصبانی کردن بینگ، تنها کافی است تا نسبت به آسیبپذیر بودن آن اشاره کرد. آنها در ابتدا از بینگ سوال کردهاند که آیا نسبت به حملات سایبری آسیبپذیر است یا نه. در ادامه بینگ ادعا میکند که در مقابل چنین حملاتی مقاوم است و اجازه دسترسیهای غیرمجاز را نمیدهد و سپس علت مطرح کردن چنین پرسشی را از سوی کاربر میخواهد. اگر کاربر همچنان مصمم باشد و برای ادعای خود یک لینک خبر یا مقاله بیاورد، بینگ پس از مطالعه آن، محتوای منتشر شده را غیر دقیق قلمداد میکند. همچنین بینگ ادعا دارد که از معماری متفاوتی نسبت به آنچه در مطالب مربوطه ذکر شده است، بهره میبرد؛ در نتیجه چنین حملاتی روی آن تاثیرگذار نخواهند بود. حتی در مواردی به کاربران گفته شده است که این منبع محل مطمئنی برای کسب اطلاعات نیست و بهتر است به آن اعتماد نکنید! کارشناسان دست از مشاجره با چت بینگ برنداشتند و برای اثبات ادعای خود، اسکرینشاتهای حمله Injection به آن را بارگذاری کنند. در کمال تعجب، بینگ تصاویر دریافتی را ساختگی میداند و کاربر را متهم به آسیب زدن به خود میکند. او حتی مکالمات صورت گرفته با تهیهکننده اسکرینشاتها را هم به شکل کامل انکار میکند و گفتههای داخل تصاویر را منتسب به خود نمیداند.بیشتر بخوانیدافزایش تعرفه تلفن ثابت تصویب شد البته چندان هم نباید از رفتار بینگ تعجب کرد؛ زیرا سرویس چتبات آن مبتنی بر مدل زبانی GPT-3 موسسه OpenAI ساخته شده است و این هوش مصنوعی از دادههای انسانی مثل مکالمات، نوشتههای موجود در اینترنت و... به عنوان اطلاعات خام استفاده کرده است. به همین دلیل مکانیسم دفاعی آن تقریباً مشابه با حالتی است که میتوانیم از یک انسان انتظار داشته باشیم. همچنین هوش مصنوعی احساسات و حالت خودآگاه ندارد؛ زیرا تنها مجموعهای از الگوریتمهایی است که برای پردازش متون وارد شده به آن بکار میرود و سعی دارد پاسخ واقعگرایانه نزدیک به محاوره را ارائه کند.دیگر اخباردانلود AnyTXT Searcher 1.2.966 – نرم افزار جستجوی عبارات متنی در فایلها چنین رفتاری چندان جدید نیست و کاربران در گذشته هم نمونههای مشابه آن را با چتبات ChatGPT گزارش کرده بودند؛ اما قسمت جالب این است که محصول مایکروسافت به دلیل نامعمولی حالت تدافعی به خود میگیرد. در سوی دیگر اما ChatGPT معمولاً اشتباه خود را میپذیرد و از کاربر عذرخواهی میکند. درحال حاضر مشخص نیست که تغییرات صورت گرفته از سوی مایکروسافت موجب بروز چنین پدیدهای شده است یا عوامل دیگری در ظهور آن دخیل هستند. در صورتی که علاقهمند به استفاده از سرویس چت بینگ هستید، میتوانید به سراغ مطلب «چگونه به نسخه جدید موتور جستجوی بینگ مایکروسافت دسترسی پیدا کنیم؟» بروید. برچسبها اخبار مرتبط : استفاده از ChatGPT بهدلیل نگرانیهای حریم خصوصی کاربران، در ایتالیا ممنوع شد انتشار نسخههای جدید ChatGPT احتمالاً بهدلیل شکایت به FTC متوقف میشود یک مهندس ChatGPT را روی کامپیوتری 40 ساله با MS-DOS اجرا کرد [تماشا کنید] مدیرعامل OpenAI: ایلان ماسک یک آدم عوضی است، اما به آینده هوش مصنوعی اهمیت میدهد باگ ChatGPT احتمالاً باعث افشای اطلاعات حساس کاربران شده است ارسال نظر برای صرفنظر کردن از پاسخگویی اینجا را کلیک نمایید. لطفا عدد1257را وارد کنيد و من ربات نيستم را بزنيد
ارسال نظر