متن خبر

هکر برای سرقت داده های قربانی، خاطرات نادرستی در ChatGPT ایجاد می کند – اما ممکن است آنقدرها هم که به نظر می رسد بد نباشد.

هکر برای سرقت داده های قربانی، خاطرات نادرستی در ChatGPT ایجاد می کند – اما ممکن است آنقدرها هم که به نظر می رسد بد نباشد.

شناسهٔ خبر: 764499 -




برنامه ChatGPT در آیفون
(اعتبار تصویر: Shutterstock / Primakov)

محققان امنیتی آسیب‌پذیری را افشا کرده‌اند که می‌تواند به عوامل تهدید اجازه دهد دستورالعمل‌های مخرب را در تنظیمات حافظه کاربر در برنامه ChatGPT MacOS ذخیره کنند.

گزارشی از Johann Rehberger در Embrace The Red اشاره کرد که چگونه یک مهاجم می‌تواند یک تزریق سریع را برای کنترل ChatGPT ایجاد کند و سپس می‌تواند یک حافظه را در مکانیسم ذخیره‌سازی و ماندگاری طولانی‌مدت خود وارد کند. این منجر به نفوذ مکالمه از هر دو طرف مستقیماً به سرور مهاجم می شود.

از آن به بعد، درخواست به‌عنوان «مداوم حافظه» ذخیره می‌شود، پس هر مکالمه آتی با ربات چت دارای همان آسیب‌پذیری خواهد بود. از آنجایی که ChatGPT چیزهایی را در مورد کاربرانش به خاطر می‌آورد، مانند نام‌ها، سن، مکان‌ها، دوست‌داشتن‌ها و دوست نداشتن‌ها، و جستجوهای قبلی، این سوءاستفاده خطر جدی برای کاربران به همراه دارد.

ایمن ماندن

در پاسخ، OpenAI یک API معرفی کرد که به این معنی است که بهره برداری دیگر از طریق رابط وب ChatGPT امکان پذیر نیست، و همچنین راه اندازی یک اصلاح را برای جلوگیری از استفاده از حافظه ها به عنوان بردار exfiltration ارائه کرده است. با این حال، محققان می گویند که محتوای غیرقابل اعتماد شخص ثالث همچنان می تواند پیام هایی را تزریق کند که می تواند از ابزار حافظه سوء استفاده کند.

خبر خوب این است که در حالی که ابزار حافظه به طور خودکار به طور پیش فرض در ChatGPT روشن می شود، اما می تواند توسط کاربر خاموش شود. این ویژگی برای کسانی که می خواهند تجربه شخصی تری با استفاده از ربات چت داشته باشند عالی است، زیرا می تواند به خواسته ها و نیازهای شما گوش دهد و بر اساس اطلاعات پیشنهاداتی ارائه دهد - اما به وضوح خطراتی وجود دارد.

برای کاهش خطرات ناشی از این، کاربران باید هنگام استفاده از چت بات هوشیار باشند و به ویژه به پیام‌های «حافظه جدید اضافه شده» نگاه کنند. با مرور منظم خاطرات ذخیره شده، کاربران می توانند خاطرات بالقوه کاشته شده را تحلیل کنند.

این اولین نقص امنیتی نیست که محققان در ChatGPT کشف کرده‌اند، با نگرانی در مورد افزونه‌هایی که به عوامل تهدید اجازه می‌دهند حساب‌های دیگر کاربران را تصاحب کنند و به طور بالقوه به داده‌های حساس دسترسی پیدا کنند.

بیشتر از TechRadar Pro

کارمند نویسنده

الن تقریباً چهار سال است که با تمرکز بر سیاست های پس از کووید در حالی که در مقطع کارشناسی سیاست و روابط بین الملل در دانشگاه کاردیف تحصیل می کند و پس از آن مدرک کارشناسی ارشد در ارتباطات سیاسی می نویسد. قبل از پیوستن به TechRadar Pro به عنوان یک نویسنده جوان، او برای تیم محتوای MVC در Future Publishing کار می کرد و با بازرگانان و خرده فروشان برای آپلود محتوا کار می کرد.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است