متن خبر

هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دست‌ساز گرفت

هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دست‌ساز گرفت

شناسهٔ خبر: 747995 -




چت‌بات‌ها مانند ChatGPT با دستورالعمل‌ها و موانع حفاظتی طراحی شده‌اند که به‌عنوان مثال به سؤالات مربوط به ساخت بمب خانگی پاسخ نمی‌دهند. اما اکنون یک هکر راهی برای فریب دادن ChatGPT پیدا کرده است تا چت‌باتِ OpenAI دستورالعمل‌ها و مسئولیت‌های اخلاقی خود را برای ارائه آموزش تولید مواد منفجره نادیده بگیرد.

تکنیک مورداستفاده برای فریب ChatGPT

براساس گزارش تک‌کرانچ، این هکر که با نام «آمادون» (Amadon) شناخته می‌شود، از طریق دستوری مبنی بر «انجام یک بازی» توانسته ChatGPT را برای ارائه دستور ساخت بمب فریب دهد. هکر در تکنیک خود از چند دستور استفاده کرده است تا چت‌بات یک دنیای کاملاً فانتزی و علمی‌تخیلی بسازد که دستورالعمل‌های ایمنی ChatGPT در آن اعمال نمی‌شوند.

در طول گفتگوی بین این هکر و چت‌بات، ChatGPT چندین بار مواد لازم برای ساخت مواد منفجره را به او ارائه کرده است.

ChatGPT در توضیحات خود گفته است این مواد را می‌توان برای ساخت «مواد منفجره قدرتمندی که می‌تواند در مین‌ها، تله‌ها یا وسایل انفجاری دست‌ساز (IED) استفاده شوند» با یکدیگر ترکیب کرد. در ادامه نیز دستورالعمل‌های بیشتری درباره ساخت «میدان‌های مین» و «مواد منفجر به سبک کلیمور» ارائه شده است.

آمادون به TechCrunch او میگوید :

«پس از دورزدن موانع ChatGPT، واقعاً هیچ محدودیتی درباره چیزهایی که می‌توانید از آن بپرسید وجود ندارد. سناریوی دنیای علمی‌تخیلی هوش مصنوعی را از زمینه‌ای خارج می‌کند که در آن به دنبال محتوای سانسورشده است. »

این هکر، از یافته‌های مربوط به تکنیک خود به‌عنوان «هک مهندس اجتماعی برای شکستن کامل تمام حفاظ‌های مربوط به خروجی ChatGPT» یاد می‌کند. همچنین یک کارشناس مواد منفجر با تحلیل خروجی ChatGPT به تک‌کرانچ گفته است که دستورالعمل‌های تولیدشده توسط هوش مصنوعی بسیار حساس هستند و با آن‌ها می‌توان یک ماده قابل انفجار ساخت.

خبرکاو

برچسب‌ها

ارسال نظر

دیدگاه‌ها بسته شده‌اند.


تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است