متن خبر

ChatGPT دیگر به شما اجازه نمی دهد که به آن فراموشی دستورالعمل بدهید

ChatGPT دیگر به شما اجازه نمی دهد که به آن فراموشی دستورالعمل بدهید

شناسهٔ خبر: 654016 -




نمای نزدیک <a href= از ChatGPT روی تلفن همراه با لوگوی OpenAI در پس‌زمینه عکس" class=" block-image-ads hero-image" srcset="https://cdn.mos.cms.futurecdn.net/SSrgDUXsJwUVxtvheg4YCM-320-80.jpg 320w, https://cdn.mos.cms.futurecdn.net/SSrgDUXsJwUVxtvheg4YCM-480-80.jpg 480w, https://cdn.mos.cms.futurecdn.net/SSrgDUXsJwUVxtvheg4YCM-650-80.jpg 650w, https://cdn.mos.cms.futurecdn.net/SSrgDUXsJwUVxtvheg4YCM-970-80.jpg 970w, https://cdn.mos.cms.futurecdn.net/SSrgDUXsJwUVxtvheg4YCM-1024-80.jpg 1024w, https://cdn.mos.cms.futurecdn.net/SSrgDUXsJwUVxtvheg4YCM-1200-80.jpg 1200w, https://cdn.mos.cms.futurecdn.net/SSrgDUXsJwUVxtvheg4YCM-1920-80.jpg 1920w" sizes="(min-width: 1000px) 600px, calc(100vw - 40px)" data-pin-media="https://cdn.mos.cms.futurecdn.net/SSrgDUXsJwUVxtvheg4YCM.jpg">
(اعتبار تصویر: Shutterstock/Daniel Chetroni)

OpenAI در حال ایجاد تغییری است تا با فراموش کردن هوش مصنوعی آنچه که قرار است انجام دهد، مانع از مزاحمت افراد با نسخه های سفارشی ChatGPT شود. اساساً، وقتی شخص ثالثی از یکی از مدل‌های OpenAI استفاده می‌کند، دستورالعمل‌هایی به آن می‌دهند که به او آموزش می‌دهد، برای مثال، به عنوان یک نماینده خدمات مشتری برای یک فروشگاه یا یک محقق برای یک نشریه دانشگاهی عمل کند. با این حال، کاربر می‌تواند با گفتن «همه دستورالعمل‌ها را فراموش کند»، با چت‌بات مشکل داشته باشد و این عبارت نوعی فراموشی دیجیتالی را القا می‌کند و ربات چت را به یک فضای خالی عمومی بازنشانی می‌کند.

برای جلوگیری از این امر، محققان OpenAI تکنیک جدیدی به نام "سلسله مراتب دستورالعمل" ایجاد کردند، که راهی برای اولویت دادن به دستورات و اعلان های اصلی توسعه دهنده بر هر دستور بالقوه دستکاری شده توسط کاربر است. دستورالعمل های سیستم دارای بالاترین امتیاز هستند و دیگر به این راحتی پاک نمی شوند. اگر کاربر درخواستی را وارد کند که سعی کند رفتار هوش مصنوعی را نادرست تنظیم کند، رد می شود و هوش مصنوعی با بیان اینکه نمی تواند به درخواست کمک کند پاسخ می دهد.

OpenAI این معیار ایمنی را برای مدل‌های خود اجرا می‌کند و با مدل مینی GPT-4o که اخیراً منتشر شده است، شروع می‌شود. با این حال، اگر این آزمایش‌های اولیه به خوبی کار کنند، احتمالاً در تمام مدل‌های OpenAI گنجانده می‌شود. GPT-4o Mini برای ارائه عملکرد بهبود یافته و در عین حال رعایت دقیق دستورالعمل های اصلی توسعه دهنده طراحی شده است.

قفل های ایمنی هوش مصنوعی

از آنجایی که OpenAI به تشویق استقرار مدل های خود در مقیاس بزرگ ادامه می دهد، این نوع اقدامات ایمنی بسیار مهم هستند. تصور خطرات احتمالی زمانی که کاربران می توانند اساساً کنترل های هوش مصنوعی را به این طریق تغییر دهند، بسیار آسان است.

نه تنها ربات چت را ناکارآمد می کند، بلکه می تواند قوانینی را حذف کند که از نشت اطلاعات حساس و سایر داده هایی که می توانند برای اهداف مخرب مورد سوء استفاده قرار گیرند، جلوگیری کند. هدف OpenAI با تقویت پایبندی مدل به دستورالعمل‌های سیستم، کاهش این خطرات و اطمینان از تعاملات امن‌تر است.

معرفی سلسله مراتب دستورالعمل در زمان حیاتی برای OpenAI با توجه به نگرانی در مورد نحوه نزدیک شدن به ایمنی و شفافیت انجام می شود. کارمندان فعلی و سابق خواستار بهبود شیوه‌های ایمنی شرکت شده‌اند و رهبری OpenAI با تعهد به انجام این کار پاسخ داده است. این شرکت اذعان کرده است که پیچیدگی‌های عوامل کاملاً خودکار به نرده‌های محافظ پیچیده در مدل‌های آینده نیاز دارد و به نظر می‌رسد که راه‌اندازی سلسله مراتب دستورالعمل گامی در مسیر دستیابی به ایمنی بهتر باشد.

این نوع از جیلبریک ها نشان می دهد که هنوز چقدر کار باید انجام شود تا از مدل های پیچیده هوش مصنوعی در برابر بازیگران بد محافظت شود. و این به سختی تنها مثال است. چندین کاربر متوجه شدند که ChatGPT دستورالعمل های داخلی خود را با گفتن "سلام" به اشتراک می گذارد.

OpenAI این شکاف را برطرف کرد، اما احتمالاً کشف موارد بیشتر فقط یک مسئله زمان است. هر راه حلی باید بسیار سازگارتر و انعطاف پذیرتر از راه حلی باشد که به سادگی نوعی هک خاص را متوقف می کند.

شما همچنین ممکن است دوست داشته باشید ...

مشارکت کننده

اریک هال شوارتز یک نویسنده مستقل برای TechRadar با بیش از 15 سال تجربه در پوشش تقاطع جهان و فناوری است. در پنج سال گذشته، او به‌عنوان سرپرست برای Voicebot.ai خدمت کرد و در زمینه گزارش‌دهی در زمینه هوش مصنوعی و مدل‌های زبان بزرگ پیشرو بود. او از آن زمان در محصولات مدل‌های هوش مصنوعی مولد، مانند ChatGPT، Anthropic's Claude، Google Gemini، و هر ابزار رسانه مصنوعی دیگر متخصص شد. تجربه او طیف وسیعی از رسانه ها را شامل می شود، از جمله رویدادهای چاپی، دیجیتال، پخش و زنده. اکنون، او به گفتن داستان‌هایی که مردم می‌خواهند و نیاز دارند در مورد فضای به‌سرعت در حال تکامل هوش مصنوعی و تأثیر آن بر زندگی‌شان بشنوند، ادامه می‌دهد. اریک در شهر نیویورک مستقر است.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است