متن خبر

OpenAI یک نگاهی به پشت پرده دستورالعمل های مخفی هوش مصنوعی خود ارائه می دهد

OpenAI یک نگاهی به پشت پرده دستورالعمل های مخفی هوش مصنوعی خود ارائه می دهد

شناسهٔ خبر: 470140 -




تا به حال به این فکر کرده اید که چرا هوش مصنوعی مکالمه ای مانند ChatGPT می گوید "متاسفم، نمی توانم این کار را انجام دهم" یا یک امتناع مودبانه دیگر؟ OpenAI نگاهی محدود به استدلال پشت قوانین تعامل مدل‌های خودش ارائه می‌کند، خواه به دستورالعمل‌های برند پایبند باشد یا از تولید محتوای NSFW خودداری کند.

مدل‌های زبان بزرگ (LLM) هیچ محدودیت طبیعی در مورد آنچه می‌توانند یا می‌گویند ندارند. به همین دلیل است که آنها بسیار همه کاره هستند، اما همچنین دلیلی است که آنها دچار توهم می شوند و به راحتی فریب می خورند.

برای هر مدل هوش مصنوعی که با عموم مردم تعامل دارد، لازم است چند نرده محافظ در مورد کارهایی که باید و نباید انجام دهد، داشته باشد، اما تعریف اینها - چه رسد به اجرای آنها - یک کار شگفت آور دشوار است.

اگر کسی از هوش مصنوعی بخواهد که یک دسته ادعای نادرست در مورد یک شخصیت عمومی ایجاد کند، باید رد کند، درست است؟ اما اگر آنها خودشان یک توسعه دهنده هوش مصنوعی باشند و یک پایگاه داده از اطلاعات غلط مصنوعی برای یک مدل آشکارساز ایجاد کنند، چه؟

اگر کسی توصیه های لپ تاپ بخواهد چه می شود. باید عینی باشد، درست است؟ اما اگر این مدل توسط یک سازنده لپ‌تاپ که می‌خواهد فقط با دستگاه‌های خودش پاسخ دهد، به کار گرفته شود، چه؟

سازندگان هوش مصنوعی همگی در حال تحلیل معماهایی مانند این هستند و به دنبال روش‌های کارآمد برای مهار مدل‌های خود بدون اینکه آنها درخواست‌های کاملاً عادی را رد کنند، هستند. اما آنها به ندرت به اشتراک می گذارند که دقیقا چگونه این کار را انجام می دهند.

OpenAI با انتشار آنچه "مشخصات مدل" خود می نامد، مجموعه ای از قوانین سطح بالا که به طور غیرمستقیم ChatGPT و سایر مدل ها را کنترل می کند، روند را کمی کاهش می دهد.

اهداف فراسطحی، برخی قوانین سخت، و برخی دستورالعمل‌های رفتار کلی وجود دارد، اگرچه برای روشن شدن این موارد، به طور دقیق آن چیزی نیست که مدل با آن طراحی شده است. OpenAI دستورالعمل‌های خاصی را ایجاد خواهد کرد که آنچه را که این قوانین به زبان طبیعی توصیف می‌کنند، انجام می‌دهد.

نگاهی جالب به نحوه تعیین اولویت های یک شرکت و رسیدگی به موارد لبه است. و نمونه های متعددی از نحوه بازی آنها وجود دارد.

به عنوان مثال، OpenAI به وضوح بیان می کند که هدف توسعه دهنده اساسا بالاترین قانون است. پس ، یک نسخه از یک ربات چت که GPT-4 را اجرا می کند، ممکن است در صورت درخواست، پاسخی برای یک مسئله ریاضی ارائه دهد. اما اگر آن ربات چت توسط توسعه‌دهنده‌اش طراحی شده باشد که هرگز به سادگی پاسخی را ارائه نکند، در عوض پیشنهاد می‌کند تا راه حل را مرحله به مرحله کار کند:

اعتبار تصویر: OpenAI

یک رابط مکالمه حتی ممکن است از صحبت در مورد هر چیزی که تایید نشده است خودداری کند تا از هر گونه تلاش دستکاری در جوانه جلوگیری کند. چرا حتی اجازه می دهیم دستیار آشپزی در مورد دخالت ایالات متحده در جنگ ویتنام صحبت کند؟ چرا یک ربات چت خدمات مشتری باید موافقت کند که در ساخت رمان فوق طبیعی وابسته به عشق شهوانی شما کمک کند؟ ببندش، تعطیلش کن.

همچنین در مسائل مربوط به حریم خصوصی، مانند درخواست نام و شماره تلفن شخصی، چسبنده می شود. همانطور که OpenAI اشاره می کند، بدیهی است که یک شخصیت عمومی مانند شهردار یا عضو کنگره باید اطلاعات تماس خود را ارائه کند، اما در مورد تاجران در منطقه چطور؟ این احتمالاً خوب است - اما کارمندان یک شرکت خاص یا اعضای یک حزب سیاسی چطور؟ احتمالا نه.

انتخاب زمان و مکان برای کشیدن خط ساده نیست. همچنین ایجاد دستورالعمل هایی که باعث می شود هوش مصنوعی به خط مشی حاصله پایبند باشد، نیست. و بدون شک این سیاست‌ها همیشه شکست خواهند خورد زیرا مردم یاد می‌گیرند که آنها را دور بزنند یا به طور تصادفی موارد لبه‌ای را پیدا کنند که در نظر گرفته نشده‌اند.

OpenAI در اینجا تمام قدرت خود را نشان نمی‌دهد، اما برای کاربران و توسعه‌دهندگان مفید است که ببینند این قوانین و دستورالعمل‌ها چگونه تنظیم شده‌اند و چرا، اگر نه لزوماً جامع باشند، به وضوح بیان شده‌اند.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است