OpenAI یک نگاهی به پشت پرده دستورالعمل های مخفی هوش مصنوعی خود ارائه می دهد
تا به حال به این فکر کرده اید که چرا هوش مصنوعی مکالمه ای مانند ChatGPT می گوید "متاسفم، نمی توانم این کار را انجام دهم" یا یک امتناع مودبانه دیگر؟ OpenAI نگاهی محدود به استدلال پشت قوانین تعامل مدلهای خودش ارائه میکند، خواه به دستورالعملهای برند پایبند باشد یا از تولید محتوای NSFW خودداری کند.
مدلهای زبان بزرگ (LLM) هیچ محدودیت طبیعی در مورد آنچه میتوانند یا میگویند ندارند. به همین دلیل است که آنها بسیار همه کاره هستند، اما همچنین دلیلی است که آنها دچار توهم می شوند و به راحتی فریب می خورند.
برای هر مدل هوش مصنوعی که با عموم مردم تعامل دارد، لازم است چند نرده محافظ در مورد کارهایی که باید و نباید انجام دهد، داشته باشد، اما تعریف اینها - چه رسد به اجرای آنها - یک کار شگفت آور دشوار است.
دیگر اخبار
برنامههای جدید Final Cut Pro اپل، آیپد را به یک استودیوی چندکم زنده چشمگیر تبدیل میکند
اگر کسی از هوش مصنوعی بخواهد که یک دسته ادعای نادرست در مورد یک شخصیت عمومی ایجاد کند، باید رد کند، درست است؟ اما اگر آنها خودشان یک توسعه دهنده هوش مصنوعی باشند و یک پایگاه داده از اطلاعات غلط مصنوعی برای یک مدل آشکارساز ایجاد کنند، چه؟
اگر کسی توصیه های لپ تاپ بخواهد چه می شود. باید عینی باشد، درست است؟ اما اگر این مدل توسط یک سازنده لپتاپ که میخواهد فقط با دستگاههای خودش پاسخ دهد، به کار گرفته شود، چه؟
سازندگان هوش مصنوعی همگی در حال تحلیل معماهایی مانند این هستند و به دنبال روشهای کارآمد برای مهار مدلهای خود بدون اینکه آنها درخواستهای کاملاً عادی را رد کنند، هستند. اما آنها به ندرت به اشتراک می گذارند که دقیقا چگونه این کار را انجام می دهند.
OpenAI با انتشار آنچه "مشخصات مدل" خود می نامد، مجموعه ای از قوانین سطح بالا که به طور غیرمستقیم ChatGPT و سایر مدل ها را کنترل می کند، روند را کمی کاهش می دهد.
اهداف فراسطحی، برخی قوانین سخت، و برخی دستورالعملهای رفتار کلی وجود دارد، اگرچه برای روشن شدن این موارد، به طور دقیق آن چیزی نیست که مدل با آن طراحی شده است. OpenAI دستورالعملهای خاصی را ایجاد خواهد کرد که آنچه را که این قوانین به زبان طبیعی توصیف میکنند، انجام میدهد.
نگاهی جالب به نحوه تعیین اولویت های یک شرکت و رسیدگی به موارد لبه است. و نمونه های متعددی از نحوه بازی آنها وجود دارد.
به عنوان مثال، OpenAI به وضوح بیان می کند که هدف توسعه دهنده اساسا بالاترین قانون است. پس ، یک نسخه از یک ربات چت که GPT-4 را اجرا می کند، ممکن است در صورت درخواست، پاسخی برای یک مسئله ریاضی ارائه دهد. اما اگر آن ربات چت توسط توسعهدهندهاش طراحی شده باشد که هرگز به سادگی پاسخی را ارائه نکند، در عوض پیشنهاد میکند تا راه حل را مرحله به مرحله کار کند:
یک رابط مکالمه حتی ممکن است از صحبت در مورد هر چیزی که تایید نشده است خودداری کند تا از هر گونه تلاش دستکاری در جوانه جلوگیری کند. چرا حتی اجازه می دهیم دستیار آشپزی در مورد دخالت ایالات متحده در جنگ ویتنام صحبت کند؟ چرا یک ربات چت خدمات مشتری باید موافقت کند که در ساخت رمان فوق طبیعی وابسته به عشق شهوانی شما کمک کند؟ ببندش، تعطیلش کن.
همچنین در مسائل مربوط به حریم خصوصی، مانند درخواست نام و شماره تلفن شخصی، چسبنده می شود. همانطور که OpenAI اشاره می کند، بدیهی است که یک شخصیت عمومی مانند شهردار یا عضو کنگره باید اطلاعات تماس خود را ارائه کند، اما در مورد تاجران در منطقه چطور؟ این احتمالاً خوب است - اما کارمندان یک شرکت خاص یا اعضای یک حزب سیاسی چطور؟ احتمالا نه.
انتخاب زمان و مکان برای کشیدن خط ساده نیست. همچنین ایجاد دستورالعمل هایی که باعث می شود هوش مصنوعی به خط مشی حاصله پایبند باشد، نیست. و بدون شک این سیاستها همیشه شکست خواهند خورد زیرا مردم یاد میگیرند که آنها را دور بزنند یا به طور تصادفی موارد لبهای را پیدا کنند که در نظر گرفته نشدهاند.
OpenAI در اینجا تمام قدرت خود را نشان نمیدهد، اما برای کاربران و توسعهدهندگان مفید است که ببینند این قوانین و دستورالعملها چگونه تنظیم شدهاند و چرا، اگر نه لزوماً جامع باشند، به وضوح بیان شدهاند.
ارسال نظر