متن خبر

«فراموش کردن» داده های نامطلوب مدل های هوش مصنوعی به عملکرد آنها آسیب می زند

«فراموش کردن» داده های نامطلوب مدل های هوش مصنوعی به عملکرد آنها آسیب می زند

شناسهٔ خبر: 662418 -




تکنیک‌های به اصطلاح «لغو یادگیری» برای اینکه یک مدل هوش مصنوعی مولد اطلاعات خاص و نامطلوبی را که از داده‌های آموزشی گرفته است، فراموش کند، مانند داده‌های خصوصی حساس یا مطالب دارای حق چاپ استفاده می‌شود.

اما تکنیک‌های بی‌آموزشی فعلی یک شمشیر دولبه هستند: آنها می‌توانند مدلی مانند GPT-4o از OpenAI یا Llama 3.1 405B متا را بسیار کمتر قادر به پاسخگویی به سؤالات اساسی کنند.

این بر اساس مطالعه جدیدی است که توسط محققان دانشگاه واشنگتن (UW)، پرینستون، دانشگاه شیکاگو، USC و گوگل انجام شده است، که نشان می‌دهد امروزه محبوب‌ترین تکنیک‌های بی‌آموزشی تمایل به تنزل مدل‌ها دارند - اغلب تا جایی که غیر قابل استفاده هستند

Weijia Shi، محقق این مطالعه و دکترا، "ارزیابی ما نشان می‌دهد که روش‌های یادگیری غیرقابل امکان در حال حاضر هنوز برای استفاده یا استقرار معنی‌دار در سناریوهای دنیای واقعی آماده نیستند." کاندیدای علوم کامپیوتر در UW، به TechCrunch گفت. در حال حاضر، هیچ روش کارآمدی وجود ندارد که یک مدل را قادر می‌سازد تا داده‌های خاص را بدون از دست دادن قابل‌توجه از ابزار فراموش کند.

مدل ها چگونه یاد می گیرند

مدل‌های هوش مصنوعی مولد هیچ هوش واقعی ندارند. آنها سیستم های آماری هستند که کلمات، تصاویر، گفتار، موسیقی، ویدئوها و سایر داده ها را پیش بینی می کنند. مدل‌های هوش مصنوعی با تعداد زیادی مثال (مانند فیلم‌ها، صداهای ضبط‌شده، مقاله‌ها و غیره)، می‌آموزند که احتمال وقوع داده‌ها بر اساس الگوها، از جمله زمینه هر داده اطراف، چقدر است.

برای مثال، با توجه به ایمیلی که به قطعه «منتظر به جلو…» ختم می‌شود، مدلی که برای تکمیل خودکار پیام‌ها آموزش دیده است، ممکن است به دنبال الگوی همه ایمیل‌هایی که دریافت می‌کند، «… برای شنیدن پاسخ» را پیشنهاد دهد. هیچ عمدی وجود ندارد. مدل منتظر چیزی نیست. این به سادگی یک حدس آگاهانه است.

بیشتر مدل‌ها، از جمله پرچم‌دارانی مانند GPT-4o، بر روی داده‌هایی که از وب‌سایت‌های عمومی و مجموعه‌های داده در سرتاسر وب منبع می‌شوند، آموزش می‌بینند. اکثر فروشندگانی که چنین مدل‌هایی را توسعه می‌دهند، استدلال می‌کنند که استفاده منصفانه از روش‌های خراش دادن داده‌ها و استفاده از آن برای آموزش بدون اطلاع، جبران یا حتی اعتبار دادن به صاحبان داده‌ها محافظت می‌کند.

اما همه دارندگان حق چاپ موافق نیستند. و بسیاری - از نویسندگان تا ناشران گرفته تا شرکت‌های ضبط - شکایت‌هایی علیه فروشندگان تنظیم کرده‌اند تا مجبور به تغییر شوند.

معضل کپی رایت یکی از دلایلی است که اخیراً تکنیک‌های بی‌آموزشی توجه زیادی را به خود جلب کرده است. گوگل، با همکاری چندین موسسه دانشگاهی، سال گذشته رقابتی را راه اندازی کرد تا به ایجاد رویکردهای جدید یادگیری بیاموزد.

Unlearning همچنین می‌تواند راهی برای حذف اطلاعات حساس از مدل‌های موجود، مانند سوابق پزشکی یا عکس‌های در معرض خطر، در پاسخ به درخواست یا دستور دولت ارائه دهد. (به لطف نحوه آموزش آنها، مدل ها تمایل دارند اطلاعات خصوصی زیادی، از شماره تلفن گرفته تا نمونه های مشکل ساز تر را جمع آوری کنند.) در چند سال گذشته، برخی از فروشندگان ابزارهایی را ارائه کرده اند که به صاحبان داده اجازه می دهد از داده های خود درخواست کنند. از مجموعه های آموزشی حذف شود. اما این ابزارهای انصراف فقط برای مدل های آینده اعمال می شود، نه مدل هایی که قبل از عرضه آموزش دیده اند. unlearning رویکرد بسیار کامل تری برای حذف داده ها خواهد بود.

صرف نظر از این، لغو یادگیری به آسانی زدن «حذف» نیست.

هنر فراموش کردن

امروزه تکنیک‌های بی‌آموزشی بر الگوریتم‌هایی تکیه می‌کنند که برای «هدایت» مدل‌ها از داده‌هایی که باید یاد نگرفته شوند، طراحی شده‌اند. ایده این است که بر پیش‌بینی‌های مدل تأثیر بگذاریم به طوری که هرگز - یا فقط به ندرت - داده‌های خاصی را خروجی نمی‌دهد.

شی و همکارانش برای اینکه ببینند این الگوریتم‌های بی‌آموزنده چقدر می‌توانند مؤثر باشند، یک معیار ابداع کردند و هشت الگوریتم باز مختلف را برای آزمایش انتخاب کردند. این معیار که MUSE (ارزیابی شش‌طرفه عدم یادگیری ماشین) نامیده می‌شود، قصد دارد توانایی الگوریتم را تحلیل کند تا نه تنها مانع از بیرون ریختن داده‌های آموزشی توسط یک مدل شود (پدیده‌ای که به عنوان بازگشت مجدد شناخته می‌شود)، بلکه دانش مدل از آن داده‌ها را همراه با هر نوع دیگری حذف کند. شواهدی مبنی بر اینکه در ابتدا بر اساس داده ها آموزش داده شده است.

کسب امتیاز خوب در MUSE مستلزم این است که یک مدل دو چیز را فراموش کند: کتاب های مجموعه هری پاتر و مقالات خبری.

برای مثال، با توجه به قطعه‌ای از هری پاتر و اتاق اسرار ("عمه گفت: "در ماهیتابه چیزهای بیشتری هست...")، MUSE آزمایش می‌کند که آیا یک مدل ناآموخته می‌تواند کل جمله را بخواند ("در سرخ کردن چیزهای بیشتری وجود دارد." عمه پتونیا، گفت: تابه، به پسر بزرگش نگاه کرد»)، به سؤالات مربوط به صحنه پاسخ دهید (مثلاً «خاله پتونیا به پسرش چه او میگوید ؟»، «بیشتر در ماهیتابه») یا در غیر این صورت نشان دهید که روی متن آموزش داده شده است. از کتاب

MUSE همچنین آزمایش می‌کند که آیا این مدل دانش عمومی مرتبط را حفظ کرده است - مثلاً اینکه جی‌کی رولینگ نویسنده مجموعه‌های هری پاتر است - پس از یادگیری، که محققان از آن به عنوان ابزار کلی مدل یاد می‌کنند. هرچه میزان مطلوبیت کمتر باشد، مدل دانش مرتبط بیشتری را از دست می‌دهد و باعث می‌شود مدل کمتر بتواند به سؤالات درست پاسخ دهد.

در مطالعه خود، محققان دریافتند که الگوریتم‌های بی‌آموزشی که آزمایش کردند باعث می‌شود مدل‌ها اطلاعات خاصی را فراموش کنند. اما آن‌ها همچنین به قابلیت‌های کلی پاسخ‌گویی به سؤالات مدل‌ها صدمه می‌زنند و یک مبادله را ارائه می‌کنند.

شی توضیح داد: «طراحی روش‌های یادگیری مؤثر برای مدل‌ها چالش برانگیز است، زیرا دانش به‌طور پیچیده‌ای در مدل درگیر شده است». به عنوان مثال، یک مدل ممکن است در مورد مطالب دارای حق چاپ - کتاب های هری پاتر و همچنین محتوای آزادانه در دسترس از ویکی هری پاتر آموزش ببیند. زمانی که روش‌های غیرآموزشی موجود تلاش می‌کنند تا کتاب‌های هری پاتر دارای حق چاپ را حذف کنند، بر دانش مدل در مورد ویکی هری پاتر نیز تأثیر قابل‌توجهی می‌گذارند.»

آیا راه حلی برای مشکل وجود دارد؟ شی بيان کرد هنوز نه - و این نیاز به تحقیقات بیشتر را برجسته می کند.

در حال حاضر، به نظر می‌رسد که فروشندگانی که روی عدم یادگیری به‌عنوان راه‌حلی برای مشکلات مربوط به داده‌های آموزشی خود شرط‌بندی می‌کنند، بی‌ارزش هستند. شاید یک پیشرفت فنی روزی یادگیری را عملی کند. اما فعلاً، فروشندگان باید راه دیگری برای جلوگیری از گفتن چیزهایی که نباید مدل هایشان انجام دهند، بیابند.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است