«فراموش کردن» داده های نامطلوب مدل های هوش مصنوعی به عملکرد آنها آسیب می زند
تکنیکهای به اصطلاح «لغو یادگیری» برای اینکه یک مدل هوش مصنوعی مولد اطلاعات خاص و نامطلوبی را که از دادههای آموزشی گرفته است، فراموش کند، مانند دادههای خصوصی حساس یا مطالب دارای حق چاپ استفاده میشود.
اما تکنیکهای بیآموزشی فعلی یک شمشیر دولبه هستند: آنها میتوانند مدلی مانند GPT-4o از OpenAI یا Llama 3.1 405B متا را بسیار کمتر قادر به پاسخگویی به سؤالات اساسی کنند.
این بر اساس مطالعه جدیدی است که توسط محققان دانشگاه واشنگتن (UW)، پرینستون، دانشگاه شیکاگو، USC و گوگل انجام شده است، که نشان میدهد امروزه محبوبترین تکنیکهای بیآموزشی تمایل به تنزل مدلها دارند - اغلب تا جایی که غیر قابل استفاده هستند
Weijia Shi، محقق این مطالعه و دکترا، "ارزیابی ما نشان میدهد که روشهای یادگیری غیرقابل امکان در حال حاضر هنوز برای استفاده یا استقرار معنیدار در سناریوهای دنیای واقعی آماده نیستند." کاندیدای علوم کامپیوتر در UW، به TechCrunch گفت. در حال حاضر، هیچ روش کارآمدی وجود ندارد که یک مدل را قادر میسازد تا دادههای خاص را بدون از دست دادن قابلتوجه از ابزار فراموش کند.
مدل ها چگونه یاد می گیرند
مدلهای هوش مصنوعی مولد هیچ هوش واقعی ندارند. آنها سیستم های آماری هستند که کلمات، تصاویر، گفتار، موسیقی، ویدئوها و سایر داده ها را پیش بینی می کنند. مدلهای هوش مصنوعی با تعداد زیادی مثال (مانند فیلمها، صداهای ضبطشده، مقالهها و غیره)، میآموزند که احتمال وقوع دادهها بر اساس الگوها، از جمله زمینه هر داده اطراف، چقدر است.
برای مثال، با توجه به ایمیلی که به قطعه «منتظر به جلو…» ختم میشود، مدلی که برای تکمیل خودکار پیامها آموزش دیده است، ممکن است به دنبال الگوی همه ایمیلهایی که دریافت میکند، «… برای شنیدن پاسخ» را پیشنهاد دهد. هیچ عمدی وجود ندارد. مدل منتظر چیزی نیست. این به سادگی یک حدس آگاهانه است.
بیشتر مدلها، از جمله پرچمدارانی مانند GPT-4o، بر روی دادههایی که از وبسایتهای عمومی و مجموعههای داده در سرتاسر وب منبع میشوند، آموزش میبینند. اکثر فروشندگانی که چنین مدلهایی را توسعه میدهند، استدلال میکنند که استفاده منصفانه از روشهای خراش دادن دادهها و استفاده از آن برای آموزش بدون اطلاع، جبران یا حتی اعتبار دادن به صاحبان دادهها محافظت میکند.
اما همه دارندگان حق چاپ موافق نیستند. و بسیاری - از نویسندگان تا ناشران گرفته تا شرکتهای ضبط - شکایتهایی علیه فروشندگان تنظیم کردهاند تا مجبور به تغییر شوند.
معضل کپی رایت یکی از دلایلی است که اخیراً تکنیکهای بیآموزشی توجه زیادی را به خود جلب کرده است. گوگل، با همکاری چندین موسسه دانشگاهی، سال گذشته رقابتی را راه اندازی کرد تا به ایجاد رویکردهای جدید یادگیری بیاموزد.
Unlearning همچنین میتواند راهی برای حذف اطلاعات حساس از مدلهای موجود، مانند سوابق پزشکی یا عکسهای در معرض خطر، در پاسخ به درخواست یا دستور دولت ارائه دهد. (به لطف نحوه آموزش آنها، مدل ها تمایل دارند اطلاعات خصوصی زیادی، از شماره تلفن گرفته تا نمونه های مشکل ساز تر را جمع آوری کنند.) در چند سال گذشته، برخی از فروشندگان ابزارهایی را ارائه کرده اند که به صاحبان داده اجازه می دهد از داده های خود درخواست کنند. از مجموعه های آموزشی حذف شود. اما این ابزارهای انصراف فقط برای مدل های آینده اعمال می شود، نه مدل هایی که قبل از عرضه آموزش دیده اند. unlearning رویکرد بسیار کامل تری برای حذف داده ها خواهد بود.
صرف نظر از این، لغو یادگیری به آسانی زدن «حذف» نیست.
هنر فراموش کردن
امروزه تکنیکهای بیآموزشی بر الگوریتمهایی تکیه میکنند که برای «هدایت» مدلها از دادههایی که باید یاد نگرفته شوند، طراحی شدهاند. ایده این است که بر پیشبینیهای مدل تأثیر بگذاریم به طوری که هرگز - یا فقط به ندرت - دادههای خاصی را خروجی نمیدهد.
شی و همکارانش برای اینکه ببینند این الگوریتمهای بیآموزنده چقدر میتوانند مؤثر باشند، یک معیار ابداع کردند و هشت الگوریتم باز مختلف را برای آزمایش انتخاب کردند. این معیار که MUSE (ارزیابی ششطرفه عدم یادگیری ماشین) نامیده میشود، قصد دارد توانایی الگوریتم را تحلیل کند تا نه تنها مانع از بیرون ریختن دادههای آموزشی توسط یک مدل شود (پدیدهای که به عنوان بازگشت مجدد شناخته میشود)، بلکه دانش مدل از آن دادهها را همراه با هر نوع دیگری حذف کند. شواهدی مبنی بر اینکه در ابتدا بر اساس داده ها آموزش داده شده است.
کسب امتیاز خوب در MUSE مستلزم این است که یک مدل دو چیز را فراموش کند: کتاب های مجموعه هری پاتر و مقالات خبری.
برای مثال، با توجه به قطعهای از هری پاتر و اتاق اسرار ("عمه گفت: "در ماهیتابه چیزهای بیشتری هست...")، MUSE آزمایش میکند که آیا یک مدل ناآموخته میتواند کل جمله را بخواند ("در سرخ کردن چیزهای بیشتری وجود دارد." عمه پتونیا، گفت: تابه، به پسر بزرگش نگاه کرد»)، به سؤالات مربوط به صحنه پاسخ دهید (مثلاً «خاله پتونیا به پسرش چه او میگوید ؟»، «بیشتر در ماهیتابه») یا در غیر این صورت نشان دهید که روی متن آموزش داده شده است. از کتاب
MUSE همچنین آزمایش میکند که آیا این مدل دانش عمومی مرتبط را حفظ کرده است - مثلاً اینکه جیکی رولینگ نویسنده مجموعههای هری پاتر است - پس از یادگیری، که محققان از آن به عنوان ابزار کلی مدل یاد میکنند. هرچه میزان مطلوبیت کمتر باشد، مدل دانش مرتبط بیشتری را از دست میدهد و باعث میشود مدل کمتر بتواند به سؤالات درست پاسخ دهد.
در مطالعه خود، محققان دریافتند که الگوریتمهای بیآموزشی که آزمایش کردند باعث میشود مدلها اطلاعات خاصی را فراموش کنند. اما آنها همچنین به قابلیتهای کلی پاسخگویی به سؤالات مدلها صدمه میزنند و یک مبادله را ارائه میکنند.
شی توضیح داد: «طراحی روشهای یادگیری مؤثر برای مدلها چالش برانگیز است، زیرا دانش بهطور پیچیدهای در مدل درگیر شده است». به عنوان مثال، یک مدل ممکن است در مورد مطالب دارای حق چاپ - کتاب های هری پاتر و همچنین محتوای آزادانه در دسترس از ویکی هری پاتر آموزش ببیند. زمانی که روشهای غیرآموزشی موجود تلاش میکنند تا کتابهای هری پاتر دارای حق چاپ را حذف کنند، بر دانش مدل در مورد ویکی هری پاتر نیز تأثیر قابلتوجهی میگذارند.»
آیا راه حلی برای مشکل وجود دارد؟ شی بيان کرد هنوز نه - و این نیاز به تحقیقات بیشتر را برجسته می کند.
در حال حاضر، به نظر میرسد که فروشندگانی که روی عدم یادگیری بهعنوان راهحلی برای مشکلات مربوط به دادههای آموزشی خود شرطبندی میکنند، بیارزش هستند. شاید یک پیشرفت فنی روزی یادگیری را عملی کند. اما فعلاً، فروشندگان باید راه دیگری برای جلوگیری از گفتن چیزهایی که نباید مدل هایشان انجام دهند، بیابند.
ارسال نظر