چرا RAG مشکل توهم هوش مصنوعی مولد را حل نمی کند؟
توهمات - دروغ هایی که مدل های هوش مصنوعی تولید می کنند، اساساً - یک مشکل بزرگ برای مشاغلی است که به دنبال ادغام فناوری در عملیات خود هستند.
از آنجایی که مدلها هوش واقعی ندارند و به سادگی کلمات، تصاویر، گفتار، موسیقی و سایر دادهها را طبق یک طرحواره خصوصی پیشبینی میکنند، گاهی اوقات اشتباه میکنند. بسیار اشتباه. در مقالهای اخیر در وال استریت ژورنال، منبعی نمونهای را بازگو میکند که در آن هوش مصنوعی مولد مایکروسافت شرکتکنندگان در جلسه را اختراع کرد و به طور ضمنی اشاره کرد که تماسهای کنفرانس در مورد موضوعاتی هستند که واقعاً در تماس مورد بحث قرار نگرفتهاند.
همانطور که چندی پیش نوشتم، توهمات ممکن است یک مشکل غیرقابل حل با معماری مدل های مبتنی بر ترانسفورماتور امروزی باشد. اما تعدادی از فروشندگان هوش مصنوعی مولد پیشنهاد میکنند که میتوان کم و بیش از طریق یک رویکرد فنی به نام تولید گفت ه بازیابی یا RAG از بین رفت.
در اینجا نحوه ارائه یک فروشنده، Squirro، آمده است:
در هسته این پیشنهاد، مفهوم LLM های تقویت شده بازیابی یا نسل گفت ه بازیابی (RAG) تعبیه شده در راه حل است ... [هوش مصنوعی مولد ما] در وعده توهمات صفر منحصر به فرد است. هر قطعه اطلاعاتی که تولید میکند تا یک منبع قابل ردیابی است و اعتبار را تضمین میکند.
در اینجا یک طرح مشابه از SiftHub آمده است:
SiftHub با استفاده از فناوری RAG و مدلهای زبان بزرگ تنظیمشده دقیق با آموزش دانش خاص صنعت، به شرکتها اجازه میدهد تا پاسخهای شخصیسازی شده با توهم صفر را تولید کنند. این افزایش شفافیت و کاهش ریسک را تضمین میکند و اعتماد مطلق را برای استفاده از هوش مصنوعی برای همه نیازهایشان القا میکند.
RAG توسط دانشمند داده پاتریک لوئیس، محقق در متا و دانشگاه کالج لندن و نویسنده اصلی مقاله 2020 که این اصطلاح را ابداع کرد، پیشگام بود. RAG با استفاده از یک مدل، اسنادی را که احتمالاً مرتبط با یک سؤال است - به عنوان مثال، یک صفحه ویکیپدیا در مورد Super Bowl - با استفاده از آنچه اساساً جستجوی کلمه کلیدی است بازیابی میکند و سپس از مدل میخواهد تا با توجه به این زمینه اضافی، پاسخهایی را ایجاد کند.
هنگامی که با یک مدل هوش مصنوعی مولد مانند ChatGPT یا Llama در تعامل هستید و سؤالی میپرسید، پیشفرض این است که مدل از «حافظه پارامتریک» خود پاسخ دهد - یعنی از دانشی که در پارامترهای آن ذخیره میشود. دیوید وادن، دانشمند محقق در AI2، بخش تحقیقاتی متمرکز بر هوش مصنوعی مؤسسه غیرانتفاعی آلن، توضیح داد: آموزش بر روی داده های عظیم از وب. اما، درست مثل اینکه اگر مرجعی [مثل یک کتاب یا فایل] در جلوی خود داشته باشید، احتمالاً پاسخهای دقیقتری میدهید، در برخی موارد برای مدلها نیز همین امر صادق است. »
RAG غیرقابل انکار مفید است - به شخص اجازه می دهد چیزهایی را که یک مدل تولید می کند به اسناد بازیابی شده نسبت دهد تا واقعیت آنها را تأیید کند (و به عنوان یک مزیت اضافه، از بازگرداندن بالقوه ناقض حق چاپ خودداری شود). RAG همچنین به شرکتهایی که نمیخواهند از اسنادشان برای آموزش مدل استفاده شود - مثلاً شرکتهایی که در صنایع بسیار تنظیمشده مانند مراقبتهای بهداشتی و قانون هستند - اجازه میدهد تا به مدلها اجازه دهند تا از آن اسناد به روشی امنتر و موقت استفاده کنند.
اما مطمئنا RAG نمی تواند جلوی توهم یک مدل را بگیرد. و محدودیت هایی دارد که بسیاری از فروشندگان آن را نادیده می گیرند.
Wadden او میگوید که RAG در سناریوهای «دانش فشرده» که در آن کاربر میخواهد از مدلی برای رفع «نیاز اطلاعاتی» استفاده کند - به عنوان مثال، برای اینکه بفهمد چه کسی در سال گذشته برنده Super Bowl شده است، مؤثرتر است. در این سناریوها، سندی که به سؤال پاسخ میدهد احتمالاً حاوی بسیاری از کلمات کلیدی مشابه سؤال است (به عنوان مثال، «Super Bowl»، «سال گذشته»)، که یافتن آن را از طریق جستجوی کلیدواژه نسبتاً آسان میکند.
کارها با کارهای «استدلال فشرده» مانند کدنویسی و ریاضی پیچیدهتر میشوند، جایی که مشخص کردن مفاهیم مورد نیاز برای پاسخ به یک درخواست در یک عبارت جستجوی مبتنی بر کلمه کلیدی دشوارتر است - خیلی کمتر مشخص میشود که کدام اسناد ممکن است مرتبط باشند.
حتی با وجود سؤالات اساسی، مدلها میتوانند با محتوای نامربوط در اسناد، بهویژه در اسناد طولانی که پاسخ آن واضح نیست، «پرت شوند». یا آنها می توانند - به دلایلی که هنوز نامشخص است - به سادگی محتویات اسناد بازیابی شده را نادیده بگیرند و در عوض بر روی حافظه پارامتریک خود تکیه کنند.
RAG همچنین از نظر سخت افزار مورد نیاز برای اعمال آن در مقیاس گران است.
دلیل آن این است که اسناد بازیابی شده، چه از وب، یک پایگاه داده داخلی یا جای دیگر، باید در حافظه ذخیره شوند - حداقل به طور موقت - تا مدل بتواند به آنها مراجعه کند. مخارج دیگر محاسبه برای زمینه افزایش یافته است که یک مدل باید قبل از ایجاد پاسخ آن را پردازش کند. برای یک فناوری که قبلاً به دلیل میزان محاسبات و الکتریسیته مورد نیاز آن حتی برای عملیات اساسی بدنام است، این امر یک ملاحظه جدی است.
این بدان معنا نیست که RAG را نمی توان بهبود بخشید. Wadden به تلاشهای مداوم زیادی برای آموزش مدلها برای استفاده بهتر از اسناد بازیابی شده توسط RAG اشاره کرد.
برخی از این تلاشها شامل مدلهایی است که میتوانند «تصمیم بگیرند» چه زمانی از اسناد استفاده کنند، یا مدلهایی که میتوانند در وهله اول بازیابی را در صورت غیرضروری انجام ندهند. برخی دیگر بر روی راههایی برای فهرستبندی کارآمدتر مجموعه دادههای عظیم اسناد و بهبود جستجو از طریق نمایش بهتر اسناد تمرکز میکنند - نمایشهایی که فراتر از کلمات کلیدی است.
وادن گفت: "ما در بازیابی اسناد بر اساس کلمات کلیدی بسیار خوب هستیم، اما در بازیابی اسناد بر اساس مفاهیم انتزاعی تر، مانند تکنیک اثبات مورد نیاز برای حل یک مسئله ریاضی، چندان خوب نیستیم." برای ساختن بازنمایی اسناد و تکنیکهای جستجو که بتواند اسناد مرتبط را برای وظایف تولید انتزاعیتر شناسایی کند، به تحقیق نیاز است. من فکر میکنم که در این مرحله، این بیشتر یک سؤال باز است. »
پس RAG می تواند به کاهش توهمات یک مدل کمک کند - اما پاسخی برای همه مشکلات توهم AI نیست. مراقب هر فروشنده ای باشید که سعی می کند خلاف آن را ادعا کند.
ارسال نظر