متن خبر

چرا RAG مشکل توهم هوش مصنوعی مولد را حل نمی کند؟

چرا RAG مشکل توهم هوش مصنوعی مولد را حل نمی کند؟

شناسهٔ خبر: 469165 -




توهمات - دروغ هایی که مدل های هوش مصنوعی تولید می کنند، اساساً - یک مشکل بزرگ برای مشاغلی است که به دنبال ادغام فناوری در عملیات خود هستند.

از آنجایی که مدل‌ها هوش واقعی ندارند و به سادگی کلمات، تصاویر، گفتار، موسیقی و سایر داده‌ها را طبق یک طرح‌واره خصوصی پیش‌بینی می‌کنند، گاهی اوقات اشتباه می‌کنند. بسیار اشتباه. در مقاله‌ای اخیر در وال استریت ژورنال، منبعی نمونه‌ای را بازگو می‌کند که در آن هوش مصنوعی مولد مایکروسافت شرکت‌کنندگان در جلسه را اختراع کرد و به طور ضمنی اشاره کرد که تماس‌های کنفرانس در مورد موضوعاتی هستند که واقعاً در تماس مورد بحث قرار نگرفته‌اند.

همانطور که چندی پیش نوشتم، توهمات ممکن است یک مشکل غیرقابل حل با معماری مدل های مبتنی بر ترانسفورماتور امروزی باشد. اما تعدادی از فروشندگان هوش مصنوعی مولد پیشنهاد می‌کنند که می‌توان کم و بیش از طریق یک رویکرد فنی به نام تولید گفت ه بازیابی یا RAG از بین رفت.

در اینجا نحوه ارائه یک فروشنده، Squirro، آمده است:

در هسته این پیشنهاد، مفهوم LLM های تقویت شده بازیابی یا نسل گفت ه بازیابی (RAG) تعبیه شده در راه حل است ... [هوش مصنوعی مولد ما] در وعده توهمات صفر منحصر به فرد است. هر قطعه اطلاعاتی که تولید می‌کند تا یک منبع قابل ردیابی است و اعتبار را تضمین می‌کند.

در اینجا یک طرح مشابه از SiftHub آمده است:

SiftHub با استفاده از فناوری RAG و مدل‌های زبان بزرگ تنظیم‌شده دقیق با آموزش دانش خاص صنعت، به شرکت‌ها اجازه می‌دهد تا پاسخ‌های شخصی‌سازی شده با توهم صفر را تولید کنند. این افزایش شفافیت و کاهش ریسک را تضمین می‌کند و اعتماد مطلق را برای استفاده از هوش مصنوعی برای همه نیازهایشان القا می‌کند.

RAG توسط دانشمند داده پاتریک لوئیس، محقق در متا و دانشگاه کالج لندن و نویسنده اصلی مقاله 2020 که این اصطلاح را ابداع کرد، پیشگام بود. RAG با استفاده از یک مدل، اسنادی را که احتمالاً مرتبط با یک سؤال است - به عنوان مثال، یک صفحه ویکی‌پدیا در مورد Super Bowl - با استفاده از آنچه اساساً جستجوی کلمه کلیدی است بازیابی می‌کند و سپس از مدل می‌خواهد تا با توجه به این زمینه اضافی، پاسخ‌هایی را ایجاد کند.

هنگامی که با یک مدل هوش مصنوعی مولد مانند ChatGPT یا Llama در تعامل هستید و سؤالی می‌پرسید، پیش‌فرض این است که مدل از «حافظه پارامتریک» خود پاسخ دهد - یعنی از دانشی که در پارامترهای آن ذخیره می‌شود. دیوید وادن، دانشمند محقق در AI2، بخش تحقیقاتی متمرکز بر هوش مصنوعی مؤسسه غیرانتفاعی آلن، توضیح داد: آموزش بر روی داده های عظیم از وب. اما، درست مثل اینکه اگر مرجعی [مثل یک کتاب یا فایل] در جلوی خود داشته باشید، احتمالاً پاسخ‌های دقیق‌تری می‌دهید، در برخی موارد برای مدل‌ها نیز همین امر صادق است. »

RAG غیرقابل انکار مفید است - به شخص اجازه می دهد چیزهایی را که یک مدل تولید می کند به اسناد بازیابی شده نسبت دهد تا واقعیت آنها را تأیید کند (و به عنوان یک مزیت اضافه، از بازگرداندن بالقوه ناقض حق چاپ خودداری شود). RAG همچنین به شرکت‌هایی که نمی‌خواهند از اسنادشان برای آموزش مدل استفاده شود - مثلاً شرکت‌هایی که در صنایع بسیار تنظیم‌شده مانند مراقبت‌های بهداشتی و قانون هستند - اجازه می‌دهد تا به مدل‌ها اجازه دهند تا از آن اسناد به روشی امن‌تر و موقت استفاده کنند.

اما مطمئنا RAG نمی تواند جلوی توهم یک مدل را بگیرد. و محدودیت هایی دارد که بسیاری از فروشندگان آن را نادیده می گیرند.

Wadden او میگوید که RAG در سناریوهای «دانش فشرده» که در آن کاربر می‌خواهد از مدلی برای رفع «نیاز اطلاعاتی» استفاده کند - به عنوان مثال، برای اینکه بفهمد چه کسی در سال گذشته برنده Super Bowl شده است، مؤثرتر است. در این سناریوها، سندی که به سؤال پاسخ می‌دهد احتمالاً حاوی بسیاری از کلمات کلیدی مشابه سؤال است (به عنوان مثال، «Super Bowl»، «سال گذشته»)، که یافتن آن را از طریق جستجوی کلیدواژه نسبتاً آسان می‌کند.

کارها با کارهای «استدلال فشرده» مانند کدنویسی و ریاضی پیچیده‌تر می‌شوند، جایی که مشخص کردن مفاهیم مورد نیاز برای پاسخ به یک درخواست در یک عبارت جستجوی مبتنی بر کلمه کلیدی دشوارتر است - خیلی کمتر مشخص می‌شود که کدام اسناد ممکن است مرتبط باشند.

حتی با وجود سؤالات اساسی، مدل‌ها می‌توانند با محتوای نامربوط در اسناد، به‌ویژه در اسناد طولانی که پاسخ آن واضح نیست، «پرت شوند». یا آنها می توانند - به دلایلی که هنوز نامشخص است - به سادگی محتویات اسناد بازیابی شده را نادیده بگیرند و در عوض بر روی حافظه پارامتریک خود تکیه کنند.

RAG همچنین از نظر سخت افزار مورد نیاز برای اعمال آن در مقیاس گران است.

دلیل آن این است که اسناد بازیابی شده، چه از وب، یک پایگاه داده داخلی یا جای دیگر، باید در حافظه ذخیره شوند - حداقل به طور موقت - تا مدل بتواند به آنها مراجعه کند. مخارج دیگر محاسبه برای زمینه افزایش یافته است که یک مدل باید قبل از ایجاد پاسخ آن را پردازش کند. برای یک فناوری که قبلاً به دلیل میزان محاسبات و الکتریسیته مورد نیاز آن حتی برای عملیات اساسی بدنام است، این امر یک ملاحظه جدی است.

این بدان معنا نیست که RAG را نمی توان بهبود بخشید. Wadden به تلاش‌های مداوم زیادی برای آموزش مدل‌ها برای استفاده بهتر از اسناد بازیابی شده توسط RAG اشاره کرد.

برخی از این تلاش‌ها شامل مدل‌هایی است که می‌توانند «تصمیم بگیرند» چه زمانی از اسناد استفاده کنند، یا مدل‌هایی که می‌توانند در وهله اول بازیابی را در صورت غیرضروری انجام ندهند. برخی دیگر بر روی راه‌هایی برای فهرست‌بندی کارآمدتر مجموعه داده‌های عظیم اسناد و بهبود جستجو از طریق نمایش بهتر اسناد تمرکز می‌کنند - نمایش‌هایی که فراتر از کلمات کلیدی است.

وادن گفت: "ما در بازیابی اسناد بر اساس کلمات کلیدی بسیار خوب هستیم، اما در بازیابی اسناد بر اساس مفاهیم انتزاعی تر، مانند تکنیک اثبات مورد نیاز برای حل یک مسئله ریاضی، چندان خوب نیستیم." برای ساختن بازنمایی اسناد و تکنیک‌های جستجو که بتواند اسناد مرتبط را برای وظایف تولید انتزاعی‌تر شناسایی کند، به تحقیق نیاز است. من فکر می‌کنم که در این مرحله، این بیشتر یک سؤال باز است. »

پس RAG می تواند به کاهش توهمات یک مدل کمک کند - اما پاسخی برای همه مشکلات توهم AI نیست. مراقب هر فروشنده ای باشید که سعی می کند خلاف آن را ادعا کند.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است