هر کسی که برای مدت طولانی از هوش مصنوعی مولد استفاده کرده باشد، با توهمات بیش از حد آشنا خواهد بود. این زمانی است که سیستمهای هوش مصنوعی اطلاعات نادرست یا گمراهکننده تولید میکنند، نقصی که اغلب ریشه در محدودیتهای دادههای آموزشی یا طراحی مدل آنها دارد. چنین نادرستی ها می توانند به طور غیرقابل پیش بینی ظاهر شوند و شدت آنها بسیار متفاوت است - از اشتباهات جزئی تا تحریف های اساسی که می تواند به طور قابل توجهی فرآیندهای تصمیم گیری را منحرف کند.
Lamini Memory Tuning با هدف کاهش قابل توجه توهمات، از 50٪ به 5٪، کاهش 90٪ است. این فناوری امکان جاسازی حقایق دقیق را در LLMها فراهم میکند و طبق گزارشها به نرخهای دقت تا 95 درصد دست مییابد که جهشی قابل توجه از دقت 50 درصدی ارائه شده توسط روشهای قبلی است.
تنظیم حافظه Lamini با تنظیم اختصاصی میلیونها آداپتور متخصص، مانند LoRA (تطبیقهای رتبه پایین) در هر LLM منبع باز، حفظ دقیق واقعیت را تضمین میکند، از رویدادهای تاریخی گرفته تا دادههای فنی پیچیده، بدون تأخیر بالا و هزینهای که معمولاً با آن مرتبط است. چنین دقتی
ترکیبی از کارشناسان حافظه
این روش، با الهام از نقشهبرداری ذهنی، به طور انتخابی مرتبطترین متخصصان را از یک شاخص در طول استنتاج فعال میکند و محاسبات غیر ضروری را بهطور چشمگیری کاهش میدهد.
به عنوان مثال، این شرکت او میگوید هنگامی که وظیفه یادآوری حقایق خاص در مورد امپراتوری روم است، این سیستم تنها اطلاعات لازم در مورد جولیوس سزار، قناتها یا لژیونها را جمعآوری میکند و از فعالسازی وزنههای مدل نامربوط جلوگیری میکند.
فناوری زیربنایی پشت تنظیم حافظه Lamini شامل یک چارچوب فعال سازی پراکنده به نام ترکیبی از کارشناسان حافظه (MoME) است که برای پشتیبانی از تعداد زیادی از حقایق محدود شده فقط با اندازه داده های آموزشی مقیاس می شود. Lamini او میگوید این رویکرد نه تنها پاسخگویی مدل را افزایش میدهد، بلکه به طور قابل توجهی تقاضاهای محاسباتی را کاهش میدهد و آن را به یک راهحل مناسب برای افزایش عملکرد LLM در برنامههای مختلف تبدیل میکند.
ارسال نظر