متن خبر

استارتاپی که توسط Dropbox و Figma پشتیبانی می‌شود، فناوری جدیدی را ارائه می‌کند که می‌تواند یکی از بزرگترین مشکلات هوش مصنوعی را حل کند – BFF Lamini AMD وعده می‌دهد با استفاده از فرآیند شبیه نقشه ذهنی، توهمات را تا 90 درصد کاهش دهد.

استارتاپی که توسط Dropbox و Figma پشتیبانی می‌شود، فناوری جدیدی را ارائه می‌کند که می‌تواند یکی از بزرگترین مشکلات هوش مصنوعی را حل کند – BFF Lamini AMD وعده می‌دهد با استفاده از فرآیند شبیه نقشه ذهنی، توهمات را تا 90 درصد کاهش دهد.

شناسهٔ خبر: 568590 -




چه کسی در مسابقه هوش مصنوعی برنده <a href= خواهد شد؟" class=" block-image-ads hero-image" srcset="https://cdn.mos.cms.futurecdn.net/AvZcjmUMtehpuha5oJLcTB-320-80.jpg 320w, https://cdn.mos.cms.futurecdn.net/AvZcjmUMtehpuha5oJLcTB-480-80.jpg 480w, https://cdn.mos.cms.futurecdn.net/AvZcjmUMtehpuha5oJLcTB-650-80.jpg 650w, https://cdn.mos.cms.futurecdn.net/AvZcjmUMtehpuha5oJLcTB-970-80.jpg 970w, https://cdn.mos.cms.futurecdn.net/AvZcjmUMtehpuha5oJLcTB-1024-80.jpg 1024w, https://cdn.mos.cms.futurecdn.net/AvZcjmUMtehpuha5oJLcTB-1200-80.jpg 1200w, https://cdn.mos.cms.futurecdn.net/AvZcjmUMtehpuha5oJLcTB-1920-80.jpg 1920w" sizes="(min-width: 1000px) 600px, calc(100vw - 40px)" data-pin-media="https://cdn.mos.cms.futurecdn.net/AvZcjmUMtehpuha5oJLcTB.jpg">
اعتبار تصویر: Geralt / Pixabay (اعتبار تصویر: Pixabay)

هر کسی که برای مدت طولانی از هوش مصنوعی مولد استفاده کرده باشد، با توهمات بیش از حد آشنا خواهد بود. این زمانی است که سیستم‌های هوش مصنوعی اطلاعات نادرست یا گمراه‌کننده تولید می‌کنند، نقصی که اغلب ریشه در محدودیت‌های داده‌های آموزشی یا طراحی مدل آن‌ها دارد. چنین نادرستی ها می توانند به طور غیرقابل پیش بینی ظاهر شوند و شدت آنها بسیار متفاوت است - از اشتباهات جزئی تا تحریف های اساسی که می تواند به طور قابل توجهی فرآیندهای تصمیم گیری را منحرف کند.

Lamini Memory Tuning با هدف کاهش قابل توجه توهمات، از 50٪ به 5٪، کاهش 90٪ است. این فناوری امکان جاسازی حقایق دقیق را در LLMها فراهم می‌کند و طبق گزارش‌ها به نرخ‌های دقت تا 95 درصد دست می‌یابد که جهشی قابل توجه از دقت 50 درصدی ارائه شده توسط روش‌های قبلی است.

تنظیم حافظه Lamini با تنظیم اختصاصی میلیون‌ها آداپتور متخصص، مانند LoRA (تطبیق‌های رتبه پایین) در هر LLM منبع باز، حفظ دقیق واقعیت را تضمین می‌کند، از رویدادهای تاریخی گرفته تا داده‌های فنی پیچیده، بدون تأخیر بالا و هزینه‌ای که معمولاً با آن مرتبط است. چنین دقتی

ترکیبی از کارشناسان حافظه

این روش، با الهام از نقشه‌برداری ذهنی، به طور انتخابی مرتبط‌ترین متخصصان را از یک شاخص در طول استنتاج فعال می‌کند و محاسبات غیر ضروری را به‌طور چشمگیری کاهش می‌دهد.

به عنوان مثال، این شرکت او میگوید هنگامی که وظیفه یادآوری حقایق خاص در مورد امپراتوری روم است، این سیستم تنها اطلاعات لازم در مورد جولیوس سزار، قنات‌ها یا لژیون‌ها را جمع‌آوری می‌کند و از فعال‌سازی وزنه‌های مدل نامربوط جلوگیری می‌کند.

فناوری زیربنایی پشت تنظیم حافظه Lamini شامل یک چارچوب فعال سازی پراکنده به نام ترکیبی از کارشناسان حافظه (MoME) است که برای پشتیبانی از تعداد زیادی از حقایق محدود شده فقط با اندازه داده های آموزشی مقیاس می شود. Lamini او میگوید این رویکرد نه تنها پاسخگویی مدل را افزایش می‌دهد، بلکه به طور قابل توجهی تقاضاهای محاسباتی را کاهش می‌دهد و آن را به یک راه‌حل مناسب برای افزایش عملکرد LLM در برنامه‌های مختلف تبدیل می‌کند.

بیشتر از TechRadar Pro

وین ویلیامز یک فریلنسر است که اخبار را برای TechRadar Pro می نویسد. او 30 سال است که درباره کامپیوتر، فناوری و وب می نویسد. در آن زمان او برای اکثر مجلات PC در بریتانیا می نوشت و تعدادی از آنها را نیز راه اندازی، ویرایش و منتشر کرد.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است