متن خبر

آژانس بریتانیا ابزارهایی را برای آزمایش ایمنی مدل هوش مصنوعی منتشر می کند

آژانس بریتانیا ابزارهایی را برای آزمایش ایمنی مدل هوش مصنوعی منتشر می کند

شناسهٔ خبر: 470945 -




مؤسسه ایمنی بریتانیا، بدنه ایمنی هوش مصنوعی بریتانیا که اخیراً تأسیس شده است، مجموعه ابزاری را منتشر کرد که برای «تقویت ایمنی هوش مصنوعی» طراحی شده است و از طریق توسعه ارزیابی‌های هوش مصنوعی برای صنعت، سازمان‌های تحقیقاتی و دانشگاه‌ها آسان‌تر می‌شود.

این مجموعه ابزار که Inspect نامیده می شود - که تحت مجوز منبع باز، به ویژه مجوز MIT در دسترس است - با هدف ارزیابی قابلیت های خاص مدل های هوش مصنوعی، از جمله دانش اصلی مدل ها و توانایی استدلال، و ایجاد امتیاز بر اساس نتایج است.

در یک بیانیه مطبوعاتی که روز جمعه این خبر را اعلام کرد، مؤسسه ایمنی ادعا کرد که Inspect "اولین بار است که یک پلت فرم تست ایمنی هوش مصنوعی که توسط یک نهاد تحت حمایت دولت رهبری شده است برای استفاده گسترده تر منتشر شده است. "

نگاهی به داشبورد Inspect.

ایان هوگارت، رئیس موسسه ایمنی در بیانیه‌ای گفت: «همکاری موفقیت‌آمیز در تست ایمنی هوش مصنوعی به معنای داشتن یک رویکرد مشترک و در دسترس برای ارزیابی است، و ما امیدواریم که Inspect بتواند یک عنصر سازنده باشد.» ما امیدواریم که جامعه جهانی هوش مصنوعی را با استفاده از Inspect نه تنها برای انجام آزمایش‌های ایمنی مدل خود، بلکه برای کمک به انطباق و ایجاد پلت‌فرم منبع باز ببینیم تا بتوانیم ارزیابی‌های با کیفیت بالا را در سراسر صفحه تولید کنیم.»

همانطور که قبلاً در مورد آن نوشتیم، معیارهای هوش مصنوعی سخت هستند از این جهت که پیچیده‌ترین مدل‌های هوش مصنوعی امروزه جعبه‌های سیاهی هستند که زیرساخت‌ها، داده‌های آموزشی و سایر جزئیات کلیدی جزییاتی هستند که توسط شرکت‌هایی که آنها را ایجاد می‌کنند مخفی نگه داشته می‌شوند. پس چگونه Inspect با چالش مقابله می کند؟ با گسترش و گسترش به تکنیک های آزمایش جدید، عمدتا.

بازرسی از سه جزء اصلی تشکیل شده است: مجموعه داده ها، حل کننده ها و امتیاز دهنده ها. مجموعه داده ها نمونه هایی را برای آزمون های ارزیابی ارائه می دهند. حل کننده ها کار انجام تست ها را انجام می دهند. و امتیازدهندگان کار حل‌کننده‌ها را ارزیابی می‌کنند و نمرات را از آزمون‌ها به معیارها تبدیل می‌کنند.

اجزای داخلی Inspect را می توان از طریق بسته های شخص ثالث نوشته شده در پایتون تقویت کرد.

در پستی در X، دبورا راج، محقق موزیلا و متخصص اخلاق هوش مصنوعی، Inspect را گواهی بر قدرت سرمایه گذاری عمومی در ابزارهای منبع باز برای پاسخگویی هوش مصنوعی خواند.

Clément Delangue، مدیرعامل استارت‌آپ Hugging Face، ایده ادغام Inspect با کتابخانه مدل Hugging Face یا ایجاد تابلوی امتیاز عمومی با نتایج ارزیابی‌های مجموعه ابزار را مطرح کرد.

انتشار Inspect پس از آن منتشر شد که یک سازمان دولتی - موسسه ملی استاندارد و فناوری (NIST) - NIST GenAI را راه‌اندازی کرد، برنامه‌ای برای ارزیابی فناوری‌های مختلف هوش مصنوعی از جمله هوش مصنوعی تولیدکننده متن و تصویر. NIST GenAI قصد دارد معیارهایی را منتشر کند، به ایجاد سیستم‌های تشخیص اصالت محتوا کمک کند و توسعه نرم‌افزاری را برای شناسایی اطلاعات جعلی یا گمراه‌کننده تولید شده توسط هوش مصنوعی تشویق کند.

در ماه آوریل، ایالات متحده و بریتانیا به دنبال تعهدات اعلام شده در اجلاس ایمنی هوش مصنوعی بریتانیا در بلچلی پارک در نوامبر سال گذشته، همکاری مشترکی برای توسعه آزمایش مدل پیشرفته هوش مصنوعی اعلام کردند. به عنوان بخشی از این همکاری، ایالات متحده قصد دارد مؤسسه ایمنی هوش مصنوعی خود را راه اندازی کند، که به طور کلی مسئولیت ارزیابی خطرات ناشی از هوش مصنوعی و هوش مصنوعی مولد را بر عهده خواهد داشت.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است