آژانس بریتانیا ابزارهایی را برای آزمایش ایمنی مدل هوش مصنوعی منتشر می کند
مؤسسه ایمنی بریتانیا، بدنه ایمنی هوش مصنوعی بریتانیا که اخیراً تأسیس شده است، مجموعه ابزاری را منتشر کرد که برای «تقویت ایمنی هوش مصنوعی» طراحی شده است و از طریق توسعه ارزیابیهای هوش مصنوعی برای صنعت، سازمانهای تحقیقاتی و دانشگاهها آسانتر میشود.
این مجموعه ابزار که Inspect نامیده می شود - که تحت مجوز منبع باز، به ویژه مجوز MIT در دسترس است - با هدف ارزیابی قابلیت های خاص مدل های هوش مصنوعی، از جمله دانش اصلی مدل ها و توانایی استدلال، و ایجاد امتیاز بر اساس نتایج است.
در یک بیانیه مطبوعاتی که روز جمعه این خبر را اعلام کرد، مؤسسه ایمنی ادعا کرد که Inspect "اولین بار است که یک پلت فرم تست ایمنی هوش مصنوعی که توسط یک نهاد تحت حمایت دولت رهبری شده است برای استفاده گسترده تر منتشر شده است. "
ایان هوگارت، رئیس موسسه ایمنی در بیانیهای گفت: «همکاری موفقیتآمیز در تست ایمنی هوش مصنوعی به معنای داشتن یک رویکرد مشترک و در دسترس برای ارزیابی است، و ما امیدواریم که Inspect بتواند یک عنصر سازنده باشد.» ما امیدواریم که جامعه جهانی هوش مصنوعی را با استفاده از Inspect نه تنها برای انجام آزمایشهای ایمنی مدل خود، بلکه برای کمک به انطباق و ایجاد پلتفرم منبع باز ببینیم تا بتوانیم ارزیابیهای با کیفیت بالا را در سراسر صفحه تولید کنیم.»
همانطور که قبلاً در مورد آن نوشتیم، معیارهای هوش مصنوعی سخت هستند – از این جهت که پیچیدهترین مدلهای هوش مصنوعی امروزه جعبههای سیاهی هستند که زیرساختها، دادههای آموزشی و سایر جزئیات کلیدی جزییاتی هستند که توسط شرکتهایی که آنها را ایجاد میکنند مخفی نگه داشته میشوند. پس چگونه Inspect با چالش مقابله می کند؟ با گسترش و گسترش به تکنیک های آزمایش جدید، عمدتا.
بازرسی از سه جزء اصلی تشکیل شده است: مجموعه داده ها، حل کننده ها و امتیاز دهنده ها. مجموعه داده ها نمونه هایی را برای آزمون های ارزیابی ارائه می دهند. حل کننده ها کار انجام تست ها را انجام می دهند. و امتیازدهندگان کار حلکنندهها را ارزیابی میکنند و نمرات را از آزمونها به معیارها تبدیل میکنند.
اجزای داخلی Inspect را می توان از طریق بسته های شخص ثالث نوشته شده در پایتون تقویت کرد.
در پستی در X، دبورا راج، محقق موزیلا و متخصص اخلاق هوش مصنوعی، Inspect را گواهی بر قدرت سرمایه گذاری عمومی در ابزارهای منبع باز برای پاسخگویی هوش مصنوعی خواند.
Clément Delangue، مدیرعامل استارتآپ Hugging Face، ایده ادغام Inspect با کتابخانه مدل Hugging Face یا ایجاد تابلوی امتیاز عمومی با نتایج ارزیابیهای مجموعه ابزار را مطرح کرد.
انتشار Inspect پس از آن منتشر شد که یک سازمان دولتی - موسسه ملی استاندارد و فناوری (NIST) - NIST GenAI را راهاندازی کرد، برنامهای برای ارزیابی فناوریهای مختلف هوش مصنوعی از جمله هوش مصنوعی تولیدکننده متن و تصویر. NIST GenAI قصد دارد معیارهایی را منتشر کند، به ایجاد سیستمهای تشخیص اصالت محتوا کمک کند و توسعه نرمافزاری را برای شناسایی اطلاعات جعلی یا گمراهکننده تولید شده توسط هوش مصنوعی تشویق کند.
در ماه آوریل، ایالات متحده و بریتانیا به دنبال تعهدات اعلام شده در اجلاس ایمنی هوش مصنوعی بریتانیا در بلچلی پارک در نوامبر سال گذشته، همکاری مشترکی برای توسعه آزمایش مدل پیشرفته هوش مصنوعی اعلام کردند. به عنوان بخشی از این همکاری، ایالات متحده قصد دارد مؤسسه ایمنی هوش مصنوعی خود را راه اندازی کند، که به طور کلی مسئولیت ارزیابی خطرات ناشی از هوش مصنوعی و هوش مصنوعی مولد را بر عهده خواهد داشت.
ارسال نظر