متن خبر

NIST پلت فرم جدیدی را برای ارزیابی هوش مصنوعی مولد راه اندازی می کند

NIST پلت فرم جدیدی را برای ارزیابی هوش مصنوعی مولد راه اندازی می کند

شناسهٔ خبر: 467964 -




مؤسسه ملی استاندارد و فناوری (NIST)، آژانس وزارت بازرگانی ایالات متحده که فناوری را برای دولت، شرکت‌ها و عموم مردم ایالات متحده توسعه و آزمایش می‌کند، روز دوشنبه از راه‌اندازی NIST GenAI، برنامه‌ای جدید که توسط NIST برای ارزیابی مولد رهبری می‌شود، خبر داد. فناوری های هوش مصنوعی از جمله هوش مصنوعی تولید کننده متن و تصویر.

NIST GenAI در وب‌سایت تازه راه‌اندازی شده NIST GenAI توضیح می‌دهد که NIST GenAI معیارهایی را منتشر می‌کند، به ایجاد سیستم‌های تشخیص «اصالت محتوا» (یعنی تحلیل عمیق جعلی) کمک می‌کند و توسعه نرم‌افزاری را برای شناسایی منبع اطلاعات جعلی یا گمراه‌کننده تولید شده توسط هوش مصنوعی تشویق می‌کند. یک بیانیه مطبوعاتی

در بیانیه مطبوعاتی آمده است: «برنامه NIST GenAI مجموعه‌ای از مشکلات چالشی را برای ارزیابی و اندازه‌گیری قابلیت‌ها و محدودیت‌های فناوری‌های هوش مصنوعی مولد منتشر خواهد کرد. این ارزیابی‌ها برای شناسایی استراتژی‌هایی برای ارتقای یکپارچگی اطلاعات و هدایت استفاده ایمن و مسئولانه از محتوای دیجیتال استفاده خواهد شد.»

اولین پروژه NIST GenAI یک مطالعه آزمایشی برای ساخت سیستم هایی است که می توانند به طور قابل اعتمادی تفاوت بین رسانه های ساخته شده توسط انسان و رسانه های تولید شده توسط هوش مصنوعی را تشخیص دهند، که از متن شروع می شود. (در حالی که بسیاری از سرویس‌ها ادعا می‌کنند که دیپ‌فیک‌ها را شناسایی می‌کنند، مطالعات و آزمایش‌های خودمان نشان داده‌اند که آنها در بهترین حالت متزلزل هستند، به‌ویژه وقتی صحبت از متن می‌شود.) NIST GenAI از تیم‌هایی از دانشگاه‌ها، صنعت و آزمایشگاه‌های تحقیقاتی دعوت می‌کند تا «مولد» را ارسال کنند. سیستم‌های هوش مصنوعی برای تولید محتوا - یا «تبعیض‌کننده‌ها» که سیستم‌هایی هستند که برای شناسایی محتوای تولید شده توسط هوش مصنوعی طراحی شده‌اند.

تولیدکنندگان در این مطالعه باید خلاصه‌های 250 کلمه‌ای یا کمتر را با ارائه یک موضوع و مجموعه‌ای از اسناد تولید کنند، در حالی که متمایزکنندگان باید تشخیص دهند که آیا خلاصه‌ای داده شده به طور بالقوه توسط هوش مصنوعی نوشته شده است یا خیر. برای اطمینان از عدالت، NIST GenAI داده های لازم برای آزمایش ژنراتورها را ارائه می دهد. NIST او میگوید ، سیستم‌هایی که بر روی داده‌های در دسترس عموم آموزش دیده‌اند و «با قوانین و مقررات قابل اجرا مطابقت ندارند» پذیرفته نمی‌شوند.

ثبت نام برای آزمایشی از اول ماه مه آغاز می شود و دور اول دو مرحله ای قرار است در 2 آگوست بسته شود. پیش بینی می شود نتایج نهایی این مطالعه در فوریه 2025 منتشر شود.

راه اندازی NIST GenAI و مطالعه متمرکز بر جعلی عمیق در حالی انجام می شود که حجم اطلاعات نادرست و اطلاعات نادرست تولید شده توسط هوش مصنوعی به طور تصاعدی افزایش می یابد.

بر اساس داده‌های شرکت Clarity، یک شرکت تشخیص دیپ‌فیک، امسال ۹۰۰ درصد بیشتر دیپ‌فیک در مقایسه با بازه زمانی مشابه در سال گذشته ایجاد و منتشر شده است. این باعث ایجاد زنگ خطر است، قابل درک است. یک نظرسنجی اخیر از YouGov نشان داد که 85 درصد از آمریکایی‌ها نگران انتشار دروغ‌های گمراه‌کننده در فضای مجازی هستند.

راه‌اندازی NIST GenAI بخشی از پاسخ NIST به فرمان اجرایی رئیس جمهور جو بایدن در مورد هوش مصنوعی است که قوانینی را برای شفافیت بیشتر شرکت‌های هوش مصنوعی در مورد نحوه عملکرد مدل‌هایشان و ایجاد مجموعه‌ای از استانداردهای جدید، از جمله برای برچسب‌گذاری محتوای تولید شده توسط هوش مصنوعی تعیین می‌کند. .

همچنین این اولین اعلامیه مرتبط با هوش مصنوعی از سوی NIST پس از انتصاب پل کریستیانو، محقق سابق OpenAI، به مؤسسه ایمنی هوش مصنوعی این آژانس است.

کریستیانو یک انتخاب بحث برانگیز برای دیدگاه‌های «جهان‌گرایانه» خود بود. او یک بار پیش بینی کرد که "به احتمال 50٪ توسعه هوش مصنوعی می تواند به [نابودی بشریت] ختم شود." منتقدان، از جمله دانشمندان در NIST، از این بیم دارند که کریستیانو ممکن است مؤسسه ایمنی هوش مصنوعی را تشویق کند تا به جای خطرات واقعی و فوری‌تر ناشی از هوش مصنوعی، روی «سناریوهای فانتزی» تمرکز کند.

NIST می گوید که NIST GenAI کار موسسه ایمنی هوش مصنوعی را مطلع خواهد کرد.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است