سایت خبرکاو

جستجوگر هوشمند اخبار و مطالب فناوری

هند طرح نیاز به تایید برای عرضه مدل های هوش مصنوعی را کنار می گذارد

هند پس از دریافت انتقاد از سوی بسیاری از کارآفرینان و سرمایه گذاران محلی و جهانی، از توصیه اخیر هوش مصنوعی عقب نشینی می کند. وزارت الکترونیک و فناوری اطلاعات روز جمعه یک توصیه به روز شده هوش مصنوعی را با ذینفعان صنعت به اشتراک گذاشت که دیگر از آنها نمی خواهد قبل از راه اندازی یا استقرار یک مدل هوش مصنوعی برای کاربران در بازار جنوب آسیا، تأییدیه دولت را بگیرند. بر اساس دستورالعمل‌های ...

هند پس از دریافت انتقاد از سوی بسیاری از کارآفرینان و سرمایه گذاران محلی و جهانی، از توصیه اخیر هوش مصنوعی عقب نشینی می کند.

وزارت الکترونیک و فناوری اطلاعات روز جمعه یک توصیه به روز شده هوش مصنوعی را با ذینفعان صنعت به اشتراک گذاشت که دیگر از آنها نمی خواهد قبل از راه اندازی یا استقرار یک مدل هوش مصنوعی برای کاربران در بازار جنوب آسیا، تأییدیه دولت را بگیرند.

بر اساس دستورالعمل‌های اصلاح‌شده، در عوض به شرکت‌ها توصیه می‌شود که مدل‌های هوش مصنوعی آزمایش‌شده و غیرقابل اعتماد را برچسب‌گذاری کنند تا کاربران را از خطاپذیری یا غیرقابل اعتماد بودن بالقوه خود آگاه کنند.

این تجدید نظر به دنبال انتقاد شدید وزارت فناوری اطلاعات هند در اوایل ماه جاری از سوی بسیاری از افراد برجسته صورت گرفت. مارتین کاسادو، یکی از شرکای شرکت سرمایه‌گذاری اندرسن هوروویتز، این اقدام هند را یک «سختی» خوانده بود.

توصیه 1 مارس همچنین نشان دهنده معکوس شدن رویکرد قبلی هند در مورد مقررات هوش مصنوعی است. کمتر از یک سال پیش، این وزارتخانه از تنظیم رشد هوش مصنوعی خودداری کرد و این بخش را برای منافع استراتژیک هند حیاتی تشخیص داد.

توصیه جدید، مانند نسخه اصلی اوایل این ماه، به صورت آنلاین منتشر نشده است، اما TechCrunch یک نسخه از آن را تحلیل کرده است.

این وزارتخانه در اوایل این ماه بيان کرد که اگرچه این توصیه از نظر قانونی الزام آور نیست، اما نشان می دهد که این "آینده مقررات" است و دولت نیاز به رعایت آن دارد.

این توصیه تاکید می‌کند که مدل‌های هوش مصنوعی نباید برای اشتراک‌گذاری محتوای غیرقانونی تحت قوانین هند مورد استفاده قرار گیرند و نباید اجازه تعصب، تبعیض یا تهدید علیه یکپارچگی فرآیند انتخاباتی را بدهند. همچنین به واسطه‌ها توصیه می‌شود از «پاپ‌آپ‌های رضایت» یا مکانیسم‌های مشابه برای اطلاع رسانی صریح به کاربران در مورد غیرقابل اعتماد بودن خروجی تولید شده توسط هوش مصنوعی استفاده کنند.

این وزارتخانه تاکید خود را بر اطمینان از اینکه دروغ‌های عمیق و اطلاعات نادرست به راحتی قابل شناسایی هستند، حفظ کرده است و به واسطه‌ها توصیه می‌کند محتوا را با متادیتا یا شناسه‌های منحصربه‌فرد برچسب یا جاسازی کنند. دیگر نیازی به ابداع تکنیکی برای شناسایی «منبع» هر پیام خاصی از سوی شرکت ها نیست.

خبرکاو