متن خبر

OpenAI تیم جدیدی را برای مطالعه ایمنی کودکان تشکیل می دهد

OpenAI تیم جدیدی را برای مطالعه ایمنی کودکان تشکیل می دهد

شناسهٔ خبر: 449022 -




تحت نظارت فعالان - و والدین - OpenAI تیم جدیدی را برای مطالعه راه‌های جلوگیری از سوء استفاده یا سوء استفاده از ابزارهای هوش مصنوعی خود توسط کودکان تشکیل داده است.

OpenAI در یک فهرست شغلی جدید در صفحه شغلی خود، وجود یک تیم ایمنی کودک را فاش می کند، که این شرکت می گوید در حال همکاری با گروه های خط مشی پلت فرم، حقوقی و تحقیقاتی در OpenAI و همچنین شرکای خارجی برای مدیریت "فرآیندها، حوادث و تحلیل ها" است. ” مربوط به کاربران زیر سن قانونی

این تیم در حال حاضر به دنبال استخدام یک متخصص اجرای ایمنی کودکان است که مسئول اعمال خط‌مشی‌های OpenAI در زمینه محتوای تولید شده توسط هوش مصنوعی و کار بر روی فرآیندهای تحلیل مرتبط با محتوای «حساس» (احتمالاً مربوط به کودکان) است.

فروشندگان فناوری با اندازه معین، مقدار مناسبی از منابع را به پیروی از قوانینی مانند قانون حفاظت از حریم خصوصی آنلاین کودکان ایالات متحده اختصاص می‌دهند، که کنترل‌هایی را در مورد اینکه بچه‌ها می‌توانند - و نمی‌توانند - در وب و همچنین به چه نوع شرکت‌های داده‌ای دسترسی داشته باشند، کنترل می‌کند. می تواند روی آنها جمع آوری کند. پس این واقعیت که OpenAI متخصصان ایمنی کودکان را استخدام می‌کند، کاملاً تعجب‌آور نیست، به‌ویژه اگر این شرکت انتظار دارد روزی یک پایگاه کاربران زیر سن قانونی قابل توجهی داشته باشد. (شرایط استفاده فعلی OpenAI برای کودکان 13 تا 18 ساله به رضایت والدین نیاز دارد و استفاده از آن برای کودکان زیر 13 سال ممنوع است. )

اما تشکیل تیم جدید، که چند هفته پس از اعلام شراکت OpenAI با Common Sense Media برای همکاری در دستورالعمل‌های هوش مصنوعی مناسب برای کودکان و یافتن اولین مشتری آموزشی خود، انجام می‌شود، همچنین نشان‌دهنده احتیاط در بخشی از OpenAI در مخالفت با سیاست‌های مربوط به این موضوع است. استفاده خردسالان از هوش مصنوعی - و مطبوعات منفی.

کودکان و نوجوانان به طور فزاینده ای به ابزارهای GenAI برای کمک نه تنها در مورد تکالیف مدرسه بلکه برای مسائل شخصی روی می آورند. بر اساس یک نظرسنجی از مرکز دموکراسی و فناوری، 29٪ از بچه ها گزارش داده اند که از ChatGPT برای مقابله با اضطراب یا مسائل مربوط به سلامت روان، 22٪ برای مسائل با دوستان و 16٪ برای درگیری های خانوادگی استفاده کرده اند.

برخی این را یک خطر فزاینده می دانند.

تابستان گذشته، مدارس و کالج‌ها عجله کردند تا ChatGPT را به دلیل سرقت ادبی و ترس از اطلاعات نادرست ممنوع کنند. از آن زمان، برخی ممنوعیت های خود را لغو کردند. اما همه از پتانسیل GenAI برای خوبی متقاعد نشده‌اند و به نظرسنجی‌هایی مانند مرکز اینترنت امن‌تر بریتانیا اشاره می‌کنند که نشان می‌دهد بیش از نیمی از بچه‌ها (53 درصد) گزارش می‌دهند که افراد هم سن و سال خود را دیده‌اند که از GenAI به شیوه‌ای منفی استفاده می‌کنند - برای مثال ایجاد نادرست قابل باور اطلاعات یا تصاویری که برای ناراحت کردن کسی استفاده می شود.

در ماه سپتامبر، OpenAI مستنداتی را برای ChatGPT در کلاس‌های درس با اعلان‌ها و پرسش‌های متداول منتشر کرد تا راهنمایی‌های مربی را در مورد استفاده از GenAI به عنوان ابزار آموزشی ارائه دهد. در یکی از مقالات پشتیبانی، OpenAI اذعان کرد که ابزارهای آن، به‌ویژه ChatGPT، «ممکن است خروجی‌هایی تولید کند که برای همه مخاطبان یا همه سنین مناسب نباشد» و توصیه کرد «احتیاط» با قرار گرفتن در معرض کودکان - حتی آن‌هایی که شرایط سنی را دارند.

درخواست ها برای دستورالعمل ها در مورد استفاده کودکان از GenAI در حال افزایش است.

سازمان آموزشی، علمی و فرهنگی سازمان ملل متحد (یونسکو) در اواخر سال گذشته از دولت‌ها فشار آورد تا استفاده از GenAI در آموزش را تنظیم کنند، از جمله اجرای محدودیت‌های سنی برای کاربران و نرده‌های محافظ برای حفاظت از داده‌ها و حریم خصوصی کاربران. آدری آزولای، مدیر کل یونسکو در بیانیه ای مطبوعاتی گفت: "هوش مصنوعی مولد می تواند فرصتی فوق العاده برای توسعه انسانی باشد، اما همچنین می تواند باعث آسیب و تعصب شود." بدون مشارکت عمومی و تدابیر و مقررات لازم از سوی دولت‌ها نمی‌توان آن را در آموزش ادغام کرد. »

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است