تحت نظارت فعالان - و والدین - OpenAI تیم جدیدی را برای مطالعه راههای جلوگیری از سوء استفاده یا سوء استفاده از ابزارهای هوش مصنوعی خود توسط کودکان تشکیل داده است.
OpenAI در یک فهرست شغلی جدید در صفحه شغلی خود، وجود یک تیم ایمنی کودک را فاش می کند، که این شرکت می گوید در حال همکاری با گروه های خط مشی پلت فرم، حقوقی و تحقیقاتی در OpenAI و همچنین شرکای خارجی برای مدیریت "فرآیندها، حوادث و تحلیل ها" است. ” مربوط به کاربران زیر سن قانونی
این تیم در حال حاضر به دنبال استخدام یک متخصص اجرای ایمنی کودکان است که مسئول اعمال خطمشیهای OpenAI در زمینه محتوای تولید شده توسط هوش مصنوعی و کار بر روی فرآیندهای تحلیل مرتبط با محتوای «حساس» (احتمالاً مربوط به کودکان) است.
فروشندگان فناوری با اندازه معین، مقدار مناسبی از منابع را به پیروی از قوانینی مانند قانون حفاظت از حریم خصوصی آنلاین کودکان ایالات متحده اختصاص میدهند، که کنترلهایی را در مورد اینکه بچهها میتوانند - و نمیتوانند - در وب و همچنین به چه نوع شرکتهای دادهای دسترسی داشته باشند، کنترل میکند. می تواند روی آنها جمع آوری کند. پس این واقعیت که OpenAI متخصصان ایمنی کودکان را استخدام میکند، کاملاً تعجبآور نیست، بهویژه اگر این شرکت انتظار دارد روزی یک پایگاه کاربران زیر سن قانونی قابل توجهی داشته باشد. (شرایط استفاده فعلی OpenAI برای کودکان 13 تا 18 ساله به رضایت والدین نیاز دارد و استفاده از آن برای کودکان زیر 13 سال ممنوع است. )
اما تشکیل تیم جدید، که چند هفته پس از اعلام شراکت OpenAI با Common Sense Media برای همکاری در دستورالعملهای هوش مصنوعی مناسب برای کودکان و یافتن اولین مشتری آموزشی خود، انجام میشود، همچنین نشاندهنده احتیاط در بخشی از OpenAI در مخالفت با سیاستهای مربوط به این موضوع است. استفاده خردسالان از هوش مصنوعی - و مطبوعات منفی.
کودکان و نوجوانان به طور فزاینده ای به ابزارهای GenAI برای کمک نه تنها در مورد تکالیف مدرسه بلکه برای مسائل شخصی روی می آورند. بر اساس یک نظرسنجی از مرکز دموکراسی و فناوری، 29٪ از بچه ها گزارش داده اند که از ChatGPT برای مقابله با اضطراب یا مسائل مربوط به سلامت روان، 22٪ برای مسائل با دوستان و 16٪ برای درگیری های خانوادگی استفاده کرده اند.
برخی این را یک خطر فزاینده می دانند.
تابستان گذشته، مدارس و کالجها عجله کردند تا ChatGPT را به دلیل سرقت ادبی و ترس از اطلاعات نادرست ممنوع کنند. از آن زمان، برخی ممنوعیت های خود را لغو کردند. اما همه از پتانسیل GenAI برای خوبی متقاعد نشدهاند و به نظرسنجیهایی مانند مرکز اینترنت امنتر بریتانیا اشاره میکنند که نشان میدهد بیش از نیمی از بچهها (53 درصد) گزارش میدهند که افراد هم سن و سال خود را دیدهاند که از GenAI به شیوهای منفی استفاده میکنند - برای مثال ایجاد نادرست قابل باور اطلاعات یا تصاویری که برای ناراحت کردن کسی استفاده می شود.
در ماه سپتامبر، OpenAI مستنداتی را برای ChatGPT در کلاسهای درس با اعلانها و پرسشهای متداول منتشر کرد تا راهنماییهای مربی را در مورد استفاده از GenAI به عنوان ابزار آموزشی ارائه دهد. در یکی از مقالات پشتیبانی، OpenAI اذعان کرد که ابزارهای آن، بهویژه ChatGPT، «ممکن است خروجیهایی تولید کند که برای همه مخاطبان یا همه سنین مناسب نباشد» و توصیه کرد «احتیاط» با قرار گرفتن در معرض کودکان - حتی آنهایی که شرایط سنی را دارند.
درخواست ها برای دستورالعمل ها در مورد استفاده کودکان از GenAI در حال افزایش است.
سازمان آموزشی، علمی و فرهنگی سازمان ملل متحد (یونسکو) در اواخر سال گذشته از دولتها فشار آورد تا استفاده از GenAI در آموزش را تنظیم کنند، از جمله اجرای محدودیتهای سنی برای کاربران و نردههای محافظ برای حفاظت از دادهها و حریم خصوصی کاربران. آدری آزولای، مدیر کل یونسکو در بیانیه ای مطبوعاتی گفت: "هوش مصنوعی مولد می تواند فرصتی فوق العاده برای توسعه انسانی باشد، اما همچنین می تواند باعث آسیب و تعصب شود." بدون مشارکت عمومی و تدابیر و مقررات لازم از سوی دولتها نمیتوان آن را در آموزش ادغام کرد. »
خبرکاو
ارسال نظر