متن خبر

OpenAI تیم جدیدی برای مطالعه در مورد ایمنی کودکان تشکیل داد

OpenAI تیم جدیدی برای مطالعه در مورد ایمنی کودکان تشکیل داد

شناسهٔ خبر: 449059 -




OpenAI، استارتاپ سازنده ChatGPT، با وجود نظارت فعالان این حوزه و همچنین والدین، تیم جدیدی را تشکیل داده است که هدف آن مطالعه در مورد راه‌های جلوگیری از سوء استفاده از کودکان با کمک ابزارهای هوش مصنوعی است.

براساس گزارش تک کرانچ، OpenAI در صفحه آگهی‌های شغلی خود به تیم امنیت کودکان اشاره کرده است و او میگوید که این تیم با گروه‌های حقوقی، تحقیقاتی و قانون‌گذار OpenAI و همچنین شرکای خارجی همکاری می‌کند تا بتواند «فرایندها و حوادث» مربوط به کاربران زیر سن قانونی را مدیریت کند.

در حال حاضر این تیم به دنبال استخدام یک متخصص اجرای ایمنی کودکان است که وظیفه او اعمال سیاست‌های OpenAI در زمینه محتوای تولید‌شده توسط هوش مصنوعی و همچنین کار روی فرایندهای تحلیل مرتبط با محتوای «حساس» (احتمالاً مربوط به کودکان) است.

کودکان و نوجوانان در حال حاضر بیشتر از قبل برای انجام تکالیف خود و همچنین مسائل شخصی از ابزارهای هوش مصنوعی استفاده می‌کنند. براساس یک نظرسنجی که توسط مرکز دموکراسی و فناوری انجام شده است، 20 درصد کودکان از ChatGPT برای مقابله با اضطراب یا مشکلات مربوط به سلامت روان، 22 درصد برای مشکلات خود با دوستان و 16 درصد برای درگیری‌های خانوادگی کمک گرفته‌اند.

با این حال، برخی افراد از این موضوع به‌عنوان یک زنگ خطر یاد کرده‌اند.

تابستان گذشته، برخی مدارس و کالج‌ها تلاش کردند تا استفاده از ChatGPT را به دلیل سرقت دبی و ترس ارائه اطلاعات نادرست ممنوع کنند. هرچند از آن زمان تاکنون برخی از این محدودیت‌ها برداشته شد‌اند، اما پتانسیل ابزارهای هوش مصنوعی برای ایجاد اطلاعات نادرست یا تصاویری که باعث ناراحتی دیگران می‌شود، همیشه عامل نگرانی بوده است.

OpenAI که با انتشار مدل هوش مصنوعی ChatGPT نام خود را به سر زبان‌ها انداخت، در چند وقت گذشته با نگرانی‌های زیادی از سوی فعالان و کارشناسان مواجه شده است. این شرکت در همین راستا اخیراً اعلام کرده بود برای تشخیص محتواهای ساختگی، به تصاویر DALL-E 3 واترمارک اضافه می‌کند.

خبرکاو

برچسب‌ها

ارسال نظر

دیدگاه‌ها بسته شده‌اند.


تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است