متن خبر

آفکام برای تأیید سن بهتر، فیلترها و 40 بررسی دیگر در کد جدید ایمنی کودک آنلاین تلاش می کند

آفکام برای تأیید سن بهتر، فیلترها و 40 بررسی دیگر در کد جدید ایمنی کودک آنلاین تلاش می کند

شناسهٔ خبر: 470003 -




آفکام در حال سرکوب اینستاگرام، یوتیوب و 150000 سرویس وب دیگر برای بهبود ایمنی کودکان در فضای آنلاین است. یک کد جدید ایمنی کودکان از سوی تنظیم‌کننده اینترنت بریتانیا، شرکت‌های فناوری را وادار می‌کند تا بررسی‌های سنی بهتر، فیلتر کردن و کاهش رتبه‌بندی محتوا، و اعمال حدود ۴۰ مرحله دیگر برای ارزیابی محتوای مضر در مورد موضوعاتی مانند خودکشی، آسیب به خود و هرزه‌نگاری را اعمال کنند تا افراد زیر ۱۸ سال را کاهش دهند. دسترسی به آن در حال حاضر به صورت پیش نویس و بازخورد تا 17 جولای باز است، پیش بینی می شود اجرای کد در سال آینده پس از انتشار فینال آفکام در بهار آغاز شود. پس از انتشار آخرین کد ایمنی کودکان، شرکت‌ها سه ماه فرصت خواهند داشت تا ارزیابی‌های ریسک ایمنی کودک خود را انجام دهند.

این کد به این دلیل مهم است که می تواند تغییراتی را در نحوه رویکرد شرکت های اینترنتی به ایمنی آنلاین ایجاد کند. دولت بارها گفته است که می خواهد بریتانیا امن ترین مکان برای آنلاین شدن در جهان باشد. اینکه آیا در جلوگیری از ریختن دوغاب دیجیتال به کره چشم کودکان موفق تر از آلودگی واقعی آبراه های کشور خواهد بود یا خیر، باید دید. منتقدان این رویکرد پیشنهاد می کنند که این قانون شرکت های فناوری را با هزینه های فلج کننده انطباق بر دوش می کشد و دسترسی شهروندان به انواع خاصی از اطلاعات را دشوارتر می کند.

در همین حال، عدم رعایت قانون ایمنی آنلاین می تواند عواقب جدی برای سرویس های وب مستقر در انگلستان بزرگ و کوچک داشته باشد، جریمه هایی تا 10 درصد از گردش مالی سالانه جهانی برای تخلفات، و حتی مسئولیت کیفری برای مدیران ارشد در سناریوهای خاص.

این راهنما تمرکز زیادی بر تأیید سن قوی‌تر دارد. به دنبال پیش‌نویس دستورالعمل سال گذشته در مورد تضمین سن برای سایت‌های پورنو، فناوری‌های تأیید و تخمین سن که «دقیق، قوی، قابل اعتماد و منصفانه» تلقی می‌شوند، به عنوان بخشی از این طرح برای طیف وسیع‌تری از خدمات اعمال خواهند شد. تطبیق شناسه عکس، تخمین سن چهره و خدمات هویت دیجیتال قابل استفاده مجدد در خوداظهاری سن و محدودیت های قراردادی در استفاده از خدمات توسط کودکان وجود ندارد.

این نشان می‌دهد که بریتانیایی‌ها ممکن است نیاز داشته باشند قبل از دسترسی به طیف وسیعی از محتوای آنلاین، به اثبات سن خود عادت کنند - اگرچه نحوه پاسخگویی دقیق پلت‌فرم‌ها و سرویس‌ها به وظیفه قانونی خود برای محافظت از کودکان، تصمیم شرکت‌های خصوصی است: این ماهیت راهنمایی است. اینجا.

پیش نویس پیشنهاد همچنین قوانین خاصی را در مورد نحوه مدیریت محتوا تعیین می کند. محتوای خودکشی، خودآزاری و پورنوگرافی - که مضرترین آنها تلقی می شود - باید بطور فعال فیلتر شوند (یعنی حذف شوند) تا افراد زیر سن قانونی آن را نبینند. آفکام می‌خواهد دیگر انواع محتوا مانند خشونت کاهش یابد و در فیدهای کودکان بسیار کمتر دیده شود. آفکام همچنین بيان کرد که ممکن است انتظار داشته باشد که خدمات بر روی محتوای بالقوه مضر (مانند محتوای افسردگی) عمل کنند. این تنظیم کننده به TechCrunch بيان کرد که شرکت ها را تشویق می کند تا هنگام طراحی مداخلات ایمنی، به "حجم و شدت" آنچه کودکان در معرض آن قرار می گیرند، توجه ویژه ای داشته باشند. همه اینها مستلزم آن است که سرویس‌ها بتوانند کاربران کودک را شناسایی کنند - دوباره بررسی‌های سنی قوی را به منصه ظهور می‌رسانند.

آفکام قبلاً ایمنی کودکان را به عنوان اولین اولویت خود در اجرای قانون ایمنی آنلاین بریتانیا نام برده بود - یک دستورالعمل جامع نظارت بر محتوا و قوانین حاکمیتی که آسیب‌های مختلفی مانند کلاهبرداری آنلاین و تبلیغات کلاهبرداری را لمس می‌کند. پورن انتقام جویانه سایبری و دیپ فیک; ظلم به حیوانات؛ و آزار و اذیت سایبری و ترولینگ، و همچنین تنظیم نحوه برخورد سرویس‌ها با محتوای غیرقانونی مانند تروریسم و ​​مواد سوء استفاده جنسی از کودکان (CSAM).

لایحه ایمنی آنلاین پاییز گذشته تصویب شد و اکنون تنظیم کننده مشغول فرآیند اجرا است، که شامل طراحی و مشاوره در مورد راهنمایی های دقیق قبل از شروع اختیارات اجرایی آن پس از تصویب آیین نامه های عملی است که در حال آماده شدن است.

با برآورد Ofcom حدود 150000 سرویس وب در محدوده قانون ایمنی آنلاین، تعداد زیادی از شرکت های فناوری حداقل باید ارزیابی کنند که آیا کودکان به خدمات آنها دسترسی دارند یا خیر و در این صورت، اقداماتی را برای شناسایی و کاهش طیفی از خطرات ایمنی انجام دهند. . رگولاتور بيان کرد که در حال حاضر با برخی از پلتفرم‌های رسانه‌های اجتماعی بزرگ‌تر کار می‌کند که احتمال خطرات ایمنی در آن‌ها بیشتر است، مانند فیس‌بوک و اینستاگرام، تا به آنها کمک کند تا برنامه‌های انطباق خود را طراحی کنند.

مشاوره در مورد کد ایمنی کودکان

در مجموع، پیش‌نویس کد ایمنی کودکان آفکام شامل بیش از 40 «گام عملی» است که تنظیم‌کننده می‌خواهد سرویس‌های وب انجام دهند تا اطمینان حاصل شود که حفاظت از کودکان در عملیات آنها گنجانده شده است. طیف وسیعی از برنامه‌ها و سرویس‌ها احتمالاً در محدوده قرار خواهند گرفت - از جمله سایت‌های رسانه‌های اجتماعی محبوب، بازی‌ها و موتورهای جستجو.

«خدمات باید از مواجهه کودکان با مضرترین محتوای مربوط به خودکشی، خودآزاری، اختلالات خوردن و پورنوگرافی جلوگیری کنند. خدمات همچنین باید قرار گرفتن کودکان در معرض سایر آسیب‌های جدی، از جمله مطالب خشونت‌آمیز، نفرت‌انگیز یا توهین‌آمیز، محتوای قلدری و محتوایی که چالش‌های خطرناک را ترویج می‌کند، به حداقل برساند.

در عمل، این بدان معناست که از همه سرویس‌هایی که محتوای مضر را ممنوع نمی‌کنند و کسانی که در معرض خطر اشتراک‌گذاری آن در سرویس خود هستند، انتظار داریم که که بررسی‌های سنی بسیار موثری را برای جلوگیری از دیدن آن توسط کودکان اجرا کنند. یک بیانیه مطبوعاتی دوشنبه در برخی موارد، این به معنای جلوگیری از دسترسی کودکان به کل سایت یا برنامه است. در برخی دیگر ممکن است به معنای محدودیت سنی بخش‌هایی از سایت یا برنامه آن‌ها برای دسترسی بزرگسالان باشد، یا محدود کردن دسترسی کودکان به محتوای مضر شناسایی‌شده.»

پیشنهاد فعلی آفکام حاکی از آن است که تقریباً همه خدمات باید اقدامات کاهشی را برای محافظت از کودکان انجام دهند. فقط آنهایی که از فناوری تأیید سن یا تخمین سن استفاده می‌کنند که «بسیار مؤثر» است و برای جلوگیری از دسترسی کودکان به این سرویس (یا قسمت‌هایی از آن که محتوا برای بچه‌ها خطرآفرین است) استفاده می‌شود، مشمول وظایف ایمنی کودکان نخواهند بود.

کسانی که متوجه می شوند - برعکس - کودکان می توانند به خدمات آنها دسترسی داشته باشند، باید ارزیابی بعدی را انجام دهند که به عنوان "شرایط کاربر کودک" شناخته می شود. این امر مستلزم آن است که ارزیابی کنند که آیا «تعداد قابل توجهی» از کودکان از این سرویس استفاده می‌کنند و/یا احتمالاً جذب آن می‌شوند. آنهایی که احتمالاً کودکان به آنها دسترسی دارند باید اقداماتی را برای محافظت از کودکان در برابر آسیب انجام دهند، از جمله انجام ارزیابی خطر کودکان و اجرای اقدامات ایمنی (مانند تضمین سن، اقدامات حاکمیتی، انتخاب‌های طراحی ایمن‌تر و غیره) - و همچنین اعمال تحلیل مداوم رویکرد آنها برای اطمینان از همگام بودن با خطرات و الگوهای استفاده در حال تغییر.  

آفکام معنای "تعداد قابل توجه" را در این زمینه تعریف نمی کند - اما "حتی تعداد نسبتاً کمی از کودکان می توانند از نظر خطر آسیب قابل توجه باشند. ما پیشنهاد می‌کنیم که ارائه‌دهندگان خدمات در ارزیابی خود احتیاط کنند.» به عبارت دیگر، شرکت‌های فناوری ممکن است نتوانند از اقدامات ایمنی کودکان با این استدلال که خردسالان زیادی از وسایل آنها استفاده می‌کنند اجتناب کنند.

همچنین یک راه حل ساده برای خدماتی که در حیطه وظایف ایمنی کودک قرار می گیرند وجود ندارد. به احتمال زیاد به اقدامات متعدد همراه با ارزیابی مداوم اثربخشی نیاز است.

«هیچ اقدام واحدی وجود ندارد که سرویس‌ها بتوانند از کودکان آنلاین محافظت کنند. آفکام در تحلیل اجمالی این مشاوره نوشت، اقدامات ایمنی باید با هم کار کنند تا به ایجاد یک تجربه کلی ایمن تر برای کودکان کمک کنند. تجربیات امن‌تر برای کودکان آنلاین.»

سیستم های توصیه کننده، پیکربندی مجدد

بر اساس پیش‌نویس کد، هر سرویسی که یک سیستم توصیه‌گر را راه‌اندازی می‌کند - نوعی از مرتب‌سازی الگوریتمی محتوا، ردیابی فعالیت کاربر - و در معرض «خطر بالاتر» نمایش محتوای مضر است، باید از تضمین سنی «بسیار مؤثر» استفاده کند تا مشخص کند که چه کسی فرزندش چه کسی است. کاربران هستند. سپس آنها باید الگوریتم‌های توصیه‌کننده خود را به گونه‌ای پیکربندی کنند که مضرترین محتوا (مانند خودکشی، آسیب به خود، پورن) را از فیدهای کاربرانی که به‌عنوان کودک شناسایی کرده‌اند، فیلتر کنند و «مشاهده و برجسته بودن» سایر محتوای مضر را کاهش دهند.

بر اساس قانون ایمنی آنلاین، خودکشی، آسیب به خود، اختلالات خوردن و هرزه‌نگاری «محتوای اولویت اصلی» طبقه‌بندی می‌شوند. چالش ها و مواد مضر؛ سوء استفاده و آزار و اذیت افراد با ویژگی های محافظت شده؛ خشونت واقعی یا واقعی علیه مردم یا حیوانات؛ و دستورالعمل‌های اعمال خشونت‌آمیز جدی همگی «محتوای اولویت‌دار» طبقه‌بندی می‌شوند. سرویس‌های وب همچنین ممکن است خطرات محتوای دیگری را که احساس می‌کنند باید به عنوان بخشی از ارزیابی ریسک‌شان عمل کنند، شناسایی کنند.

در راهنمای پیشنهادی، آفکام از کودکان می‌خواهد که بتوانند مستقیماً به فید توصیه‌کننده بازخورد منفی ارائه دهند - تا بتوانند بهتر یاد بگیرند که چه محتوایی را نیز نمی‌خواهند ببینند.

تعدیل محتوا یکی دیگر از تمرکزهای مهم در پیش نویس کد است، به طوری که تنظیم کننده تحقیقاتی را برجسته می کند که نشان می دهد محتوای مضر برای کودکان در بسیاری از خدمات در مقیاس موجود است و به گفته او نشان می دهد تلاش های فعلی سرویس ها ناکافی است.

پیشنهاد آن توصیه می‌کند که همه سرویس‌های «کاربر به کاربر» (یعنی سرویس‌هایی که به کاربران اجازه می‌دهند با یکدیگر ارتباط برقرار کنند، از جمله از طریق عملکردهای چت یا از طریق قرار گرفتن در معرض بارگذاری محتوا) باید دارای سیستم‌ها و فرآیندهای تعدیل محتوا باشند که از انجام «اقدام سریع» اطمینان حاصل کنند. علیه محتوای مضر برای کودکان پیشنهاد Ofcom حاوی هیچ انتظاری نیست که از ابزارهای خودکار برای شناسایی و تحلیل محتوا استفاده شود. اما تنظیم‌کننده می‌نویسد که آگاه است که پلتفرم‌های بزرگ اغلب از هوش مصنوعی برای تعدیل محتوا در مقیاس استفاده می‌کنند و او میگوید که در حال «کاوش» است که چگونه اقدامات مربوط به ابزارهای خودکار را در کدهای خود در آینده بگنجاند.

آفکام همچنین پیشنهاد کرد: "پیش بینی می شود موتورهای جستجو اقدامات مشابهی انجام دهند." «و در جایی که تصور می‌شود کاربر کودک است، سرویس‌های جستجوی بزرگ باید تنظیمات «جستجوی ایمن» را اجرا کنند که غیرفعال نمی‌شود و باید مضرترین محتوا را فیلتر کند.»

در ادامه می‌افزاید: «سایر اقدامات گسترده‌تر نیاز به سیاست‌های مشخصی از سوی سرویس‌ها در مورد نوع محتوای مجاز، نحوه اولویت‌بندی محتوا برای بازبینی، و برای تیم‌های نظارتی محتوا دارد که منابع خوبی داشته باشند و آموزش ببینند.»

پیش‌نویس کد همچنین شامل اقداماتی است که امیدوار است «حکمرانی و پاسخگویی قوی» در مورد ایمنی کودکان در شرکت‌های فناوری را تضمین کند. «اینها شامل داشتن یک شخص نامگذاری شده برای رعایت وظایف ایمنی کودکان است. تحلیل سالانه بدن ارشد از تمام فعالیت‌های مدیریت ریسک مربوط به ایمنی کودکان؛ آفکام نوشت.

متا، مالک فیس بوک و اینستاگرام، مکرراً توسط وزرا در طول تدوین این قانون به دلیل داشتن نگرش سست نسبت به حمایت از کودکان مورد توجه قرار گرفت. بزرگ‌ترین پلت‌فرم‌ها ممکن است بزرگ‌ترین خطرات ایمنی را به همراه داشته باشند - و پس "گسترده‌ترین انتظارات" را در مورد انطباق دارند - اما هیچ مجوز رایگان بر اساس اندازه وجود ندارد.

این سازمان هشدار داد: « خدمات نمی‌توانند صرفاً به این دلیل که بسیار گران یا ناخوشایند است از انجام اقداماتی برای محافظت از کودکان خودداری کنند - حفاظت از کودکان یک اولویت است و همه خدمات، حتی کوچک‌ترین آنها، باید در نتیجه پیشنهادات ما اقدام کنند.»

سایر اقدامات ایمنی پیشنهادی برجسته آفکام شامل پیشنهاد خدمات ارائه انتخاب و پشتیبانی بیشتر برای کودکان و بزرگسالانی است که از آنها مراقبت می کنند - مانند داشتن شرایط خدمات "روشن و قابل دسترس". و اطمینان از اینکه کودکان می توانند به راحتی مطالب را گزارش کنند یا شکایت کنند.

پیش نویس دستورالعمل همچنین پیشنهاد می کند که از کودکان حمایت می شود ابزارهایی که به آنها امکان می دهد کنترل بیشتری بر تعاملات آنلاین خود داشته باشند - چنین گزینه ای برای رد دعوت های گروهی. مسدود کردن و بی صدا کردن حساب های کاربری؛ یا کامنت روی پست های خودشان را غیرفعال کنند.

اداره حفاظت از داده‌های بریتانیا، دفتر کمیسیون اطلاعات، انتظار دارد از سپتامبر 2021 با کد طراحی کودکان متناسب با سن خود مطابقت داشته باشد، پس ممکن است برخی از همپوشانی‌ها وجود داشته باشد. برای مثال آفکام اشاره می‌کند که ارائه‌دهندگان خدمات ممکن است دسترسی کودکان را برای یک هدف انطباق با حفاظت از داده‌ها ارزیابی کرده باشند – و اضافه می‌کند که «ممکن است بتوانند از شواهد و تحلیل‌های یکسانی برای هر دو استفاده کنند».

ورق زدن اسکریپت ایمنی کودک؟

رگولاتور از شرکت‌های فناوری می‌خواهد در مورد مسائل ایمنی فعال باشند و او میگوید که در استفاده از طیف وسیعی از قدرت‌های اجرایی خود پس از ایجاد تردید دریغ نمی‌کنند. پیام اساسی برای شرکت های فناوری این است که خانه خود را زودتر مرتب کنید یا عواقب پرهزینه ای را به دنبال داشته باشید.

در بیانیه مطبوعاتی هشدار داد: «ما واضح هستیم که شرکت‌هایی که از وظایف قانونی خود کوتاهی می‌کنند، می‌توانند با اقدامات اجرایی، از جمله جریمه‌های قابل توجه مواجه شوند».

دولت نیز به سختی پشت فراخوان آفکام برای پاسخ فعالانه پارو می زند. میشل دونلان، وزیر فناوری، امروز در بیانیه‌ای گفت: «پیام من برای پلتفرم‌ها این است که با ما تعامل داشته باشید و آماده شوید. منتظر اجرا و جریمه های سنگین نباشید - برای انجام مسئولیت های خود قدم بردارید و همین الان اقدام کنید.

«دولت آفکام را مأمور ارائه این قانون کرد و امروز تنظیم کننده روشن است. پلتفرم‌ها باید انواع بررسی‌های سنی را که جوانان در دنیای واقعی تجربه می‌کنند معرفی کنند و الگوریتم‌هایی را که به آسانی به این معنی است که آنها به صورت آنلاین با مطالب مضر مواجه می‌شوند را تحلیل کنند. هنگامی که این اقدامات انجام شود، تغییر اساسی در نحوه تجربه کودکان در بریتانیا از دنیای آنلاین ایجاد خواهد کرد.

من می خواهم به والدین اطمینان دهم که محافظت از کودکان اولویت اول ما است و این قوانین به حفظ امنیت خانواده های آنها کمک می کند.

آفکام بيان کرد که از اجرای قانون ایمنی آنلاین خود می‌خواهد آنچه را که به عنوان «بازنشانی» برای ایمنی کودکان آنلاین ارائه می‌کند - بيان کرد که معتقد است رویکردی که طراحی می‌کند، با نظرات چندین ذینفع (از جمله هزاران کودک و جوان) "تفاوت قابل توجهی" در تجربیات آنلاین بچه ها ایجاد کنید.

با توجه به انتظارات خود، بيان کرد که می‌خواهد کتاب قوانین، اسکریپت ایمنی آنلاین را تغییر دهد تا کودکان «معمولاً» نتوانند به پورنو دسترسی داشته باشند و از «دیدن، و توصیه‌شده، محتوای بالقوه مضر» محافظت شوند.

فراتر از تأیید هویت و مدیریت محتوا، این سازمان همچنین می‌خواهد قانون تضمین کند که کودکان بدون رضایت آنها به چت‌های گروهی اضافه نخواهند شد. و می‌خواهد با دیدن محتوای مضر شکایت را برای کودکان آسان‌تر کند و «اطمینان بیشتری» داشته باشد که به شکایت‌هایشان رسیدگی می‌شود.

همانطور که مطرح است، برعکس آن چیزی است که بچه‌های بریتانیا در حال حاضر آنلاین تجربه می‌کنند، به نظر می‌رسد که Ofcom به تحقیقاتی در یک دوره چهار هفته‌ای اشاره می‌کند که در آن اکثریت (62%) از کودکان 13 تا 17 ساله گزارش داده‌اند که با آسیب آنلاین مواجه شده‌اند و بسیاری می‌گویند که آن را در نظر دارند. بخشی "غیرقابل اجتناب" از زندگی آنلاین آنه است.

آفکام دریافت که قرار گرفتن در معرض محتوای خشونت‌آمیز از مدرسه ابتدایی شروع می‌شود، و کودکانی که با محتوای تبلیغ‌کننده خودکشی یا خودآزاری مواجه می‌شوند، آن را به عنوان «پربار» در رسانه‌های اجتماعی توصیف می‌کنند. و در معرض قرار گرفتن مکرر که به "عادی سازی و حساسیت زدایی جمعی" کمک می کند. پس ، کار بزرگی در پیش روی تنظیم‌کننده است تا فضای آنلاینی را که بچه‌ها با آن مواجه می‌شوند، تغییر دهد.

علاوه بر کد ایمنی کودکان، راهنمایی‌های آن برای خدمات شامل پیش‌نویس ثبت خطر کودکان می‌شود که به گفته آن‌ها اطلاعات بیشتری در مورد چگونگی آشکار شدن خطرات آسیب برای کودکان به صورت آنلاین ارائه می‌کند. و پیش‌نویس راهنمای آسیب‌ها که نمونه‌ها و نوع محتوایی را که برای کودکان مضر می‌داند بیان می‌کند. نسخه‌های نهایی تمام راهنمایی‌های آن، فرآیند مشاوره را دنبال می‌کند، وظیفه قانونی آفکام. همچنین به TechCrunch بيان کرد که اطلاعات بیشتری را ارائه می‌کند و ابزارهای دیجیتالی را برای پشتیبانی بیشتر از انطباق سرویس‌ها قبل از شروع اجرای قانون راه‌اندازی می‌کند.

آفکام گفت : "صدای کودکان در مرکز رویکرد ما در طراحی کدها بوده است. " در طی 12 ماه گذشته، ما از بیش از 15000 جوان در مورد زندگی آنلاین خود شنیده ایم و با بیش از 7000 والدین و همچنین متخصصانی که با کودکان کار می کنند صحبت کرده ایم.

"به عنوان بخشی از روند مشاوره خود، ما در حال برگزاری یک سری گفتگوهای متمرکز با کودکان از سراسر بریتانیا هستیم تا نظرات آنها را در مورد پیشنهادات خود در یک محیط امن تحلیل کنیم. ما همچنین می‌خواهیم از گروه‌های دیگر از جمله والدین و مراقبان، صنعت فناوری و سازمان‌های جامعه مدنی بشنویم - مانند موسسات خیریه و متخصصان متخصص که در حفاظت و ارتقای منافع کودکان دخیل هستند.»

رگولاتور اخیراً برنامه‌های خود را برای راه‌اندازی یک مشاوره اضافی در اواخر سال جاری اعلام کرده است که او میگوید چگونه ابزارهای خودکار، با نام فناوری‌های هوش مصنوعی، می‌توانند در فرآیندهای تعدیل محتوا به کار گرفته شوند تا به طور فعال محتوای غیرقانونی و مضرترین محتوای برای کودکان را شناسایی کنند - مانند مواردی که قبلاً شناسایی نشده‌اند. CSAM و محتوای تشویق کننده خودکشی و خودآزاری.

با این حال، امروزه هیچ مدرک روشنی وجود ندارد که نشان دهد هوش مصنوعی قادر خواهد بود کارایی تشخیص چنین محتوایی را بدون ایجاد حجم زیادی از (مضر) مثبت کاذب بهبود بخشد. پس باید دید که آیا آفکام برای استفاده بیشتر از چنین ابزارهای فناوری با توجه به خطراتی که تکیه بر اتوماسیون در این زمینه می‌تواند نتیجه معکوس داشته باشد، تلاش خواهد کرد یا خیر.

در سال‌های اخیر، تلاش چند ساله وزارت کشور با هدف تقویت توسعه ابزارهای هوش مصنوعی به اصطلاح «فناوری ایمنی» - به‌ویژه برای اسکن پیام‌های رمزگذاری‌شده سرتاسر برای CSAM - به یک ارزیابی مستقل منفور منجر شد که هشدار داد. چنین فناوری هایی برای هدف مناسب نیستند و تهدیدی وجودی برای حریم خصوصی افراد و محرمانه بودن ارتباطات هستند.

سوالی که ممکن است والدین داشته باشند این است که در 18 سالگی کودک چه اتفاقی می افتد، زمانی که این کد دیگر اعمال نمی شود؟ اگر تمام این حمایت‌ها که تجربیات آنلاین کودکان را در بر می‌گیرد یک شبه پایان یابد، ممکن است خطر (هنوز) جوانان تحت تأثیر قرار گرفتن ناگهانی در معرض محتوای مضری که تا آن زمان از آن محافظت شده‌اند، وجود داشته باشد. این نوع انتقال محتوای تکان دهنده خود می تواند خطر بلوغ آنلاین جدیدی را برای نوجوانان ایجاد کند.

آفکام به ما بيان کرد که پیشنهادات آتی برای پلتفرم های بزرگتر می تواند برای کاهش این نوع ریسک معرفی شود.

هنگامی که از ما در مورد این سوال پرسیدیم، یکی از سخنگویان آفکام پاسخ داد: «کودکان این محتوای مضر را به عنوان بخشی عادی از تجربه آنلاین می‌پذیرند - با محافظت از آنها در هنگام کودکی از این محتوا، ما همچنین انتظارات آنها را برای تجربه آنلاین مناسب تغییر می‌دهیم. . «هیچ کاربری، صرف نظر از سنش، نباید بپذیرد که فید خود با محتوای مضر پر شود. مشاوره فاز 3 ما شامل پیشنهادات بیشتر در مورد اینکه چگونه بزرگترین و پرخطرترین خدمات می تواند به همه کاربران قدرت دهد تا کنترل بیشتری بر محتوایی که آنلاین می بینند را در اختیار بگیرند، خواهد بود. ما قصد داریم این مشاوره را در اوایل سال آینده راه اندازی کنیم.»

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است