آفکام برای تأیید سن بهتر، فیلترها و 40 بررسی دیگر در کد جدید ایمنی کودک آنلاین تلاش می کند
آفکام در حال سرکوب اینستاگرام، یوتیوب و 150000 سرویس وب دیگر برای بهبود ایمنی کودکان در فضای آنلاین است. یک کد جدید ایمنی کودکان از سوی تنظیمکننده اینترنت بریتانیا، شرکتهای فناوری را وادار میکند تا بررسیهای سنی بهتر، فیلتر کردن و کاهش رتبهبندی محتوا، و اعمال حدود ۴۰ مرحله دیگر برای ارزیابی محتوای مضر در مورد موضوعاتی مانند خودکشی، آسیب به خود و هرزهنگاری را اعمال کنند تا افراد زیر ۱۸ سال را کاهش دهند. دسترسی به آن در حال حاضر به صورت پیش نویس و بازخورد تا 17 جولای باز است، پیش بینی می شود اجرای کد در سال آینده پس از انتشار فینال آفکام در بهار آغاز شود. پس از انتشار آخرین کد ایمنی کودکان، شرکتها سه ماه فرصت خواهند داشت تا ارزیابیهای ریسک ایمنی کودک خود را انجام دهند.
این کد به این دلیل مهم است که می تواند تغییراتی را در نحوه رویکرد شرکت های اینترنتی به ایمنی آنلاین ایجاد کند. دولت بارها گفته است که می خواهد بریتانیا امن ترین مکان برای آنلاین شدن در جهان باشد. اینکه آیا در جلوگیری از ریختن دوغاب دیجیتال به کره چشم کودکان موفق تر از آلودگی واقعی آبراه های کشور خواهد بود یا خیر، باید دید. منتقدان این رویکرد پیشنهاد می کنند که این قانون شرکت های فناوری را با هزینه های فلج کننده انطباق بر دوش می کشد و دسترسی شهروندان به انواع خاصی از اطلاعات را دشوارتر می کند.
در همین حال، عدم رعایت قانون ایمنی آنلاین می تواند عواقب جدی برای سرویس های وب مستقر در انگلستان بزرگ و کوچک داشته باشد، جریمه هایی تا 10 درصد از گردش مالی سالانه جهانی برای تخلفات، و حتی مسئولیت کیفری برای مدیران ارشد در سناریوهای خاص.
این راهنما تمرکز زیادی بر تأیید سن قویتر دارد. به دنبال پیشنویس دستورالعمل سال گذشته در مورد تضمین سن برای سایتهای پورنو، فناوریهای تأیید و تخمین سن که «دقیق، قوی، قابل اعتماد و منصفانه» تلقی میشوند، به عنوان بخشی از این طرح برای طیف وسیعتری از خدمات اعمال خواهند شد. تطبیق شناسه عکس، تخمین سن چهره و خدمات هویت دیجیتال قابل استفاده مجدد در خوداظهاری سن و محدودیت های قراردادی در استفاده از خدمات توسط کودکان وجود ندارد.
این نشان میدهد که بریتانیاییها ممکن است نیاز داشته باشند قبل از دسترسی به طیف وسیعی از محتوای آنلاین، به اثبات سن خود عادت کنند - اگرچه نحوه پاسخگویی دقیق پلتفرمها و سرویسها به وظیفه قانونی خود برای محافظت از کودکان، تصمیم شرکتهای خصوصی است: این ماهیت راهنمایی است. اینجا.
پیش نویس پیشنهاد همچنین قوانین خاصی را در مورد نحوه مدیریت محتوا تعیین می کند. محتوای خودکشی، خودآزاری و پورنوگرافی - که مضرترین آنها تلقی می شود - باید بطور فعال فیلتر شوند (یعنی حذف شوند) تا افراد زیر سن قانونی آن را نبینند. آفکام میخواهد دیگر انواع محتوا مانند خشونت کاهش یابد و در فیدهای کودکان بسیار کمتر دیده شود. آفکام همچنین بيان کرد که ممکن است انتظار داشته باشد که خدمات بر روی محتوای بالقوه مضر (مانند محتوای افسردگی) عمل کنند. این تنظیم کننده به TechCrunch بيان کرد که شرکت ها را تشویق می کند تا هنگام طراحی مداخلات ایمنی، به "حجم و شدت" آنچه کودکان در معرض آن قرار می گیرند، توجه ویژه ای داشته باشند. همه اینها مستلزم آن است که سرویسها بتوانند کاربران کودک را شناسایی کنند - دوباره بررسیهای سنی قوی را به منصه ظهور میرسانند.
آفکام قبلاً ایمنی کودکان را به عنوان اولین اولویت خود در اجرای قانون ایمنی آنلاین بریتانیا نام برده بود - یک دستورالعمل جامع نظارت بر محتوا و قوانین حاکمیتی که آسیبهای مختلفی مانند کلاهبرداری آنلاین و تبلیغات کلاهبرداری را لمس میکند. پورن انتقام جویانه سایبری و دیپ فیک; ظلم به حیوانات؛ و آزار و اذیت سایبری و ترولینگ، و همچنین تنظیم نحوه برخورد سرویسها با محتوای غیرقانونی مانند تروریسم و مواد سوء استفاده جنسی از کودکان (CSAM).
لایحه ایمنی آنلاین پاییز گذشته تصویب شد و اکنون تنظیم کننده مشغول فرآیند اجرا است، که شامل طراحی و مشاوره در مورد راهنمایی های دقیق قبل از شروع اختیارات اجرایی آن پس از تصویب آیین نامه های عملی است که در حال آماده شدن است.
با برآورد Ofcom حدود 150000 سرویس وب در محدوده قانون ایمنی آنلاین، تعداد زیادی از شرکت های فناوری حداقل باید ارزیابی کنند که آیا کودکان به خدمات آنها دسترسی دارند یا خیر و در این صورت، اقداماتی را برای شناسایی و کاهش طیفی از خطرات ایمنی انجام دهند. . رگولاتور بيان کرد که در حال حاضر با برخی از پلتفرمهای رسانههای اجتماعی بزرگتر کار میکند که احتمال خطرات ایمنی در آنها بیشتر است، مانند فیسبوک و اینستاگرام، تا به آنها کمک کند تا برنامههای انطباق خود را طراحی کنند.
مشاوره در مورد کد ایمنی کودکان
در مجموع، پیشنویس کد ایمنی کودکان آفکام شامل بیش از 40 «گام عملی» است که تنظیمکننده میخواهد سرویسهای وب انجام دهند تا اطمینان حاصل شود که حفاظت از کودکان در عملیات آنها گنجانده شده است. طیف وسیعی از برنامهها و سرویسها احتمالاً در محدوده قرار خواهند گرفت - از جمله سایتهای رسانههای اجتماعی محبوب، بازیها و موتورهای جستجو.
«خدمات باید از مواجهه کودکان با مضرترین محتوای مربوط به خودکشی، خودآزاری، اختلالات خوردن و پورنوگرافی جلوگیری کنند. خدمات همچنین باید قرار گرفتن کودکان در معرض سایر آسیبهای جدی، از جمله مطالب خشونتآمیز، نفرتانگیز یا توهینآمیز، محتوای قلدری و محتوایی که چالشهای خطرناک را ترویج میکند، به حداقل برساند.
در عمل، این بدان معناست که از همه سرویسهایی که محتوای مضر را ممنوع نمیکنند و کسانی که در معرض خطر اشتراکگذاری آن در سرویس خود هستند، انتظار داریم که که بررسیهای سنی بسیار موثری را برای جلوگیری از دیدن آن توسط کودکان اجرا کنند. یک بیانیه مطبوعاتی دوشنبه در برخی موارد، این به معنای جلوگیری از دسترسی کودکان به کل سایت یا برنامه است. در برخی دیگر ممکن است به معنای محدودیت سنی بخشهایی از سایت یا برنامه آنها برای دسترسی بزرگسالان باشد، یا محدود کردن دسترسی کودکان به محتوای مضر شناساییشده.»
پیشنهاد فعلی آفکام حاکی از آن است که تقریباً همه خدمات باید اقدامات کاهشی را برای محافظت از کودکان انجام دهند. فقط آنهایی که از فناوری تأیید سن یا تخمین سن استفاده میکنند که «بسیار مؤثر» است و برای جلوگیری از دسترسی کودکان به این سرویس (یا قسمتهایی از آن که محتوا برای بچهها خطرآفرین است) استفاده میشود، مشمول وظایف ایمنی کودکان نخواهند بود.
کسانی که متوجه می شوند - برعکس - کودکان می توانند به خدمات آنها دسترسی داشته باشند، باید ارزیابی بعدی را انجام دهند که به عنوان "شرایط کاربر کودک" شناخته می شود. این امر مستلزم آن است که ارزیابی کنند که آیا «تعداد قابل توجهی» از کودکان از این سرویس استفاده میکنند و/یا احتمالاً جذب آن میشوند. آنهایی که احتمالاً کودکان به آنها دسترسی دارند باید اقداماتی را برای محافظت از کودکان در برابر آسیب انجام دهند، از جمله انجام ارزیابی خطر کودکان و اجرای اقدامات ایمنی (مانند تضمین سن، اقدامات حاکمیتی، انتخابهای طراحی ایمنتر و غیره) - و همچنین اعمال تحلیل مداوم رویکرد آنها برای اطمینان از همگام بودن با خطرات و الگوهای استفاده در حال تغییر.
آفکام معنای "تعداد قابل توجه" را در این زمینه تعریف نمی کند - اما "حتی تعداد نسبتاً کمی از کودکان می توانند از نظر خطر آسیب قابل توجه باشند. ما پیشنهاد میکنیم که ارائهدهندگان خدمات در ارزیابی خود احتیاط کنند.» به عبارت دیگر، شرکتهای فناوری ممکن است نتوانند از اقدامات ایمنی کودکان با این استدلال که خردسالان زیادی از وسایل آنها استفاده میکنند اجتناب کنند.
همچنین یک راه حل ساده برای خدماتی که در حیطه وظایف ایمنی کودک قرار می گیرند وجود ندارد. به احتمال زیاد به اقدامات متعدد همراه با ارزیابی مداوم اثربخشی نیاز است.
«هیچ اقدام واحدی وجود ندارد که سرویسها بتوانند از کودکان آنلاین محافظت کنند. آفکام در تحلیل اجمالی این مشاوره نوشت، اقدامات ایمنی باید با هم کار کنند تا به ایجاد یک تجربه کلی ایمن تر برای کودکان کمک کنند. تجربیات امنتر برای کودکان آنلاین.»
سیستم های توصیه کننده، پیکربندی مجدد
بر اساس پیشنویس کد، هر سرویسی که یک سیستم توصیهگر را راهاندازی میکند - نوعی از مرتبسازی الگوریتمی محتوا، ردیابی فعالیت کاربر - و در معرض «خطر بالاتر» نمایش محتوای مضر است، باید از تضمین سنی «بسیار مؤثر» استفاده کند تا مشخص کند که چه کسی فرزندش چه کسی است. کاربران هستند. سپس آنها باید الگوریتمهای توصیهکننده خود را به گونهای پیکربندی کنند که مضرترین محتوا (مانند خودکشی، آسیب به خود، پورن) را از فیدهای کاربرانی که بهعنوان کودک شناسایی کردهاند، فیلتر کنند و «مشاهده و برجسته بودن» سایر محتوای مضر را کاهش دهند.
بر اساس قانون ایمنی آنلاین، خودکشی، آسیب به خود، اختلالات خوردن و هرزهنگاری «محتوای اولویت اصلی» طبقهبندی میشوند. چالش ها و مواد مضر؛ سوء استفاده و آزار و اذیت افراد با ویژگی های محافظت شده؛ خشونت واقعی یا واقعی علیه مردم یا حیوانات؛ و دستورالعملهای اعمال خشونتآمیز جدی همگی «محتوای اولویتدار» طبقهبندی میشوند. سرویسهای وب همچنین ممکن است خطرات محتوای دیگری را که احساس میکنند باید به عنوان بخشی از ارزیابی ریسکشان عمل کنند، شناسایی کنند.
در راهنمای پیشنهادی، آفکام از کودکان میخواهد که بتوانند مستقیماً به فید توصیهکننده بازخورد منفی ارائه دهند - تا بتوانند بهتر یاد بگیرند که چه محتوایی را نیز نمیخواهند ببینند.
تعدیل محتوا یکی دیگر از تمرکزهای مهم در پیش نویس کد است، به طوری که تنظیم کننده تحقیقاتی را برجسته می کند که نشان می دهد محتوای مضر برای کودکان در بسیاری از خدمات در مقیاس موجود است و به گفته او نشان می دهد تلاش های فعلی سرویس ها ناکافی است.
پیشنهاد آن توصیه میکند که همه سرویسهای «کاربر به کاربر» (یعنی سرویسهایی که به کاربران اجازه میدهند با یکدیگر ارتباط برقرار کنند، از جمله از طریق عملکردهای چت یا از طریق قرار گرفتن در معرض بارگذاری محتوا) باید دارای سیستمها و فرآیندهای تعدیل محتوا باشند که از انجام «اقدام سریع» اطمینان حاصل کنند. علیه محتوای مضر برای کودکان پیشنهاد Ofcom حاوی هیچ انتظاری نیست که از ابزارهای خودکار برای شناسایی و تحلیل محتوا استفاده شود. اما تنظیمکننده مینویسد که آگاه است که پلتفرمهای بزرگ اغلب از هوش مصنوعی برای تعدیل محتوا در مقیاس استفاده میکنند و او میگوید که در حال «کاوش» است که چگونه اقدامات مربوط به ابزارهای خودکار را در کدهای خود در آینده بگنجاند.
آفکام همچنین پیشنهاد کرد: "پیش بینی می شود موتورهای جستجو اقدامات مشابهی انجام دهند." «و در جایی که تصور میشود کاربر کودک است، سرویسهای جستجوی بزرگ باید تنظیمات «جستجوی ایمن» را اجرا کنند که غیرفعال نمیشود و باید مضرترین محتوا را فیلتر کند.»
در ادامه میافزاید: «سایر اقدامات گستردهتر نیاز به سیاستهای مشخصی از سوی سرویسها در مورد نوع محتوای مجاز، نحوه اولویتبندی محتوا برای بازبینی، و برای تیمهای نظارتی محتوا دارد که منابع خوبی داشته باشند و آموزش ببینند.»
پیشنویس کد همچنین شامل اقداماتی است که امیدوار است «حکمرانی و پاسخگویی قوی» در مورد ایمنی کودکان در شرکتهای فناوری را تضمین کند. «اینها شامل داشتن یک شخص نامگذاری شده برای رعایت وظایف ایمنی کودکان است. تحلیل سالانه بدن ارشد از تمام فعالیتهای مدیریت ریسک مربوط به ایمنی کودکان؛ آفکام نوشت.
متا، مالک فیس بوک و اینستاگرام، مکرراً توسط وزرا در طول تدوین این قانون به دلیل داشتن نگرش سست نسبت به حمایت از کودکان مورد توجه قرار گرفت. بزرگترین پلتفرمها ممکن است بزرگترین خطرات ایمنی را به همراه داشته باشند - و پس "گستردهترین انتظارات" را در مورد انطباق دارند - اما هیچ مجوز رایگان بر اساس اندازه وجود ندارد.
این سازمان هشدار داد: « خدمات نمیتوانند صرفاً به این دلیل که بسیار گران یا ناخوشایند است از انجام اقداماتی برای محافظت از کودکان خودداری کنند - حفاظت از کودکان یک اولویت است و همه خدمات، حتی کوچکترین آنها، باید در نتیجه پیشنهادات ما اقدام کنند.»
سایر اقدامات ایمنی پیشنهادی برجسته آفکام شامل پیشنهاد خدمات ارائه انتخاب و پشتیبانی بیشتر برای کودکان و بزرگسالانی است که از آنها مراقبت می کنند - مانند داشتن شرایط خدمات "روشن و قابل دسترس". و اطمینان از اینکه کودکان می توانند به راحتی مطالب را گزارش کنند یا شکایت کنند.
پیش نویس دستورالعمل همچنین پیشنهاد می کند که از کودکان حمایت می شود ابزارهایی که به آنها امکان می دهد کنترل بیشتری بر تعاملات آنلاین خود داشته باشند - چنین گزینه ای برای رد دعوت های گروهی. مسدود کردن و بی صدا کردن حساب های کاربری؛ یا کامنت روی پست های خودشان را غیرفعال کنند.
اداره حفاظت از دادههای بریتانیا، دفتر کمیسیون اطلاعات، انتظار دارد از سپتامبر 2021 با کد طراحی کودکان متناسب با سن خود مطابقت داشته باشد، پس ممکن است برخی از همپوشانیها وجود داشته باشد. برای مثال آفکام اشاره میکند که ارائهدهندگان خدمات ممکن است دسترسی کودکان را برای یک هدف انطباق با حفاظت از دادهها ارزیابی کرده باشند – و اضافه میکند که «ممکن است بتوانند از شواهد و تحلیلهای یکسانی برای هر دو استفاده کنند».
ورق زدن اسکریپت ایمنی کودک؟
رگولاتور از شرکتهای فناوری میخواهد در مورد مسائل ایمنی فعال باشند و او میگوید که در استفاده از طیف وسیعی از قدرتهای اجرایی خود پس از ایجاد تردید دریغ نمیکنند. پیام اساسی برای شرکت های فناوری این است که خانه خود را زودتر مرتب کنید یا عواقب پرهزینه ای را به دنبال داشته باشید.
در بیانیه مطبوعاتی هشدار داد: «ما واضح هستیم که شرکتهایی که از وظایف قانونی خود کوتاهی میکنند، میتوانند با اقدامات اجرایی، از جمله جریمههای قابل توجه مواجه شوند».
دولت نیز به سختی پشت فراخوان آفکام برای پاسخ فعالانه پارو می زند. میشل دونلان، وزیر فناوری، امروز در بیانیهای گفت: «پیام من برای پلتفرمها این است که با ما تعامل داشته باشید و آماده شوید. منتظر اجرا و جریمه های سنگین نباشید - برای انجام مسئولیت های خود قدم بردارید و همین الان اقدام کنید.
«دولت آفکام را مأمور ارائه این قانون کرد و امروز تنظیم کننده روشن است. پلتفرمها باید انواع بررسیهای سنی را که جوانان در دنیای واقعی تجربه میکنند معرفی کنند و الگوریتمهایی را که به آسانی به این معنی است که آنها به صورت آنلاین با مطالب مضر مواجه میشوند را تحلیل کنند. هنگامی که این اقدامات انجام شود، تغییر اساسی در نحوه تجربه کودکان در بریتانیا از دنیای آنلاین ایجاد خواهد کرد.
من می خواهم به والدین اطمینان دهم که محافظت از کودکان اولویت اول ما است و این قوانین به حفظ امنیت خانواده های آنها کمک می کند.
آفکام بيان کرد که از اجرای قانون ایمنی آنلاین خود میخواهد آنچه را که به عنوان «بازنشانی» برای ایمنی کودکان آنلاین ارائه میکند - بيان کرد که معتقد است رویکردی که طراحی میکند، با نظرات چندین ذینفع (از جمله هزاران کودک و جوان) "تفاوت قابل توجهی" در تجربیات آنلاین بچه ها ایجاد کنید.
با توجه به انتظارات خود، بيان کرد که میخواهد کتاب قوانین، اسکریپت ایمنی آنلاین را تغییر دهد تا کودکان «معمولاً» نتوانند به پورنو دسترسی داشته باشند و از «دیدن، و توصیهشده، محتوای بالقوه مضر» محافظت شوند.
فراتر از تأیید هویت و مدیریت محتوا، این سازمان همچنین میخواهد قانون تضمین کند که کودکان بدون رضایت آنها به چتهای گروهی اضافه نخواهند شد. و میخواهد با دیدن محتوای مضر شکایت را برای کودکان آسانتر کند و «اطمینان بیشتری» داشته باشد که به شکایتهایشان رسیدگی میشود.
همانطور که مطرح است، برعکس آن چیزی است که بچههای بریتانیا در حال حاضر آنلاین تجربه میکنند، به نظر میرسد که Ofcom به تحقیقاتی در یک دوره چهار هفتهای اشاره میکند که در آن اکثریت (62%) از کودکان 13 تا 17 ساله گزارش دادهاند که با آسیب آنلاین مواجه شدهاند و بسیاری میگویند که آن را در نظر دارند. بخشی "غیرقابل اجتناب" از زندگی آنلاین آنه است.
آفکام دریافت که قرار گرفتن در معرض محتوای خشونتآمیز از مدرسه ابتدایی شروع میشود، و کودکانی که با محتوای تبلیغکننده خودکشی یا خودآزاری مواجه میشوند، آن را به عنوان «پربار» در رسانههای اجتماعی توصیف میکنند. و در معرض قرار گرفتن مکرر که به "عادی سازی و حساسیت زدایی جمعی" کمک می کند. پس ، کار بزرگی در پیش روی تنظیمکننده است تا فضای آنلاینی را که بچهها با آن مواجه میشوند، تغییر دهد.
علاوه بر کد ایمنی کودکان، راهنماییهای آن برای خدمات شامل پیشنویس ثبت خطر کودکان میشود که به گفته آنها اطلاعات بیشتری در مورد چگونگی آشکار شدن خطرات آسیب برای کودکان به صورت آنلاین ارائه میکند. و پیشنویس راهنمای آسیبها که نمونهها و نوع محتوایی را که برای کودکان مضر میداند بیان میکند. نسخههای نهایی تمام راهنماییهای آن، فرآیند مشاوره را دنبال میکند، وظیفه قانونی آفکام. همچنین به TechCrunch بيان کرد که اطلاعات بیشتری را ارائه میکند و ابزارهای دیجیتالی را برای پشتیبانی بیشتر از انطباق سرویسها قبل از شروع اجرای قانون راهاندازی میکند.
آفکام گفت : "صدای کودکان در مرکز رویکرد ما در طراحی کدها بوده است. " در طی 12 ماه گذشته، ما از بیش از 15000 جوان در مورد زندگی آنلاین خود شنیده ایم و با بیش از 7000 والدین و همچنین متخصصانی که با کودکان کار می کنند صحبت کرده ایم.
"به عنوان بخشی از روند مشاوره خود، ما در حال برگزاری یک سری گفتگوهای متمرکز با کودکان از سراسر بریتانیا هستیم تا نظرات آنها را در مورد پیشنهادات خود در یک محیط امن تحلیل کنیم. ما همچنین میخواهیم از گروههای دیگر از جمله والدین و مراقبان، صنعت فناوری و سازمانهای جامعه مدنی بشنویم - مانند موسسات خیریه و متخصصان متخصص که در حفاظت و ارتقای منافع کودکان دخیل هستند.»
رگولاتور اخیراً برنامههای خود را برای راهاندازی یک مشاوره اضافی در اواخر سال جاری اعلام کرده است که او میگوید چگونه ابزارهای خودکار، با نام فناوریهای هوش مصنوعی، میتوانند در فرآیندهای تعدیل محتوا به کار گرفته شوند تا به طور فعال محتوای غیرقانونی و مضرترین محتوای برای کودکان را شناسایی کنند - مانند مواردی که قبلاً شناسایی نشدهاند. CSAM و محتوای تشویق کننده خودکشی و خودآزاری.
با این حال، امروزه هیچ مدرک روشنی وجود ندارد که نشان دهد هوش مصنوعی قادر خواهد بود کارایی تشخیص چنین محتوایی را بدون ایجاد حجم زیادی از (مضر) مثبت کاذب بهبود بخشد. پس باید دید که آیا آفکام برای استفاده بیشتر از چنین ابزارهای فناوری با توجه به خطراتی که تکیه بر اتوماسیون در این زمینه میتواند نتیجه معکوس داشته باشد، تلاش خواهد کرد یا خیر.
در سالهای اخیر، تلاش چند ساله وزارت کشور با هدف تقویت توسعه ابزارهای هوش مصنوعی به اصطلاح «فناوری ایمنی» - بهویژه برای اسکن پیامهای رمزگذاریشده سرتاسر برای CSAM - به یک ارزیابی مستقل منفور منجر شد که هشدار داد. چنین فناوری هایی برای هدف مناسب نیستند و تهدیدی وجودی برای حریم خصوصی افراد و محرمانه بودن ارتباطات هستند.
سوالی که ممکن است والدین داشته باشند این است که در 18 سالگی کودک چه اتفاقی می افتد، زمانی که این کد دیگر اعمال نمی شود؟ اگر تمام این حمایتها که تجربیات آنلاین کودکان را در بر میگیرد یک شبه پایان یابد، ممکن است خطر (هنوز) جوانان تحت تأثیر قرار گرفتن ناگهانی در معرض محتوای مضری که تا آن زمان از آن محافظت شدهاند، وجود داشته باشد. این نوع انتقال محتوای تکان دهنده خود می تواند خطر بلوغ آنلاین جدیدی را برای نوجوانان ایجاد کند.
آفکام به ما بيان کرد که پیشنهادات آتی برای پلتفرم های بزرگتر می تواند برای کاهش این نوع ریسک معرفی شود.
هنگامی که از ما در مورد این سوال پرسیدیم، یکی از سخنگویان آفکام پاسخ داد: «کودکان این محتوای مضر را به عنوان بخشی عادی از تجربه آنلاین میپذیرند - با محافظت از آنها در هنگام کودکی از این محتوا، ما همچنین انتظارات آنها را برای تجربه آنلاین مناسب تغییر میدهیم. . «هیچ کاربری، صرف نظر از سنش، نباید بپذیرد که فید خود با محتوای مضر پر شود. مشاوره فاز 3 ما شامل پیشنهادات بیشتر در مورد اینکه چگونه بزرگترین و پرخطرترین خدمات می تواند به همه کاربران قدرت دهد تا کنترل بیشتری بر محتوایی که آنلاین می بینند را در اختیار بگیرند، خواهد بود. ما قصد داریم این مشاوره را در اوایل سال آینده راه اندازی کنیم.»
ارسال نظر