متن خبر

اسناد متا ویرایش نشده «بی میلی تاریخی» برای محافظت از کودکان را نشان می دهد

اسناد متا ویرایش نشده «بی میلی تاریخی» برای محافظت از کودکان را نشان می دهد

شناسهٔ خبر: 443699 -




اسناد داخلی متا در مورد ایمنی کودکان به عنوان بخشی از شکایتی که توسط وزارت دادگستری نیومکزیکو علیه متا و مدیرعامل آن، مارک زاکربرگ تنظیم شده است، افشا شده است. این اسناد نشان می دهد که متا نه تنها به طور عمدی پلتفرم های پیام رسانی خود را برای کودکان عرضه کرده است، بلکه از حجم گسترده محتوای نامناسب و صریح جنسی که بین بزرگسالان و خردسالان به اشتراک گذاشته می شود نیز اطلاع داشته است.

اسنادی که روز چهارشنبه به عنوان بخشی از یک شکایت اصلاح‌شده، مهر و موم نشدند، موارد متعددی را نشان می‌دهند که کارکنان متا نگرانی‌های داخلی را در مورد بهره‌کشی از کودکان و نوجوانان در پلت‌فرم‌های پیام‌رسان خصوصی این شرکت افزایش داده‌اند. متا خطراتی را که پیام‌های پیام‌رسان و پیام‌های پیام‌رسان اینستاگرام برای کاربران زیر سن قانونی ایجاد می‌کرد، تشخیص داد، اما در اولویت‌بندی اجرای پادمان‌ها یا مسدود کردن کامل آپشن های ایمنی کودکان به دلیل اینکه سودآور نبودند، شکست خورد.

رائول تورز، دادستان کل نیومکزیکو در بیانیه‌ای به TechCrunch بيان کرد که متا و زاکربرگ به شکارچیان کودک امکان بهره‌کشی جنسی از کودکان را می‌دهند. او اخیراً نگرانی هایی را در مورد اینکه متا امکان محافظت از رمزگذاری سرتاسر برای مسنجر را فراهم می کند، که ماه گذشته عرضه شد، ابراز کرد . در یک پرونده جداگانه، تورز اشاره کرد که متا در رسیدگی به استثمار کودکان در پلتفرم خود شکست خورده است و رمزگذاری بدون تدابیر مناسب بیشتر خردسالان را به خطر می اندازد.

تورز ادامه داد: «سال‌ها، کارمندان متا سعی می‌کردند زنگ خطر را در مورد اینکه چگونه تصمیم‌های مدیران متا، کودکان را در معرض درخواست‌های خطرناک و استثمار کودکان قرار می‌دهند، به صدا درآورند. "مدیران متا، از جمله آقای زاکربرگ، به طور مداوم تصمیماتی گرفتند که رشد را مقدم بر ایمنی کودکان قرار می داد. در حالی که این شرکت به کم اهمیت جلوه دادن فعالیت های غیرقانونی و مضر کودکان در پلتفرم های خود ادامه می دهد، داده ها و ارائه های داخلی متا نشان می دهد که این مشکل شدید و فراگیر است.

این شکایت که در ابتدا در ماه دسامبر ارائه شد، ادعا می‌کند که پلتفرم‌های متا مانند اینستاگرام و فیس‌بوک به «بازار شکارچیان در جستجوی کودکانی تبدیل شده‌اند که شکارشان می‌کنند» و متا نتوانسته است بسیاری از موارد سوء استفاده جنسی از کودکان (CSAM) را پس از آنها حذف کند. در اینستاگرام و فیسبوک گزارش شده است. پس از ایجاد حساب‌های فریبنده که ظاهراً افراد 14 ساله یا جوان‌تر هستند، وزارت دادگستری نیومکزیکو بيان کرد که الگوریتم‌های متا CSAM و همچنین حساب‌هایی را که خرید و فروش CSAM را تسهیل می‌کنند، نشان دادند. طبق یک بیانیه مطبوعاتی در مورد این شکایت، «برخی از محتوای سوء استفاده از کودکان در فیس بوک و اینستاگرام بیش از ده برابر بیشتر از Pornhub و OnlyFans رایج است. »

اسناد بدون مهر و موم نشان می دهد که متا به عمد سعی کرده است کودکان و نوجوانان را به مسنجر جذب کند و ویژگی های ایمنی را در این فرآیند محدود کند. برای مثال، ارائه‌ای در سال 2016، نگرانی‌هایی را در مورد کاهش محبوبیت این شرکت در میان نوجوانانی که زمان بیشتری را در اسنپ‌چت و یوتیوب می‌گذرانند تا فیس‌بوک، برانگیخت و طرحی را برای «برآوردن» کاربران نوجوان جدید ترسیم کرد. یک ایمیل داخلی از سال 2017 اشاره می‌کند که یکی از مدیران فیس‌بوک با اسکن مسنجر برای «محتوای مضر» مخالفت کرد، زیرا این یک «مضرات رقابتی در برابر سایر برنامه‌هایی است که ممکن است حریم خصوصی بیشتری ارائه دهند».

این واقعیت که متا می‌دانست که خدماتش در بین کودکان بسیار محبوب است، شکست آن را در محافظت از کاربران جوان در برابر استثمار جنسی «وحشی‌تر» می‌کند. یک ارائه در سال 2020 اشاره می کند که "End Game" این شرکت قرار بود "تا سال 2022 به برنامه اصلی پیام رسانی برای کودکان در ایالات متحده تبدیل شود." همچنین به محبوبیت مسنجر در بین کودکان 6 تا 10 ساله اشاره کرد.

اعتراف متا به مسائل ایمنی کودکان در پلتفرم خود به‌ویژه مذموم است. برای مثال، در یک ارائه داخلی از سال 2021، تخمین زده می‌شود که روزانه 100000 کودک در پلتفرم‌های پیام‌رسان متا مورد آزار جنسی قرار می‌گیرند و محتوای جنسی صریح مانند عکس‌های دستگاه تناسلی بزرگسالان دریافت می‌کنند. در سال 2020، پس از شکایت یکی از مدیران اپل مبنی بر درخواست فرزند 12 ساله آنها در اینستاگرام، کارمندان متا از حذف احتمالی این پلتفرم از اپ استور ناراحت شدند.

در یک سند داخلی آمده است: "این همان چیزی است که اپل را عصبانی می کند." کارمندان همچنین این سوال را مطرح کردند که آیا متا یک جدول زمانی برای جلوگیری از "بزرگسالان از ارسال پیام به خردسالان در IG Direct" دارد یا خیر.

یک سند داخلی دیگر از سال 2020 نشان داد که تدابیر امنیتی اعمال شده در فیس بوک، مانند جلوگیری از پیام رسانی بزرگسالان "بی ارتباط" به خردسالان، در اینستاگرام وجود ندارد. اجرای همان پادمان‌ها در اینستاگرام «اولویت‌بندی نشد». متا اجازه دادن به بستگان بزرگسال برای ارتباط با کودکان در دایرکت اینستاگرام را یک "شرط رشد بزرگ" در نظر گرفت - که یکی از کارمندان متا از آن به عنوان دلیلی "کمتر از قانع کننده" برای عدم ایجاد ویژگی های ایمنی انتقاد کرد. این کارمند همچنین بيان کرد که نظافت دو برابر بیشتر از فیس بوک در اینستاگرام رخ می دهد.

متا در ارائه دیگری در مورد ایمنی کودکان در مارس 2021 به نظافت پرداخت و اظهار داشت که "اندازه گیری، تشخیص و حفاظت" آن در فیس بوک و مسنجر "بالغ تر" از اینستاگرام است. در این ارائه اشاره شد که متا «در رابطه جنسی جزئی در IG سرمایه‌گذاری کمتری کرده است»، به‌ویژه در کامنت‌های جنسی که روی پست‌های سازندگان کوچک گذاشته می‌شود، و این مشکل را به‌عنوان «تجربه‌ای وحشتناک برای سازندگان و تماشاگران» توصیف کرد.

متا مدت‌هاست که به دلیل شکست‌هایش در تعدیل کافی CSAM با تحلیل دقیق مواجه شده است. پلتفرم‌های بزرگ رسانه‌های اجتماعی مستقر در ایالات متحده از نظر قانونی موظف هستند موارد CSAM را به مرکز ملی کودکان گمشده و مورد سوء استفاده (NCMEC) گزارش کنند. بر اساس آخرین داده های منتشر شده NCMEC از سال 2022، فیس بوک حدود 21 میلیون گزارش از CSAM ارسال کرده است که حدود 66 درصد از کل گزارش های ارسال شده به CyberTipline در آن سال را تشکیل می دهد. با احتساب گزارش‌های اینستاگرام (5 میلیون) و واتس‌اپ (1 میلیون)، پلتفرم‌های متا حدود 85 درصد از تمام گزارش‌های ارسال شده به NCMEC را بر عهده دارند.

این رقم نامتناسب را می توان با پایگاه کاربران بسیار بزرگ متا توضیح داد که بیش از 3 میلیارد کاربر فعال روزانه را تشکیل می دهد، اما در پاسخ به تحقیقات زیاد، رهبران بین المللی استدلال کرده اند که متا به اندازه کافی برای کاهش این میلیون ها گزارش انجام نمی دهد. در ماه ژوئن، متا به وال استریت ژورنال بيان کرد که در دو سال گذشته 27 شبکه پدوفیل را از بین برده است، با این حال محققان همچنان قادر به کشف حساب های به هم پیوسته متعددی هستند که CSAM را خرید، فروش و توزیع می کنند. در پنج ماه پس از گزارش ژورنال، دریافت که الگوریتم‌های توصیه متا همچنان به CSAM خدمت می‌کنند. اگرچه متا برخی از هشتگ ها را حذف کرد، هشتگ های پدوفیلیک دیگر به جای آنها ظاهر شدند.

در همین حال، متا با شکایت دیگری از سوی 42 دادستان کل ایالت ایالات متحده به دلیل تأثیر این پلتفرم ها بر سلامت روان کودکان روبرو است.

راب بونتا، دادستان کل کالیفرنیا در نوامبر به TechCrunch گفت : «ما می‌بینیم که متا می‌داند که میلیون‌ها کودک زیر ۱۳ سال از پلت‌فرم‌های رسانه‌های اجتماعی آن استفاده می‌کنند و آنها به‌طور غیرقانونی اطلاعات شخصی خود را جمع‌آوری می‌کنند . این نشان می‌دهد که رویه رایجی که متا در اظهارنظرهای عمومی خود به کنگره و سایر تنظیم‌کننده‌ها یک چیز او میگوید ، در حالی که در داخل چیز دیگری او میگوید .

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است