متن خبر

رئیس سابق اعتماد و ایمنی توییتر هشدار داد که ایلان ماسک X به سمت درگیری «حاکمیت قانون» با اتحادیه اروپا می رود.

رئیس سابق اعتماد و ایمنی توییتر هشدار داد که ایلان ماسک X به سمت درگیری «حاکمیت قانون» با اتحادیه اروپا می رود.

شناسهٔ خبر: 438742 -




رئیس سابق اعتماد و ایمنی توییتر هشدار داده است که پلتفرمی که اکنون به نام X شناخته می‌شود در حال ترسیم مسیر برخورد با کتاب قوانین دیجیتالی راه‌اندازی مجدد اتحادیه اروپا، قانون خدمات دیجیتال (DSA) است - که جریمه‌هایی تا ۶ درصد از گردش مالی سالانه جهانی را در پی دارد. برای نقض تایید شده رژیم حاکمیت آنلاین.

یوئل راث در طی یک مصاحبه روی صحنه در کنفرانس کد این هفته، به تصمیم ایکس در ماه مه برای خروج از قانون رویه اتحادیه اروپا در زمینه اطلاعات نادرست اشاره کرد و همچنین به اظهارات اخیر کمیسر ورا ژورووا اشاره کرد که این پلتفرم را به‌عنوان مشخص کرد. بدترین راه برای انتشار اطلاعات نادرست - پیش‌بینی درگیری با تنظیم‌کننده‌های بلوک اکنون "حتمی" است.

"زمان تنظیمی بسیار کندتر از زمان اینترنت حرکت می کند. و پس من فکر می کنم که ما در اینجا شاهد اثرات عقب مانده خواهیم بود. اما این امر اجتناب ناپذیر است. اگر اتحادیه اروپا چیزی را ثابت کرده است، این است که آنها مایلند و می‌توانند شرکت‌های بزرگ را تنظیم کنند و آنها را به تبعیت از قوانین اتحادیه اروپا تحت فشار قرار دهند. و پس اگر من مجبور به پیش‌بینی می‌شدم، این بود که در حال حاضر درست نمی‌شود - حتی ممکن است یک سال دیگر نباشد - اما عواقبی در پی خواهد داشت.

«سوال این است که از هم‌اکنون تا آن زمان به افرادی که در شرکت‌ها کار می‌کنند - مثل من - چقدر به کیفیت مکالمه در توییتر، به خود پلتفرم آسیب وارد می‌شود؟ من فکر می‌کنم قبل از اینکه مقررات به واقعیت برسد، کارهای زیادی می‌توان انجام داد و این چیزی است که واقعاً من را نگران می‌کند.»

X فرد را مشخص می کند

راث با یادآوری آنچه در سال گذشته هنگام ترک توییتر فکر می کرد، مدت کوتاهی پس از خرید ایلان ماسک که دوره جدیدی از درام پلتفرم را آغاز کرد، بیان کرد که او معتقد بوده است که عوامل تجاری و نظارتی به عنوان یک محدودیت در کاری که مالک جدید ممکن است انجام دهد عمل می کند. در مورد آسیب به اعتماد و ایمنی.

اما او بیان کرد که مفروضات او اشتباه بوده است - با استناد به خروج تبلیغ‌کنندگانی که ماسک ریاست آن را بر عهده داشت و تصمیم برای خارج کردن پلتفرم از کد اطلاعات نادرست اتحادیه اروپا. او بیان کرد : "آنها تنها پلت فرم بزرگی هستند که این کار را انجام می دهند." و همین امروز، کمیسر جورووا بیان کرد که توییتر سرنوشت وسوسه انگیزی دارد – که آنها هدف آسانی برای اجرا هستند. و خیلی خوب، من هم در آن نقطه اشتباه کردم.»

در ماه آوریل، درست قبل از اینکه ماسک X را از کد خارج کند، اتحادیه اروپا این پلتفرم را به اصطلاح VLOP (پلتفرم آنلاین بسیار بزرگ) تحت DSA تعیین کرد - به این معنی که الزام قانونی برای مقابله با تهدیدات سیستمی مانند اطلاعات نادرست دارد.

این بلوک همچنین روشن کرده است که تنظیم‌کننده‌های آن پیروی از کد اطلاعات نادرست (غیرالزام‌آور) را به‌عنوان سیگنالی که هنگام ارزیابی اینکه آیا پلت‌فرم‌های بزرگ‌تر با DSA (از لحاظ قانونی الزام‌آور) مطابقت دارند، نشان می‌دهند.

نادیده گرفتن تهدیدات اجتماعی ناشی از اطلاعات نادرست در نتیجه خطر تحریم های بزرگ در اتحادیه اروپا را به دنبال دارد. و نه فقط مالی. علاوه بر جریمه‌های کلان، DSA به کمیسیون این اختیار را می‌دهد تا سرویس‌هایی را که مکرراً از قوانین پیروی نمی‌کنند مسدود کند - پس ، اگر X در مسیری بی‌احتیاطی قرار بگیرد و نتواند نشان دهد که در حال مقابله با مسائل ایمنی است، احتمال بیشتری وجود دارد. ممکن است در نهایت دسترسی به بازار اتحادیه اروپا را از دست بدهد.

در سیگنال‌های نگران‌کننده‌تر برای امنیت انتخابات در توییتر، The Information در اوایل این هفته گزارش داد که ماسک نیمی از اعضای باقی‌مانده تیم یکپارچگی انتخابات را حذف کرده است - در مقابل ادعاهای شرکت، و اخیراً توسط مدیر عامل آن لیندا یاکارینو تکرار شده است. این در حال گسترش تلاش ها برای مقابله با تهدیدات برای انتخابات است.

همچنین در این هفته مشخص شد که این پلتفرم بی سر و صدا یک گزینه قدیمی برای گزارش اطلاعات گمراه کننده در مورد سیاست را حذف کرده است - اگرچه همانطور که در پوشش خود اشاره کردیم، کاربران X در اتحادیه اروپا همچنان می توانند گزینه ای برای گزارش "اثرات منفی بر گفتمان مدنی یا انتخابات" پیدا کنند. (تحت یک گزینه خاص منطقه برای «گزارش محتوای غیرقانونی اتحادیه اروپا»). پس توانایی کاربران اتحادیه اروپا را برای گزارش کامل نگرانی‌های مربوط به سلامت انتخابات مسدود نکرده است.

با این حال، بدون کارکنان کافی در داخل برای رسیدگی به گزارش ‌ها، واضح است که X نمی‌تواند به طور موثر با اطلاعات نادرست سیاسی مقابله کند یا تهدیدات در حال توسعه برای انتخابات - از جمله در اتحادیه اروپا- را در معرض دید قرار دهد.

در دوران ماسک، خط مشی «صداقت مدنی» خود پلتفرم از نظر فنی «دستکاری یا مداخله در انتخابات یا سایر فرآیندهای مدنی» را ممنوع می‌کند، اما همانطور که می‌دانیم سال‌ها در توییتر قدیمی چگونه اتفاق افتاد – قبل از تبدیل بسیار تدریجی رهبری سابق به «مکالمه‌ای» سلامت» - داشتن یک خط مشی و اجرای یک سیاست دو چیز بسیار متفاوت هستند.

تهدید سلامت انتخابات

راث در طول مصاحبه Code سرنوشت تیم یکپارچگی انتخابات را مطرح کرد. او گفت: «آخرین کارمندان باقی مانده در توییتر که در امنیت انتخابات تخصص دارند، همگی به طور خلاصه اخراج شدند. «وقتی وارد این سال شدم و مردم شروع به پرسیدن از من کردند که در مورد سال ۲۰۲۴ چه پیش‌بینی می‌کنی، من فکر می‌کردم، نگاه کنید، هنوز یک نفر در توییتر در دوبلین باقی مانده است که به تنهایی از برگزاری انتخابات جهانی جلوگیری کرده است. من خودم او را استخدام کردم. او درخشان است. تا زمانی که او بتواند آن را نشان دهد، امیدی وجود دارد. [اما او] به طور خلاصه اخراج شده است، پس من در این مورد خیلی خوشبین نیستم.»

کارمندی که او به آن اشاره کرد، آرون رودریکس، یکی از رهبران دوبلین ایکس در زمینه اعتماد و امنیت و اختلال در تهدید است.

بر اساس گزارشی در رولینگ استون، رودریکس پس از پست کاری که در لینکدین منتشر کرد، در تبلیغ این حقیقت که او به دنبال استخدام هشت کارمند دیگر برای تیم صداقت انتخابات در X بود، هدف آزار و اذیت اینفلوئنسرهای راست‌گرا قرار گرفت.

مجموعه ای از حملات آنلاین، توسط حساب های کاربری از جمله مایک بنز، کارکنان X را متهم به "شل سانسور" کردند. پیشنهاد کرد که در تلاش است تا ماموران سیا را برای کار در X استخدام کند. و ادعا کرد که توئیت‌هایی را که در انتقاد از ماسک بودند دوست داشته است - بلافاصله پس از آن، این شرکت علیه او اقدامات انضباطی را آغاز کرد. سپس، هفته گذشته، مطبوعات ایرلندی گزارش دادند که رودریکز حکم موقت دادگاه عالی را صادر کرده است. شرح او از اقدامات X به عنوان یک "ساخت کامل" دادگاه را متقاعد کرد که دستور تعلیق موقت رسیدگی انضباطی را صادر کند.

ما تایید کرده‌ایم که رودریکس از نظر فنی کارمند X است اما اختلاف حقوقی ادامه دارد. و - واضح است - او در موقعیتی نیست که بتواند کاری را که در داخل در مورد یکپارچگی انتخابات انجام می داد، انجام دهد، قبل از اینکه تعداد انگشت شماری از ترول های دست راستی کمپین آزار و اذیت هدفمند را در تلاش برای فشار دادن دکمه های ماسک و اخراج او آغاز کنند.

درک این موضوع که ماسک به جای پیروی از "حاکمیت قانون" تصمیمات خودسرانه می گرفت، آخرین گلی برای راث بود که سال گذشته تصمیم به ترک این کشور گرفت. او در طول این مصاحبه گفت: "همه اینها برای من مانند شرکتی است که حکومت قانون را کنار گذاشته است. " نه تنها قوانین کشور، مانند قانون خدمات دیجیتال، بلکه قوانینی که بر خود تحمیل کرده است - اصول عملیاتی که شرکت را هدایت می کند.

عدم اطمینان

راث همچنین فاش کرد که تهدیدهای مرگی که او پس از ترک توییتر در سال گذشته دریافت کرده بود از این پلتفرم حذف نشده است - این ادعاهای متقابلی را که توسط مدیر عامل لیندا یاکارینو مبنی بر اینکه X در حال برداشتن گام‌هایی برای بهبود ایمنی است، تضعیف می‌کند.

راث او میگوید : «من توئیتر را تشویق می‌کنم که به تهدیدات مرگی که من را هدف قرار می‌دهد نگاهی بیندازد. «تهدید به مرگ که توسط رهبر شرکت الهام گرفته شد. همه آنها هنوز آنجا هستند. توییتر آنها را حذف ن کرد. هزاران نفر از آنها. آنها هنوز روی سکوی امروز هستند.»

راث در طول این مصاحبه همچنین از مطالعه ایکس که در ماه مه با همکاری یک شرکت شخص ثالث به نام Sprinklr انجام شده بود که ادعا کرده بود شیوع بسیار کم سخنان نفرت پراکنی به زبان انگلیسی در این پلتفرم وجود دارد - بیان کرد که این ادعاها "کاملا غیر قابل حسابرسی" پس به سادگی نمی توان اعتماد کرد.

به‌ویژه تحت رهبری ماسک، X دسترسی به داده‌ها برای انجام مطالعات مستقل را برای محققان بسیار سخت‌تر و گران‌تر کرده است – علی‌رغم اینکه DSA الزاماتی را در پلتفرم‌های بزرگ‌تر برای حمایت از تحقیقات منافع عمومی در مورد اثرات الگوریتمی قرار داده است. پس ، دوباره، او برخلاف مسیر سفری است که تنظیم‌کننده‌های اتحادیه اروپا با کتاب قوانین دیجیتالی خود خواستار آن هستند.

راث گفت: «با هر معیاری [ایمنی در توییتر] بدتر است، مگر با معیار توییتر. ما همین هفته شاهد مطالعه‌ای از محققان در اروپا بودیم که در مورد شیوع و گسترش اطلاعات نادرست در تمام پلتفرم‌های اصلی صحبت می‌کردند. من به شما حدس می زنم که کدام پلتفرم بالاترین درجه انتشار را دارد: این توییتر است. ما همچنین تحقیقاتی را دیده‌ایم که نشان می‌دهد شیوع سخنان نفرت‌انگیز و سوء استفاده در این پلتفرم بیشتر است. ما تحقیقات مستقلی را دیده‌ایم که نشان می‌دهد داعش ۷۰ درصد بازگشتی را در توییتر انجام داده است. این مثل آزادی بیان نیست این داعش است، درست است؟ مثل اینکه ما در مورد مناطق خاکستری تعدیل محتوا صحبت نمی کنیم.»

"بررسی همکار دردناک است. هر دانشگاهی این را به شما خواهد گفت. اما دلیل وجود آن این است که می توانید به روش تجربی رضایت بخشی به این سؤالات پاسخ دهید. می توانید بگویید اگر صحبت از نفرت پراکنی است، به روشی دقیق تعریف شده است. ما این را در مورد داده های توییتر نمی دانیم. "به سادگی هیچ راهی برای دانستن وجود ندارد. تو اینطور نیست.»

انحلال تیم ارتباطی این شرکت یکی دیگر از «اصلاحات» اولیه ماسک در توییتر بود. از آن زمان، این پلتفرم معمولاً درخواست‌های مطبوعاتی برای اظهار نظر را نادیده می‌گیرد و/یا یک پاسخ خودکار بی‌معنی ارسال می‌کند. (آخرین پاسخ خودکار آن به این شرح است: «فعلا مشغول است، لطفاً بعداً دوباره تحلیل کنید.») اما مدیر عامل یاکارینو - که در کنفرانس کد کمی بعد از راث مصاحبه شد - ارزیابی راث را رد کرد و این ادعا را تکرار کرد که ایمنی X از زمانی که ماسک استفاده کرده است بهبود یافته است. بر فراز.

همچنین، در فاصله اندکی از دیوار سنگی X در پرسش‌های مطبوعاتی، زمانی که ایمیلی را درخواست کردیم و خواستار پاسخ به نگرانی‌های راث شدیم، علاوه بر پاسخ خودکار فوق، یک پاسخ (کوتاه) از جو بناروچ، یکی از اعضای سابق NBCUniversal دریافت کردیم. مدیر اجرایی (و همکار سابق یاکارینو در آنجا) که او را متقاعد کرد که تابستان امسال در کارفرمای جدیدش به او بپیوندد. او پیشنهاد کرد: «لیندا روی صحنه در Code به این موضوع پرداخت و گفت : «اگر حافظه به درستی جوابگوی من باشد، بسیاری از مواردی که یوئل در مورد آن صحبت کرد شبیه به نکاتی بود که یک سال پیش در Code بیان کرد. »

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است