رئیس سابق اعتماد و ایمنی توییتر هشدار داد که ایلان ماسک X به سمت درگیری «حاکمیت قانون» با اتحادیه اروپا می رود.
رئیس سابق اعتماد و ایمنی توییتر هشدار داده است که پلتفرمی که اکنون به نام X شناخته میشود در حال ترسیم مسیر برخورد با کتاب قوانین دیجیتالی راهاندازی مجدد اتحادیه اروپا، قانون خدمات دیجیتال (DSA) است - که جریمههایی تا ۶ درصد از گردش مالی سالانه جهانی را در پی دارد. برای نقض تایید شده رژیم حاکمیت آنلاین.
یوئل راث در طی یک مصاحبه روی صحنه در کنفرانس کد این هفته، به تصمیم ایکس در ماه مه برای خروج از قانون رویه اتحادیه اروپا در زمینه اطلاعات نادرست اشاره کرد و همچنین به اظهارات اخیر کمیسر ورا ژورووا اشاره کرد که این پلتفرم را بهعنوان مشخص کرد. بدترین راه برای انتشار اطلاعات نادرست - پیشبینی درگیری با تنظیمکنندههای بلوک اکنون "حتمی" است.
"زمان تنظیمی بسیار کندتر از زمان اینترنت حرکت می کند. و پس من فکر می کنم که ما در اینجا شاهد اثرات عقب مانده خواهیم بود. اما این امر اجتناب ناپذیر است. اگر اتحادیه اروپا چیزی را ثابت کرده است، این است که آنها مایلند و میتوانند شرکتهای بزرگ را تنظیم کنند و آنها را به تبعیت از قوانین اتحادیه اروپا تحت فشار قرار دهند. و پس اگر من مجبور به پیشبینی میشدم، این بود که در حال حاضر درست نمیشود - حتی ممکن است یک سال دیگر نباشد - اما عواقبی در پی خواهد داشت.
«سوال این است که از هماکنون تا آن زمان به افرادی که در شرکتها کار میکنند - مثل من - چقدر به کیفیت مکالمه در توییتر، به خود پلتفرم آسیب وارد میشود؟ من فکر میکنم قبل از اینکه مقررات به واقعیت برسد، کارهای زیادی میتوان انجام داد و این چیزی است که واقعاً من را نگران میکند.»
X فرد را مشخص می کند
راث با یادآوری آنچه در سال گذشته هنگام ترک توییتر فکر می کرد، مدت کوتاهی پس از خرید ایلان ماسک که دوره جدیدی از درام پلتفرم را آغاز کرد، بیان کرد که او معتقد بوده است که عوامل تجاری و نظارتی به عنوان یک محدودیت در کاری که مالک جدید ممکن است انجام دهد عمل می کند. در مورد آسیب به اعتماد و ایمنی.
اما او بیان کرد که مفروضات او اشتباه بوده است - با استناد به خروج تبلیغکنندگانی که ماسک ریاست آن را بر عهده داشت و تصمیم برای خارج کردن پلتفرم از کد اطلاعات نادرست اتحادیه اروپا. او بیان کرد : "آنها تنها پلت فرم بزرگی هستند که این کار را انجام می دهند." و همین امروز، کمیسر جورووا بیان کرد که توییتر سرنوشت وسوسه انگیزی دارد – که آنها هدف آسانی برای اجرا هستند. و خیلی خوب، من هم در آن نقطه اشتباه کردم.»
در ماه آوریل، درست قبل از اینکه ماسک X را از کد خارج کند، اتحادیه اروپا این پلتفرم را به اصطلاح VLOP (پلتفرم آنلاین بسیار بزرگ) تحت DSA تعیین کرد - به این معنی که الزام قانونی برای مقابله با تهدیدات سیستمی مانند اطلاعات نادرست دارد.
این بلوک همچنین روشن کرده است که تنظیمکنندههای آن پیروی از کد اطلاعات نادرست (غیرالزامآور) را بهعنوان سیگنالی که هنگام ارزیابی اینکه آیا پلتفرمهای بزرگتر با DSA (از لحاظ قانونی الزامآور) مطابقت دارند، نشان میدهند.
نادیده گرفتن تهدیدات اجتماعی ناشی از اطلاعات نادرست در نتیجه خطر تحریم های بزرگ در اتحادیه اروپا را به دنبال دارد. و نه فقط مالی. علاوه بر جریمههای کلان، DSA به کمیسیون این اختیار را میدهد تا سرویسهایی را که مکرراً از قوانین پیروی نمیکنند مسدود کند - پس ، اگر X در مسیری بیاحتیاطی قرار بگیرد و نتواند نشان دهد که در حال مقابله با مسائل ایمنی است، احتمال بیشتری وجود دارد. ممکن است در نهایت دسترسی به بازار اتحادیه اروپا را از دست بدهد.
در سیگنالهای نگرانکنندهتر برای امنیت انتخابات در توییتر، The Information در اوایل این هفته گزارش داد که ماسک نیمی از اعضای باقیمانده تیم یکپارچگی انتخابات را حذف کرده است - در مقابل ادعاهای شرکت، و اخیراً توسط مدیر عامل آن لیندا یاکارینو تکرار شده است. این در حال گسترش تلاش ها برای مقابله با تهدیدات برای انتخابات است.
همچنین در این هفته مشخص شد که این پلتفرم بی سر و صدا یک گزینه قدیمی برای گزارش اطلاعات گمراه کننده در مورد سیاست را حذف کرده است - اگرچه همانطور که در پوشش خود اشاره کردیم، کاربران X در اتحادیه اروپا همچنان می توانند گزینه ای برای گزارش "اثرات منفی بر گفتمان مدنی یا انتخابات" پیدا کنند. (تحت یک گزینه خاص منطقه برای «گزارش محتوای غیرقانونی اتحادیه اروپا»). پس توانایی کاربران اتحادیه اروپا را برای گزارش کامل نگرانیهای مربوط به سلامت انتخابات مسدود نکرده است.
با این حال، بدون کارکنان کافی در داخل برای رسیدگی به گزارش ها، واضح است که X نمیتواند به طور موثر با اطلاعات نادرست سیاسی مقابله کند یا تهدیدات در حال توسعه برای انتخابات - از جمله در اتحادیه اروپا- را در معرض دید قرار دهد.
در دوران ماسک، خط مشی «صداقت مدنی» خود پلتفرم از نظر فنی «دستکاری یا مداخله در انتخابات یا سایر فرآیندهای مدنی» را ممنوع میکند، اما همانطور که میدانیم سالها در توییتر قدیمی چگونه اتفاق افتاد – قبل از تبدیل بسیار تدریجی رهبری سابق به «مکالمهای» سلامت» - داشتن یک خط مشی و اجرای یک سیاست دو چیز بسیار متفاوت هستند.
تهدید سلامت انتخابات
راث در طول مصاحبه Code سرنوشت تیم یکپارچگی انتخابات را مطرح کرد. او گفت: «آخرین کارمندان باقی مانده در توییتر که در امنیت انتخابات تخصص دارند، همگی به طور خلاصه اخراج شدند. «وقتی وارد این سال شدم و مردم شروع به پرسیدن از من کردند که در مورد سال ۲۰۲۴ چه پیشبینی میکنی، من فکر میکردم، نگاه کنید، هنوز یک نفر در توییتر در دوبلین باقی مانده است که به تنهایی از برگزاری انتخابات جهانی جلوگیری کرده است. من خودم او را استخدام کردم. او درخشان است. تا زمانی که او بتواند آن را نشان دهد، امیدی وجود دارد. [اما او] به طور خلاصه اخراج شده است، پس من در این مورد خیلی خوشبین نیستم.»
کارمندی که او به آن اشاره کرد، آرون رودریکس، یکی از رهبران دوبلین ایکس در زمینه اعتماد و امنیت و اختلال در تهدید است.
بر اساس گزارشی در رولینگ استون، رودریکس پس از پست کاری که در لینکدین منتشر کرد، در تبلیغ این حقیقت که او به دنبال استخدام هشت کارمند دیگر برای تیم صداقت انتخابات در X بود، هدف آزار و اذیت اینفلوئنسرهای راستگرا قرار گرفت.
مجموعه ای از حملات آنلاین، توسط حساب های کاربری از جمله مایک بنز، کارکنان X را متهم به "شل سانسور" کردند. پیشنهاد کرد که در تلاش است تا ماموران سیا را برای کار در X استخدام کند. و ادعا کرد که توئیتهایی را که در انتقاد از ماسک بودند دوست داشته است - بلافاصله پس از آن، این شرکت علیه او اقدامات انضباطی را آغاز کرد. سپس، هفته گذشته، مطبوعات ایرلندی گزارش دادند که رودریکز حکم موقت دادگاه عالی را صادر کرده است. شرح او از اقدامات X به عنوان یک "ساخت کامل" دادگاه را متقاعد کرد که دستور تعلیق موقت رسیدگی انضباطی را صادر کند.
ما تایید کردهایم که رودریکس از نظر فنی کارمند X است اما اختلاف حقوقی ادامه دارد. و - واضح است - او در موقعیتی نیست که بتواند کاری را که در داخل در مورد یکپارچگی انتخابات انجام می داد، انجام دهد، قبل از اینکه تعداد انگشت شماری از ترول های دست راستی کمپین آزار و اذیت هدفمند را در تلاش برای فشار دادن دکمه های ماسک و اخراج او آغاز کنند.
درک این موضوع که ماسک به جای پیروی از "حاکمیت قانون" تصمیمات خودسرانه می گرفت، آخرین گلی برای راث بود که سال گذشته تصمیم به ترک این کشور گرفت. او در طول این مصاحبه گفت: "همه اینها برای من مانند شرکتی است که حکومت قانون را کنار گذاشته است. " نه تنها قوانین کشور، مانند قانون خدمات دیجیتال، بلکه قوانینی که بر خود تحمیل کرده است - اصول عملیاتی که شرکت را هدایت می کند.
عدم اطمینان
راث همچنین فاش کرد که تهدیدهای مرگی که او پس از ترک توییتر در سال گذشته دریافت کرده بود از این پلتفرم حذف نشده است - این ادعاهای متقابلی را که توسط مدیر عامل لیندا یاکارینو مبنی بر اینکه X در حال برداشتن گامهایی برای بهبود ایمنی است، تضعیف میکند.
راث او میگوید : «من توئیتر را تشویق میکنم که به تهدیدات مرگی که من را هدف قرار میدهد نگاهی بیندازد. «تهدید به مرگ که توسط رهبر شرکت الهام گرفته شد. همه آنها هنوز آنجا هستند. توییتر آنها را حذف ن کرد. هزاران نفر از آنها. آنها هنوز روی سکوی امروز هستند.»
راث در طول این مصاحبه همچنین از مطالعه ایکس که در ماه مه با همکاری یک شرکت شخص ثالث به نام Sprinklr انجام شده بود که ادعا کرده بود شیوع بسیار کم سخنان نفرت پراکنی به زبان انگلیسی در این پلتفرم وجود دارد - بیان کرد که این ادعاها "کاملا غیر قابل حسابرسی" پس به سادگی نمی توان اعتماد کرد.
بهویژه تحت رهبری ماسک، X دسترسی به دادهها برای انجام مطالعات مستقل را برای محققان بسیار سختتر و گرانتر کرده است – علیرغم اینکه DSA الزاماتی را در پلتفرمهای بزرگتر برای حمایت از تحقیقات منافع عمومی در مورد اثرات الگوریتمی قرار داده است. پس ، دوباره، او برخلاف مسیر سفری است که تنظیمکنندههای اتحادیه اروپا با کتاب قوانین دیجیتالی خود خواستار آن هستند.
راث گفت: «با هر معیاری [ایمنی در توییتر] بدتر است، مگر با معیار توییتر. ما همین هفته شاهد مطالعهای از محققان در اروپا بودیم که در مورد شیوع و گسترش اطلاعات نادرست در تمام پلتفرمهای اصلی صحبت میکردند. من به شما حدس می زنم که کدام پلتفرم بالاترین درجه انتشار را دارد: این توییتر است. ما همچنین تحقیقاتی را دیدهایم که نشان میدهد شیوع سخنان نفرتانگیز و سوء استفاده در این پلتفرم بیشتر است. ما تحقیقات مستقلی را دیدهایم که نشان میدهد داعش ۷۰ درصد بازگشتی را در توییتر انجام داده است. این مثل آزادی بیان نیست این داعش است، درست است؟ مثل اینکه ما در مورد مناطق خاکستری تعدیل محتوا صحبت نمی کنیم.»
"بررسی همکار دردناک است. هر دانشگاهی این را به شما خواهد گفت. اما دلیل وجود آن این است که می توانید به روش تجربی رضایت بخشی به این سؤالات پاسخ دهید. می توانید بگویید اگر صحبت از نفرت پراکنی است، به روشی دقیق تعریف شده است. ما این را در مورد داده های توییتر نمی دانیم. "به سادگی هیچ راهی برای دانستن وجود ندارد. تو اینطور نیست.»
انحلال تیم ارتباطی این شرکت یکی دیگر از «اصلاحات» اولیه ماسک در توییتر بود. از آن زمان، این پلتفرم معمولاً درخواستهای مطبوعاتی برای اظهار نظر را نادیده میگیرد و/یا یک پاسخ خودکار بیمعنی ارسال میکند. (آخرین پاسخ خودکار آن به این شرح است: «فعلا مشغول است، لطفاً بعداً دوباره تحلیل کنید.») اما مدیر عامل یاکارینو - که در کنفرانس کد کمی بعد از راث مصاحبه شد - ارزیابی راث را رد کرد و این ادعا را تکرار کرد که ایمنی X از زمانی که ماسک استفاده کرده است بهبود یافته است. بر فراز.
همچنین، در فاصله اندکی از دیوار سنگی X در پرسشهای مطبوعاتی، زمانی که ایمیلی را درخواست کردیم و خواستار پاسخ به نگرانیهای راث شدیم، علاوه بر پاسخ خودکار فوق، یک پاسخ (کوتاه) از جو بناروچ، یکی از اعضای سابق NBCUniversal دریافت کردیم. مدیر اجرایی (و همکار سابق یاکارینو در آنجا) که او را متقاعد کرد که تابستان امسال در کارفرمای جدیدش به او بپیوندد. او پیشنهاد کرد: «لیندا روی صحنه در Code به این موضوع پرداخت و گفت : «اگر حافظه به درستی جوابگوی من باشد، بسیاری از مواردی که یوئل در مورد آن صحبت کرد شبیه به نکاتی بود که یک سال پیش در Code بیان کرد. »
ارسال نظر