هیئت نظارت از متا میخواهد که قوانین «غیر منسجم» علیه ویدیوهای جعلی را بازنویسی کند
یک کلیپ گمراه کننده هفت ثانیه ای از رئیس جمهور بایدن می تواند سیاست های اطلاعات غلط فیس بوک را قبل از انتخابات 2024 تغییر دهد، اما زمان پلت فرم - و رای دهندگان آمریکایی - رو به اتمام است.
هیئت نظارت، گروه مشاوره خارجی که متا برای تحلیل تصمیمات اعتدال خود در فیس بوک و اینستاگرام ایجاد کرد، روز دوشنبه تصمیمی را در رابطه با یک ویدیوی اصلاح شده از بایدن که سال گذشته در رسانه های اجتماعی منتشر شد، صادر کرد.
ویدئوی اصلی نشان میدهد که رئیسجمهور در حال همراهی نوهاش ناتالی بایدن برای رای دادن او در رایگیری زودهنگام در انتخابات میاندورهای ۲۰۲۲ است. در این ویدئو، پرزیدنت بایدن برچسب «من رأی دادم» را به نوهاش چسبانده و گونه او را میبوسد.
نسخه کوتاه و ویرایش شده ویدیو شواهد بصری برچسب را حذف میکند، کلیپ را روی آهنگی با اشعار جنسی تنظیم میکند و آن را حلقه میکند تا بایدن را در حال لمس نامناسب زن جوان به تصویر بکشد. کلیپ هفت دوم در ماه مه 2023 در فیس بوک آپلود شد که بایدن را یک "پدوفیل بیمار" توصیف می کرد.
هیئت نظارت متا اعلام کرد که در اکتبر گذشته پس از اینکه یکی از کاربران فیس بوک ویدئو را گزارش کرد و در نهایت زمانی که پلتفرم از حذف آن امتناع کرد، پرونده را تشدید کرد، به این پرونده رسیدگی خواهد کرد.
در تصمیم خود که روز دوشنبه صادر شد، هیئت نظارت بیان میکند که انتخاب متا برای گذاشتن ویدیو به صورت آنلاین با قوانین این پلتفرم مطابقت دارد، اما این سیاست مربوطه را «ناسازگار» میخواند.
مایکل مککانل، رئیس هیئت نظارت، گفت: «آنطور که هست، این سیاست چندان منطقی نیست. وی ادامه داد: «این فیلم ویدیوهای تغییر یافته را ممنوع می کند که نشان می دهد افراد چیزهایی را می گویند که نمی گویند، اما پست هایی را که فردی را در حال انجام کاری که انجام نداده است منع نمی کند. این فقط برای ویدیوهای ایجاد شده از طریق هوش مصنوعی اعمال می شود، اما اجازه می دهد تا سایر محتوای جعلی از قلاب خارج شوند.
مک کانل همچنین به شکست این سیاست در رسیدگی به صدای دستکاری شده اشاره کرد و آن را "یکی از قوی ترین اشکال اطلاعات نادرست انتخاباتی" خواند.
تصمیم هیئت نظارت استدلال می کند که به جای تمرکز بر نحوه ایجاد یک محتوای خاص، قوانین متا باید با آسیب هایی که برای جلوگیری از آن طراحی شده اند هدایت شوند. بر اساس این تصمیم، هرگونه تغییر باید با توجه به انتخابات جهانی «فوراً» اعمال شود.
علاوه بر گسترش خط مشی رسانه ای دستکاری شده خود، هیئت نظارت پیشنهاد کرد که متا به جای تکیه بر تحلیل کننده واقعیت، برچسب هایی را به ویدیوهای تغییریافته که آنها را پرچم گذاری می کند، اضافه کند، فرآیندی که گروه آن را به عنوان "نامتقارن بسته به زبان و بازار" مورد انتقاد قرار می دهد.
با برچسب گذاری محتوای بیشتر به جای حذف آن، هیئت نظارت بر این باور است که متا می تواند آزادی بیان را به حداکثر برساند، آسیب های احتمالی را کاهش دهد و اطلاعات بیشتری را برای کاربران فراهم کند.
سخنگوی متا در بیانیهای به TechCrunch تأیید کرد که این شرکت در حال تحلیل دستورالعملهای هیئت نظارت است و ظرف 60 روز پاسخ عمومی را صادر خواهد کرد.
ویدئوی تغییر یافته همچنان در X، که قبلا توییتر بود، پخش می شود. ماه گذشته، یک حساب تایید شده X با 267000 دنبال کننده، کلیپ را با عنوان "رسانه ها وانمود می کنند که این اتفاق نمی افتد" به اشتراک گذاشت. این ویدیو بیش از 611000 بازدید داشته است.
ویدئوی بایدن اولین بار نیست که هیئت نظارت در نهایت به متا او میگوید که برای سیاستهایش به هیئت ترسیم بازگردد. هنگامی که این گروه تصمیم فیس بوک برای ممنوعیت رئیس جمهور سابق ترامپ را تحلیل کرد، ماهیت «مبهم و غیر استاندارد» مجازات نامحدود را محکوم کرد و در عین حال با انتخاب تعلیق حساب کاربری او موافقت کرد. هیئت نظارت عموماً از متا خواسته است تا جزئیات و شفافیت بیشتری را در سیاستهای خود در همه موارد ارائه دهد.
همانطور که هیئت نظارت زمانی که پرونده «جعلی ارزان» بایدن را پذیرفت، متا بر تصمیم خود مبنی بر ترک ویدیوی تغییریافته به صورت آنلاین ایستادگی کرد زیرا خط مشی آن در مورد رسانه های دستکاری شده - عکس ها و ویدیوهای تغییر یافته گمراه کننده - فقط زمانی اعمال می شود که از هوش مصنوعی استفاده می شود یا زمانی که موضوع مورد استفاده قرار می گیرد. یک ویدیو به تصویر کشیده می شود که چیزی را که آنها نگفته اند بیان می کند.
سیاست رسانه ای دستکاری شده که با در نظر گرفتن دیپ جعلی طراحی شده است، فقط برای «ویدئوهایی که ویرایش یا ترکیب شده اند... به شیوه هایی که برای یک فرد معمولی آشکار نیست و احتمالاً یک فرد عادی را گمراه می کند، اعمال می شود».
منتقدان فرآیند تعدیل محتوای متا، هیئت تحلیل خود طراحی متا را خیلی کم و خیلی دیر رد کرده اند.
متا ممکن است در حال حاضر یک سیستم تحلیل تعدیل محتوا استاندارد داشته باشد، اما اطلاعات نادرست و سایر محتوای خطرناک سریعتر از فرآیند تجدید نظر - و بسیار سریعتر از آن چیزی است که دنیا تصور می کرد فقط دو دوره انتخابات عمومی پیش می رود.
محققان و گروه های ناظر در حال آماده شدن برای هجوم ادعاهای گمراه کننده و جعلیات تولید شده توسط هوش مصنوعی با افزایش رقابت های ریاست جمهوری 2024 هستند. اما با وجود اینکه فناوریهای جدید امکان گسترش نادرستهای خطرناک را فراهم میکنند، شرکتهای رسانههای اجتماعی بیصدا سرمایهگذاریهای خود را در زمینه اعتماد و ایمنی کاهش دادهاند و از چیزی که زمانی تلاشی هماهنگ برای از بین بردن اطلاعات نادرست به نظر میرسید، روی گردانیدهاند.
مک کانل گفت: "حجم محتوای گمراه کننده در حال افزایش است و کیفیت ابزارهای ایجاد آن به سرعت در حال افزایش است. "
ارسال نظر