متن خبر

هیئت نظارت از متا می‌خواهد که قوانین «غیر منسجم» علیه ویدیوهای جعلی را بازنویسی کند

هیئت نظارت از متا می‌خواهد که قوانین «غیر منسجم» علیه ویدیوهای جعلی را بازنویسی کند

شناسهٔ خبر: 448279 -




یک کلیپ گمراه کننده هفت ثانیه ای از رئیس جمهور بایدن می تواند سیاست های اطلاعات غلط فیس بوک را قبل از انتخابات 2024 تغییر دهد، اما زمان پلت فرم - و رای دهندگان آمریکایی - رو به اتمام است.

هیئت نظارت، گروه مشاوره خارجی که متا برای تحلیل تصمیمات اعتدال خود در فیس بوک و اینستاگرام ایجاد کرد، روز دوشنبه تصمیمی را در رابطه با یک ویدیوی اصلاح شده از بایدن که سال گذشته در رسانه های اجتماعی منتشر شد، صادر کرد.

ویدئوی اصلی نشان می‌دهد که رئیس‌جمهور در حال همراهی نوه‌اش ناتالی بایدن برای رای دادن او در رای‌گیری زودهنگام در انتخابات میان‌دوره‌ای ۲۰۲۲ است. در این ویدئو، پرزیدنت بایدن برچسب «من رأی دادم» را به نوه‌اش چسبانده و گونه او را می‌بوسد.

نسخه کوتاه و ویرایش شده ویدیو شواهد بصری برچسب را حذف می‌کند، کلیپ را روی آهنگی با اشعار جنسی تنظیم می‌کند و آن را حلقه می‌کند تا بایدن را در حال لمس نامناسب زن جوان به تصویر بکشد. کلیپ هفت دوم در ماه مه 2023 در فیس بوک آپلود شد که بایدن را یک "پدوفیل بیمار" توصیف می کرد.

هیئت نظارت متا اعلام کرد که در اکتبر گذشته پس از اینکه یکی از کاربران فیس بوک ویدئو را گزارش کرد و در نهایت زمانی که پلتفرم از حذف آن امتناع کرد، پرونده را تشدید کرد، به این پرونده رسیدگی خواهد کرد.

در تصمیم خود که روز دوشنبه صادر شد، هیئت نظارت بیان می‌کند که انتخاب متا برای گذاشتن ویدیو به صورت آنلاین با قوانین این پلتفرم مطابقت دارد، اما این سیاست مربوطه را «ناسازگار» می‌خواند.

مایکل مک‌کانل، رئیس هیئت نظارت، گفت: «آنطور که هست، این سیاست چندان منطقی نیست. وی ادامه داد: «این فیلم ویدیوهای تغییر یافته را ممنوع می کند که نشان می دهد افراد چیزهایی را می گویند که نمی گویند، اما پست هایی را که فردی را در حال انجام کاری که انجام نداده است منع نمی کند. این فقط برای ویدیوهای ایجاد شده از طریق هوش مصنوعی اعمال می شود، اما اجازه می دهد تا سایر محتوای جعلی از قلاب خارج شوند.

مک کانل همچنین به شکست این سیاست در رسیدگی به صدای دستکاری شده اشاره کرد و آن را "یکی از قوی ترین اشکال اطلاعات نادرست انتخاباتی" خواند.

تصمیم هیئت نظارت استدلال می کند که به جای تمرکز بر نحوه ایجاد یک محتوای خاص، قوانین متا باید با آسیب هایی که برای جلوگیری از آن طراحی شده اند هدایت شوند. بر اساس این تصمیم، هرگونه تغییر باید با توجه به انتخابات جهانی «فوراً» اعمال شود.

علاوه بر گسترش خط مشی رسانه ای دستکاری شده خود، هیئت نظارت پیشنهاد کرد که متا به جای تکیه بر تحلیل کننده واقعیت، برچسب هایی را به ویدیوهای تغییریافته که آنها را پرچم گذاری می کند، اضافه کند، فرآیندی که گروه آن را به عنوان "نامتقارن بسته به زبان و بازار" مورد انتقاد قرار می دهد.

با برچسب گذاری محتوای بیشتر به جای حذف آن، هیئت نظارت بر این باور است که متا می تواند آزادی بیان را به حداکثر برساند، آسیب های احتمالی را کاهش دهد و اطلاعات بیشتری را برای کاربران فراهم کند.

سخنگوی متا در بیانیه‌ای به TechCrunch تأیید کرد که این شرکت در حال تحلیل دستورالعمل‌های هیئت نظارت است و ظرف 60 روز پاسخ عمومی را صادر خواهد کرد.

ویدئوی تغییر یافته همچنان در X، که قبلا توییتر بود، پخش می شود. ماه گذشته، یک حساب تایید شده X با 267000 دنبال کننده، کلیپ را با عنوان "رسانه ها وانمود می کنند که این اتفاق نمی افتد" به اشتراک گذاشت. این ویدیو بیش از 611000 بازدید داشته است.

ویدئوی بایدن اولین بار نیست که هیئت نظارت در نهایت به متا او میگوید که برای سیاست‌هایش به هیئت ترسیم بازگردد. هنگامی که این گروه تصمیم فیس بوک برای ممنوعیت رئیس جمهور سابق ترامپ را تحلیل کرد، ماهیت «مبهم و غیر استاندارد» مجازات نامحدود را محکوم کرد و در عین حال با انتخاب تعلیق حساب کاربری او موافقت کرد. هیئت نظارت عموماً از متا خواسته است تا جزئیات و شفافیت بیشتری را در سیاست‌های خود در همه موارد ارائه دهد.

همانطور که هیئت نظارت زمانی که پرونده «جعلی ارزان» بایدن را پذیرفت، متا بر تصمیم خود مبنی بر ترک ویدیوی تغییریافته به صورت آنلاین ایستادگی کرد زیرا خط مشی آن در مورد رسانه های دستکاری شده - عکس ها و ویدیوهای تغییر یافته گمراه کننده - فقط زمانی اعمال می شود که از هوش مصنوعی استفاده می شود یا زمانی که موضوع مورد استفاده قرار می گیرد. یک ویدیو به تصویر کشیده می شود که چیزی را که آنها نگفته اند بیان می کند.

سیاست رسانه ای دستکاری شده که با در نظر گرفتن دیپ جعلی طراحی شده است، فقط برای «ویدئوهایی که ویرایش یا ترکیب شده اند... به شیوه هایی که برای یک فرد معمولی آشکار نیست و احتمالاً یک فرد عادی را گمراه می کند، اعمال می شود».

منتقدان فرآیند تعدیل محتوای متا، هیئت تحلیل خود طراحی متا را خیلی کم و خیلی دیر رد کرده اند.

متا ممکن است در حال حاضر یک سیستم تحلیل تعدیل محتوا استاندارد داشته باشد، اما اطلاعات نادرست و سایر محتوای خطرناک سریعتر از فرآیند تجدید نظر - و بسیار سریعتر از آن چیزی است که دنیا تصور می کرد فقط دو دوره انتخابات عمومی پیش می رود.

محققان و گروه های ناظر در حال آماده شدن برای هجوم ادعاهای گمراه کننده و جعلیات تولید شده توسط هوش مصنوعی با افزایش رقابت های ریاست جمهوری 2024 هستند. اما با وجود اینکه فناوری‌های جدید امکان گسترش نادرست‌های خطرناک را فراهم می‌کنند، شرکت‌های رسانه‌های اجتماعی بی‌صدا سرمایه‌گذاری‌های خود را در زمینه اعتماد و ایمنی کاهش داده‌اند و از چیزی که زمانی تلاشی هماهنگ برای از بین بردن اطلاعات نادرست به نظر می‌رسید، روی گردانیده‌اند.

مک کانل گفت: "حجم محتوای گمراه کننده در حال افزایش است و کیفیت ابزارهای ایجاد آن به سرعت در حال افزایش است. "

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است