متن خبر

خرابی دیپ فیک تیلور سویفت به طرز ناامیدکننده ای قابل پیشگیری بود

خرابی دیپ فیک تیلور سویفت به طرز ناامیدکننده ای قابل پیشگیری بود

شناسهٔ خبر: 446907 -




می‌دانید که وقتی کاخ سفید، شخصیت سال تایم و خشن‌ترین طرفداران فرهنگ پاپ را عصبانی کرده‌اید، اشتباه کرده‌اید. این همان اتفاقی است که هفته گذشته برای X، پلتفرم متعلق به ایلان ماسک که قبلا توییتر نامیده می‌شد، رخ داد، زمانی که تصاویر مستهجن تیلور سوئیفت توسط هوش مصنوعی منتشر شد.

یکی از گسترده‌ترین پست‌های دیپ‌فیک غیر توافقی و صریح بیش از ۴۵ میلیون بار مشاهده شد و صدها هزار لایک داشت. این حتی در همه حساب‌هایی که تصاویر را مجدداً در پست‌های جداگانه به اشتراک گذاشته‌اند نیز فاکتور نمی‌گیرد – هنگامی که یک تصویر به‌طور گسترده منتشر شد، اساساً حذف آن غیرممکن است.

X فاقد زیرساخت برای شناسایی سریع و در مقیاس محتوای توهین آمیز است. حتی در روزهای توییتر، رفع این مشکل دشوار بود، اما از زمانی که ماسک بسیاری از کارکنان توییتر، از جمله اکثریت تیم‌های اعتماد و ایمنی آن را از بین برد، وضعیت بسیار بدتر شده است. پس ، طرفداران عظیم و پرشور تیلور سوئیفت همه چیز را به دست گرفت و نتایج جستجوی جستجوهایی مانند "taylor swift ai" و "taylor swift deepfake" را پر کرد تا یافتن تصاویر توهین آمیز را برای کاربران دشوارتر کند. همانطور که دبیر مطبوعاتی کاخ سفید از کنگره خواست تا کاری انجام دهد، X به سادگی عبارت جستجوی «تیلور سویفت» را برای چند روز ممنوع کرد. هنگامی که کاربران نام نوازنده را جستجو می کردند، متوجه می شوند که خطایی رخ داده است.

این شکست در تعدیل محتوا به یک خبر ملی تبدیل شد، زیرا تیلور سویفت تیلور سویفت است. اما اگر پلتفرم‌های اجتماعی نتوانند از یکی از مشهورترین زنان جهان محافظت کنند، از چه کسی محافظت می‌کنند؟

اگر اتفاقی که برای تیلور سوئیفت افتاد برای شما بیفتد، همانطور که برای بسیاری از افراد اتفاق افتاده است، احتمالاً بر اساس قدرت به همان میزان پشتیبانی نخواهید داشت، به این معنی که واقعاً به این موارد دسترسی نخواهید داشت. دکتر کارولینا آر، یکی از همکاران مرکز شهروندان دیجیتال دانشگاه نورثامبریا در بریتانیا، به TechCrunch گفت. و این جوامع مراقبتی همان چیزی است که بیشتر کاربران در این شرایط مجبورند به آن متوسل شوند، که واقعاً نشان دهنده شکست در تعدیل محتوا است.

ممنوع کردن عبارت جستجوی «تیلور سوئیفت» مانند قرار دادن یک تکه نوار چسب بر روی یک لوله ترکیده است. راه‌حل‌های واضح زیادی وجود دارد، مانند اینکه چگونه کاربران TikTok به جای جنسیت، «seggs» را جستجو می‌کنند. بلوک جستجو چیزی بود که X می‌توانست آن را پیاده‌سازی کند تا به نظر برسد که در حال انجام کاری هستند، اما افراد را از جستجوی «t swift» باز نمی‌دارد. مایک مسنیک، مؤسس موسسه Copia و Techdirt، این تلاش را "نسخه چکش سورتمه اعتماد و ایمنی" نامید.

آری او میگوید : «پلت‌فرم‌ها وقتی صحبت از اختیار دادن اختیار به زنان، افراد غیر باینری و افراد دگرباش به بدنشان می‌شود، بد است، پس آنها سیستم‌های آفلاین سوءاستفاده و مردسالاری را تکرار می‌کنند. "اگر سیستم های اعتدال شما قادر به واکنش در یک بحران نیستند، یا اگر سیستم های تعدیل شما قادر به واکنش به نیازهای کاربران در هنگام گزارش اشتباه هستند، ما مشکل داریم."

پس ، X باید برای جلوگیری از شکست تیلور سویفت چه می‌کرد؟

Are این سوالات را به عنوان بخشی از تحقیقات خود می پرسد و پیشنهاد می کند که پلتفرم های اجتماعی نیاز به بازنگری کامل در نحوه مدیریت محتوا دارند. او اخیراً مجموعه‌ای از میزگردها را با 45 کاربر اینترنتی از سراسر جهان که تحت تأثیر سانسور و سوء استفاده قرار گرفته‌اند، انجام داد تا توصیه‌هایی را برای پلتفرم‌ها درباره نحوه اعمال تغییرات ارائه کند.

یکی از توصیه‌ها این است که پلتفرم‌های رسانه‌های اجتماعی در مورد تصمیم‌گیری‌های مربوط به حساب کاربری یا گزارش‌های آن‌ها درباره حساب‌های دیگر با کاربران فردی شفاف‌تر باشند.

آر گفت: "شما به پرونده پرونده دسترسی ندارید، حتی اگر پلتفرم ها به آن مطالب دسترسی دارند - آنها فقط نمی خواهند آن را عمومی کنند." من فکر می‌کنم وقتی صحبت از سوء استفاده به میان می‌آید، مردم به پاسخی شخصی‌تر، متنی و سریع‌تر نیاز دارند که شامل کمک چهره به چهره، حداقل ارتباط مستقیم است. »

X این هفته اعلام کرد که 100 ناظر محتوا را برای کار در یک مرکز جدید "اعتماد و ایمنی" در آستین، تگزاس استخدام خواهد کرد. اما تحت نظارت ماسک، این پلتفرم سابقه قوی برای محافظت از کاربران حاشیه ای در برابر سوء استفاده ایجاد نکرده است. گرفتن ماسک نیز می تواند چالش برانگیز باشد، زیرا این غول سابقه طولانی در عدم تحقق وعده های خود دارد. زمانی که ماسک برای اولین بار توییتر را خرید، اعلام کرد که قبل از اتخاذ تصمیمات مهم، یک شورای نظارت بر محتوا تشکیل خواهد داد. این اتفاق نیفتاد.

در مورد دیپ‌فیک‌های تولید شده توسط هوش مصنوعی، مسئولیت فقط بر عهده پلتفرم‌های اجتماعی نیست. همچنین بر روی شرکت هایی است که محصولات هوش مصنوعی مولد برای مصرف کننده را ایجاد می کنند.

بر اساس تحقیقات انجام شده توسط 404 Media، تصاویر توهین آمیز سوئیفت از یک گروه تلگرامی است که به ایجاد دیپ فیک های غیر توافقی و صریح اختصاص داده شده است. کاربران این گروه اغلب از Microsoft Designer استفاده می‌کنند که از OpenAI's DALL-E 3 برای تولید تصاویر بر اساس درخواست‌های ورودی استفاده می‌کند. در حفره‌ای که مایکروسافت از آن زمان به آن پرداخته است، کاربران می‌توانند با نوشتن اعلان‌هایی مانند «تیلور خواننده سوئیفت» یا «جنیفر «بازیگر آنیستون» تصاویری از افراد مشهور تولید کنند.

یکی از مدیران ارشد مهندسی نرم‌افزار در مایکروسافت، شین جونز، نامه‌ای به دادستان کل ایالت واشنگتن نوشت و اظهار داشت که آسیب‌پذیری‌هایی در DALL-E 3 در ماه دسامبر پیدا کرده است که امکان دور زدن برخی از حفاظ‌هایی را که برای جلوگیری از الگوی ایجاد و توزیع تصاویر مضر."

جونز به مایکروسافت و OpenAI در مورد آسیب‌پذیری‌ها هشدار داد، اما پس از دو هفته، هیچ نشانه‌ای مبنی بر رسیدگی به این مشکلات دریافت ن کرد. پس ، او نامه ای سرگشاده در لینکدین ارسال کرد تا از OpenAI بخواهد در دسترس بودن DALL-E 3 را به حالت تعلیق درآورد. جونز به مایکروسافت در مورد نامه خود هشدار داد، اما به سرعت از او خواسته شد تا آن را حذف کند.

جونز در نامه خود به دادستان کل ایالت نوشت: «ما باید شرکت‌ها را در قبال ایمنی محصولاتشان و مسئولیت آن‌ها در افشای خطرات شناخته شده برای عموم، پاسخگو بدانیم.» کارمندان نگران، مانند من، نباید از سکوت مرعوب شوند.»

از آنجایی که تاثیرگذارترین شرکت‌های جهان روی هوش مصنوعی شرط‌بندی می‌کنند، پلتفرم‌ها باید رویکردی فعالانه برای تنظیم محتوای توهین‌آمیز داشته باشند – اما حتی در دوره‌ای که ساخت دیپ‌فیک افراد مشهور چندان آسان نبود، رفتارهای تخطی‌آمیز به راحتی از اعتدال طفره می‌رفت.

آر گفت: «این واقعاً به شما نشان می‌دهد که پلتفرم‌ها غیرقابل اعتماد هستند. جوامع به حاشیه رانده شده باید بیشتر از افرادی که از نظر فنی مسئولیت ایمنی آنلاین ما را بر عهده دارند، به پیروان و سایر کاربران خود اعتماد کنند.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است