خرابی دیپ فیک تیلور سویفت به طرز ناامیدکننده ای قابل پیشگیری بود
میدانید که وقتی کاخ سفید، شخصیت سال تایم و خشنترین طرفداران فرهنگ پاپ را عصبانی کردهاید، اشتباه کردهاید. این همان اتفاقی است که هفته گذشته برای X، پلتفرم متعلق به ایلان ماسک که قبلا توییتر نامیده میشد، رخ داد، زمانی که تصاویر مستهجن تیلور سوئیفت توسط هوش مصنوعی منتشر شد.
یکی از گستردهترین پستهای دیپفیک غیر توافقی و صریح بیش از ۴۵ میلیون بار مشاهده شد و صدها هزار لایک داشت. این حتی در همه حسابهایی که تصاویر را مجدداً در پستهای جداگانه به اشتراک گذاشتهاند نیز فاکتور نمیگیرد – هنگامی که یک تصویر بهطور گسترده منتشر شد، اساساً حذف آن غیرممکن است.
X فاقد زیرساخت برای شناسایی سریع و در مقیاس محتوای توهین آمیز است. حتی در روزهای توییتر، رفع این مشکل دشوار بود، اما از زمانی که ماسک بسیاری از کارکنان توییتر، از جمله اکثریت تیمهای اعتماد و ایمنی آن را از بین برد، وضعیت بسیار بدتر شده است. پس ، طرفداران عظیم و پرشور تیلور سوئیفت همه چیز را به دست گرفت و نتایج جستجوی جستجوهایی مانند "taylor swift ai" و "taylor swift deepfake" را پر کرد تا یافتن تصاویر توهین آمیز را برای کاربران دشوارتر کند. همانطور که دبیر مطبوعاتی کاخ سفید از کنگره خواست تا کاری انجام دهد، X به سادگی عبارت جستجوی «تیلور سویفت» را برای چند روز ممنوع کرد. هنگامی که کاربران نام نوازنده را جستجو می کردند، متوجه می شوند که خطایی رخ داده است.
این شکست در تعدیل محتوا به یک خبر ملی تبدیل شد، زیرا تیلور سویفت تیلور سویفت است. اما اگر پلتفرمهای اجتماعی نتوانند از یکی از مشهورترین زنان جهان محافظت کنند، از چه کسی محافظت میکنند؟
اگر اتفاقی که برای تیلور سوئیفت افتاد برای شما بیفتد، همانطور که برای بسیاری از افراد اتفاق افتاده است، احتمالاً بر اساس قدرت به همان میزان پشتیبانی نخواهید داشت، به این معنی که واقعاً به این موارد دسترسی نخواهید داشت. دکتر کارولینا آر، یکی از همکاران مرکز شهروندان دیجیتال دانشگاه نورثامبریا در بریتانیا، به TechCrunch گفت. و این جوامع مراقبتی همان چیزی است که بیشتر کاربران در این شرایط مجبورند به آن متوسل شوند، که واقعاً نشان دهنده شکست در تعدیل محتوا است.
ممنوع کردن عبارت جستجوی «تیلور سوئیفت» مانند قرار دادن یک تکه نوار چسب بر روی یک لوله ترکیده است. راهحلهای واضح زیادی وجود دارد، مانند اینکه چگونه کاربران TikTok به جای جنسیت، «seggs» را جستجو میکنند. بلوک جستجو چیزی بود که X میتوانست آن را پیادهسازی کند تا به نظر برسد که در حال انجام کاری هستند، اما افراد را از جستجوی «t swift» باز نمیدارد. مایک مسنیک، مؤسس موسسه Copia و Techdirt، این تلاش را "نسخه چکش سورتمه اعتماد و ایمنی" نامید.
آری او میگوید : «پلتفرمها وقتی صحبت از اختیار دادن اختیار به زنان، افراد غیر باینری و افراد دگرباش به بدنشان میشود، بد است، پس آنها سیستمهای آفلاین سوءاستفاده و مردسالاری را تکرار میکنند. "اگر سیستم های اعتدال شما قادر به واکنش در یک بحران نیستند، یا اگر سیستم های تعدیل شما قادر به واکنش به نیازهای کاربران در هنگام گزارش اشتباه هستند، ما مشکل داریم."
پس ، X باید برای جلوگیری از شکست تیلور سویفت چه میکرد؟
Are این سوالات را به عنوان بخشی از تحقیقات خود می پرسد و پیشنهاد می کند که پلتفرم های اجتماعی نیاز به بازنگری کامل در نحوه مدیریت محتوا دارند. او اخیراً مجموعهای از میزگردها را با 45 کاربر اینترنتی از سراسر جهان که تحت تأثیر سانسور و سوء استفاده قرار گرفتهاند، انجام داد تا توصیههایی را برای پلتفرمها درباره نحوه اعمال تغییرات ارائه کند.
یکی از توصیهها این است که پلتفرمهای رسانههای اجتماعی در مورد تصمیمگیریهای مربوط به حساب کاربری یا گزارشهای آنها درباره حسابهای دیگر با کاربران فردی شفافتر باشند.
آر گفت: "شما به پرونده پرونده دسترسی ندارید، حتی اگر پلتفرم ها به آن مطالب دسترسی دارند - آنها فقط نمی خواهند آن را عمومی کنند." من فکر میکنم وقتی صحبت از سوء استفاده به میان میآید، مردم به پاسخی شخصیتر، متنی و سریعتر نیاز دارند که شامل کمک چهره به چهره، حداقل ارتباط مستقیم است. »
X این هفته اعلام کرد که 100 ناظر محتوا را برای کار در یک مرکز جدید "اعتماد و ایمنی" در آستین، تگزاس استخدام خواهد کرد. اما تحت نظارت ماسک، این پلتفرم سابقه قوی برای محافظت از کاربران حاشیه ای در برابر سوء استفاده ایجاد نکرده است. گرفتن ماسک نیز می تواند چالش برانگیز باشد، زیرا این غول سابقه طولانی در عدم تحقق وعده های خود دارد. زمانی که ماسک برای اولین بار توییتر را خرید، اعلام کرد که قبل از اتخاذ تصمیمات مهم، یک شورای نظارت بر محتوا تشکیل خواهد داد. این اتفاق نیفتاد.
در مورد دیپفیکهای تولید شده توسط هوش مصنوعی، مسئولیت فقط بر عهده پلتفرمهای اجتماعی نیست. همچنین بر روی شرکت هایی است که محصولات هوش مصنوعی مولد برای مصرف کننده را ایجاد می کنند.
بر اساس تحقیقات انجام شده توسط 404 Media، تصاویر توهین آمیز سوئیفت از یک گروه تلگرامی است که به ایجاد دیپ فیک های غیر توافقی و صریح اختصاص داده شده است. کاربران این گروه اغلب از Microsoft Designer استفاده میکنند که از OpenAI's DALL-E 3 برای تولید تصاویر بر اساس درخواستهای ورودی استفاده میکند. در حفرهای که مایکروسافت از آن زمان به آن پرداخته است، کاربران میتوانند با نوشتن اعلانهایی مانند «تیلور خواننده سوئیفت» یا «جنیفر «بازیگر آنیستون» تصاویری از افراد مشهور تولید کنند.
یکی از مدیران ارشد مهندسی نرمافزار در مایکروسافت، شین جونز، نامهای به دادستان کل ایالت واشنگتن نوشت و اظهار داشت که آسیبپذیریهایی در DALL-E 3 در ماه دسامبر پیدا کرده است که امکان دور زدن برخی از حفاظهایی را که برای جلوگیری از الگوی ایجاد و توزیع تصاویر مضر."
جونز به مایکروسافت و OpenAI در مورد آسیبپذیریها هشدار داد، اما پس از دو هفته، هیچ نشانهای مبنی بر رسیدگی به این مشکلات دریافت ن کرد. پس ، او نامه ای سرگشاده در لینکدین ارسال کرد تا از OpenAI بخواهد در دسترس بودن DALL-E 3 را به حالت تعلیق درآورد. جونز به مایکروسافت در مورد نامه خود هشدار داد، اما به سرعت از او خواسته شد تا آن را حذف کند.
جونز در نامه خود به دادستان کل ایالت نوشت: «ما باید شرکتها را در قبال ایمنی محصولاتشان و مسئولیت آنها در افشای خطرات شناخته شده برای عموم، پاسخگو بدانیم.» کارمندان نگران، مانند من، نباید از سکوت مرعوب شوند.»
از آنجایی که تاثیرگذارترین شرکتهای جهان روی هوش مصنوعی شرطبندی میکنند، پلتفرمها باید رویکردی فعالانه برای تنظیم محتوای توهینآمیز داشته باشند – اما حتی در دورهای که ساخت دیپفیک افراد مشهور چندان آسان نبود، رفتارهای تخطیآمیز به راحتی از اعتدال طفره میرفت.
آر گفت: «این واقعاً به شما نشان میدهد که پلتفرمها غیرقابل اعتماد هستند. جوامع به حاشیه رانده شده باید بیشتر از افرادی که از نظر فنی مسئولیت ایمنی آنلاین ما را بر عهده دارند، به پیروان و سایر کاربران خود اعتماد کنند.
ارسال نظر