هیئت نظارت متا تصاویر صریح تولید شده توسط هوش مصنوعی منتشر شده در اینستاگرام و فیس بوک را بررسی می کند
هیئت نظارت، شورای سیاست گذاری نیمه مستقل متا، توجه خود را به نحوه برخورد پلتفرم های اجتماعی این شرکت با تصاویر واضح و تولید شده توسط هوش مصنوعی معطوف کرده است. سهشنبه، پس از اینکه سیستمهای متا در شناسایی و پاسخگویی به محتوای صریح کوتاهی کردند، تحقیقاتی را در مورد دو مورد جداگانه در مورد چگونگی مدیریت اینستاگرام در هند و فیسبوک در ایالات متحده با تصاویر افراد عمومی ایجاد شده توسط هوش مصنوعی اعلام کرد.
در هر دو مورد، سایت ها اکنون رسانه ها را حذف کرده اند. بر اساس ایمیلی که متا به TechCrunch ارسال شده است، هیئت مدیره نام افرادی را که هدف تصاویر هوش مصنوعی قرار گرفته اند، «برای جلوگیری از آزار جنسیتی» نمی کند.
هیئت مدیره موارد مربوط به تصمیمات اعتدال متا را تحلیل می کند. کاربران باید قبل از مراجعه به هیئت نظارت، ابتدا در مورد یک حرکت اعتدال به متا اعتراض کنند. هیئت مدیره قرار است در آینده یافته ها و نتایج کامل خود را منتشر کند.
موارد
هیئت مدیره در توصیف اولین مورد بيان کرد که یک کاربر برهنه شدن یک شخصیت عمومی از هند در اینستاگرام را که توسط هوش مصنوعی ایجاد شده است را به عنوان پورنوگرافی گزارش کرده است. این تصویر توسط حساب کاربری منتشر شده است که به طور انحصاری تصاویر زنان هندی ایجاد شده توسط هوش مصنوعی را منتشر می کند و اکثر کاربرانی که به این تصاویر واکنش نشان می دهند در هند مستقر هستند.
متا پس از اولین گزارش نتوانست تصویر را حذف کند و بلیط گزارش پس از 48 ساعت پس از اینکه شرکت گزارش را بیشتر تحلیل نکرد، به طور خودکار بسته شد. هنگامی که شاکی اصلی به این تصمیم اعتراض کرد، گزارش دوباره به طور خودکار بدون هیچ نظارتی از سوی متا بسته شد. به عبارت دیگر، پس از دو گزارش، تصویر صریح تولید شده توسط هوش مصنوعی در اینستاگرام باقی ماند.
سپس کاربر در نهایت به هیئت مدیره درخواست تجدید نظر کرد. این شرکت تنها در آن مرحله اقدام به حذف محتوای اعتراض آمیز کرد و تصویر را به دلیل نقض استانداردهای جامعه خود در مورد قلدری و آزار و اذیت حذف کرد.
مورد دوم به فیس بوک مربوط می شود، جایی که کاربر تصویری صریح و تولید شده توسط هوش مصنوعی را منتشر کرد که شبیه یک شخصیت عمومی ایالات متحده در گروهی بود که بر خلاقیت های هوش مصنوعی تمرکز می کرد. در این مورد، شبکه اجتماعی تصویر را همانطور که قبلاً توسط کاربر دیگری ارسال شده بود حذف کرد و متا آن را به بانک خدمات تطبیق رسانهای تحت دسته «فتوشاپ یا نقاشیهای جنسی تحقیرآمیز» اضافه کرده بود.
هنگامی که TechCrunch در مورد اینکه چرا هیئت مدیره پرونده ای را انتخاب کرد که شرکت با موفقیت تصویر صریح تولید شده توسط هوش مصنوعی را حذف کرد، هیئت مدیره بيان کرد مواردی را انتخاب می کند که "مشاهده مسائل گسترده تر در پلتفرم های متا هستند." وی گفت که این موارد به هیئت مشورتی کمک می کند تا به اثربخشی جهانی سیاست ها و فرآیندهای متا برای موضوعات مختلف نگاه کند.
ما می دانیم که متا در تعدیل محتوا در برخی بازارها و زبان ها سریعتر و مؤثرتر از سایرین است. هل تورنینگ اشمیت، رئیس هیئت نظارت مشترک، در بیانیهای گفت: با گرفتن یک مورد از ایالات متحده و یک مورد از هند، ما میخواهیم ببینیم که آیا متا از همه زنان در سراسر جهان به روشی منصفانه محافظت میکند یا خیر.
«هیئت مدیره معتقد است که تحلیل اینکه آیا سیاستها و شیوههای اجرایی متا در رسیدگی به این مشکل مؤثر است یا خیر، مهم است».
مشکل پورن جعلی عمیق و خشونت مبتنی بر جنسیت آنلاین
برخی - نه همه - ابزارهای مولد هوش مصنوعی در سال های اخیر گسترش یافته اند تا به کاربران اجازه تولید پورن را بدهند. همانطور که TechCrunch قبلا گزارش داده بود، گروه هایی مانند Unstable Diffusion در تلاش برای کسب درآمد از پورن هوش مصنوعی با خطوط مبهم اخلاقی و سوگیری در داده ها هستند.
در مناطقی مانند هند، دیپ فیک نیز به یک موضوع نگران کننده تبدیل شده است. سال گذشته، گزارشی از بیبیسی اشاره کرد که تعداد ویدیوهای جعلی بازیگران زن هندی در چند وقت اخیر افزایش یافته است. دادهها نشان میدهد که زنان بیشتر سوژههای ویدیوهای جعلی هستند.
در اوایل سال جاری، راجیو چاندراسخار، معاون وزیر فناوری اطلاعات، از رویکرد شرکتهای فناوری برای مقابله با دیپفیک ابراز نارضایتی کرد.
چاندراسخار در یک کنفرانس مطبوعاتی در آن زمان گفت: «اگر یک پلتفرم فکر میکند که میتواند بدون حذف ویدیوهای دیپفیک فرار کند، یا صرفاً رویکردی معمولی نسبت به آن داشته باشد، ما این قدرت را داریم که با مسدود کردن چنین پلتفرمهایی از شهروندان خود محافظت کنیم.»
در حالی که هند به دنبال آوردن قوانین خاص مرتبط با دیپ فیک به قانون است، هنوز هیچ چیزی مشخص نشده است.
در حالی که طبق قانون در کشور مقرراتی برای گزارش خشونت مبتنی بر جنسیت آنلاین وجود دارد، کارشناسان خاطرنشان می کنند که این روند می تواند خسته کننده باشد و اغلب حمایت کمی وجود دارد. در مطالعهای که سال گذشته منتشر شد، گروه مدافع هندی IT for Change بيان کرد که دادگاههای هند باید فرآیندهای قوی برای رسیدگی به خشونتهای مبتنی بر جنسیت آنلاین داشته باشند و این موارد را بیاهمیت جلوه ندهند.
Aparajita Bharti، یکی از بنیانگذاران The Quantum Hub، یک شرکت مشاوره سیاست عمومی مستقر در هند، بيان کرد که باید محدودیتهایی در مدلهای هوش مصنوعی وجود داشته باشد تا از ایجاد محتوای صریح که باعث آسیب میشود جلوگیری شود.
خطر اصلی هوش مصنوعی تولیدی این است که حجم چنین محتوایی افزایش مییابد زیرا تولید چنین محتوایی آسان و با درجه بالایی از پیچیدگی است. پس ، ابتدا باید با آموزش مدلهای هوش مصنوعی برای محدود کردن خروجی در صورتی که قصد آسیب رساندن به شخصی از قبل مشخص شده باشد، از ایجاد چنین محتوایی جلوگیری کنیم. بهارتی از طریق ایمیل به TechCrunch گفت: ما همچنین باید برچسبگذاری پیشفرض را برای تشخیص آسان معرفی کنیم.
در حال حاضر تنها چند قانون در سطح جهان وجود دارد که به تولید و توزیع پورن های تولید شده با استفاده از ابزارهای هوش مصنوعی می پردازد. تعداد انگشت شماری از ایالت های آمریکا قوانینی علیه دیپ فیک دارند. بریتانیا این هفته قانونی را برای جرم انگاری ایجاد تصاویر صریح جنسی مبتنی بر هوش مصنوعی معرفی کرد.
پاسخ متا و مراحل بعدی
در پاسخ به پرونده های هیئت نظارت، متا بيان کرد که هر دو قطعه محتوا را حذف کرده است. با این حال، این شرکت رسانههای اجتماعی به این واقعیت توجه نکرد که پس از گزارشهای اولیه توسط کاربران یا مدت زمانی که محتوا در این پلتفرم وجود داشت، موفق به حذف محتوا در اینستاگرام نشد.
متا بيان کرد که از ترکیبی از هوش مصنوعی و تحلیل انسانی برای شناسایی محتوای تلقینکننده جنسی استفاده میکند. این غول رسانه های اجتماعی بيان کرد که این نوع محتوا را در مکان هایی مانند Instagram Explore یا Reels توصیه نمی کند.
هیئت نظارت به دنبال نظرات عمومی - با ضرب الاجل 30 آوریل - در مورد این موضوع است که به آسیب های پورن های جعلی عمیق، اطلاعات متنی در مورد تکثیر چنین محتوایی در مناطقی مانند ایالات متحده و هند و مشکلات احتمالی رویکرد متا در شناسایی می پردازد. تصاویر صریح ایجاد شده توسط هوش مصنوعی.
هیأت مدیره موارد و نظرات عمومی را تحلیل کرده و تا چند هفته دیگر تصمیم را در سایت قرار خواهد داد.
این موارد نشان میدهد که پلتفرمهای بزرگ هنوز با فرآیندهای تعدیل قدیمیتر دست و پنجه نرم میکنند، در حالی که ابزارهای مبتنی بر هوش مصنوعی کاربران را قادر میسازد تا انواع مختلف محتوا را به سرعت و به راحتی ایجاد و توزیع کنند. شرکتهایی مانند Meta در حال آزمایش ابزارهایی هستند که از هوش مصنوعی برای تولید محتوا استفاده میکنند و تلاشهایی برای شناسایی چنین تصاویری انجام میدهند. در ماه آوریل، این شرکت اعلام کرد که اگر بتواند محتوا را با استفاده از «شاخصهای تصویر استاندارد صنعت هوش مصنوعی» یا افشای اطلاعات کاربران شناسایی کند، نشانهای «ساخته شده با هوش مصنوعی» را برای دیپفیکها اعمال خواهد کرد.
با این حال، مجرمان دائماً راههایی برای فرار از این سیستمهای شناسایی و ارسال محتوای مشکلساز در پلتفرمهای اجتماعی پیدا میکنند.
ارسال نظر