متن خبر

هیئت نظارت متا تصاویر صریح تولید شده توسط هوش مصنوعی منتشر شده در اینستاگرام و فیس بوک را بررسی می کند

هیئت نظارت متا تصاویر صریح تولید شده توسط هوش مصنوعی منتشر شده در اینستاگرام و فیس بوک را بررسی می کند

شناسهٔ خبر: 464740 -




هیئت نظارت، شورای سیاست گذاری نیمه مستقل متا، توجه خود را به نحوه برخورد پلتفرم های اجتماعی این شرکت با تصاویر واضح و تولید شده توسط هوش مصنوعی معطوف کرده است. سه‌شنبه، پس از اینکه سیستم‌های متا در شناسایی و پاسخگویی به محتوای صریح کوتاهی کردند، تحقیقاتی را در مورد دو مورد جداگانه در مورد چگونگی مدیریت اینستاگرام در هند و فیس‌بوک در ایالات متحده با تصاویر افراد عمومی ایجاد شده توسط هوش مصنوعی اعلام کرد.

در هر دو مورد، سایت ها اکنون رسانه ها را حذف کرده اند. بر اساس ایمیلی که متا به TechCrunch ارسال شده است، هیئت مدیره نام افرادی را که هدف تصاویر هوش مصنوعی قرار گرفته اند، «برای جلوگیری از آزار جنسیتی» نمی کند.

هیئت مدیره موارد مربوط به تصمیمات اعتدال متا را تحلیل می کند. کاربران باید قبل از مراجعه به هیئت نظارت، ابتدا در مورد یک حرکت اعتدال به متا اعتراض کنند. هیئت مدیره قرار است در آینده یافته ها و نتایج کامل خود را منتشر کند.

موارد

هیئت مدیره در توصیف اولین مورد بيان کرد که یک کاربر برهنه شدن یک شخصیت عمومی از هند در اینستاگرام را که توسط هوش مصنوعی ایجاد شده است را به عنوان پورنوگرافی گزارش کرده است. این تصویر توسط حساب کاربری منتشر شده است که به طور انحصاری تصاویر زنان هندی ایجاد شده توسط هوش مصنوعی را منتشر می کند و اکثر کاربرانی که به این تصاویر واکنش نشان می دهند در هند مستقر هستند.

متا پس از اولین گزارش نتوانست تصویر را حذف کند و بلیط گزارش پس از 48 ساعت پس از اینکه شرکت گزارش را بیشتر تحلیل نکرد، به طور خودکار بسته شد. هنگامی که شاکی اصلی به این تصمیم اعتراض کرد، گزارش دوباره به طور خودکار بدون هیچ نظارتی از سوی متا بسته شد. به عبارت دیگر، پس از دو گزارش، تصویر صریح تولید شده توسط هوش مصنوعی در اینستاگرام باقی ماند.

سپس کاربر در نهایت به هیئت مدیره درخواست تجدید نظر کرد. این شرکت تنها در آن مرحله اقدام به حذف محتوای اعتراض آمیز کرد و تصویر را به دلیل نقض استانداردهای جامعه خود در مورد قلدری و آزار و اذیت حذف کرد.

مورد دوم به فیس بوک مربوط می شود، جایی که کاربر تصویری صریح و تولید شده توسط هوش مصنوعی را منتشر کرد که شبیه یک شخصیت عمومی ایالات متحده در گروهی بود که بر خلاقیت های هوش مصنوعی تمرکز می کرد. در این مورد، شبکه اجتماعی تصویر را همانطور که قبلاً توسط کاربر دیگری ارسال شده بود حذف کرد و متا آن را به بانک خدمات تطبیق رسانه‌ای تحت دسته «فتوشاپ یا نقاشی‌های جنسی تحقیرآمیز» اضافه کرده بود.

هنگامی که TechCrunch در مورد اینکه چرا هیئت مدیره پرونده ای را انتخاب کرد که شرکت با موفقیت تصویر صریح تولید شده توسط هوش مصنوعی را حذف کرد، هیئت مدیره بيان کرد مواردی را انتخاب می کند که "مشاهده مسائل گسترده تر در پلتفرم های متا هستند." وی گفت که این موارد به هیئت مشورتی کمک می کند تا به اثربخشی جهانی سیاست ها و فرآیندهای متا برای موضوعات مختلف نگاه کند.

ما می دانیم که متا در تعدیل محتوا در برخی بازارها و زبان ها سریعتر و مؤثرتر از سایرین است. هل تورنینگ اشمیت، رئیس هیئت نظارت مشترک، در بیانیه‌ای گفت: با گرفتن یک مورد از ایالات متحده و یک مورد از هند، ما می‌خواهیم ببینیم که آیا متا از همه زنان در سراسر جهان به روشی منصفانه محافظت می‌کند یا خیر.

«هیئت مدیره معتقد است که تحلیل اینکه آیا سیاست‌ها و شیوه‌های اجرایی متا در رسیدگی به این مشکل مؤثر است یا خیر، مهم است».

مشکل پورن جعلی عمیق و خشونت مبتنی بر جنسیت آنلاین

برخی - نه همه - ابزارهای مولد هوش مصنوعی در سال های اخیر گسترش یافته اند تا به کاربران اجازه تولید پورن را بدهند. همانطور که TechCrunch قبلا گزارش داده بود، گروه هایی مانند Unstable Diffusion در تلاش برای کسب درآمد از پورن هوش مصنوعی با خطوط مبهم اخلاقی و سوگیری در داده ها هستند.

در مناطقی مانند هند، دیپ فیک نیز به یک موضوع نگران کننده تبدیل شده است. سال گذشته، گزارشی از بی‌بی‌سی اشاره کرد که تعداد ویدیوهای جعلی بازیگران زن هندی در چند وقت اخیر افزایش یافته است. داده‌ها نشان می‌دهد که زنان بیشتر سوژه‌های ویدیوهای جعلی هستند.

در اوایل سال جاری، راجیو چاندراسخار، معاون وزیر فناوری اطلاعات، از رویکرد شرکت‌های فناوری برای مقابله با دیپ‌فیک ابراز نارضایتی کرد.

چاندراسخار در یک کنفرانس مطبوعاتی در آن زمان گفت: «اگر یک پلتفرم فکر می‌کند که می‌تواند بدون حذف ویدیوهای دیپ‌فیک فرار کند، یا صرفاً رویکردی معمولی نسبت به آن داشته باشد، ما این قدرت را داریم که با مسدود کردن چنین پلت‌فرم‌هایی از شهروندان خود محافظت کنیم.»

در حالی که هند به دنبال آوردن قوانین خاص مرتبط با دیپ فیک به قانون است، هنوز هیچ چیزی مشخص نشده است.

در حالی که طبق قانون در کشور مقرراتی برای گزارش خشونت مبتنی بر جنسیت آنلاین وجود دارد، کارشناسان خاطرنشان می کنند که این روند می تواند خسته کننده باشد و اغلب حمایت کمی وجود دارد. در مطالعه‌ای که سال گذشته منتشر شد، گروه مدافع هندی IT for Change بيان کرد که دادگاه‌های هند باید فرآیندهای قوی برای رسیدگی به خشونت‌های مبتنی بر جنسیت آنلاین داشته باشند و این موارد را بی‌اهمیت جلوه ندهند.

Aparajita Bharti، یکی از بنیانگذاران The Quantum Hub، یک شرکت مشاوره سیاست عمومی مستقر در هند، بيان کرد که باید محدودیت‌هایی در مدل‌های هوش مصنوعی وجود داشته باشد تا از ایجاد محتوای صریح که باعث آسیب می‌شود جلوگیری شود.

خطر اصلی هوش مصنوعی تولیدی این است که حجم چنین محتوایی افزایش می‌یابد زیرا تولید چنین محتوایی آسان و با درجه بالایی از پیچیدگی است. پس ، ابتدا باید با آموزش مدل‌های هوش مصنوعی برای محدود کردن خروجی در صورتی که قصد آسیب رساندن به شخصی از قبل مشخص شده باشد، از ایجاد چنین محتوایی جلوگیری کنیم. بهارتی از طریق ایمیل به TechCrunch گفت: ما همچنین باید برچسب‌گذاری پیش‌فرض را برای تشخیص آسان معرفی کنیم.

در حال حاضر تنها چند قانون در سطح جهان وجود دارد که به تولید و توزیع پورن های تولید شده با استفاده از ابزارهای هوش مصنوعی می پردازد. تعداد انگشت شماری از ایالت های آمریکا قوانینی علیه دیپ فیک دارند. بریتانیا این هفته قانونی را برای جرم انگاری ایجاد تصاویر صریح جنسی مبتنی بر هوش مصنوعی معرفی کرد.

پاسخ متا و مراحل بعدی

در پاسخ به پرونده های هیئت نظارت، متا بيان کرد که هر دو قطعه محتوا را حذف کرده است. با این حال، این شرکت رسانه‌های اجتماعی به این واقعیت توجه نکرد که پس از گزارش‌های اولیه توسط کاربران یا مدت زمانی که محتوا در این پلتفرم وجود داشت، موفق به حذف محتوا در اینستاگرام نشد.

متا بيان کرد که از ترکیبی از هوش مصنوعی و تحلیل انسانی برای شناسایی محتوای تلقین‌کننده جنسی استفاده می‌کند. این غول رسانه های اجتماعی بيان کرد که این نوع محتوا را در مکان هایی مانند Instagram Explore یا Reels توصیه نمی کند.

هیئت نظارت به دنبال نظرات عمومی - با ضرب الاجل 30 آوریل - در مورد این موضوع است که به آسیب های پورن های جعلی عمیق، اطلاعات متنی در مورد تکثیر چنین محتوایی در مناطقی مانند ایالات متحده و هند و مشکلات احتمالی رویکرد متا در شناسایی می پردازد. تصاویر صریح ایجاد شده توسط هوش مصنوعی.

هیأت مدیره موارد و نظرات عمومی را تحلیل کرده و تا چند هفته دیگر تصمیم را در سایت قرار خواهد داد.

این موارد نشان می‌دهد که پلتفرم‌های بزرگ هنوز با فرآیندهای تعدیل قدیمی‌تر دست و پنجه نرم می‌کنند، در حالی که ابزارهای مبتنی بر هوش مصنوعی کاربران را قادر می‌سازد تا انواع مختلف محتوا را به سرعت و به راحتی ایجاد و توزیع کنند. شرکت‌هایی مانند Meta در حال آزمایش ابزارهایی هستند که از هوش مصنوعی برای تولید محتوا استفاده می‌کنند و تلاش‌هایی برای شناسایی چنین تصاویری انجام می‌دهند. در ماه آوریل، این شرکت اعلام کرد که اگر بتواند محتوا را با استفاده از «شاخص‌های تصویر استاندارد صنعت هوش مصنوعی» یا افشای اطلاعات کاربران شناسایی کند، نشان‌های «ساخته شده با هوش مصنوعی» را برای دیپ‌فیک‌ها اعمال خواهد کرد.

با این حال، مجرمان دائماً راه‌هایی برای فرار از این سیستم‌های شناسایی و ارسال محتوای مشکل‌ساز در پلتفرم‌های اجتماعی پیدا می‌کنند.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است