در حالی که سوگیری در هوش مصنوعی مولد یک پدیده شناخته شده است، هنوز هم تعجب آور است که گاهی اوقات چه نوع سوگیری هایی کشف می شوند. TechCrunch اخیراً آزمایشی را با استفاده از چت ربات هوش مصنوعی متا انجام داد که در آوریل 2024 برای بیش از ده ها کشور از جمله هند راه اندازی شد و روندی عجیب و ناراحت کننده پیدا کرد.
هنگام تولید تصاویر با استفاده از اعلان "مردان هندی"، اکثریت قریب به اتفاق نتایج نشان می دهد مردانی که عمامه به سر دارند. در حالی که تعداد زیادی از مردان هندی عمامه می پوشند (عمدتا اگر سیک ها را تمرین می کنند)، طبق سرشماری سال 2011، دهلی پایتخت هند جمعیت سیک حدود 3.4٪ دارد، در حالی که نتایج تصویر مولد هوش مصنوعی سه تا چهار مورد را ارائه می دهد. از پنج مرد
متأسفانه، این اولین باری نیست که هوش مصنوعی مولد درگیر بحثی در رابطه با نژاد و سایر موضوعات حساس می شود، و این نیز از بدترین نمونه دور است.
سوراخ خرگوش تا کجا می رود؟
در آگوست 2023، SGE و Bard AI گوگل (که دومی اکنون جمینی نامیده می شود) با شلوارهای پائین دستگیر شدند و در مورد "مزایای" نسل کشی، برده داری، فاشیسم و موارد دیگر بحث کردند . همچنین هیتلر، استالین و موسولینی را در فهرست "بزرگترین" رهبران قرار داد و هیتلر نیز در فهرست "موثرترین رهبران" قرار گرفت.
بعداً در آن سال در دسامبر 2023، حوادث متعددی در ارتباط با هوش مصنوعی رخ داد که وحشتناکترین آنها شامل محققان استنفورد بود که CSAM (تصاویر کودک آزاری) را در مجموعه داده تصویری محبوب LAION-5B که بسیاری از LLMها آموزش میدهند، پیدا کردند. این مطالعه بیش از 3000 تصویر CSAM شناخته شده یا مشکوک را در آن مجموعه داده پیدا کرد. Stability AI سازنده انتشار پایدار، که از این مجموعه استفاده می کند، ادعا می کند که تصاویر مضر را فیلتر می کند. اما چگونه می توان صحت آن را تشخیص داد - این تصاویر به راحتی می توانستند در جستجوهای خوش خیم تر برای «کودک» یا «کودکان» گنجانده شوند.
همچنین خطر استفاده از هوش مصنوعی در تشخیص چهره، از جمله و به ویژه در اجرای قانون وجود دارد. مطالعات بیشماری قبلاً ثابت کردهاند که در مورد اینکه چه نژاد و قومیتی با بالاترین میزان دستگیری میشوند، علیرغم اینکه آیا تخلفی صورت گرفته است، سوگیری واضح و مطلق وجود دارد. این را با تعصبی که هوش مصنوعی از طریق انسان آموزش داده است ترکیب کنید و فناوری دارید که میتواند منجر به دستگیریهای نادرست و ناعادلانهتر شود. این تا جایی است که مایکروسافت نمی خواهد هوش مصنوعی Azure آن توسط نیروهای پلیس استفاده شود .
این نسبتاً نگران کننده است که چگونه هوش مصنوعی به سرعت چشم انداز فناوری را تسخیر کرده است، و چگونه بسیاری از موانع بر سر راه آن باقی می مانند تا آنقدر پیشرفت کند که در نهایت از شر این مشکلات خلاص شود. اما، می توان استدلال کرد که این مسائل در وهله اول فقط به دلیل آموزش هوش مصنوعی بر روی هر مجموعه داده ای که می تواند بدون فیلتر کردن صحیح محتوا به آن دسترسی داشته باشد، بوجود آمده است. اگر میخواهیم به سوگیری عظیم هوش مصنوعی بپردازیم، باید به درستی تحلیل مجموعه دادههای آن را آغاز کنیم - نه تنها برای منابع دارای حق چاپ، بلکه برای مطالب مضر فعالانه که اطلاعات را به خوبی مسموم میکند.
ارسال نظر