متن خبر

آیا تقریباً همه مردان هندی عمامه می پوشند؟ به نظر می رسد هوش مصنوعی مولد اینطور فکر می کند، و این فقط نوک کوه یخ تعصب هوش مصنوعی است

آیا تقریباً همه مردان هندی عمامه می پوشند؟ به نظر می رسد هوش مصنوعی مولد اینطور فکر می کند، و این فقط نوک کوه یخ تعصب هوش مصنوعی است

شناسهٔ خبر: 470173 -




یک نفر با کت و شلوار با یک ترازو دیجیتال در مقابل آنها
(اعتبار تصویر: Shutterstock / Sansoen Saengsakaorat)

در حالی که سوگیری در هوش مصنوعی مولد یک پدیده شناخته شده است، هنوز هم تعجب آور است که گاهی اوقات چه نوع سوگیری هایی کشف می شوند. TechCrunch اخیراً آزمایشی را با استفاده از چت ربات هوش مصنوعی متا انجام داد که در آوریل 2024 برای بیش از ده ها کشور از جمله هند راه اندازی شد و روندی عجیب و ناراحت کننده پیدا کرد.

هنگام تولید تصاویر با استفاده از اعلان "مردان هندی"، اکثریت قریب به اتفاق نتایج نشان می دهد مردانی که عمامه به سر دارند. در حالی که تعداد زیادی از مردان هندی عمامه می پوشند (عمدتا اگر سیک ها را تمرین می کنند)، طبق سرشماری سال 2011، دهلی پایتخت هند جمعیت سیک حدود 3.4٪ دارد، در حالی که نتایج تصویر مولد هوش مصنوعی سه تا چهار مورد را ارائه می دهد. از پنج مرد

متأسفانه، این اولین باری نیست که هوش مصنوعی مولد درگیر بحثی در رابطه با نژاد و سایر موضوعات حساس می شود، و این نیز از بدترین نمونه دور است.

سوراخ خرگوش تا کجا می رود؟

در آگوست 2023، SGE و Bard AI گوگل (که دومی اکنون جمینی نامیده می شود) با شلوارهای پائین دستگیر شدند و در مورد "مزایای" نسل کشی، برده داری، فاشیسم و ​​موارد دیگر بحث کردند . همچنین هیتلر، استالین و موسولینی را در فهرست "بزرگترین" رهبران قرار داد و هیتلر نیز در فهرست "موثرترین رهبران" قرار گرفت.

بعداً در آن سال در دسامبر 2023، حوادث متعددی در ارتباط با هوش مصنوعی رخ داد که وحشتناک‌ترین آنها شامل محققان استنفورد بود که CSAM (تصاویر کودک آزاری) را در مجموعه داده تصویری محبوب LAION-5B که بسیاری از LLMها آموزش می‌دهند، پیدا کردند. این مطالعه بیش از 3000 تصویر CSAM شناخته شده یا مشکوک را در آن مجموعه داده پیدا کرد. Stability AI سازنده انتشار پایدار، که از این مجموعه استفاده می کند، ادعا می کند که تصاویر مضر را فیلتر می کند. اما چگونه می توان صحت آن را تشخیص داد - این تصاویر به راحتی می توانستند در جستجوهای خوش خیم تر برای «کودک» یا «کودکان» گنجانده شوند.

همچنین خطر استفاده از هوش مصنوعی در تشخیص چهره، از جمله و به ویژه در اجرای قانون وجود دارد. مطالعات بی‌شماری قبلاً ثابت کرده‌اند که در مورد اینکه چه نژاد و قومیتی با بالاترین میزان دستگیری می‌شوند، علی‌رغم اینکه آیا تخلفی صورت گرفته است، سوگیری واضح و مطلق وجود دارد. این را با تعصبی که هوش مصنوعی از طریق انسان آموزش داده است ترکیب کنید و فناوری دارید که می‌تواند منجر به دستگیری‌های نادرست و ناعادلانه‌تر شود. این تا جایی است که مایکروسافت نمی خواهد هوش مصنوعی Azure آن توسط نیروهای پلیس استفاده شود .

این نسبتاً نگران کننده است که چگونه هوش مصنوعی به سرعت چشم انداز فناوری را تسخیر کرده است، و چگونه بسیاری از موانع بر سر راه آن باقی می مانند تا آنقدر پیشرفت کند که در نهایت از شر این مشکلات خلاص شود. اما، می توان استدلال کرد که این مسائل در وهله اول فقط به دلیل آموزش هوش مصنوعی بر روی هر مجموعه داده ای که می تواند بدون فیلتر کردن صحیح محتوا به آن دسترسی داشته باشد، بوجود آمده است. اگر می‌خواهیم به سوگیری عظیم هوش مصنوعی بپردازیم، باید به درستی تحلیل مجموعه داده‌های آن را آغاز کنیم - نه تنها برای منابع دارای حق چاپ، بلکه برای مطالب مضر فعالانه که اطلاعات را به خوبی مسموم می‌کند.

شما هم ممکن است دوست داشته باشید

نویسنده کارکنان محاسباتی

Allisa که توسط CTA به عنوان پیشگام رسانه CES 2023 نامگذاری شده است، یک نویسنده محاسباتی است که اخبار و شایعات فوری در صنعت محاسبات و همچنین تحلیل ها، پیش نمایش های عملی، مقالات برجسته و آخرین معاملات و روندها را پوشش می دهد. در اوقات فراغتش می‌توانید او را در حال چت کردن در دو پادکست خود، Megaten Marathon و Combo Chain، و همچنین پخش هر JRPG که در دستش باشد، بیابید.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است