سایت خبرکاو

جستجوگر هوشمند اخبار و مطالب فناوری

شکست سوگیری Gemini به ما یادآوری می کند که هوش مصنوعی هوشمندتر از آن نیست که ما می سازیم

(اعتبار تصویر: Shutterstock) وقتی یک هوش مصنوعی تاریخ را نمی داند، نمی توانید هوش مصنوعی را سرزنش کنید. همیشه به داده‌ها، برنامه‌نویسی، آموزش، الگوریتم‌ها و هر بخش دیگری از فناوری ساخته‌شده توسط انسان برمی‌گردد. همه اینها و برداشت ما از "نیت" هوش مصنوعی در طرف دیگر است. هنگامی که گوگل به تازگی نامگذاری شده جمینی (بارد سابق) شروع به تف کردن از رنگین پوستان برای نشان دادن شخصیت های تاریخی قفقازی کرد ، مردم به سرعت ارزیابی کردند ...
اختلال هوش مصنوعی
(اعتبار تصویر: Shutterstock)

وقتی یک هوش مصنوعی تاریخ را نمی داند، نمی توانید هوش مصنوعی را سرزنش کنید. همیشه به داده‌ها، برنامه‌نویسی، آموزش، الگوریتم‌ها و هر بخش دیگری از فناوری ساخته‌شده توسط انسان برمی‌گردد. همه اینها و برداشت ما از "نیت" هوش مصنوعی در طرف دیگر است.

هنگامی که گوگل به تازگی نامگذاری شده جمینی (بارد سابق) شروع به تف کردن از رنگین پوستان برای نشان دادن شخصیت های تاریخی قفقازی کرد ، مردم به سرعت ارزیابی کردند که چیزی اشتباه است. از طرف گوگل، این خطا را یادآور شد و تمام قابلیت‌های تولید افراد را از جمینی حذف کرد تا زمانی که بتواند راه‌حلی پیدا کند.

فهمیدن اینکه اینجا چه اتفاقی افتاده خیلی سخت نبود. از همان روزهای اولیه هوش مصنوعی، و منظورم از 18 ماه پیش، ما در مورد تعصبات هوش مصنوعی ذاتی و پخته صحبت کرده ایم که اغلب ناخواسته به دست برنامه نویسانی می رسد که زبان بزرگ و مدل های تصویر بزرگ را آموزش می دهند. داده‌هایی که منعکس‌کننده تجربیات آن‌ها و شاید نه جهان است. مطمئناً، شما یک ربات چت هوشمند خواهید داشت، اما به احتمال زیاد دارای نقاط کور قابل توجهی است، به خصوص وقتی در نظر بگیرید که اکثر برنامه نویسان هنوز مرد و سفید هستند (یک مطالعه در سال 2021 درصد برنامه نویسان سفیدپوست را 69٪ نشان داد و نشان داد که فقط 20 درصد از کل برنامه نویسان زن بودند).

با این حال، ما به اندازه کافی در مورد پتانسیل سوگیری در آموزش و نتایج هوش مصنوعی یاد گرفته‌ایم که شرکت‌ها قبل از اینکه چنین سوگیری‌هایی در یک ربات چت یا نتایج تولیدی ظاهر شوند، نسبت به پیشبرد این موضوع بسیار فعال‌تر شده‌اند. ادوبی در اوایل سال جاری به من بيان کرد که ابزار هوش مصنوعی فایرفلای خود را طوری برنامه‌ریزی کرده است که محل زندگی افراد و ترکیب نژادی و تنوع منطقه‌شان را در نظر بگیرد تا اطمینان حاصل شود که نتایج تصویر واقعیت آن‌ها را منعکس می‌کند.

انجام بیش از حد درست

که ما را به گوگل می رساند. احتمالاً Gemini را برنامه ریزی کرده بود که از نظر نژادی حساس باشد، اما این کار را به گونه ای انجام داد که بیش از حد جبران کرد. اگر یک سیستم وزن دهی برای دقت تاریخی در مقابل حساسیت نژادی وجود داشته باشد، گوگل برای دومی به ترازو می پردازد.

نمونه‌ای که من دیده‌ام، Google Gemini است که تصویری چند فرهنگی از پدران بنیان‌گذار ایالات متحده را برمی‌گرداند. متأسفانه، مردان و زنان رنگین پوست در گروهی که اعلامیه استقلال ایالات متحده را نوشتند، نمایندگی نداشتند. در واقع، ما می دانیم که برخی از آن مردان برده بودند . من مطمئن نیستم که Gemini چگونه توانسته است این مردان سفیدپوست را در حین اضافه کردن آن پاورقی به درستی به تصویر بکشد. با این حال، برنامه نویسان آموزش تعصب را اشتباه دریافت کردند و من گوگل را تحسین می کنم که فقط قابلیت های تولید تصویر افراد Gemini را برای ناراحتی بیشتر مردم کنار نگذاشته است.

از روزهای اولیه هوش مصنوعی، و منظورم از 18 ماه پیش، ما در مورد تعصبات هوش مصنوعی ذاتی و پخته صحبت کرده ایم.

با این حال، من فکر می‌کنم ارزش دارد که واکنش شدید گوگل به خاطر این اشتباه را تحلیل کنیم. در X (که قبلاً توییتر نامیده می شد)، مردم، از جمله مدیر عامل X، ایلان ماسک ، به این نتیجه رسیدند که این تلاش گوگل برای اعمال نوعی تعصب ضد سفید است. می دانم، مسخره است. پیشبرد یک دستور کار سیاسی عجیب و غریب هرگز به گوگل کمک نمی کند، که بدون توجه به گرایش های سیاسی یا اجتماعی شما، خانه موتور جستجوی توده ها است.

چیزی که مردم نمی‌فهمند، علی‌رغم اینکه توسعه‌دهندگان چقدر اشتباه می‌کنند، این است که هنوز روزهای اولیه چرخه هوش مصنوعی مولد است. مدل‌ها فوق‌العاده قدرتمند هستند و از برخی جهات، از توانایی ما برای درک آنها پیشی می‌گیرند. ما هر روز از آزمایش‌های دانشمندان دیوانه استفاده می‌کنیم با ایده بسیار کمی در مورد انواع نتایجی که به دست خواهیم آورد.

زمانی که توسعه‌دهندگان یک مدل Generative و هوش مصنوعی جدید را وارد دنیا می‌کنند، فکر می‌کنم آنها فقط 50 درصد از کارهایی که این مدل ممکن است انجام دهد را درک می‌کنند، تا حدی به این دلیل که نمی‌توانند هر درخواست، مکالمه و تصویر را در نظر بگیرند.

اشتباهات بیشتری در راه است - تا زمانی که آن را درست کنیم

اگر چیزی وجود داشته باشد که هوش مصنوعی را از انسان جدا می کند، این است که ما خلاقیت تقریباً بی حد و حصر و غیرقابل پیش بینی داریم. خلاقیت هوش مصنوعی صرفاً بر اساس آنچه ما به آن تغذیه می کنیم است و اگرچه ممکن است از نتایج شگفت زده شویم، من فکر می کنم که ما قادریم برنامه نویسان و هوش مصنوعی را با درخواست های خود شگفت زده کنیم.

با این حال، هوش مصنوعی و توسعه دهندگان پشت آن یاد می گیرند. ما باید این اشتباهات را مرتکب شویم. هوش مصنوعی باید با هشت انگشت دستی بسازد تا بفهمد که ما فقط پنج انگشت داریم. هوش مصنوعی گاهی اوقات توهم می زند ، حقایق را اشتباه می گیرد و حتی توهین می کند.

اگر و زمانی که این کار انجام شود، دلیلی برای کشیدن دوشاخه نیست. هوش مصنوعی هیچ احساس، قصد، عقاید، موضع‌گیری سیاسی یا محوری برای خرد کردن ندارد. آموزش داده شده است تا بهترین نتیجه ممکن را به شما بدهد. همیشه درست نخواهد بود، اما در نهایت، خیلی بیشتر درست می شود تا اشتباه.

جمینی نتیجه بدی به بار آورد که اشتباه برنامه نویسان بود که حالا به عقب برمی گردند و اهرم های مختلف را فشار می دهند و می کشند تا جمینی تفاوت بین صحت سیاسی و دقت تاریخی را درک کند.

اگر آنها کار خود را به خوبی انجام دهند، جمینی آینده تصویر کاملی از بنیانگذاران تمام سفیدپوست را با آن پاورقی حیاتی در مورد اینکه کجا در بردگی انسان های دیگر ایستاده اند به ما ارائه می دهد.

شما هم ممکن است دوست داشته باشید

سردبیر ایالات متحده

لنس که 35 سال کهنه کار صنعت و روزنامه‌نگار برنده جوایز بود ، از زمانی که رایانه‌های شخصی به اندازه چمدان بودند و «آنلاین» به معنای «انتظار» بود، فناوری را پوشش می‌داد. او سردبیر سابق Lifewire، سردبیر Mashable، و قبل از آن، سردبیر PCMag.com و معاون ارشد محتوا برای Ziff Davis, Inc است. او همچنین یک ستون فناوری هفتگی و محبوب نوشت. برای رسانه ای به نام ارتقا.

لنس اولانوف به طور مکرر در برنامه های خبری ملی، بین المللی و محلی از جمله Live with Kelly and Ryan، فاکس نیوز، فاکس بیزینس، Today Show ، صبح بخیر آمریکا، CNBC، CNN و BBC ظاهر می شود.

خبرکاو