وقتی یک هوش مصنوعی تاریخ را نمی داند، نمی توانید هوش مصنوعی را سرزنش کنید. همیشه به دادهها، برنامهنویسی، آموزش، الگوریتمها و هر بخش دیگری از فناوری ساختهشده توسط انسان برمیگردد. همه اینها و برداشت ما از "نیت" هوش مصنوعی در طرف دیگر است.
هنگامی که گوگل به تازگی نامگذاری شده جمینی (بارد سابق) شروع به تف کردن از رنگین پوستان برای نشان دادن شخصیت های تاریخی قفقازی کرد ، مردم به سرعت ارزیابی کردند که چیزی اشتباه است. از طرف گوگل، این خطا را یادآور شد و تمام قابلیتهای تولید افراد را از جمینی حذف کرد تا زمانی که بتواند راهحلی پیدا کند.
فهمیدن اینکه اینجا چه اتفاقی افتاده خیلی سخت نبود. از همان روزهای اولیه هوش مصنوعی، و منظورم از 18 ماه پیش، ما در مورد تعصبات هوش مصنوعی ذاتی و پخته صحبت کرده ایم که اغلب ناخواسته به دست برنامه نویسانی می رسد که زبان بزرگ و مدل های تصویر بزرگ را آموزش می دهند. دادههایی که منعکسکننده تجربیات آنها و شاید نه جهان است. مطمئناً، شما یک ربات چت هوشمند خواهید داشت، اما به احتمال زیاد دارای نقاط کور قابل توجهی است، به خصوص وقتی در نظر بگیرید که اکثر برنامه نویسان هنوز مرد و سفید هستند (یک مطالعه در سال 2021 درصد برنامه نویسان سفیدپوست را 69٪ نشان داد و نشان داد که فقط 20 درصد از کل برنامه نویسان زن بودند).
با این حال، ما به اندازه کافی در مورد پتانسیل سوگیری در آموزش و نتایج هوش مصنوعی یاد گرفتهایم که شرکتها قبل از اینکه چنین سوگیریهایی در یک ربات چت یا نتایج تولیدی ظاهر شوند، نسبت به پیشبرد این موضوع بسیار فعالتر شدهاند. ادوبی در اوایل سال جاری به من بيان کرد که ابزار هوش مصنوعی فایرفلای خود را طوری برنامهریزی کرده است که محل زندگی افراد و ترکیب نژادی و تنوع منطقهشان را در نظر بگیرد تا اطمینان حاصل شود که نتایج تصویر واقعیت آنها را منعکس میکند.
انجام بیش از حد درست
که ما را به گوگل می رساند. احتمالاً Gemini را برنامه ریزی کرده بود که از نظر نژادی حساس باشد، اما این کار را به گونه ای انجام داد که بیش از حد جبران کرد. اگر یک سیستم وزن دهی برای دقت تاریخی در مقابل حساسیت نژادی وجود داشته باشد، گوگل برای دومی به ترازو می پردازد.
نمونهای که من دیدهام، Google Gemini است که تصویری چند فرهنگی از پدران بنیانگذار ایالات متحده را برمیگرداند. متأسفانه، مردان و زنان رنگین پوست در گروهی که اعلامیه استقلال ایالات متحده را نوشتند، نمایندگی نداشتند. در واقع، ما می دانیم که برخی از آن مردان برده بودند . من مطمئن نیستم که Gemini چگونه توانسته است این مردان سفیدپوست را در حین اضافه کردن آن پاورقی به درستی به تصویر بکشد. با این حال، برنامه نویسان آموزش تعصب را اشتباه دریافت کردند و من گوگل را تحسین می کنم که فقط قابلیت های تولید تصویر افراد Gemini را برای ناراحتی بیشتر مردم کنار نگذاشته است.
با این حال، من فکر میکنم ارزش دارد که واکنش شدید گوگل به خاطر این اشتباه را تحلیل کنیم. در X (که قبلاً توییتر نامیده می شد)، مردم، از جمله مدیر عامل X، ایلان ماسک ، به این نتیجه رسیدند که این تلاش گوگل برای اعمال نوعی تعصب ضد سفید است. می دانم، مسخره است. پیشبرد یک دستور کار سیاسی عجیب و غریب هرگز به گوگل کمک نمی کند، که بدون توجه به گرایش های سیاسی یا اجتماعی شما، خانه موتور جستجوی توده ها است.
چیزی که مردم نمیفهمند، علیرغم اینکه توسعهدهندگان چقدر اشتباه میکنند، این است که هنوز روزهای اولیه چرخه هوش مصنوعی مولد است. مدلها فوقالعاده قدرتمند هستند و از برخی جهات، از توانایی ما برای درک آنها پیشی میگیرند. ما هر روز از آزمایشهای دانشمندان دیوانه استفاده میکنیم با ایده بسیار کمی در مورد انواع نتایجی که به دست خواهیم آورد.
زمانی که توسعهدهندگان یک مدل Generative و هوش مصنوعی جدید را وارد دنیا میکنند، فکر میکنم آنها فقط 50 درصد از کارهایی که این مدل ممکن است انجام دهد را درک میکنند، تا حدی به این دلیل که نمیتوانند هر درخواست، مکالمه و تصویر را در نظر بگیرند.
دیگر اخبار
اشتباهات بیشتری در راه است - تا زمانی که آن را درست کنیم
اگر چیزی وجود داشته باشد که هوش مصنوعی را از انسان جدا می کند، این است که ما خلاقیت تقریباً بی حد و حصر و غیرقابل پیش بینی داریم. خلاقیت هوش مصنوعی صرفاً بر اساس آنچه ما به آن تغذیه می کنیم است و اگرچه ممکن است از نتایج شگفت زده شویم، من فکر می کنم که ما قادریم برنامه نویسان و هوش مصنوعی را با درخواست های خود شگفت زده کنیم.
با این حال، هوش مصنوعی و توسعه دهندگان پشت آن یاد می گیرند. ما باید این اشتباهات را مرتکب شویم. هوش مصنوعی باید با هشت انگشت دستی بسازد تا بفهمد که ما فقط پنج انگشت داریم. هوش مصنوعی گاهی اوقات توهم می زند ، حقایق را اشتباه می گیرد و حتی توهین می کند.
اگر و زمانی که این کار انجام شود، دلیلی برای کشیدن دوشاخه نیست. هوش مصنوعی هیچ احساس، قصد، عقاید، موضعگیری سیاسی یا محوری برای خرد کردن ندارد. آموزش داده شده است تا بهترین نتیجه ممکن را به شما بدهد. همیشه درست نخواهد بود، اما در نهایت، خیلی بیشتر درست می شود تا اشتباه.
جمینی نتیجه بدی به بار آورد که اشتباه برنامه نویسان بود که حالا به عقب برمی گردند و اهرم های مختلف را فشار می دهند و می کشند تا جمینی تفاوت بین صحت سیاسی و دقت تاریخی را درک کند.
اگر آنها کار خود را به خوبی انجام دهند، جمینی آینده تصویر کاملی از بنیانگذاران تمام سفیدپوست را با آن پاورقی حیاتی در مورد اینکه کجا در بردگی انسان های دیگر ایستاده اند به ما ارائه می دهد.
ارسال نظر