با استفاده از میم ها، کاربران رسانه های اجتماعی به تیم هایی قرمز رنگ برای ویژگی های هوش مصنوعی نیمه کاره تبدیل شده اند
ویژگی جدید جستجوی هوش مصنوعی گوگل می گوید: "دویدن با قیچی یک تمرین قلبی است که می تواند ضربان قلب شما را افزایش دهد و به تمرکز و تمرکز نیاز دارد." برخی می گویند که می تواند منافذ پوست را بهبود بخشد و به شما قدرت بدهد.
ویژگی هوش مصنوعی گوگل این پاسخ را از وب سایتی به نام کمدی بانوی پیر کوچولو که همانطور که از نامش مشخص است، یک وبلاگ کمدی است، گرفت. اما این گاف به قدری مضحک است که همراه با سایر تحلیل های اجمالی هوش مصنوعی آشکارا نادرست در گوگل در رسانه های اجتماعی دست به دست می شود. به طور موثر، کاربران روزمره اکنون در حال ترکیب قرمز این محصولات در رسانه های اجتماعی هستند.
در امنیت سایبری، برخی از شرکتها «تیمهای قرمز» - هکرهای اخلاقی - را استخدام میکنند که سعی میکنند به محصولاتشان نفوذ کنند که انگار بازیگران بدی هستند. اگر یک تیم قرمز آسیبپذیری را پیدا کند، شرکت میتواند آن را قبل از ارسال محصول برطرف کند. گوگل مطمئناً قبل از انتشار یک محصول هوش مصنوعی در جستجوی گوگل، شکلی از تیم قرمز را انجام داد، که تخمین زده میشود روزانه تریلیونها پرس و جو را پردازش کند.
پس تعجب آور است که یک شرکت با منابع بالا مانند گوگل هنوز محصولاتی را با نقص های آشکار ارسال می کند. به همین دلیل است که اکنون به یک دلقک برای شکست محصولات هوش مصنوعی تبدیل شده است، به خصوص در زمانی که هوش مصنوعی در همه جا فراگیرتر می شود. ما این را با املای بد در ChatGPT، ناتوانی تولیدکنندگان ویدیو در درک نحوه خوردن اسپاگتی توسط انسان ها، و خلاصه اخبار Grok AI در X که مانند گوگل، طنز را درک نمی کنند، دیده ایم. اما این میم ها در واقع می توانند به عنوان بازخورد مفید برای شرکت هایی که هوش مصنوعی را توسعه و آزمایش می کنند، عمل کنند.
علیرغم ماهیت برجسته این نقص ها، شرکت های فناوری اغلب تأثیر آنها را کم اهمیت می دانند.
گوگل در بیانیه ای ایمیلی به TechCrunch گفت: «نمونه هایی که ما دیده ایم عموماً پرس و جوهایی بسیار غیر معمول هستند و نشان دهنده تجربیات بیشتر افراد نیستند. ما آزمایشهای گستردهای را قبل از راهاندازی این تجربه جدید انجام دادیم و از این نمونههای مجزا استفاده خواهیم کرد تا به اصلاح کلی سیستمهای خود ادامه دهیم.»
همه کاربران نتایج هوش مصنوعی یکسانی را نمی بینند، و تا زمانی که یک پیشنهاد بد هوش مصنوعی مطرح شود، این مشکل اغلب قبلاً اصلاح شده است. در مورد اخیری که در فضای مجازی منتشر شد، گوگل پیشنهاد کرد که اگر پیتزا درست میکنید اما پنیر آن نمیچسبد، میتوانید حدود یک هشتم فنجان چسب به سس اضافه کنید تا چسبندگی بیشتری به سس بدهد. همانطور که مشخص شد، هوش مصنوعی این پاسخ را از یک نظر یازده ساله Reddit از یک کاربر به نام "f–-smith" گرفته است.
فراتر از این که یک اشتباه باورنکردنی است، همچنین نشان می دهد که معاملات محتوای هوش مصنوعی ممکن است بیش از حد ارزش گذاری شود. به عنوان مثال، گوگل قراردادی 60 میلیون دلاری با Reddit دارد تا محتوای خود را برای آموزش مدل های هوش مصنوعی مجوز دهد. Reddit هفته گذشته قرارداد مشابهی را با OpenAI امضا کرد و شایعه شده است که WordPress.org و Tumblr در حال مذاکره برای فروش داده به Midjourney و OpenAI هستند.
به اعتبار گوگل، بسیاری از خطاهایی که در رسانه های اجتماعی در حال پخش است، ناشی از جستجوهای غیرمتعارفی است که برای از بین بردن هوش مصنوعی طراحی شده اند. حداقل امیدوارم هیچ کس به طور جدی به دنبال "مزایای سلامتی دویدن با قیچی" نباشد. اما برخی از این خرابکاری ها جدی تر هستند. ارین راس، روزنامهنگار علمی در ایکس پست کرد که گوگل اطلاعات نادرستی درباره اقداماتی که در صورت نیش مار زنگی انجام میشود، به دست میدهد.
پست راس، که بیش از 13000 لایک دریافت کرد، نشان میدهد که هوش مصنوعی توصیه میکند از یک تورنیکت روی زخم، بریدن زخم و مکیدن سم استفاده شود. به گفته سازمان جنگلداری ایالات متحده، اینها همه کارهایی است که نباید انجام دهید، اگر گاز گرفته شوید. در همین حال در Bluesky، نویسنده T Kingfisher پستی را تقویت کرد که نشان میدهد جمینی گوگل یک قارچ سمی را بهعنوان قارچ دکمهای سفید معمولی تشخیص میدهد - اسکرینشاتهای این پست به عنوان یک داستان هشداردهنده به پلتفرمهای دیگر منتشر شده است.
هنگامی که یک پاسخ بد هوش مصنوعی ویروسی می شود، هوش مصنوعی ممکن است با محتوای جدید پیرامون موضوعی که در نتیجه ایجاد می شود، گیج تر شود. روز چهارشنبه، آریک تولر، خبرنگار نیویورک تایمز، یک اسکرین شات را در X منتشر کرد که نشان می دهد یک پرس و جو می پرسد آیا سگی تا به حال در NHL بازی کرده است یا خیر. پاسخ هوش مصنوعی مثبت بود – بنا به دلایلی، هوش مصنوعی مارتین پوسپیسیل بازیکن کلگری فلمز را سگ نامید. اکنون، هنگامی که شما همان پرس و جو را انجام می دهید، هوش مصنوعی مقاله ای از Daily Dot در مورد اینکه چگونه هوش مصنوعی گوگل مدام فکر می کند که سگ ها در حال ورزش هستند، می گیرد. هوش مصنوعی با اشتباهات خود تغذیه می شود و آن را بیشتر مسموم می کند.
این مشکل ذاتی آموزش این مدلهای هوش مصنوعی در مقیاس بزرگ در اینترنت است: گاهی اوقات، افراد در اینترنت دروغ میگویند. اما دقیقاً مانند اینکه هیچ قانونی در مورد سگی که بسکتبال بازی می کند وجود ندارد، متأسفانه هیچ قانونی علیه شرکت های بزرگ فناوری که محصولات بد هوش مصنوعی را ارسال می کنند وجود ندارد.
به قول معروف: زباله داخل، زباله بیرون.
ارسال نظر