متن خبر

با استفاده از میم ها، کاربران رسانه های اجتماعی به تیم هایی قرمز رنگ برای ویژگی های هوش مصنوعی نیمه کاره تبدیل شده اند

با استفاده از میم ها، کاربران رسانه های اجتماعی به تیم هایی قرمز رنگ برای ویژگی های هوش مصنوعی نیمه کاره تبدیل شده اند

شناسهٔ خبر: 473996 -




ویژگی جدید جستجوی هوش مصنوعی گوگل می گوید: "دویدن با قیچی یک تمرین قلبی است که می تواند ضربان قلب شما را افزایش دهد و به تمرکز و تمرکز نیاز دارد." برخی می گویند که می تواند منافذ پوست را بهبود بخشد و به شما قدرت بدهد.

ویژگی هوش مصنوعی گوگل این پاسخ را از وب سایتی به نام کمدی بانوی پیر کوچولو که همانطور که از نامش مشخص است، یک وبلاگ کمدی است، گرفت. اما این گاف به قدری مضحک است که همراه با سایر تحلیل های اجمالی هوش مصنوعی آشکارا نادرست در گوگل در رسانه های اجتماعی دست به دست می شود. به طور موثر، کاربران روزمره اکنون در حال ترکیب قرمز این محصولات در رسانه های اجتماعی هستند.

در امنیت سایبری، برخی از شرکت‌ها «تیم‌های قرمز» - هکرهای اخلاقی - را استخدام می‌کنند که سعی می‌کنند به محصولاتشان نفوذ کنند که انگار بازیگران بدی هستند. اگر یک تیم قرمز آسیب‌پذیری را پیدا کند، شرکت می‌تواند آن را قبل از ارسال محصول برطرف کند. گوگل مطمئناً قبل از انتشار یک محصول هوش مصنوعی در جستجوی گوگل، شکلی از تیم قرمز را انجام داد، که تخمین زده می‌شود روزانه تریلیون‌ها پرس و جو را پردازش کند.

پس تعجب آور است که یک شرکت با منابع بالا مانند گوگل هنوز محصولاتی را با نقص های آشکار ارسال می کند. به همین دلیل است که اکنون به یک دلقک برای شکست محصولات هوش مصنوعی تبدیل شده است، به خصوص در زمانی که هوش مصنوعی در همه جا فراگیرتر می شود. ما این را با املای بد در ChatGPT، ناتوانی تولیدکنندگان ویدیو در درک نحوه خوردن اسپاگتی توسط انسان ها، و خلاصه اخبار Grok AI در X که مانند گوگل، طنز را درک نمی کنند، دیده ایم. اما این میم ها در واقع می توانند به عنوان بازخورد مفید برای شرکت هایی که هوش مصنوعی را توسعه و آزمایش می کنند، عمل کنند.

علیرغم ماهیت برجسته این نقص ها، شرکت های فناوری اغلب تأثیر آنها را کم اهمیت می دانند.

گوگل در بیانیه ای ایمیلی به TechCrunch گفت: «نمونه هایی که ما دیده ایم عموماً پرس و جوهایی بسیار غیر معمول هستند و نشان دهنده تجربیات بیشتر افراد نیستند. ما آزمایش‌های گسترده‌ای را قبل از راه‌اندازی این تجربه جدید انجام دادیم و از این نمونه‌های مجزا استفاده خواهیم کرد تا به اصلاح کلی سیستم‌های خود ادامه دهیم.»

همه کاربران نتایج هوش مصنوعی یکسانی را نمی بینند، و تا زمانی که یک پیشنهاد بد هوش مصنوعی مطرح شود، این مشکل اغلب قبلاً اصلاح شده است. در مورد اخیری که در فضای مجازی منتشر شد، گوگل پیشنهاد کرد که اگر پیتزا درست می‌کنید اما پنیر آن نمی‌چسبد، می‌توانید حدود یک هشتم فنجان چسب به سس اضافه کنید تا چسبندگی بیشتری به سس بدهد. همانطور که مشخص شد، هوش مصنوعی این پاسخ را از یک نظر یازده ساله Reddit از یک کاربر به نام "f–-smith" گرفته است.

مروری بر هوش مصنوعی گوگل پیشنهاد می‌کند برای چسباندن پنیر به پیتزا، چسب اضافه کنید، و معلوم شد که منبع یک نظر ۱۱ ساله Reddit از کاربر F*cksmith است 😂 pic.twitter.com/uDPAbsAKeO

— پیتر یانگ (@petergyang) 23 مه 2024

فراتر از این که یک اشتباه باورنکردنی است، همچنین نشان می دهد که معاملات محتوای هوش مصنوعی ممکن است بیش از حد ارزش گذاری شود. به عنوان مثال، گوگل قراردادی 60 میلیون دلاری با Reddit دارد تا محتوای خود را برای آموزش مدل های هوش مصنوعی مجوز دهد. Reddit هفته گذشته قرارداد مشابهی را با OpenAI امضا کرد و شایعه شده است که WordPress.org و Tumblr در حال مذاکره برای فروش داده به Midjourney و OpenAI هستند.

به اعتبار گوگل، بسیاری از خطاهایی که در رسانه های اجتماعی در حال پخش است، ناشی از جستجوهای غیرمتعارفی است که برای از بین بردن هوش مصنوعی طراحی شده اند. حداقل امیدوارم هیچ کس به طور جدی به دنبال "مزایای سلامتی دویدن با قیچی" نباشد. اما برخی از این خرابکاری ها جدی تر هستند. ارین راس، روزنامه‌نگار علمی در ایکس پست کرد که گوگل اطلاعات نادرستی درباره اقداماتی که در صورت نیش مار زنگی انجام می‌شود، به دست می‌دهد.

پست راس، که بیش از 13000 لایک دریافت کرد، نشان می‌دهد که هوش مصنوعی توصیه می‌کند از یک تورنیکت روی زخم، بریدن زخم و مکیدن سم استفاده شود. به گفته سازمان جنگلداری ایالات متحده، اینها همه کارهایی است که نباید انجام دهید، اگر گاز گرفته شوید. در همین حال در Bluesky، نویسنده T Kingfisher پستی را تقویت کرد که نشان می‌دهد جمینی گوگل یک قارچ سمی را به‌عنوان قارچ دکمه‌ای سفید معمولی تشخیص می‌دهد - اسکرین‌شات‌های این پست به عنوان یک داستان هشداردهنده به پلتفرم‌های دیگر منتشر شده است.

هوش مصنوعی خوب گوگل: به شما می گوید وقتی مار زنگی گزیده می شود دقیقاً همان کارهایی را که *نباید انجام دهید* انجام دهید.

از قارچ گرفته تا مارگزیدگی، محتوای هوش مصنوعی واقعاً خطرناک است. pic.twitter.com/UZXgBjsre9

- ارن (@ErinEARoss) 19 مه 2024

هنگامی که یک پاسخ بد هوش مصنوعی ویروسی می شود، هوش مصنوعی ممکن است با محتوای جدید پیرامون موضوعی که در نتیجه ایجاد می شود، گیج تر شود. روز چهارشنبه، آریک تولر، خبرنگار نیویورک تایمز، یک اسکرین شات را در X منتشر کرد که نشان می دهد یک پرس و جو می پرسد آیا سگی تا به حال در NHL بازی کرده است یا خیر. پاسخ هوش مصنوعی مثبت بود – بنا به دلایلی، هوش مصنوعی مارتین پوسپیسیل بازیکن کلگری فلمز را سگ نامید. اکنون، هنگامی که شما همان پرس و جو را انجام می دهید، هوش مصنوعی مقاله ای از Daily Dot در مورد اینکه چگونه هوش مصنوعی گوگل مدام فکر می کند که سگ ها در حال ورزش هستند، می گیرد. هوش مصنوعی با اشتباهات خود تغذیه می شود و آن را بیشتر مسموم می کند.

این مشکل ذاتی آموزش این مدل‌های هوش مصنوعی در مقیاس بزرگ در اینترنت است: گاهی اوقات، افراد در اینترنت دروغ می‌گویند. اما دقیقاً مانند اینکه هیچ قانونی در مورد سگی که بسکتبال بازی می کند وجود ندارد، متأسفانه هیچ قانونی علیه شرکت های بزرگ فناوری که محصولات بد هوش مصنوعی را ارسال می کنند وجود ندارد.

به قول معروف: زباله داخل، زباله بیرون.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است