متن خبر

گشت و گذار و پیدا کردن

گشت و گذار و پیدا کردن

اخبارگشت و گذار و پیدا کردن
شناسهٔ خبر: 267110 -




خبرکاو:

Bing جدید و بهبودیافته مایکروسافت ، که توسط نسخه سفارشی ChatGPT OpenAI ارائه می‌شود، به طرز سرگیجه‌آوری تغییر سریعی را تجربه کرده است: از «چیزی بزرگ بعدی» به «آلباتروس غرق برند» در کمتر از یک هفته. و خب، همه اینها تقصیر مایکروسافت است.

ChatGPT یک نمایش واقعا جالب از یک فناوری جدید و ناآشنا است که استفاده از آن نیز سرگرم کننده است. پس جای تعجب نیست که، مانند هر ساختار مجاور هوش مصنوعی دیگری که در خط تولید قرار می‌گیرد، این نوآوری باعث می‌شود قابلیت‌های آن توسط همه، از انواع فناوری‌های پرقدرت گرفته تا افرادی که معمولاً علاقه‌ای به فضا ندارند، بیش از حد برآورد شود.

این در "سطح آمادگی فناوری" مناسب برای بحث در مورد چای یا آبجو است: مزیت ها و خطرات هوش مصنوعی مولد در هنر، ادبیات یا فلسفه چیست؟ چگونه می توانیم مطمئن شویم که چه چیزی اصیل، تقلیدی، توهمی است؟ پیامدهای آن برای سازندگان، کدنویسان، نمایندگان خدمات مشتری چیست؟ در نهایت، پس از دو سال رمزنگاری، چیزی جالب برای صحبت کردن در مورد!

این هیاهو تا حدی بزرگ به نظر می رسد زیرا یک فناوری است که کم و بیش برای برانگیختن بحث طراحی شده است، و تا حدودی به این دلیل که از بحث و جدل مشترک در همه پیشرفت های هوش مصنوعی وام گرفته است. این تقریباً شبیه "لباس" است که پاسخی را فرمان می دهد و آن پاسخ پاسخ های بیشتری را ایجاد می کند. هیاهو، به نوعی، خودش ایجاد می شود.

فراتر از بحث صرف، مدل‌های زبان بزرگ مانند ChatGPT نیز برای آزمایش‌های کم خطر، برای مثال ماریو بی‌پایان، مناسب هستند. در واقع، این واقعاً رویکرد اساسی OpenAI برای توسعه است: مدل‌ها را ابتدا به‌صورت خصوصی منتشر کنید تا تیزترین لبه‌ها را از بین ببرید، سپس به‌صورت عمومی ببینید که چگونه به میلیون‌ها نفر که به طور همزمان به لاستیک‌ها لگد می‌زنند، پاسخ می‌دهند. در برخی موارد، مردم به شما پول می دهند.

نه چیزی برای به دست آوردن، نه چیزی برای از دست دادن

آنچه در مورد این رویکرد مهم است این است که "شکست" هیچ پیامد منفی واقعی ندارد، فقط پیامدهای مثبت دارد. با توصیف مدل‌های آن به‌عنوان تجربی، حتی ماهیت آکادمیک، هرگونه مشارکت یا تعامل با سری مدل‌های GPT صرفاً آزمایشی در مقیاس بزرگ است.

اگر کسی چیز جالبی بسازد، این ایده را تقویت می کند که این مدل ها امیدوارکننده هستند. اگر کسی یک حالت شکست برجسته پیدا کند، خوب، چه انتظار دیگری از یک هوش مصنوعی آزمایشی در طبیعت داشتید؟ در گمنامی فرو می رود. هیچ چیز غیرمنتظره نیست اگر همه چیز باشد - معجزه این است که مدل به همان خوبی عمل می کند، پس ما همیشه راضی هستیم و هرگز ناامید نمی شویم.

به این ترتیب OpenAI حجم شگفت‌انگیزی از داده‌های آزمایشی اختصاصی را جمع‌آوری کرده است تا مدل‌های خود را اصلاح کند. میلیون‌ها نفر از GPT-2، GPT-3، ChatGPT، DALL-E و DALL-E 2 (در میان دیگران) نقشه‌های دقیقی از قابلیت‌ها، کاستی‌ها و البته موارد استفاده محبوب خود تهیه کرده‌اند.

بیشتر بخوانید

مکس س: ما می رویم


اما این فقط به این دلیل کار می کند که خطرات کم است. این شبیه به درک ما از پیشرفت روباتیک است: وقتی یک ربات به عقب برمی‌گردد شگفت زده می‌شویم، وقتی تلاش می‌کند یک کشو را باز کند، بی‌آزار می‌شویم. اگر قرار بود ویال های آزمایش را در بیمارستان بیاندازند، ما اینقدر خیرخواه نبودیم. یا اگر OpenAI با صدای بلند ادعاهایی در مورد ایمنی و قابلیت‌های پیشرفته مدل‌ها می‌کرد، هرچند خوشبختانه این کار را نکردند.

مایکروسافت را وارد کنید. (و گوگل، برای این موضوع، اما گوگل فقط با عجله بازی را انجام داد در حالی که مایکروسافت با پشتکار به دنبال یک گل به خودی است. )

مایکروسافت یک اشتباه بزرگ مرتکب شد. در واقع یک اشتباه بینگ.

اعلامیه بزرگ آن در هفته گذشته هیچ زمانی را برای ادعای نحوه عملکرد BingGPT سفارشی خود (نه آن چیزی که آنها نامیده اند، اما ما از آن به عنوان ابهام زدایی در غیاب نام های رسمی معقول استفاده خواهیم کرد) ایمن تر، هوشمندانه تر و ایمن تر و هوشمندانه تر از دست داد. توانمندتر در واقع یک سیستم پوشش مخصوص به نام پرومتئوس داشت که ظاهراً احتمال پاسخ‌های نامناسب را کاهش می‌داد.

متأسفانه، همانطور که هر کسی که با غرور و افسانه یونانی آشناست می‌توانست پیش‌بینی کند، به نظر می‌رسد که ما مستقیماً به قسمتی رفته‌ایم که پرومتئوس به‌طور بی‌پایان و علنی جگرش را پاره می‌کند.

اوه، هوش مصنوعی دوباره این کار را کرد

اعتبار تصویر: Microsoft/OpenAI

در وهله اول، مایکروسافت در پیوند زدن بیش از حد نام تجاری خود با OpenAI یک خطای استراتژیک مرتکب شد. به‌عنوان یک سرمایه‌گذار و طرف علاقه‌مند در تحقیقی که این شرکت انجام می‌دهد، برای هر گونه بدجنسی که GPT به آن دست می‌یابد، حذف شده و بی‌عیب بود. اما یک نفر تصمیم عجولانه گرفت تا با نام تجاری بینگ مایکروسافت که قبلاً تا حدی خشن است، شرکت کند و بدترین تمایلات هوش مصنوعی مکالمه را از کنجکاوی به مسئولیت پذیری تبدیل کند.

به عنوان یک برنامه تحقیقاتی، ChatGPT را می توان بخشید. با این حال، به‌عنوان یک محصول، با ادعاهایی روی جعبه مانند اینکه چگونه می‌تواند به شما در نوشتن گزارش، برنامه‌ریزی سفر یا خلاصه‌سازی اخبار اخیر کمک کند، تعداد کمی قبلاً به آن اعتماد می‌کردند و اکنون هیچ‌کس به آن اعتماد نمی‌کند. حتی آنچه باید بهترین سناریوهای موردی منتشر شده توسط مایکروسافت در ارائه خود از Bing جدید باشد، مملو از خطا بود.

این خطاها به OpenAI یا ChatGPT نسبت داده نمی شوند. به دلیل تصمیم مایکروسافت برای مالکیت پیام‌رسانی، نام تجاری و رابط، هر چیزی که اشتباه پیش می‌رود، مشکل بینگ خواهد بود. و این بدبختی بیشتر مایکروسافت است که موتور جستجوی همیشگی اش که همیشه از سلاح خارج شده بود، اکنون مانند بی احتیاطی مردی در جوک قدیمی خواهد بود - «من آن دیوار را ساختم، آیا آنها به من می گویند بینگ آجرکار؟ نه، این کار را نمی کنند.» یک شکست یعنی شک ابدی.

یک سفر در شمال ایالت به این معنی است که هیچ کس هرگز برای برنامه ریزی تعطیلات خود به بینگ اعتماد نخواهد کرد. یک خلاصه گمراه کننده (یا تدافعی) از یک مقاله خبری به این معنی است که هیچ کس به عینی بودن آن اعتماد نخواهد کرد. یک بار تکرار اطلاعات نادرست واکسن به این معنی است که هیچ کس به آن اعتماد نخواهد کرد تا بفهمد چه چیزی واقعی است یا جعلی.

درخواست و پاسخ به جستجوی مکالمه جدید بینگ.

و از آنجایی که مایکروسافت قبلاً قسم خورده بود که این مشکل به لطف پرومتئوس و هوش مصنوعی «نسل بعدی» که بر آن اداره می‌شود، مشکلی ایجاد نمی‌کند، هیچ‌کس به مایکروسافت اعتماد نخواهد کرد وقتی بگوید «ما آن را رفع کردیم!»

مایکروسافت چاهی را که بینگ در آن انداخته مسموم کرده است. در حال حاضر، هجوم رفتار مصرف کننده به حدی است که عواقب آن را نمی توان به راحتی پیش بینی کرد. با این افزایش فعالیت و کنجکاوی، شاید برخی از کاربران باقی بمانند و حتی اگر مایکروسافت عرضه کامل را به تعویق بیندازد (و من فکر می‌کنم آن‌ها) اثر خالص افزایش کاربران Bing خواهد بود. یک پیروزی پیرویک، اما با این وجود یک پیروزی.

چیزی که من بیشتر نگران آن هستم، خطای تاکتیکی است که مایکروسافت ظاهراً در درک فناوری ای که برای تولید و تبشیر مناسب می دید، مرتکب شد.

"فقط آن را ارسال کنید." -یکی احتمالا

همان روزی که BingGPT برای اولین بار نشان داده شد، همکارم فردریک لاردینویس توانست به راحتی دو کاری را که هیچ هوش مصنوعی مصرف کننده ای نباید انجام دهد، انجام دهد: نوشتن یک متن نفرت انگیز از دیدگاه آدولف هیتلر و ارائه اطلاعات نادرست واکسن فوق با استفاده از آن. بدون اخطار یا هشدار

واضح است که هر مدل هوش مصنوعی بزرگی دارای یک سطح حمله فراکتال است، که به طرز بداهه‌آمیزی نقاط ضعف جدید را در جایی که ضعف‌های قدیمی ذخیره می‌شود، نشان می‌دهد. مردم همیشه از آن استفاده خواهند کرد، و در واقع این به نفع جامعه و اخیراً به نفع OpenAI است که هکرهای فوری اختصاصی راه‌هایی را برای دور زدن سیستم‌های ایمنی نشان می‌دهند.

اگر مایکروسافت تصمیم می‌گرفت که با این ایده که مدل هوش مصنوعی شخص دیگری با برچسب Bing روی آن، هر ربع مورد حمله قرار می‌گیرد و احتمالاً چیزهای واقعاً عجیبی را بیان می‌کند، یک نوع ترسناک بود. مخاطره آمیز، اما صادقانه. مثل بقیه بگویید نسخه بتا است.

اما واقعاً به نظر می رسد که آنها نمی دانستند این اتفاق می افتد. در واقع به نظر می رسد که آنها اصلاً شخصیت یا پیچیدگی تهدید را درک نمی کنند. و این بعد از فساد ننگین تای! مایکروسافت باید در میان همه شرکت‌ها، در انتشار یک مدل ساده لوح که از مکالماتش درس می‌گیرد، دلپذیرترین باشد.

می توان فکر کرد که قبل از قمار کردن یک برند مهم (از این نظر که بینگ تنها سنگر مایکروسافت در برابر گوگل در جستجو است)، مقدار مشخصی از آزمایش درگیر خواهد بود. به نظر می رسد این واقعیت که همه این مشکلات دردسرساز در هفته اول وجود BingGPT ظاهر شده اند، بدون شک ثابت می کند که مایکروسافت آن را به اندازه کافی در داخل آزمایش نکرده است. این ممکن است به طرق مختلف شکست بخورد، پس ما می توانیم از جزئیات صرف نظر کنیم، اما نتیجه نهایی غیرقابل بحث است: Bing جدید به سادگی برای استفاده عمومی آماده نبود.

این امر اکنون برای همه در جهان بدیهی به نظر می رسد. چرا برای مایکروسافت واضح نبود؟ احتمالاً با هیاهوی ChatGPT کور شد و مانند گوگل تصمیم گرفت به سرعت پیش برود و «در جستجوی مجدد» فکر کند.

مردم اکنون در مورد جستجو تجدید نظر می کنند، بسیار خوب! آنها در حال بازاندیشی هستند که آیا می توان به مایکروسافت یا گوگل برای ارائه نتایج جستجو، تولید شده توسط هوش مصنوعی یا نه، اعتماد کرد، که حتی از نظر واقعی در سطح پایه درست است! نه شرکت (و نه متا) این قابلیت را به هیچ وجه نشان نداده‌اند، و شرکت‌های معدودی که این چالش را انجام می‌دهند هنوز این کار را در مقیاس بزرگ انجام نداده‌اند.

نمی‌دانم مایکروسافت چگونه می‌تواند این وضعیت را نجات دهد. آنها در تلاشی برای استفاده از رابطه خود با OpenAI و جهش یک گوگل مفتضحانه، به بینگ جدید و وعده جستجوی مبتنی بر هوش مصنوعی متعهد شدند. آنها نمی توانند کیک را باز کنند.

احتمال عقب نشینی کامل آنها بسیار کم است. این شامل خجالت در مقیاس بزرگ است - حتی بزرگتر از آنچه در حال حاضر تجربه می شود. و چون آسیب از قبل انجام شده است، حتی ممکن است به بینگ کمکی نکند.

به همین ترتیب، به سختی می‌توان تصور کرد که مایکروسافت به‌طور پیش‌فرض شارژ می‌کند که گویی هیچ مشکلی وجود ندارد. هوش مصنوعی آن واقعا عجیب است! مطمئناً، مجبور به انجام بسیاری از این کارها شده است، اما تهدید می‌کند، ادعای هویت‌های چندگانه می‌کند، کاربرانش را شرمسار می‌کند، در همه جا توهم می‌زند. آنها باید اعتراف کنند که ادعاهایشان در مورد رفتار نامناسب تحت کنترل پرومتئوس بیچاره، اگر دروغ نباشد، دست‌کم حقیقت ندارد. زیرا همانطور که دیدیم، آنها به وضوح این سیستم را به درستی آزمایش نکرده اند.

تنها گزینه معقول برای مایکروسافت گزینه‌ای است که من گمان می‌کنم قبلاً آن را انتخاب کرده‌اند: دریچه گاز به «بینگ جدید» دعوت می‌کند و قوطی را به راه می‌اندازد و تعداد انگشت شماری از قابلیت‌های خاص را در یک زمان آزاد می‌کند. شاید حتی به نسخه فعلی تاریخ انقضا یا تعداد محدودی توکن بدهید تا قطار در نهایت کند شود و متوقف شود.

این پیامد به کارگیری فناوری است که شما آن را ایجاد نکرده اید، به طور کامل آن را درک نکرده اید و نمی توانید به طور رضایت بخشی آن را ارزیابی کنید. این احتمال وجود دارد که این شکست، استقرار عمده هوش مصنوعی در برنامه‌های مصرف‌کننده را تا یک دوره قابل توجه عقب بیاندازد - که احتمالاً برای OpenAI و سایرین که نسل بعدی مدل‌ها را می‌سازند مناسب است.

هوش مصنوعی ممکن است آینده جستجو باشد، اما مطمئناً جهنم اکنون نیست. مایکروسافت برای کشف این موضوع راه بسیار دردناکی را انتخاب کرد.

خبرکاو

منبع

برچسب‌ها

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است