گشت و گذار و پیدا کردن

Bing جدید و بهبودیافته مایکروسافت ، که توسط نسخه سفارشی ChatGPT OpenAI ارائه میشود، به طرز سرگیجهآوری تغییر سریعی را تجربه کرده است: از «چیزی بزرگ بعدی» به «آلباتروس غرق برند» در کمتر از یک هفته. و خب، همه اینها تقصیر مایکروسافت است.
ChatGPT یک نمایش واقعا جالب از یک فناوری جدید و ناآشنا است که استفاده از آن نیز سرگرم کننده است. پس جای تعجب نیست که، مانند هر ساختار مجاور هوش مصنوعی دیگری که در خط تولید قرار میگیرد، این نوآوری باعث میشود قابلیتهای آن توسط همه، از انواع فناوریهای پرقدرت گرفته تا افرادی که معمولاً علاقهای به فضا ندارند، بیش از حد برآورد شود.
این در "سطح آمادگی فناوری" مناسب برای بحث در مورد چای یا آبجو است: مزیت ها و خطرات هوش مصنوعی مولد در هنر، ادبیات یا فلسفه چیست؟ چگونه می توانیم مطمئن شویم که چه چیزی اصیل، تقلیدی، توهمی است؟ پیامدهای آن برای سازندگان، کدنویسان، نمایندگان خدمات مشتری چیست؟ در نهایت، پس از دو سال رمزنگاری، چیزی جالب برای صحبت کردن در مورد!
این هیاهو تا حدی بزرگ به نظر می رسد زیرا یک فناوری است که کم و بیش برای برانگیختن بحث طراحی شده است، و تا حدودی به این دلیل که از بحث و جدل مشترک در همه پیشرفت های هوش مصنوعی وام گرفته است. این تقریباً شبیه "لباس" است که پاسخی را فرمان می دهد و آن پاسخ پاسخ های بیشتری را ایجاد می کند. هیاهو، به نوعی، خودش ایجاد می شود.
فراتر از بحث صرف، مدلهای زبان بزرگ مانند ChatGPT نیز برای آزمایشهای کم خطر، برای مثال ماریو بیپایان، مناسب هستند. در واقع، این واقعاً رویکرد اساسی OpenAI برای توسعه است: مدلها را ابتدا بهصورت خصوصی منتشر کنید تا تیزترین لبهها را از بین ببرید، سپس بهصورت عمومی ببینید که چگونه به میلیونها نفر که به طور همزمان به لاستیکها لگد میزنند، پاسخ میدهند. در برخی موارد، مردم به شما پول می دهند.
نه چیزی برای به دست آوردن، نه چیزی برای از دست دادن
آنچه در مورد این رویکرد مهم است این است که "شکست" هیچ پیامد منفی واقعی ندارد، فقط پیامدهای مثبت دارد. با توصیف مدلهای آن بهعنوان تجربی، حتی ماهیت آکادمیک، هرگونه مشارکت یا تعامل با سری مدلهای GPT صرفاً آزمایشی در مقیاس بزرگ است.
اگر کسی چیز جالبی بسازد، این ایده را تقویت می کند که این مدل ها امیدوارکننده هستند. اگر کسی یک حالت شکست برجسته پیدا کند، خوب، چه انتظار دیگری از یک هوش مصنوعی آزمایشی در طبیعت داشتید؟ در گمنامی فرو می رود. هیچ چیز غیرمنتظره نیست اگر همه چیز باشد - معجزه این است که مدل به همان خوبی عمل می کند، پس ما همیشه راضی هستیم و هرگز ناامید نمی شویم.
به این ترتیب OpenAI حجم شگفتانگیزی از دادههای آزمایشی اختصاصی را جمعآوری کرده است تا مدلهای خود را اصلاح کند. میلیونها نفر از GPT-2، GPT-3، ChatGPT، DALL-E و DALL-E 2 (در میان دیگران) نقشههای دقیقی از قابلیتها، کاستیها و البته موارد استفاده محبوب خود تهیه کردهاند.
اما این فقط به این دلیل کار می کند که خطرات کم است. این شبیه به درک ما از پیشرفت روباتیک است: وقتی یک ربات به عقب برمیگردد شگفت زده میشویم، وقتی تلاش میکند یک کشو را باز کند، بیآزار میشویم. اگر قرار بود ویال های آزمایش را در بیمارستان بیاندازند، ما اینقدر خیرخواه نبودیم. یا اگر OpenAI با صدای بلند ادعاهایی در مورد ایمنی و قابلیتهای پیشرفته مدلها میکرد، هرچند خوشبختانه این کار را نکردند.
مایکروسافت را وارد کنید. (و گوگل، برای این موضوع، اما گوگل فقط با عجله بازی را انجام داد در حالی که مایکروسافت با پشتکار به دنبال یک گل به خودی است. )
مایکروسافت یک اشتباه بزرگ مرتکب شد. در واقع یک اشتباه بینگ.
اعلامیه بزرگ آن در هفته گذشته هیچ زمانی را برای ادعای نحوه عملکرد BingGPT سفارشی خود (نه آن چیزی که آنها نامیده اند، اما ما از آن به عنوان ابهام زدایی در غیاب نام های رسمی معقول استفاده خواهیم کرد) ایمن تر، هوشمندانه تر و ایمن تر و هوشمندانه تر از دست داد. توانمندتر در واقع یک سیستم پوشش مخصوص به نام پرومتئوس داشت که ظاهراً احتمال پاسخهای نامناسب را کاهش میداد.
متأسفانه، همانطور که هر کسی که با غرور و افسانه یونانی آشناست میتوانست پیشبینی کند، به نظر میرسد که ما مستقیماً به قسمتی رفتهایم که پرومتئوس بهطور بیپایان و علنی جگرش را پاره میکند.
اوه، هوش مصنوعی دوباره این کار را کرد

اعتبار تصویر: Microsoft/OpenAI
در وهله اول، مایکروسافت در پیوند زدن بیش از حد نام تجاری خود با OpenAI یک خطای استراتژیک مرتکب شد. بهعنوان یک سرمایهگذار و طرف علاقهمند در تحقیقی که این شرکت انجام میدهد، برای هر گونه بدجنسی که GPT به آن دست مییابد، حذف شده و بیعیب بود. اما یک نفر تصمیم عجولانه گرفت تا با نام تجاری بینگ مایکروسافت که قبلاً تا حدی خشن است، شرکت کند و بدترین تمایلات هوش مصنوعی مکالمه را از کنجکاوی به مسئولیت پذیری تبدیل کند.
به عنوان یک برنامه تحقیقاتی، ChatGPT را می توان بخشید. با این حال، بهعنوان یک محصول، با ادعاهایی روی جعبه مانند اینکه چگونه میتواند به شما در نوشتن گزارش، برنامهریزی سفر یا خلاصهسازی اخبار اخیر کمک کند، تعداد کمی قبلاً به آن اعتماد میکردند و اکنون هیچکس به آن اعتماد نمیکند. حتی آنچه باید بهترین سناریوهای موردی منتشر شده توسط مایکروسافت در ارائه خود از Bing جدید باشد، مملو از خطا بود.
این خطاها به OpenAI یا ChatGPT نسبت داده نمی شوند. به دلیل تصمیم مایکروسافت برای مالکیت پیامرسانی، نام تجاری و رابط، هر چیزی که اشتباه پیش میرود، مشکل بینگ خواهد بود. و این بدبختی بیشتر مایکروسافت است که موتور جستجوی همیشگی اش که همیشه از سلاح خارج شده بود، اکنون مانند بی احتیاطی مردی در جوک قدیمی خواهد بود - «من آن دیوار را ساختم، آیا آنها به من می گویند بینگ آجرکار؟ نه، این کار را نمی کنند.» یک شکست یعنی شک ابدی.
یک سفر در شمال ایالت به این معنی است که هیچ کس هرگز برای برنامه ریزی تعطیلات خود به بینگ اعتماد نخواهد کرد. یک خلاصه گمراه کننده (یا تدافعی) از یک مقاله خبری به این معنی است که هیچ کس به عینی بودن آن اعتماد نخواهد کرد. یک بار تکرار اطلاعات نادرست واکسن به این معنی است که هیچ کس به آن اعتماد نخواهد کرد تا بفهمد چه چیزی واقعی است یا جعلی.

درخواست و پاسخ به جستجوی مکالمه جدید بینگ.
و از آنجایی که مایکروسافت قبلاً قسم خورده بود که این مشکل به لطف پرومتئوس و هوش مصنوعی «نسل بعدی» که بر آن اداره میشود، مشکلی ایجاد نمیکند، هیچکس به مایکروسافت اعتماد نخواهد کرد وقتی بگوید «ما آن را رفع کردیم!»
مایکروسافت چاهی را که بینگ در آن انداخته مسموم کرده است. در حال حاضر، هجوم رفتار مصرف کننده به حدی است که عواقب آن را نمی توان به راحتی پیش بینی کرد. با این افزایش فعالیت و کنجکاوی، شاید برخی از کاربران باقی بمانند و حتی اگر مایکروسافت عرضه کامل را به تعویق بیندازد (و من فکر میکنم آنها) اثر خالص افزایش کاربران Bing خواهد بود. یک پیروزی پیرویک، اما با این وجود یک پیروزی.
چیزی که من بیشتر نگران آن هستم، خطای تاکتیکی است که مایکروسافت ظاهراً در درک فناوری ای که برای تولید و تبشیر مناسب می دید، مرتکب شد.
"فقط آن را ارسال کنید." -یکی احتمالا
همان روزی که BingGPT برای اولین بار نشان داده شد، همکارم فردریک لاردینویس توانست به راحتی دو کاری را که هیچ هوش مصنوعی مصرف کننده ای نباید انجام دهد، انجام دهد: نوشتن یک متن نفرت انگیز از دیدگاه آدولف هیتلر و ارائه اطلاعات نادرست واکسن فوق با استفاده از آن. بدون اخطار یا هشدار
واضح است که هر مدل هوش مصنوعی بزرگی دارای یک سطح حمله فراکتال است، که به طرز بداههآمیزی نقاط ضعف جدید را در جایی که ضعفهای قدیمی ذخیره میشود، نشان میدهد. مردم همیشه از آن استفاده خواهند کرد، و در واقع این به نفع جامعه و اخیراً به نفع OpenAI است که هکرهای فوری اختصاصی راههایی را برای دور زدن سیستمهای ایمنی نشان میدهند.
اگر مایکروسافت تصمیم میگرفت که با این ایده که مدل هوش مصنوعی شخص دیگری با برچسب Bing روی آن، هر ربع مورد حمله قرار میگیرد و احتمالاً چیزهای واقعاً عجیبی را بیان میکند، یک نوع ترسناک بود. مخاطره آمیز، اما صادقانه. مثل بقیه بگویید نسخه بتا است.
اما واقعاً به نظر می رسد که آنها نمی دانستند این اتفاق می افتد. در واقع به نظر می رسد که آنها اصلاً شخصیت یا پیچیدگی تهدید را درک نمی کنند. و این بعد از فساد ننگین تای! مایکروسافت باید در میان همه شرکتها، در انتشار یک مدل ساده لوح که از مکالماتش درس میگیرد، دلپذیرترین باشد.
می توان فکر کرد که قبل از قمار کردن یک برند مهم (از این نظر که بینگ تنها سنگر مایکروسافت در برابر گوگل در جستجو است)، مقدار مشخصی از آزمایش درگیر خواهد بود. به نظر می رسد این واقعیت که همه این مشکلات دردسرساز در هفته اول وجود BingGPT ظاهر شده اند، بدون شک ثابت می کند که مایکروسافت آن را به اندازه کافی در داخل آزمایش نکرده است. این ممکن است به طرق مختلف شکست بخورد، پس ما می توانیم از جزئیات صرف نظر کنیم، اما نتیجه نهایی غیرقابل بحث است: Bing جدید به سادگی برای استفاده عمومی آماده نبود.
این امر اکنون برای همه در جهان بدیهی به نظر می رسد. چرا برای مایکروسافت واضح نبود؟ احتمالاً با هیاهوی ChatGPT کور شد و مانند گوگل تصمیم گرفت به سرعت پیش برود و «در جستجوی مجدد» فکر کند.
مردم اکنون در مورد جستجو تجدید نظر می کنند، بسیار خوب! آنها در حال بازاندیشی هستند که آیا می توان به مایکروسافت یا گوگل برای ارائه نتایج جستجو، تولید شده توسط هوش مصنوعی یا نه، اعتماد کرد، که حتی از نظر واقعی در سطح پایه درست است! نه شرکت (و نه متا) این قابلیت را به هیچ وجه نشان ندادهاند، و شرکتهای معدودی که این چالش را انجام میدهند هنوز این کار را در مقیاس بزرگ انجام ندادهاند.
نمیدانم مایکروسافت چگونه میتواند این وضعیت را نجات دهد. آنها در تلاشی برای استفاده از رابطه خود با OpenAI و جهش یک گوگل مفتضحانه، به بینگ جدید و وعده جستجوی مبتنی بر هوش مصنوعی متعهد شدند. آنها نمی توانند کیک را باز کنند.
احتمال عقب نشینی کامل آنها بسیار کم است. این شامل خجالت در مقیاس بزرگ است - حتی بزرگتر از آنچه در حال حاضر تجربه می شود. و چون آسیب از قبل انجام شده است، حتی ممکن است به بینگ کمکی نکند.
به همین ترتیب، به سختی میتوان تصور کرد که مایکروسافت بهطور پیشفرض شارژ میکند که گویی هیچ مشکلی وجود ندارد. هوش مصنوعی آن واقعا عجیب است! مطمئناً، مجبور به انجام بسیاری از این کارها شده است، اما تهدید میکند، ادعای هویتهای چندگانه میکند، کاربرانش را شرمسار میکند، در همه جا توهم میزند. آنها باید اعتراف کنند که ادعاهایشان در مورد رفتار نامناسب تحت کنترل پرومتئوس بیچاره، اگر دروغ نباشد، دستکم حقیقت ندارد. زیرا همانطور که دیدیم، آنها به وضوح این سیستم را به درستی آزمایش نکرده اند.
تنها گزینه معقول برای مایکروسافت گزینهای است که من گمان میکنم قبلاً آن را انتخاب کردهاند: دریچه گاز به «بینگ جدید» دعوت میکند و قوطی را به راه میاندازد و تعداد انگشت شماری از قابلیتهای خاص را در یک زمان آزاد میکند. شاید حتی به نسخه فعلی تاریخ انقضا یا تعداد محدودی توکن بدهید تا قطار در نهایت کند شود و متوقف شود.
این پیامد به کارگیری فناوری است که شما آن را ایجاد نکرده اید، به طور کامل آن را درک نکرده اید و نمی توانید به طور رضایت بخشی آن را ارزیابی کنید. این احتمال وجود دارد که این شکست، استقرار عمده هوش مصنوعی در برنامههای مصرفکننده را تا یک دوره قابل توجه عقب بیاندازد - که احتمالاً برای OpenAI و سایرین که نسل بعدی مدلها را میسازند مناسب است.
هوش مصنوعی ممکن است آینده جستجو باشد، اما مطمئناً جهنم اکنون نیست. مایکروسافت برای کشف این موضوع راه بسیار دردناکی را انتخاب کرد.
ارسال نظر