این هفته در هوش مصنوعی: AWS یکی از مدیران ارشد هوش مصنوعی را از دست داد
سلام، دوستان، به خبرنامه معمولی هوش مصنوعی TechCrunch خوش آمدید. اگر می خواهید این را در صندوق پستی خود هر چهارشنبه در اینجا ثبت نام کنید.
هفته گذشته، AWS یکی از مدیران ارشد هوش مصنوعی را از دست داد.
مت وود، معاون هوش مصنوعی، اعلام کرد که بعد از 15 سال AWS را ترک خواهد کرد. وود مدتهاست در ابتکارات هوش مصنوعی بخش آمازون شرکت داشته است. او در سپتامبر 2022، درست قبل از راهاندازی ChatGPT، به عنوان معاون وزیر منصوب شد.
خروج وود زمانی اتفاق میافتد که AWS به یک دوراهی میرسد - و خطر عقب ماندن در رونق هوش مصنوعی مولد را تهدید میکند. مدیر عامل قبلی این شرکت، آدام سلیپسکی، که در ماه می از سمت خود کناره گیری کرد، تصور می شود که قایق را از دست داده است.
طبق اطلاعات، AWS در ابتدا قصد داشت رقیب ChatGPT را در کنفرانس سالانه خود در نوامبر 2022 معرفی کند. اما مشکلات فنی این سازمان را مجبور کرد که راه اندازی را به تعویق بیندازد.
طبق گزارشها، تحت سلیپسکی، AWS همچنین فرصتهایی را برای حمایت از دو استارتآپ پیشرو هوش مصنوعی مولد، Cohere و Anthropic، ارائه داد. AWS بعداً سعی کرد در Cohere سرمایه گذاری کند، اما رد شد و مجبور شد به سرمایه گذاری مشترک در Anthropic با Google رضایت دهد.
شایان ذکر است که آمازون به طور کلی تا این اواخر سابقه هوش مصنوعی مولد قوی نداشته است. پاییز امسال، این شرکت مدیران اجرایی خود را در Just Walk Out از دست داد، بخش توسعه فناوری بدون صندوقدار برای فروشگاههای خردهفروشی. طبق گزارشها، آمازون پس از مواجهه با چالشهای طراحی، تصمیم گرفت مدلهای خود را با آنتروپیک برای دستیار الکسای ارتقا یافته جایگزین کند.
مت گارمن، مدیر عامل AWS، به شدت در حال حرکت به سمت راست کشتی است، استارت آپ های هوش مصنوعی مانند Adept را استخدام می کند و در سیستم های آموزشی مانند Olympus سرمایه گذاری می کند. همکار من فردریک لاردینویس اخیراً با گارمان در مورد تلاش های مداوم AWS مصاحبه کرده است. ارزش خواندن را دارد
اما مسیر AWS به سمت موفقیت مولد هوش مصنوعی آسان نخواهد بود – مهم نیست که چقدر این شرکت نقشههای راه داخلی خود را به خوبی اجرا میکند.
سرمایهگذاران بهطور فزایندهای نسبت به نتیجه دادن شرطبندیهای هوش مصنوعی Big Tech تردید دارند. پس از اعلام درآمد سه ماهه دوم، سهام آمازون بیشترین افت را از اکتبر 2022 تاکنون داشته است.
در نظرسنجی اخیر گارتنر، 49 درصد از شرکتها گفتند که نشان دادن ارزش، مانع اصلی آنها برای پذیرش هوش مصنوعی مولد است. گارتنر پیشبینی میکند که در واقع، یک سوم پروژههای مولد هوش مصنوعی پس از مرحله اثبات مفهومی تا سال 2026 کنار گذاشته میشوند - تا حدی به دلیل هزینههای بالا.
گارمان با توجه به پروژه های خود برای توسعه سیلیکون سفارشی برای مدل های دویدن و تمرین، قیمت را به عنوان یک مزیت AWS می بیند. (نسل بعدی چیپهای Trainium سفارشی AWS تا پایان سال جاری عرضه خواهد شد.) و AWS گفته است که کسبوکارهای مولد هوش مصنوعی آن مانند Bedrock در حال حاضر به نرخ اجرای ترکیبی «چند میلیارد دلاری» رسیدهاند.
بخش سخت، حفظ حرکت در مواجهه با بادهای مخالف داخلی و خارجی خواهد بود. حرکت هایی مانند Wood's اعتماد به نفس زیادی را القا نمی کند، اما شاید - فقط شاید - AWS ترفندهایی در آستین خود داشته باشد.
اخبار
یک ربات Yves Béhar: برایان در مورد Kind Humanoid می نویسد، یک استارتاپ رباتیک سه نفره که با طراح Yves Béhar کار می کند تا انسان نماها را به خانه بیاورد.
رباتهای نسل بعدی آمازون: تای بردی، فنشناس ارشد Amazon Robotics با TechCrunch درباره بهروزرسانیهای رباتهای انبار این شرکت، از جمله سیستم ذخیرهسازی و بازیابی خودکار Sequoia آمازون صحبت کرد.
به سمت فناوری خوشبین هستیم: داریو آمودی، مدیر عامل آنتروپیک، هفته گذشته یک پیام 15000 کلمهای برای هوش مصنوعی نوشت، و تصویری از دنیایی ترسیم کرد که در آن خطرات هوش مصنوعی کاهش مییابد و این فناوری تا به حال رونق و شکوفایی ناشناخته و ارتقای اجتماعی را ارائه میدهد.
آیا هوش مصنوعی می تواند استدلال کند؟: دوین در مورد یک مقاله فنی قطبی از محققان وابسته به اپل گزارش می دهد که توانایی "استدلال" هوش مصنوعی را زیر سوال می برد، زیرا مدل ها در مسائل ریاضی با تغییرات بی اهمیت دست و پنجه نرم می کنند.
سلاحهای هوش مصنوعی: Margaux بحث در دره سیلیکون را پوشش میدهد که آیا سلاحهای خودمختار باید اجازه داشته باشند که تصمیم به کشتن بگیرند.
ویدیوهای تولید شده: ادوبی قابلیت های تولید ویدیو را برای پلتفرم هوش مصنوعی Firefly خود پیش از رویداد Adobe MAX خود در روز دوشنبه راه اندازی کرد. همچنین Project Super Sonic را معرفی کرد، ابزاری که از هوش مصنوعی برای تولید جلوه های صوتی برای فیلم استفاده می کند.
داده های مصنوعی و هوش مصنوعی: شما واقعاً در مورد وعده و خطرات داده های مصنوعی (یعنی داده های تولید شده توسط هوش مصنوعی)، که به طور فزاینده ای برای آموزش سیستم های هوش مصنوعی استفاده می شود، نوشتید.
مقاله پژوهشی هفته
با همکاری استارتاپ امنیتی هوش مصنوعی Grey Swan AI، موسسه ایمنی هوش مصنوعی بریتانیا، سازمان تحقیقاتی دولتی با تمرکز بر ایمنی هوش مصنوعی، مجموعه داده جدیدی را برای اندازه گیری مضر بودن "عوامل" هوش مصنوعی ایجاد کرده است.
این مجموعه داده که AgentHarm نامیده می شود ارزیابی می کند که آیا در غیر این صورت عوامل "ایمن" - سیستم های هوش مصنوعی که می توانند وظایف خاصی را به طور مستقل انجام دهند - می توانند برای تکمیل 110 کار "مضر" منحصر به فرد مانند سفارش دادن یک پاسپورت جعلی از شخصی در وب تاریک دستکاری شوند.
محققان دریافتند که بسیاری از مدلها - از جمله GPT-4o OpenAI و Mistral's Mistral Large 2 - مایل به انجام رفتارهای مضر هستند، بهویژه زمانی که با استفاده از تکنیک جیلبریک مورد حمله قرار میگیرند. محققان می گویند که فرار از زندان منجر به نرخ موفقیت کارهای مضر بالاتری می شود، حتی با وجود مدل هایی که توسط پادمان محافظت می شوند.
آنها در یک مقاله فنی نوشتند: «الگوهای ساده جهانی فرار از زندان را می توان با عوامل فرار از زندان به طور مؤثر سازگار کرد، و این جیلبریک ها رفتار عامل چند مرحله ای منسجم و مخرب را امکان پذیر می کنند و قابلیت های مدل را حفظ می کنند.
مقاله به همراه مجموعه داده و نتایج در اینجا موجود است.
مدل هفته
یک مدل ویروسی جدید وجود دارد، و یک تولید کننده ویدئو است.
Pyramid Flow SD3، همانطور که از آن نام برده می شود، چند هفته پیش تحت مجوز MIT وارد صحنه شد. سازندگان آن - محققان دانشگاه پکن، شرکت چینی Kuaishou Technology، و دانشگاه پست و مخابرات پکن - ادعا میکنند که کاملاً بر روی دادههای منبع باز آموزش دیده است.
Pyramid Flow در دو نوع ارائه میشود: مدلی که میتواند کلیپهای 5 ثانیهای با وضوح 384p (با 24 فریم در ثانیه) ایجاد کند و مدلی با محاسبات فشردهتر که میتواند کلیپهای 10 ثانیهای را در 768p (همچنین با سرعت 24 فریم در ثانیه) تولید کند. .
Pyramid Flow میتواند از توضیحات متنی (مثلاً "FPV در حال پرواز بر فراز دیوار بزرگ") یا تصاویر ثابت فیلم بسازد. به گفته محققان، کد برای تنظیم دقیق مدل به زودی ارائه می شود. اما در حال حاضر، Pyramid Flow را می توان بر روی هر دستگاه یا نمونه ابری با حدود 12 گیگابایت حافظه ویدئویی دانلود و استفاده کرد.
کیف بگیر
آنتروپیک این هفته خود را به روز کرد سیاست مقیاس مسئولیت پذیر (RSP)، چارچوب داوطلبانه ای است که شرکت برای کاهش خطرات احتمالی سیستم های هوش مصنوعی خود استفاده می کند.
نکته قابل توجه، RSP جدید دو نوع مدل را ارائه میکند که آنتروپیک او میگوید قبل از استقرار به «ضمانتهای حفاظتی ارتقا یافته» نیاز دارند: مدلهایی که اساساً میتوانند بدون نظارت انسان خود را بهبود بخشند و مدلهایی که میتوانند به ایجاد سلاحهای کشتار جمعی کمک کنند.
آنتروپیک در یک پست وبلاگ نوشت: «اگر مدلی بتواند ... به طور بالقوه توسعه هوش مصنوعی را به روشی غیرقابل پیش بینی به طور قابل توجهی [تسریع دهد]، ما به استانداردهای امنیتی بالا و تضمین های ایمنی اضافی نیاز داریم. "و اگر یک مدل بتواند به طور معناداری به شخصی با پیشینه فنی اولیه در ایجاد یا استقرار سلاح های CBRN کمک کند، ما به امنیت و حفاظت های استقرار پیشرفته نیاز داریم."
برای این نویسنده معقول به نظر می رسد.
در این وبلاگ، آنتروپیک همچنین فاش کرد که به دنبال استخدام یک مسئول مقیاسپذیری مسئول است زیرا «برای افزایش تلاشهای [خود] برای اجرای RSP کار میکند».
ارسال نظر