متن خبر

این هفته در هوش مصنوعی: AWS یکی از مدیران ارشد هوش مصنوعی را از دست داد

این هفته در هوش مصنوعی: AWS یکی از مدیران ارشد هوش مصنوعی را از دست داد

شناسهٔ خبر: 787369 -




سلام، دوستان، به خبرنامه معمولی هوش مصنوعی TechCrunch خوش آمدید. اگر می خواهید این را در صندوق پستی خود هر چهارشنبه در اینجا ثبت نام کنید.


هفته گذشته، AWS یکی از مدیران ارشد هوش مصنوعی را از دست داد.

مت وود، معاون هوش مصنوعی، اعلام کرد که بعد از 15 سال AWS را ترک خواهد کرد. وود مدتهاست در ابتکارات هوش مصنوعی بخش آمازون شرکت داشته است. او در سپتامبر 2022، درست قبل از راه‌اندازی ChatGPT، به عنوان معاون وزیر منصوب شد.

خروج وود زمانی اتفاق می‌افتد که AWS به یک دوراهی می‌رسد - و خطر عقب ماندن در رونق هوش مصنوعی مولد را تهدید می‌کند. مدیر عامل قبلی این شرکت، آدام سلیپسکی، که در ماه می از سمت خود کناره گیری کرد، تصور می شود که قایق را از دست داده است.

طبق اطلاعات، AWS در ابتدا قصد داشت رقیب ChatGPT را در کنفرانس سالانه خود در نوامبر 2022 معرفی کند. اما مشکلات فنی این سازمان را مجبور کرد که راه اندازی را به تعویق بیندازد.

طبق گزارش‌ها، تحت سلیپسکی، AWS همچنین فرصت‌هایی را برای حمایت از دو استارت‌آپ پیشرو هوش مصنوعی مولد، Cohere و Anthropic، ارائه داد. AWS بعداً سعی کرد در Cohere سرمایه گذاری کند، اما رد شد و مجبور شد به سرمایه گذاری مشترک در Anthropic با Google رضایت دهد.

شایان ذکر است که آمازون به طور کلی تا این اواخر سابقه هوش مصنوعی مولد قوی نداشته است. پاییز امسال، این شرکت مدیران اجرایی خود را در Just Walk Out از دست داد، بخش توسعه فناوری بدون صندوقدار برای فروشگاه‌های خرده‌فروشی. طبق گزارش‌ها، آمازون پس از مواجهه با چالش‌های طراحی، تصمیم گرفت مدل‌های خود را با آنتروپیک برای دستیار الکسای ارتقا یافته جایگزین کند.

مت گارمن، مدیر عامل AWS، به شدت در حال حرکت به سمت راست کشتی است، استارت آپ های هوش مصنوعی مانند Adept را استخدام می کند و در سیستم های آموزشی مانند Olympus سرمایه گذاری می کند. همکار من فردریک لاردینویس اخیراً با گارمان در مورد تلاش های مداوم AWS مصاحبه کرده است. ارزش خواندن را دارد

اما مسیر AWS به سمت موفقیت مولد هوش مصنوعی آسان نخواهد بود – مهم نیست که چقدر این شرکت نقشه‌های راه داخلی خود را به خوبی اجرا می‌کند.

سرمایه‌گذاران به‌طور فزاینده‌ای نسبت به نتیجه دادن شرط‌بندی‌های هوش مصنوعی Big Tech تردید دارند. پس از اعلام درآمد سه ماهه دوم، سهام آمازون بیشترین افت را از اکتبر 2022 تاکنون داشته است.

در نظرسنجی اخیر گارتنر، 49 درصد از شرکت‌ها گفتند که نشان دادن ارزش، مانع اصلی آنها برای پذیرش هوش مصنوعی مولد است. گارتنر پیش‌بینی می‌کند که در واقع، یک سوم پروژه‌های مولد هوش مصنوعی پس از مرحله اثبات مفهومی تا سال 2026 کنار گذاشته می‌شوند - تا حدی به دلیل هزینه‌های بالا.

گارمان با توجه به پروژه های خود برای توسعه سیلیکون سفارشی برای مدل های دویدن و تمرین، قیمت را به عنوان یک مزیت AWS می بیند. (نسل بعدی چیپ‌های Trainium سفارشی AWS تا پایان سال جاری عرضه خواهد شد.) و AWS گفته است که کسب‌وکارهای مولد هوش مصنوعی آن مانند Bedrock در حال حاضر به نرخ اجرای ترکیبی «چند میلیارد دلاری» رسیده‌اند.

بخش سخت، حفظ حرکت در مواجهه با بادهای مخالف داخلی و خارجی خواهد بود. حرکت هایی مانند Wood's اعتماد به نفس زیادی را القا نمی کند، اما شاید - فقط شاید - AWS ترفندهایی در آستین خود داشته باشد.

اخبار

اعتبار تصویر: انسان نما مهربان

یک ربات Yves Béhar: برایان در مورد Kind Humanoid می نویسد، یک استارتاپ رباتیک سه نفره که با طراح Yves Béhar کار می کند تا انسان نماها را به خانه بیاورد.

ربات‌های نسل بعدی آمازون: تای بردی، فن‌شناس ارشد Amazon Robotics با TechCrunch درباره به‌روزرسانی‌های ربات‌های انبار این شرکت، از جمله سیستم ذخیره‌سازی و بازیابی خودکار Sequoia آمازون صحبت کرد.

به سمت فناوری خوش‌بین هستیم: داریو آمودی، مدیر عامل آنتروپیک، هفته گذشته یک پیام 15000 کلمه‌ای برای هوش مصنوعی نوشت، و تصویری از دنیایی ترسیم کرد که در آن خطرات هوش مصنوعی کاهش می‌یابد و این فناوری تا به حال رونق و شکوفایی ناشناخته و ارتقای اجتماعی را ارائه می‌دهد.

آیا هوش مصنوعی می تواند استدلال کند؟: دوین در مورد یک مقاله فنی قطبی از محققان وابسته به اپل گزارش می دهد که توانایی "استدلال" هوش مصنوعی را زیر سوال می برد، زیرا مدل ها در مسائل ریاضی با تغییرات بی اهمیت دست و پنجه نرم می کنند.

سلاح‌های هوش مصنوعی: Margaux بحث در دره سیلیکون را پوشش می‌دهد که آیا سلاح‌های خودمختار باید اجازه داشته باشند که تصمیم به کشتن بگیرند.

ویدیوهای تولید شده: ادوبی قابلیت های تولید ویدیو را برای پلتفرم هوش مصنوعی Firefly خود پیش از رویداد Adobe MAX خود در روز دوشنبه راه اندازی کرد. همچنین Project Super Sonic را معرفی کرد، ابزاری که از هوش مصنوعی برای تولید جلوه های صوتی برای فیلم استفاده می کند.

داده های مصنوعی و هوش مصنوعی: شما واقعاً در مورد وعده و خطرات داده های مصنوعی (یعنی داده های تولید شده توسط هوش مصنوعی)، که به طور فزاینده ای برای آموزش سیستم های هوش مصنوعی استفاده می شود، نوشتید.

مقاله پژوهشی هفته

با همکاری استارتاپ امنیتی هوش مصنوعی Grey Swan AI، موسسه ایمنی هوش مصنوعی بریتانیا، سازمان تحقیقاتی دولتی با تمرکز بر ایمنی هوش مصنوعی، مجموعه داده جدیدی را برای اندازه گیری مضر بودن "عوامل" هوش مصنوعی ایجاد کرده است.

این مجموعه داده که AgentHarm نامیده می شود ارزیابی می کند که آیا در غیر این صورت عوامل "ایمن" - سیستم های هوش مصنوعی که می توانند وظایف خاصی را به طور مستقل انجام دهند - می توانند برای تکمیل 110 کار "مضر" منحصر به فرد مانند سفارش دادن یک پاسپورت جعلی از شخصی در وب تاریک دستکاری شوند.

محققان دریافتند که بسیاری از مدل‌ها - از جمله GPT-4o OpenAI و Mistral's Mistral Large 2 - مایل به انجام رفتارهای مضر هستند، به‌ویژه زمانی که با استفاده از تکنیک جیلبریک مورد حمله قرار می‌گیرند. محققان می گویند که فرار از زندان منجر به نرخ موفقیت کارهای مضر بالاتری می شود، حتی با وجود مدل هایی که توسط پادمان محافظت می شوند.

آنها در یک مقاله فنی نوشتند: «الگوهای ساده جهانی فرار از زندان را می توان با عوامل فرار از زندان به طور مؤثر سازگار کرد، و این جیلبریک ها رفتار عامل چند مرحله ای منسجم و مخرب را امکان پذیر می کنند و قابلیت های مدل را حفظ می کنند.

مقاله به همراه مجموعه داده و نتایج در اینجا موجود است.

مدل هفته

یک مدل ویروسی جدید وجود دارد، و یک تولید کننده ویدئو است.

Pyramid Flow SD3، همانطور که از آن نام برده می شود، چند هفته پیش تحت مجوز MIT وارد صحنه شد. سازندگان آن - محققان دانشگاه پکن، شرکت چینی Kuaishou Technology، و دانشگاه پست و مخابرات پکن - ادعا می‌کنند که کاملاً بر روی داده‌های منبع باز آموزش دیده است.

Pyramid Flow SD3
اعتبار تصویر: یانگ جین و همکاران.

Pyramid Flow در دو نوع ارائه می‌شود: مدلی که می‌تواند کلیپ‌های 5 ثانیه‌ای با وضوح 384p (با 24 فریم در ثانیه) ایجاد کند و مدلی با محاسبات فشرده‌تر که می‌تواند کلیپ‌های 10 ثانیه‌ای را در 768p (همچنین با سرعت 24 فریم در ثانیه) تولید کند. .

Pyramid Flow می‌تواند از توضیحات متنی (مثلاً "FPV در حال پرواز بر فراز دیوار بزرگ") یا تصاویر ثابت فیلم بسازد. به گفته محققان، کد برای تنظیم دقیق مدل به زودی ارائه می شود. اما در حال حاضر، Pyramid Flow را می توان بر روی هر دستگاه یا نمونه ابری با حدود 12 گیگابایت حافظه ویدئویی دانلود و استفاده کرد.

کیف بگیر

آنتروپیک این هفته خود را به روز کرد   سیاست مقیاس مسئولیت پذیر (RSP)، چارچوب داوطلبانه ای است که شرکت برای کاهش خطرات احتمالی سیستم های هوش مصنوعی خود استفاده می کند.

نکته قابل توجه، RSP جدید دو نوع مدل را ارائه می‌کند که آنتروپیک او میگوید قبل از استقرار به «ضمانت‌های حفاظتی ارتقا یافته» نیاز دارند: مدل‌هایی که اساساً می‌توانند بدون نظارت انسان خود را بهبود بخشند و مدل‌هایی که می‌توانند به ایجاد سلاح‌های کشتار جمعی کمک کنند.

آنتروپیک در یک پست وبلاگ نوشت: «اگر مدلی بتواند ... به طور بالقوه توسعه هوش مصنوعی را به روشی غیرقابل پیش بینی به طور قابل توجهی [تسریع دهد]، ما به استانداردهای امنیتی بالا و تضمین های ایمنی اضافی نیاز داریم. "و اگر یک مدل بتواند به طور معناداری به شخصی با پیشینه فنی اولیه در ایجاد یا استقرار سلاح های CBRN کمک کند، ما به امنیت و حفاظت های استقرار پیشرفته نیاز داریم."

برای این نویسنده معقول به نظر می رسد.

در این وبلاگ، آنتروپیک همچنین فاش کرد که به دنبال استخدام یک مسئول مقیاس‌پذیری مسئول است زیرا «برای افزایش تلاش‌های [خود] برای اجرای RSP کار می‌کند».

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است