این هفته در هوش مصنوعی: ساختن دیپ فیک کامالا هریس بسیار آسان است

سلام، دوستان، به خبرنامه معمولی هوش مصنوعی TechCrunch خوش آمدید. اگر می خواهید این را در صندوق پستی خود هر چهارشنبه در اینجا ثبت نام کنید.
ایجاد یک دیپ فیک صوتی قانع کننده کامالا هریس در روز انتخابات بسیار آسان بود. این برای من 5 دلار هزینه داشت و کمتر از دو دقیقه طول کشید، و نشان میدهد که هوش مصنوعی مولد ارزان و فراگیر چقدر دروازههای اطلاعات نادرست را باز کرده است.
ایجاد دیپ فیک هریس هدف اصلی من نبود. داشتم با صدای Cartesia's Voice Changer بازی میکردم، مدلی که صدای شما را با حفظ عروض اصلی به صدایی متفاوت تبدیل میکند. آن صدای دوم می تواند "کلون" صدای شخص دیگری باشد - Cartesia یک صدای دیجیتال دو برابر از هر ضبط 10 ثانیه ای ایجاد می کند.
پس ، من تعجب کردم، آیا تغییر صدا صدای من را به هریس تبدیل می کند؟ من 5 دلار برای باز کردن قابلیت شبیهسازی صدای Cartesia پرداختم، با استفاده از سخنرانیهای اخیر کمپین، یک کلون از صدای هریس ایجاد کردم و آن شبیهسازی را به عنوان خروجی در Voice Changer انتخاب کردم.
مثل یک طلسم کار کرد:
من مطمئن هستم که Cartesia دقیقاً قصد استفاده از ابزارهای خود را در این راه نداشته است. برای فعال کردن شبیهسازی صدا، Cartesia میخواهد کادری را علامت بزنید که نشان میدهد هیچ چیز مضر یا غیرقانونی ایجاد نمیکنید و موافقت میکنید که ضبطهای گفتار شما شبیهسازی شود.
اما این فقط یک سیستم افتخار است. بدون هیچ گونه حفاظت واقعی، هیچ چیزی مانع از ایجاد دیپفیکهای «مضر یا غیرقانونی» به هر تعداد که میخواهد وجود ندارد.
این یک مشکل است، ناگفته نماند. پس راه حل چیست؟ یکی هست؟ Cartesia می تواند تأیید صوت را اجرا کند، همانطور که برخی از پلتفرم های دیگر انجام داده اند. اما تا زمانی که این کار انجام شود، به احتمال زیاد یک ابزار شبیهسازی صوتی جدید و بدون محدودیت ظاهر خواهد شد.
من در مورد این موضوع با کارشناسان در کنفرانس TC's Disrupt هفته گذشته صحبت کردم. برخی از ایده واترمارک های نامرئی حمایت می کردند، به طوری که تشخیص اینکه آیا محتوا توسط هوش مصنوعی تولید شده است یا خیر، آسان تر است. دیگران به قوانین تعدیل محتوا مانند قانون ایمنی آنلاین در بریتانیا اشاره کردند که به نظر آنها ممکن است به جلوگیری از موج اطلاعات نادرست کمک کند.
من را بدبین خطاب کنید، اما فکر می کنم آن کشتی ها حرکت کرده اند. همانطور که عمران احمد، مدیر عامل مرکز مقابله با نفرت دیجیتالی می گوید، ما به یک "ماشین گاوهای ابدی" نگاه می کنیم.
اطلاعات نادرست با سرعت نگران کننده ای در حال گسترش است. برخی از نمونههای برجسته از سال گذشته شامل یک شبکه ربات در X است که انتخابات فدرال ایالات متحده را هدف قرار میدهد و یک پست صوتی عمیق از رئیس جمهور جو بایدن که ساکنان نیوهمپشایر را از رای دادن منصرف میکند. اما بر اساس تحلیل True Media.org، رای دهندگان ایالات متحده و افراد آگاه به فناوری، هدف اکثر این محتوا نیستند، پس ما تمایل داریم حضور آن را در جاهای دیگر دست کم بگیریم.
بر اساس داده های مجمع جهانی اقتصاد، حجم دیپ فیک های تولید شده توسط هوش مصنوعی بین سال های 2019 تا 2020 900 درصد رشد داشته است.
در همین حال، قوانین نسبتاً کمی برای هدف گیری عمیق جعلی در کتاب ها وجود دارد. و تشخیص دیپ فیک آماده تبدیل شدن به یک مسابقه تسلیحاتی بی پایان است. برخی از ابزارها به ناچار استفاده از اقدامات ایمنی مانند واترمارکینگ را انتخاب نمیکنند یا با برنامههای مخرب آشکارا در ذهن به کار میروند.
به جز تغییر دریا، من فکر میکنم بهترین کاری که میتوانیم انجام دهیم این است که به شدت نسبت به آنچه در آنجا وجود دارد شک داشته باشیم - به ویژه محتوای ویروسی. تشخیص حقیقت از داستان آنلاین به آسانی سابق نیست. اما ما همچنان بر آنچه به اشتراک می گذاریم در مقابل آنچه که نمی کنیم کنترل داریم. و این بسیار تاثیرگذارتر از آن چیزی است که ممکن است به نظر برسد.
اخبار
بررسی جستجوی ChatGPT: همکار من مکس، ادغام جستجوی جدید OpenAI را برای ChatGPT، ChatGPT Search، برای یک چرخش انتخاب کرد. او آن را از برخی جهات قابل توجه بود، اما برای پرس و جوهای کوتاهی که فقط حاوی چند کلمه هستند غیرقابل اعتماد است.
پهپادهای آمازون در فینیکس: چند ماه پس از پایان دادن به برنامه تحویل مبتنی بر هواپیماهای بدون سرنشین خود، Prime Air، در کالیفرنیا، آمازون او میگوید که تحویل مشتریان را از طریق پهپاد در فینیکس، آریزونا آغاز کرده است.
رهبر سابق Meta AR به OpenAI میپیوندد: رئیس سابق تلاشهای عینک AR متا، از جمله Orion، روز دوشنبه اعلام کرد که به OpenAI میپیوندد تا رباتیک و سختافزار مصرفکننده را رهبری کند. این خبر پس از آن منتشر شد که OpenAI یکی از بنیانگذاران رقیب X (توئیتر سابق) Pebble را استخدام کرد.
با محاسبه عقب مانده: در یک Reddit AMA، مدیر عامل OpenAI سام آلتمن اعتراف کرد که کمبود ظرفیت محاسباتی یکی از عوامل اصلی است که شرکت را از ارسال محصولات به دفعات مورد نظر باز می دارد.
خلاصههای تولید شده توسط هوش مصنوعی: آمازون «X-Ray Recaps» را راهاندازی کرده است، یک ویژگی مولد مبتنی بر هوش مصنوعی که خلاصهای مختصر از کل فصلهای تلویزیون، قسمتهای جداگانه و حتی قسمتهایی از قسمتها ایجاد میکند.
افزایش قیمت هایکو: جدیدترین مدل هوش مصنوعی آنتروپیک از راه رسید: کلود 3.5 هایکو. اما نسبت به نسل گذشته گرانتر است و برخلاف دیگر مدلهای آنتروپیک، هنوز نمیتواند تصاویر، نمودارها یا نمودارها را تجزیه و تحلیل کند.
اپل Pixelmator را خریداری کرد: ویرایشگر تصویر مبتنی بر هوش مصنوعی Pixelmator روز جمعه اعلام کرد که توسط اپل خریداری شده است. این معامله در حالی انجام می شود که اپل در مورد ادغام هوش مصنوعی در برنامه های تصویربرداری خود تهاجمی تر شده است.
الکسای «عاملی»: اندی جاسی، مدیرعامل آمازون هفته گذشته به نسخه بهبودیافته «عاملی» دستیار الکسای این شرکت اشاره کرد - نسخه ای که می تواند از طرف کاربر اقداماتی را انجام دهد. ظاهراً الکسای اصلاح شده با تاخیرها و مشکلات فنی مواجه شده است و ممکن است تا زمانی در سال 2025 عرضه نشود.
مقاله پژوهشی هفته
پاپ آپ ها در وب نیز می توانند هوش مصنوعی را فریب دهند - نه فقط پدربزرگ ها و مادربزرگ ها.
در مقاله ای جدید، محققان جورجیا تک، دانشگاه هنگ کنگ و استنفورد نشان می دهند که "عوامل" هوش مصنوعی - مدل های هوش مصنوعی که می توانند وظایف را کامل کنند - می توانند توسط "پاپ آپ های متخاصم" ربوده شوند که به مدل ها دستور می دهد کارهایی مانند انجام دهند. دانلود پسوند فایل های مخرب

برخی از این پاپآپها به وضوح تلههایی برای چشم انسان هستند - اما هوش مصنوعی آنقدرها هم قابل تشخیص نیست. محققان می گویند که مدل های تجزیه و تحلیل تصویر و متنی که آنها آزمایش کردند در 86 درصد مواقع نتوانستند پنجره های بازشو را نادیده بگیرند و - در نتیجه - 47 درصد کمتر احتمال دارد وظایف را تکمیل کنند.
دفاع های اولیه، مانند دستور دادن به مدل ها برای نادیده گرفتن پنجره های بازشو، مؤثر نبودند. نویسندگان همکار این مطالعه نوشتند: «استقرار عوامل استفاده از رایانه همچنان از خطرات قابل توجهی رنج میبرد، و سیستمهای عامل قویتری برای اطمینان از گردش کار ایمن عامل مورد نیاز است».
مدل هفته
متا روز گذشته اعلام کرد که در حال کار با شرکای خود است تا مدلهای هوش مصنوعی لاما "باز" خود را برای کاربردهای دفاعی در دسترس قرار دهد. امروز، یکی از این شرکا، Scale AI، Defence Llama را معرفی کرد، مدلی که بر روی Llama 3 متا ساخته شده است و «برای پشتیبانی از مأموریتهای امنیت ملی آمریکا سفارشیسازی و تنظیم شده است».
Scale می گوید Defence Llama که در پلتفرم چت ربات Donavan Scale برای مشتریان دولت ایالات متحده موجود است، برای برنامه ریزی عملیات نظامی و اطلاعاتی بهینه شده است. دفاع لاما می تواند به سوالات مربوط به دفاع پاسخ دهد، به عنوان مثال مانند اینکه چگونه یک دشمن ممکن است حمله به یک پایگاه نظامی ایالات متحده را برنامه ریزی کند.
پس چه چیزی لاما دفاعی را از لاما استوک متفاوت می کند؟ خوب، Scale او میگوید که بر روی محتوایی تنظیم شده است که ممکن است به عملیات نظامی مرتبط باشد، مانند دکترین نظامی و حقوق بشردوستانه بینالمللی، و همچنین قابلیتهای سلاحها و سیستمهای دفاعی مختلف. همچنین محدودیتی برای پاسخ دادن به سوالات مربوط به جنگ ندارد، مانند یک چت بات غیرنظامی:

با این حال، مشخص نیست چه کسی ممکن است از آن استفاده کند.
ارتش ایالات متحده در پذیرش هوش مصنوعی مولد کند بوده است - و نسبت به بازگشت سرمایه (ROI) خود بدبین بوده است. تاکنون، ارتش ایالات متحده تنها شاخه ای از نیروهای مسلح ایالات متحده است که دارای هوش مصنوعی مولد است. مقامات نظامی در مورد آسیبپذیریهای امنیتی در مدلهای تجاری و همچنین چالشهای قانونی مرتبط با اشتراکگذاری دادههای اطلاعاتی و غیرقابل پیشبینی بودن مدلها در مواجهه با موارد لبه ابراز نگرانی کردهاند.
کیف بگیر
Spawning AI، استارت آپی که ابزارهایی را ایجاد می کند تا سازندگان را قادر سازد از آموزش هوش مصنوعی انصراف دهند، مجموعه داده تصویری را برای آموزش مدل های هوش مصنوعی منتشر کرد که ادعا می کند کاملاً مالکیت عمومی است.
اکثر مدلهای هوش مصنوعی مولد بر روی دادههای وب عمومی آموزش داده میشوند، که برخی از آنها ممکن است دارای حق چاپ یا تحت مجوز محدود باشند. OpenAI و بسیاری دیگر از فروشندگان هوش مصنوعی استدلال می کنند که دکترین استفاده منصفانه آنها را در برابر ادعاهای حق چاپ محافظت می کند. اما این موضوع باعث نشده که صاحبان داده ها از طرح دعوی قضایی جلوگیری کنند.
Spawning AI او میگوید مجموعه دادههای آموزشی آن شامل ۱۲.۴ میلیون جفت تصویر-کپشن فقط شامل محتوایی با «منشا شناختهشده» و «برچسبشده با حقوق واضح و مبهم» برای آموزش هوش مصنوعی است. بر خلاف برخی دیگر از مجموعههای داده، برای دانلود از یک میزبان اختصاصی نیز در دسترس است، و نیاز به خراش دادن وب را از بین میبرد.
Spawning در یک پست وبلاگ می نویسد: «به طور قابل توجهی، وضعیت دامنه عمومی مجموعه داده جدایی ناپذیر از این اهداف بزرگتر است. «مجموعههای دادهای که شامل تصاویر دارای حق نسخهبرداری میشوند، همچنان به خراش دادن وب متکی خواهند بود، زیرا میزبانی تصاویر حق نسخهبرداری را نقض میکند.»
مجموعه داده Spawning، PD12M، و نسخهای که برای تصاویر «زیباییشناختی»، PD3M تنظیم شده است، در این پیوند یافت میشوند.
ارسال نظر