متن خبر

این هفته در هوش مصنوعی: ساختن دیپ فیک کامالا هریس بسیار آسان است

این هفته در هوش مصنوعی: ساختن دیپ فیک کامالا هریس بسیار آسان است

شناسهٔ خبر: 810822 -




سلام، دوستان، به خبرنامه معمولی هوش مصنوعی TechCrunch خوش آمدید. اگر می خواهید این را در صندوق پستی خود هر چهارشنبه در اینجا ثبت نام کنید.

ایجاد یک دیپ فیک صوتی قانع کننده کامالا هریس در روز انتخابات بسیار آسان بود. این برای من 5 دلار هزینه داشت و کمتر از دو دقیقه طول کشید، و نشان می‌دهد که هوش مصنوعی مولد ارزان و فراگیر چقدر دروازه‌های اطلاعات نادرست را باز کرده است.

ایجاد دیپ فیک هریس هدف اصلی من نبود. داشتم با صدای Cartesia's Voice Changer بازی می‌کردم، مدلی که صدای شما را با حفظ عروض اصلی به صدایی متفاوت تبدیل می‌کند. آن صدای دوم می تواند "کلون" صدای شخص دیگری باشد - Cartesia یک صدای دیجیتال دو برابر از هر ضبط 10 ثانیه ای ایجاد می کند.

پس ، من تعجب کردم، آیا تغییر صدا صدای من را به هریس تبدیل می کند؟ من 5 دلار برای باز کردن قابلیت شبیه‌سازی صدای Cartesia پرداختم، با استفاده از سخنرانی‌های اخیر کمپین، یک کلون از صدای هریس ایجاد کردم و آن شبیه‌سازی را به عنوان خروجی در Voice Changer انتخاب کردم.

مثل یک طلسم کار کرد:

من مطمئن هستم که Cartesia دقیقاً قصد استفاده از ابزارهای خود را در این راه نداشته است. برای فعال کردن شبیه‌سازی صدا، Cartesia می‌خواهد کادری را علامت بزنید که نشان می‌دهد هیچ چیز مضر یا غیرقانونی ایجاد نمی‌کنید و موافقت می‌کنید که ضبط‌های گفتار شما شبیه‌سازی شود.

اما این فقط یک سیستم افتخار است. بدون هیچ گونه حفاظت واقعی، هیچ چیزی مانع از ایجاد دیپ‌فیک‌های «مضر یا غیرقانونی» به هر تعداد که می‌خواهد وجود ندارد.

این یک مشکل است، ناگفته نماند. پس راه حل چیست؟ یکی هست؟ Cartesia می تواند تأیید صوت را اجرا کند، همانطور که برخی از پلتفرم های دیگر انجام داده اند. اما تا زمانی که این کار انجام شود، به احتمال زیاد یک ابزار شبیه‌سازی صوتی جدید و بدون محدودیت ظاهر خواهد شد.

من در مورد این موضوع با کارشناسان در کنفرانس TC's Disrupt هفته گذشته صحبت کردم. برخی از ایده واترمارک های نامرئی حمایت می کردند، به طوری که تشخیص اینکه آیا محتوا توسط هوش مصنوعی تولید شده است یا خیر، آسان تر است. دیگران به قوانین تعدیل محتوا مانند قانون ایمنی آنلاین در بریتانیا اشاره کردند که به نظر آنها ممکن است به جلوگیری از موج اطلاعات نادرست کمک کند.

من را بدبین خطاب کنید، اما فکر می کنم آن کشتی ها حرکت کرده اند. همانطور که عمران احمد، مدیر عامل مرکز مقابله با نفرت دیجیتالی می گوید، ما به یک "ماشین گاوهای ابدی" نگاه می کنیم.

اطلاعات نادرست با سرعت نگران کننده ای در حال گسترش است. برخی از نمونه‌های برجسته از سال گذشته شامل یک شبکه ربات در X است که انتخابات فدرال ایالات متحده را هدف قرار می‌دهد و یک پست صوتی عمیق از رئیس جمهور جو بایدن که ساکنان نیوهمپشایر را از رای دادن منصرف می‌کند. اما بر اساس تحلیل True Media.org، رای دهندگان ایالات متحده و افراد آگاه به فناوری، هدف اکثر این محتوا نیستند، پس ما تمایل داریم حضور آن را در جاهای دیگر دست کم بگیریم.

بر اساس داده های مجمع جهانی اقتصاد، حجم دیپ فیک های تولید شده توسط هوش مصنوعی بین سال های 2019 تا 2020 900 درصد رشد داشته است.

در همین حال، قوانین نسبتاً کمی برای هدف گیری عمیق جعلی در کتاب ها وجود دارد. و تشخیص دیپ فیک آماده تبدیل شدن به یک مسابقه تسلیحاتی بی پایان است. برخی از ابزارها به ناچار استفاده از اقدامات ایمنی مانند واترمارکینگ را انتخاب نمی‌کنند یا با برنامه‌های مخرب آشکارا در ذهن به کار می‌روند.

به جز تغییر دریا، من فکر می‌کنم بهترین کاری که می‌توانیم انجام دهیم این است که به شدت نسبت به آنچه در آنجا وجود دارد شک داشته باشیم - به ویژه محتوای ویروسی. تشخیص حقیقت از داستان آنلاین به آسانی سابق نیست. اما ما همچنان بر آنچه به اشتراک می گذاریم در مقابل آنچه که نمی کنیم کنترل داریم. و این بسیار تاثیرگذارتر از آن چیزی است که ممکن است به نظر برسد.

اخبار

بررسی جستجوی ChatGPT: همکار من مکس، ادغام جستجوی جدید OpenAI را برای ChatGPT، ChatGPT Search، برای یک چرخش انتخاب کرد. او آن را از برخی جهات قابل توجه بود، اما برای پرس و جوهای کوتاهی که فقط حاوی چند کلمه هستند غیرقابل اعتماد است.

پهپادهای آمازون در فینیکس: چند ماه پس از پایان دادن به برنامه تحویل مبتنی بر هواپیماهای بدون سرنشین خود، Prime Air، در کالیفرنیا، آمازون او میگوید که تحویل مشتریان را از طریق پهپاد در فینیکس، آریزونا آغاز کرده است.

رهبر سابق Meta AR به OpenAI می‌پیوندد: رئیس سابق تلاش‌های عینک AR متا، از جمله Orion، روز دوشنبه اعلام کرد که به OpenAI می‌پیوندد تا رباتیک و سخت‌افزار مصرف‌کننده را رهبری کند. این خبر پس از آن منتشر شد که OpenAI یکی از بنیانگذاران رقیب X (توئیتر سابق) Pebble را استخدام کرد.

با محاسبه عقب مانده: در یک Reddit AMA، مدیر عامل OpenAI سام آلتمن اعتراف کرد که کمبود ظرفیت محاسباتی یکی از عوامل اصلی است که شرکت را از ارسال محصولات به دفعات مورد نظر باز می دارد.

خلاصه‌های تولید شده توسط هوش مصنوعی: آمازون «X-Ray Recaps» را راه‌اندازی کرده است، یک ویژگی مولد مبتنی بر هوش مصنوعی که خلاصه‌ای مختصر از کل فصل‌های تلویزیون، قسمت‌های جداگانه و حتی قسمت‌هایی از قسمت‌ها ایجاد می‌کند.

افزایش قیمت هایکو: جدیدترین مدل هوش مصنوعی آنتروپیک از راه رسید: کلود 3.5 هایکو. اما نسبت به نسل گذشته گران‌تر است و برخلاف دیگر مدل‌های آنتروپیک، هنوز نمی‌تواند تصاویر، نمودارها یا نمودارها را تجزیه و تحلیل کند.

اپل Pixelmator را خریداری کرد: ویرایشگر تصویر مبتنی بر هوش مصنوعی Pixelmator روز جمعه اعلام کرد که توسط اپل خریداری شده است. این معامله در حالی انجام می شود که اپل در مورد ادغام هوش مصنوعی در برنامه های تصویربرداری خود تهاجمی تر شده است.

الکسای «عاملی»: اندی جاسی، مدیرعامل آمازون هفته گذشته به نسخه بهبودیافته «عاملی» دستیار الکسای این شرکت اشاره کرد - نسخه ای که می تواند از طرف کاربر اقداماتی را انجام دهد. ظاهراً الکسای اصلاح شده با تاخیرها و مشکلات فنی مواجه شده است و ممکن است تا زمانی در سال 2025 عرضه نشود.

مقاله پژوهشی هفته

پاپ آپ ها در وب نیز می توانند هوش مصنوعی را فریب دهند - نه فقط پدربزرگ ها و مادربزرگ ها.

در مقاله ای جدید، محققان جورجیا تک، دانشگاه هنگ کنگ و استنفورد نشان می دهند که "عوامل" هوش مصنوعی - مدل های هوش مصنوعی که می توانند وظایف را کامل کنند - می توانند توسط "پاپ آپ های متخاصم" ربوده شوند که به مدل ها دستور می دهد کارهایی مانند انجام دهند. دانلود پسوند فایل های مخرب

پاپ آپ های AI دشمن
اعتبار تصویر: ژانگ و همکاران.

برخی از این پاپ‌آپ‌ها به وضوح تله‌هایی برای چشم انسان هستند - اما هوش مصنوعی آنقدرها هم قابل تشخیص نیست. محققان می گویند که مدل های تجزیه و تحلیل تصویر و متنی که آنها آزمایش کردند در 86 درصد مواقع نتوانستند پنجره های بازشو را نادیده بگیرند و - در نتیجه - 47 درصد کمتر احتمال دارد وظایف را تکمیل کنند.

دفاع های اولیه، مانند دستور دادن به مدل ها برای نادیده گرفتن پنجره های بازشو، مؤثر نبودند. نویسندگان همکار این مطالعه نوشتند: «استقرار عوامل استفاده از رایانه همچنان از خطرات قابل توجهی رنج می‌برد، و سیستم‌های عامل قوی‌تری برای اطمینان از گردش کار ایمن عامل مورد نیاز است».

مدل هفته

متا روز گذشته اعلام کرد که در حال کار با شرکای خود است تا مدل‌های هوش مصنوعی لاما "باز" ​​خود را برای کاربردهای دفاعی در دسترس قرار دهد. امروز، یکی از این شرکا، Scale AI، Defence Llama را معرفی کرد، مدلی که بر روی Llama 3 متا ساخته شده است و «برای پشتیبانی از مأموریت‌های امنیت ملی آمریکا سفارشی‌سازی و تنظیم شده است».

Scale می گوید Defence Llama که در پلتفرم چت ربات Donavan Scale برای مشتریان دولت ایالات متحده موجود است، برای برنامه ریزی عملیات نظامی و اطلاعاتی بهینه شده است. دفاع لاما می تواند به سوالات مربوط به دفاع پاسخ دهد، به عنوان مثال مانند اینکه چگونه یک دشمن ممکن است حمله به یک پایگاه نظامی ایالات متحده را برنامه ریزی کند.

پس چه چیزی لاما دفاعی را از لاما استوک متفاوت می کند؟ خوب، Scale او میگوید که بر روی محتوایی تنظیم شده است که ممکن است به عملیات نظامی مرتبط باشد، مانند دکترین نظامی و حقوق بشردوستانه بین‌المللی، و همچنین قابلیت‌های سلاح‌ها و سیستم‌های دفاعی مختلف. همچنین محدودیتی برای پاسخ دادن به سوالات مربوط به جنگ ندارد، مانند یک چت بات غیرنظامی:

اعتبار تصویر: Scale.ai

با این حال، مشخص نیست چه کسی ممکن است از آن استفاده کند.

ارتش ایالات متحده در پذیرش هوش مصنوعی مولد کند بوده است - و نسبت به بازگشت سرمایه (ROI) خود بدبین بوده است. تاکنون، ارتش ایالات متحده تنها شاخه ای از نیروهای مسلح ایالات متحده است که دارای هوش مصنوعی مولد است. مقامات نظامی در مورد آسیب‌پذیری‌های امنیتی در مدل‌های تجاری و همچنین چالش‌های قانونی مرتبط با اشتراک‌گذاری داده‌های اطلاعاتی و غیرقابل پیش‌بینی بودن مدل‌ها در مواجهه با موارد لبه ابراز نگرانی کرده‌اند.

کیف بگیر

Spawning AI، استارت آپی که ابزارهایی را ایجاد می کند تا سازندگان را قادر سازد از آموزش هوش مصنوعی انصراف دهند، مجموعه داده تصویری را برای آموزش مدل های هوش مصنوعی منتشر کرد که ادعا می کند کاملاً مالکیت عمومی است.

اکثر مدل‌های هوش مصنوعی مولد بر روی داده‌های وب عمومی آموزش داده می‌شوند، که برخی از آنها ممکن است دارای حق چاپ یا تحت مجوز محدود باشند. OpenAI و بسیاری دیگر از فروشندگان هوش مصنوعی استدلال می کنند که دکترین استفاده منصفانه آنها را در برابر ادعاهای حق چاپ محافظت می کند. اما این موضوع باعث نشده که صاحبان داده ها از طرح دعوی قضایی جلوگیری کنند.

Spawning AI او میگوید مجموعه داده‌های آموزشی آن شامل ۱۲.۴ میلیون جفت تصویر-کپشن فقط شامل محتوایی با «منشا شناخته‌شده» و «برچسب‌شده با حقوق واضح و مبهم» برای آموزش هوش مصنوعی است. بر خلاف برخی دیگر از مجموعه‌های داده، برای دانلود از یک میزبان اختصاصی نیز در دسترس است، و نیاز به خراش دادن وب را از بین می‌برد.

Spawning در یک پست وبلاگ می نویسد: «به طور قابل توجهی، وضعیت دامنه عمومی مجموعه داده جدایی ناپذیر از این اهداف بزرگتر است. «مجموعه‌های داده‌ای که شامل تصاویر دارای حق نسخه‌برداری می‌شوند، همچنان به خراش دادن وب متکی خواهند بود، زیرا میزبانی تصاویر حق نسخه‌برداری را نقض می‌کند.»

مجموعه داده Spawning، PD12M، و نسخه‌ای که برای تصاویر «زیبایی‌شناختی»، PD3M تنظیم شده است، در این پیوند یافت می‌شوند.

خبرکاو

ارسال نظر

دیدگاه‌ها بسته شده‌اند.


تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است