متن خبر

همانطور که سورای OpenAI ما را با ویدیوهای تولید شده توسط هوش مصنوعی غرق می کند، عصر اطلاعات به پایان رسیده است – بگذارید عصر اطلاعات نادرست آغاز شود.

همانطور که سورای OpenAI ما را با ویدیوهای تولید شده توسط هوش مصنوعی غرق می کند، عصر اطلاعات به پایان رسیده است – بگذارید عصر اطلاعات نادرست آغاز شود.

شناسهٔ خبر: 451888 -




تصویر استوک اطلاعات نادرست مبتنی بر هوش مصنوعی.
(اعتبار تصویر: Shutterstock)

تولید ویدئو با هوش مصنوعی چیز جدیدی نیست، اما با ورود ابزار متن به ویدئوی سورا OpenAI ، ساختن اخبار جعلی خود آسان‌تر نبوده است.

قابلیت های واقعی سورا بسیاری از ما را شگفت زده کرده است. در حالی که قبلاً کلیپ های ویدیویی تولید شده توسط هوش مصنوعی را دیده بودیم، درجه ای از دقت و واقع گرایی در این کلیپ های ویدیویی باورنکردنی Sora وجود دارد که من را ... حداقل می توان بيان کرد کمی عصبی می کند. بدون شک بسیار تأثیرگذار است، اما این نشانه خوبی نیست که اولین واکنش من به آن ویدیوی بازی توله سگ ها نگرانی فوری بود.

عکسی <a href= از یک ویدیوی تولید شده توسط هوش مصنوعی که سه توله سگ را در حال بازی در برف نشان می دهد." class=" lazy-image-van" onerror="if(this.src && this.src.indexOf('missing-image.svg') !== -1){return true;};this.parentNode.replaceChild(window.missingImage(),this)" data-normal="https://vanilla.futurecdn.net/techradar/media/img/missing-image.svg" srcset="https://cdn.mos.cms.futurecdn.net/VLUfwTEi2483KteAKgPp5F-320-80.jpg 320w, https://cdn.mos.cms.futurecdn.net/VLUfwTEi2483KteAKgPp5F-480-80.jpg 480w, https://cdn.mos.cms.futurecdn.net/VLUfwTEi2483KteAKgPp5F-650-80.jpg 650w, https://cdn.mos.cms.futurecdn.net/VLUfwTEi2483KteAKgPp5F-970-80.jpg 970w, https://cdn.mos.cms.futurecdn.net/VLUfwTEi2483KteAKgPp5F-1024-80.jpg 1024w, https://cdn.mos.cms.futurecdn.net/VLUfwTEi2483KteAKgPp5F-1200-80.jpg 1200w" data-sizes="(min-width: 1000px) 970px, calc(100vw - 40px)" src="https://cdn.mos.cms.futurecdn.net/VLUfwTEi2483KteAKgPp5F.jpg" data-pin-media="https://cdn.mos.cms.futurecdn.net/VLUfwTEi2483KteAKgPp5F.jpg">

این کمی ناراحت کننده است که منادی احتمالی نابودی حقیقت به شکل توله سگ های گلدن رتریور رسیده است. (اعتبار تصویر: OpenAI)

لنس اولانوف، سردبیر دوست‌داشتنی ما، مقاله‌ای را در اوایل سال جاری نوشت که در آن به این موضوع پرداخته بود که چگونه هوش مصنوعی تشخیص حقیقت از داستان را در سال 2024 غیرممکن می‌کند ، اما او در آن زمان بیشتر در مورد نرم‌افزار تولید تصویر صحبت می‌ کرد. به زودی، هر کسی می‌تواند ابزاری ساده و آسان برای تولید کلیپ‌های ویدیویی را در اختیار بگیرد. همراه با قدرت موجود نرم افزار هوش مصنوعی عمیق جعلی صوتی (AI)، پتانسیل جعل هویت ویدیویی با انگیزه سیاسی بیش از همیشه رایج است.

"اخبار جعلی!" آواتار ترامپ که توسط هوش مصنوعی تولید شده بود گریه کرد

اکنون، من نمی خواهم به سادگی اینجا بنشینم و بی انتها در مورد خطرات هوش مصنوعی بترسم. Sora هنوز به طور گسترده در دسترس نیست (در حال حاضر فقط دعوت نامه است)، و من واقعاً معتقدم که هوش مصنوعی موارد استفاده زیادی دارد که می تواند زندگی انسان ها را بهبود بخشد. پیاده‌سازی در حرفه‌های پزشکی و علمی می‌تواند به طور بالقوه به حذف بخشی از مشغله‌هایی که پزشکان و محققان با آن روبه‌رو هستند، کمک کند و از بین بردن این مشکلات و دستیابی به موارد مهم را آسان‌تر کند.

متأسفانه، درست مانند Adobe Photoshop قبل از آن، Sora و سایر ابزارهای مولد هوش مصنوعی برای اهداف پلید استفاده خواهند شد. تلاش برای انکار این، تلاش برای انکار طبیعت انسان است. ما قبلاً شاهد ربوده شدن صدای جو بایدن برای کلاهبرداری های رباتیک بودیم - چقدر طول می کشد تا ویدیوهای ersatz از چهره های سیاسی به رسانه های اجتماعی سرازیر شود؟

تصویر استوک اطلاعات نادرست مبتنی بر هوش مصنوعی.

برای خطرناک شدن یک ابزار هوش مصنوعی فقط یک نفر با قصد مخرب لازم است. (اعتبار تصویر: Shutterstock)

Sora، بسیار شبیه به محصول پرچمدار هوش مصنوعی OpenAI ChatGPT ، احتمالاً ابزار مورد استفاده برای تولید این جعلی نخواهد بود. Sora و ChatGPT هر دو دارای تعداد زیادی "نرده محافظ" ایمنی هستند تا از استفاده از آنها برای تولید محتوای مغایر با دستورالعمل های کاربری OpenAI جلوگیری کنند. برای مثال، درخواست‌هایی که محتوای جنسی صریح یا شبیه به دیگران را درخواست می‌کنند رد می‌شوند. OpenAI، در دفاع از خود، بیان می‌کند که قصد دارد به «درگیر کردن سیاست‌گذاران، مربیان و هنرمندان در سراسر جهان برای درک نگرانی‌هایشان» ادامه دهد.

با این حال، راه‌هایی برای دور زدن این نرده‌ها وجود دارد – من خودم این را آزمایش کردم و نتایج گاهی خنده‌دار بود – و رویکرد شفاف OpenAI به توسعه هوش مصنوعی به این معنی است که مقلدهای Sora مطمئناً در آینده‌ای نه چندان دور در همه جا ظاهر خواهند شد. این دسته‌بندی‌ها (مثل ربات‌های چت مبتنی بر ChatGPT ) لزوماً آپشن های ایمنی و امنیتی یکسانی ندارند.

Robocop، Robocriminal را ملاقات کنید

ابزارهای هوش مصنوعی در حال حاضر برای بسیاری از موارد مبهم آنلاین استفاده می شوند. برخی از آن نسبتا بی ضرر هستند. اگر می‌خواهید یک مکالمه با درجه R با هوش مصنوعی داشته باشید که وانمود می‌کند شخصیت انیمه مورد علاقه شماست، من اینجا نیستم که شما را قضاوت کنم (خب، شاید کمی هستم، اما حداقل جرم نیست). با این حال، در جاهای دیگر، ربات‌ها برای کلاهبرداری از کاربران آسیب‌پذیر اینترنت، انتشار اطلاعات نادرست آنلاین، و حذف اطلاعات شخصی افراد در پلت‌فرم‌های رسانه‌های اجتماعی استفاده می‌شوند.

قدرت چیزی مانند سورا می‌تواند این وضعیت را بدتر کند و امکان ساخت جعلی‌های پیچیده‌تر را فراهم کند. مهم نیست که هوش مصنوعی چه چیزی بسازد، به یاد داشته باشید - این کاری است که یک ویرایشگر ویدیوی با استعداد می تواند با فیلم خام ارائه شده توسط ابزاری مانند Sora انجام دهد. کمی تغییر اینجا، فیلتر آنجا، و ناگهان می‌توانیم فیلم‌های دانه‌دار دوربین تلفن از یک سیاستمدار برجسته در حال کتک زدن یک بی‌خانمان در یک کوچه داشته باشیم. به لطف روند اخیر آنلاین «پورن انتقامی» مبتنی بر هوش مصنوعی عملاً مطمئن شوید که چگونه تولید ویدیوی هوش مصنوعی با کیفیت بالا به طور نامتناسبی بر زنان تأثیر می گذارد، شروع نکنید.

بدترین قسمت؟ تشخیص تقلبی ها از واقعیت سخت تر می شود. علیرغم آنچه برخی از حامیان هوش مصنوعی ممکن است به شما بگویند، در حال حاضر هیچ راه قابل اعتمادی برای تایید قطعی این که آیا فیلم توسط هوش مصنوعی تولید شده است وجود ندارد.

مدیر عامل OpenAI سم آلتمن در جریان رویداد مایکروسافت در 7 فوریه 2023 صحبت می کند

سام آلتمن، مدیر عامل OpenAI، قبلاً به دلیل سوء استفاده از ChatGPT توسط گروه های شخص ثالث بدخیم مورد انتقاد قرار گرفته بود. (اعتبار تصویر: JASON REDMOND/AFP از طریق Getty Images)

نرم افزاری برای این کار وجود دارد، اما سابقه خوبی ندارد. هنگامی که Scribblr چندین ابزار تشخیص هوش مصنوعی را آزمایش کرد ، دریافت که نرم افزار پولی با بالاترین میزان موفقیت (Winston AI) تنها در 84 درصد موارد درست بوده است. دقیق ترین آشکارساز هوش مصنوعی رایگان (Sapling) تنها 68 درصد دقت را ارائه می دهد. با گذشت زمان، این نرم افزار ممکن است بهبود یابد – اما توسعه فوق العاده سریع هوش مصنوعی مولد می تواند از آن پیشی بگیرد، و همیشه خطر مثبت کاذب وجود دارد.

مطمئناً، بسیاری از ویدیوها و تصاویر تولید شده توسط هوش مصنوعی را می‌توان به راحتی توسط یک کاربر باتجربه اینترنت شناسایی کرد، اما رای‌دهندگان معمولی آنقدرها چشم عقابی ندارند و نشانه‌های گویای آن - معمولاً شکل عجیبی در اطراف انگشتان و اندام‌های انسان، یا دوربین غیرواقعی است. حرکات - فقط با پیشرفت تکنولوژی محو می شوند. سورا نشان دهنده یک جهش بزرگ به جلو است، و من رک و پوست کنده کمی نگران این هستم که پرش بزرگ بعدی چگونه خواهد بود.

عصر اطلاعات نادرست

هنگامی که درباره کلاهبرداری‌های عمیق و کلاهبرداری‌های هوش مصنوعی صحبت می‌کنیم، اغلب این کار را در مقیاس کلان انجام می‌دهیم: هوش مصنوعی بر انتخابات آینده تأثیر می‌گذارد ، مدیر مالی تولیدشده توسط هوش مصنوعی که ۲۵ میلیون دلار دزدیده است ، و هنر هوش مصنوعی برنده یک مسابقه عکاسی همگی نمونه‌های بارز هستند. اما در حالی که ایده سناتورها و مدیران ارشد هوش مصنوعی مخفی من را نگران می کند، در مقیاس کوچک زندگی ها واقعاً ویران می شود.

اگر تا به حال یک عکس برهنه ارسال کرده‌اید، به شما تبریک می‌گوییم – سابق حسود شما اکنون می‌تواند در رسانه‌های اجتماعی شما مطالب بیشتری را جستجو کند و آن را به یک نوار جنسی کامل تبدیل کند. متهم به یک جنایت، اما یک فیلم ضبط شده دارید که شما را تبرئه می کند؟ سخت است، نرم افزار تشخیص هوش مصنوعی دادگاه مثبت کاذب را نشان داد، و اکنون به دلیل تولید مدارک جعلی با جرایم اضافی مواجه می شوید. افراد در مواجهه با فن‌آوری‌های نوظهور مانند Sora بیشترین ضرر را خواهند داشت – برای من اهمیتی ندارد که شرکت‌های بزرگ به خاطر یک چت ربات توهم‌آمیز پول از دست بدهند .

ما در زمانی زندگی می‌کنیم که مجموع دانش بشر تقریباً به طور کامل از مستطیل‌های کوچک در جیب‌هایمان در دسترس است، اما هوش مصنوعی تهدید می‌کند که چاه را مسموم می‌کند. این چیز جدیدی نیست - این اولین تهدیدی نیست که اینترنت با واقعیت هایی روبرو شده است و آخرین هم نخواهد بود، اما به خوبی می تواند مخرب ترین تا به امروز باشد.

تماس گرفتن آن را ترک می کند

البته، می‌توانید در مورد همه اینها بگویید «همان شی*ت، روز متفاوت» – و اشتباه نمی‌کنید. کلاهبرداری و اطلاعات نادرست چیز جدیدی نیست، و اهداف فریب فناوری گفت ه تغییر نکرده است: بیشتر افراد بسیار جوان و بسیار مسن هستند، کسانی که هنوز به اندازه کافی در مورد فناوری یاد نگرفته‌اند یا نمی‌توانند با آن همگام شوند. راهپیمایی بی امان آن

هرچند از این استدلال متنفرم. این شکست‌دهنده است و نمی‌تواند قدرت و مقیاس‌پذیری محض را که ابزارهای هوش مصنوعی در دست کلاهبرداران قرار می‌دهند، بپذیرد. کلاهبرداری های ایمیلی حلزون ده ها سال است که وجود داشته است، اما بیایید صادق باشیم: زمان و تلاش بسیار بیشتری نسبت به سفارش یک ربات برای نوشتن و ارسال سی هزار ایمیل فیشینگ نیاز دارد.

فیشینگ

ظهور هوش مصنوعی باعث شده است که کلاهبرداری‌های فیشینگ آنلاین سریع‌تر، آسان‌تر و در مقیاس بزرگ‌تر از قبل شوند. (اعتبار تصویر: Shutterstock)

قبل از پایان دادن به این موضوع، می‌خواهم یک چیز را روشن کنم، زیرا هر زمان که مقاله‌ای مانند این می‌نویسم، صندوق‌های ورودی اجتماعی من همیشه با دوستداران هوش مصنوعی خشمگین مسدود می‌شود: من هوش مصنوعی را به خاطر این موضوع سرزنش نمی‌کنم. من حتی کسانی را که آن را می سازند سرزنش نمی کنم. به نظر می‌رسد OpenAI رویکرد محتاطانه‌تر و شفاف‌تری نسبت به فناوری یادگیری عمیق دارد که من از بسیاری از بزرگ‌ترین شرکت‌های جهان انتظار دارم. چیزی که من می‌خواهم این است که مردم کاملاً از خطرات آن آگاه باشند، زیرا هوش مصنوعی متن به ویدیو به سادگی آخرین ترفند در کتاب بازی بازیگران بد است.

اگر می‌خواهید Sora را برای خود امتحان کنید (امیدواریم برای اهداف مفیدتر)، می‌توانید امروز با دنبال کردن این پیوند یک حساب OpenAI ایجاد کنید - اما به خاطر داشته باشید که تا زمانی که دعوتی نداشته باشید، این نرم‌افزار هنوز در دسترس نیست. . OpenAI این بار با احتیاط پیش می رود و اولین موج آزمایش کننده ها عمدتاً از "تیم های قرمز" تشکیل شده است که در حال آزمایش استرس ابزار برای از بین بردن اشکالات و آسیب پذیری ها هستند. هنوز تاریخ انتشار رسمی مشخص نشده است، اما اگر نسخه‌های قبلی OpenAI ادامه پیدا کند، احتمالاً دور از دسترس نخواهد بود.

شما همچنین ممکن است دوست داشته باشید ...

ویرایشگر، محاسبات

کریستین ویرایشگر محاسباتی TechRadar در بریتانیا است. او از مجله Maximum PC نزد ما آمد و در آنجا عاشق سخت افزار کامپیوتر و ساخت رایانه شخصی شد. او قبل از پرش به TechRadar یکی از اعضای ثابت تیم بازبینی آزاد ما بود و معمولاً می‌توان آن را دید که قبل از اینکه به موجودی حساب بانکی‌اش نگاه کند، روی آخرین کارت گرافیک یا لپ‌تاپ بازی گران‌قیمتش آب می‌ریزد و گریه می‌کند.

کریستین یک مبارز مشتاق برای حقوق LGBTQ+ و صاحب یک سگ نجات جذاب به نام لوسی است که او را پس از غلبه بر سرطان در سال 2021 به فرزندی پذیرفت. وقتی می خواهد از خانه کار کند، از او خواسته شود.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است