متن خبر

“امتیاز جعلی” می تواند به افراد کمک کند محتوای تولید شده توسط هوش مصنوعی را شناسایی کنند

“امتیاز جعلی” می تواند به افراد کمک کند محتوای تولید شده توسط هوش مصنوعی را شناسایی کنند

شناسهٔ خبر: 814551 -




چهره یک فرد در پس زمینه دیجیتال.
(اعتبار تصویر: Shutterstock / Meamorworks)

ابزار جدید تشخیص دیپ فیک به سرکوب محتوای جعلی کمک می کند

یک "امتیاز عمیق" به کاربران کمک می کند ویدیو و صدای تولید شده توسط هوش مصنوعی را تشخیص دهند

استفاده از این ابزار برای کمک به کاهش تأثیر محتوای جعلی رایگان است


فناوری Deepfake از هوش مصنوعی برای ایجاد تصاویر، ویدئوها و صداهای واقعی و در عین حال کاملاً ساختگی استفاده می‌کند و رسانه‌های دستکاری شده اغلب از افراد مشهور یا افراد عادی برای استفاده از اهداف کلاه‌برانگیز، از جمله کلاهبرداری‌های مالی، اطلاعات نادرست سیاسی و سرقت هویت تقلید می‌کنند.

به منظور مبارزه با افزایش چنین کلاهبرداری‌هایی، شرکت امنیتی CloudSEK یک فناوری جدید تشخیص جعلی عمیق را راه‌اندازی کرده است که برای مقابله با تهدید دیپ‌فیک طراحی شده و راهی برای شناسایی محتوای دستکاری شده در اختیار کاربران قرار می‌دهد.

هدف ابزار تشخیص CloudSEK کمک به سازمان‌ها در شناسایی محتوای دیپ‌فیک و جلوگیری از آسیب احتمالی به عملیات و اعتبار آنها، ارزیابی صحت فریم‌های ویدئویی، تمرکز بر آپشن های صورت و ناهماهنگی‌های حرکتی است که ممکن است نشان‌دهنده دستکاری عمیق دروغین باشد، مانند حالات چهره با تغییرات غیرطبیعی، و غیرعادی. بافت ها در پس زمینه و روی چهره ها.

ظهور دیپ فیک ها اما راه حلی وجود دارد

تجزیه و تحلیل صوتی نیز مورد استفاده قرار می گیرد، جایی که ابزار الگوهای گفتاری مصنوعی را تشخیص می دهد که حضور صداهای تولید شده مصنوعی را نشان می دهد. این سیستم همچنین صدا را رونویسی می‌کند و نکات کلیدی را خلاصه می‌کند و به کاربران اجازه می‌دهد تا به سرعت اعتبار محتوایی را که تحلیل می‌کنند ارزیابی کنند. نتیجه نهایی یک "امتیاز جعلی" کلی است که نشان دهنده احتمال تغییر مصنوعی محتوا است.

این امتیاز به کاربران کمک می کند تا سطح دستکاری بالقوه را درک کنند و بینش هایی را در مورد اینکه آیا محتوا توسط هوش مصنوعی تولید شده است، ترکیب شده با عناصر عمیق جعلی یا احتمالاً توسط انسان تولید شده است، ارائه می دهد.

نمره جعلی 70 درصد و بالاتر توسط هوش مصنوعی ایجاد می شود، 40 تا 70 درصد مشکوک است و احتمالاً ترکیبی از عناصر جعلی اصلی و عمیق است، در حالی که 40 درصد و پایین تر احتمالاً توسط انسان تولید شده است.

در بخش مالی، دیپ‌فیک‌ها برای فعالیت‌های متقلبانه مانند دستکاری قیمت سهام یا فریب مشتریان با فرآیندهای KYC مبتنی بر ویدیوی جعلی استفاده می‌شوند.

بخش مراقبت های بهداشتی نیز تحت تأثیر قرار گرفته است، به طوری که از دیپ فیک ها برای ایجاد پرونده های پزشکی جعلی یا جعل هویت پزشکان استفاده می شود، در حالی که نهادهای دولتی با تهدیدات مربوط به انتخابات یا شواهد جعلی مواجه هستند.

به طور مشابه، بخش‌های رسانه و فناوری اطلاعات به همان اندازه آسیب‌پذیر هستند، به طوری که از دیپ‌فیک‌ها برای ایجاد اخبار جعلی یا آسیب رساندن به شهرت برند استفاده می‌شود.

ماموریت ما برای پیش‌بینی و جلوگیری از تهدیدات سایبری فراتر از شرکت‌ها است. به همین دلیل است که ما تصمیم گرفته‌ایم Deepfakes Analyzer را برای جامعه منتشر کنیم.

شما هم ممکن است دوست داشته باشید

روزنامه نگار آزاد

Efosa بیش از 7 سال است که در مورد فناوری می نویسد، در ابتدا با کنجکاوی هدایت می شود، اما اکنون با اشتیاق شدید به این زمینه تغذیه می شود. او هم دارای مدرک کارشناسی ارشد و هم دکترا در علوم است که پایه محکمی در تفکر تحلیلی برای او فراهم کرده است. Efosa علاقه شدیدی به خط مشی فناوری، به ویژه کاوش در تلاقی حریم خصوصی، امنیت و سیاست داشت. تحقیقات او به این موضوع می پردازد که چگونه پیشرفت های فناوری بر چارچوب های نظارتی و هنجارهای اجتماعی، به ویژه در مورد حفاظت از داده ها و امنیت سایبری تأثیر می گذارد. او پس از پیوستن به TechRadar Pro، علاوه بر سیاست حفظ حریم خصوصی و فناوری، بر روی محصولات امنیتی B2B نیز تمرکز کرده است.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است