متن خبر

چرا دیپ فیک و مسائل مربوط به اعتماد هوش مصنوعی بر کسب و کارها تأثیر می گذارد؟

چرا دیپ فیک و مسائل مربوط به اعتماد هوش مصنوعی بر کسب و کارها تأثیر می گذارد؟

شناسهٔ خبر: 632521 -




چهره یک فرد در پس زمینه دیجیتال.
(اعتبار تصویر: Shutterstock / Meamorworks)

از عکس بدنام روز مادر از کاخ کنزینگتون گرفته تا صداهای جعلی تام کروز که کمیته المپیک را تحقیر می کند، محتوای تولید شده توسط هوش مصنوعی اخیرا به دلایل اشتباه تیتر خبرها شده است. این موارد جنجال و پارانویای گسترده ای را برانگیخته است و مردم را در مورد صحت و منشأ محتوایی که آنلاین می بینند زیر سوال می برد.

این امر بر هر گوشه ای از جامعه تأثیر می گذارد، نه تنها بر شخصیت های عمومی و کاربران روزمره اینترنت، بلکه بر بزرگترین شرکت های جهان نیز تأثیر می گذارد. به عنوان مثال، بانک چیس گزارش داد که در طی یک آزمایش داخلی توسط یک دیپ فیک فریب خورده است. در همین حال، یک گزارش نشان داد که تنها در یک سال، حوادث دیپ‌فیک در بخش فین‌تک 700 درصد افزایش یافته است.

امروزه، عدم شفافیت اساسی در مورد هوش مصنوعی وجود دارد، از جمله اینکه آیا یک تصویر، ویدیو یا صدا توسط هوش مصنوعی تولید شده است یا خیر. روش‌های کارآمد حسابرسی هوش مصنوعی، که سطح بیشتری از مسئولیت‌پذیری را باز می‌کند و شرکت‌ها را تشویق می‌کند تا محتوای گمراه‌کننده را با شدت بیشتری ریشه‌یابی کنند، هنوز در حال توسعه هستند. این کاستی‌ها مشکل اعتماد هوش مصنوعی را تشدید می‌کنند و مبارزه با این چالش‌ها منوط به شفاف‌سازی بیشتر مدل‌های هوش مصنوعی است. این یک مانع اصلی برای شرکت‌هایی است که به دنبال بهره‌برداری از ارزش عظیم ابزارهای هوش مصنوعی هستند، اما نگران هستند که خطر آن بیشتر از پاداش باشد.

مرینال منوهر

مدیرعامل و موسس آزمایشگاه کاسپر.

آیا رهبران کسب و کار می توانند به هوش مصنوعی اعتماد کنند؟

در حال حاضر، همه نگاه ها به هوش مصنوعی است. اما در حالی که این فناوری سطوح تاریخی نوآوری و سرمایه گذاری را تجربه کرده است، اعتماد به هوش مصنوعی و بسیاری از شرکت های پشتیبان این فناوری به طور پیوسته کاهش یافته است. نه تنها تشخیص محتوای تولید شده توسط انسان و هوش مصنوعی به صورت آنلاین دشوارتر می شود، بلکه رهبران کسب و کار نیز نسبت به سرمایه گذاری در سیستم های هوش مصنوعی خود محتاط هستند. یک مبارزه مشترک برای اطمینان از اینکه مزایا بر خطر آن بیشتر است، وجود دارد، همه اینها با تیرگی در مورد نحوه عملکرد واقعی فناوری ترکیب شده است. اغلب مشخص نیست که چه نوع داده ای برای آموزش مدل ها استفاده می شود، چگونه داده ها بر خروجی های تولید شده تأثیر می گذارد و این فناوری با داده های اختصاصی یک شرکت چه می کند.

این عدم دید، خطرات قانونی و امنیتی زیادی را برای رهبران کسب و کار به همراه دارد. علیرغم این واقعیت که بودجه های هوش مصنوعی قرار است تا پنج برابر در سال جاری افزایش یابد، افزایش نگرانی های امنیت سایبری گزارش شده است که منجر به مسدود شدن 18.5 درصد از کل تراکنش های هوش مصنوعی یا ML در این شرکت شده است. این افزایش 577 درصدی تنها در 9 ماه گذشته است که بالاترین نمونه آن (37.16 درصد) مربوط به امور مالی و بیمه است - صنایعی که دارای الزامات امنیتی و قانونی سختگیرانه هستند. امور مالی و بیمه نشان دهنده آن چیزی است که می تواند در سایر صنایع رخ دهد، زیرا سؤالات مربوط به امنیت و خطرات قانونی هوش مصنوعی رشد می کند و مشاغل باید پیامدهای استفاده از این فناوری را در نظر بگیرند.

حتی در حالی که می‌خواهند تا سال 2030 به هوش مصنوعی 15.7 تریلیون دلاری دست پیدا کنند، واضح است که شرکت‌ها در حال حاضر نمی‌توانند کاملاً به هوش مصنوعی اعتماد کنند و این مانع در صورت عدم رسیدگی به مشکلات ممکن است بدتر شود. نیاز مبرمی به ارائه شفافیت بیشتر برای هوش مصنوعی وجود دارد تا تشخیص اینکه چه زمانی محتوا توسط هوش مصنوعی تولید می‌شود یا نه، برای دیدن نحوه استفاده سیستم‌های هوش مصنوعی از داده‌ها و درک بهتر خروجی‌ها آسان‌تر است. سوال بزرگ در این است که چگونه این کار انجام می شود. شفافیت و کاهش اعتماد هوش مصنوعی مشکلات پیچیده‌ای هستند که تنها راه حلی برای اسلحه دود کردن ندارند و پیشرفت به همکاری بخش‌های سراسر جهان نیاز دارد.

مقابله با یک چالش فنی پیچیده

خوشبختانه، ما قبلاً نشانه‌هایی را دیده‌ایم که هم دولت و هم رهبران فناوری روی پرداختن به این موضوع متمرکز هستند. قانون اخیر هوش مصنوعی اتحادیه اروپا اولین گام مهم در تنظیم دستورالعمل ها و الزامات نظارتی در مورد استقرار هوش مصنوعی مسئول است و در ایالات متحده، ایالت هایی مانند کالیفرنیا اقداماتی را برای معرفی قوانین خود انجام داده اند.

در حالی که این قوانین از این جهت ارزشمند هستند که خطرات خاص را برای موارد استفاده در صنعت ترسیم می کنند، آنها فقط استانداردهایی را ارائه می دهند که باید رعایت شوند، نه راه حل هایی برای اجرا. فقدان شفافیت در سیستم‌های هوش مصنوعی به داده‌های مورد استفاده برای آموزش مدل‌ها و نحوه اطلاع رسانی خروجی‌ها از آن داده‌ها مربوط می‌شود و یک مشکل فنی خاردار ایجاد می‌کند.

بلاک چین یکی از فناوری هایی است که به عنوان یک راه حل بالقوه در حال ظهور است. در حالی که بلاک چین به طور گسترده با رمزنگاری مرتبط است، در قلب آن، فناوری اساسی بر روی یک ذخیره‌گاه داده‌ای ضد دستکاری و بسیار سریالی ساخته شده است. برای هوش مصنوعی، می‌تواند شفافیت و اعتماد را با ارائه یک مسیر حسابرسی خودکار و قابل تأیید از داده‌های هوش مصنوعی - از داده‌های مورد استفاده برای آموزش مدل‌های هوش مصنوعی گرفته تا ورودی‌ها و خروجی‌ها در حین استفاده، و حتی تأثیر مجموعه داده‌های خاص بر خروجی هوش مصنوعی افزایش دهد.

نسل گفت ه بازیابی (RAG) نیز به سرعت پدیدار شد و توسط رهبران هوش مصنوعی برای ایجاد شفافیت در سیستم‌ها مورد استقبال قرار گرفت. RAG مدل‌های هوش مصنوعی را قادر می‌سازد تا منابع داده خارجی مانند اینترنت یا اسناد داخلی یک شرکت را در زمان واقعی برای اطلاع از خروجی‌ها جستجو کنند، به این معنی که مدل‌ها می‌توانند اطمینان حاصل کنند که خروجی‌ها در مرتبط‌ترین و به‌روزترین اطلاعات ممکن استقرار دارند. RAG همچنین توانایی مدل را برای استناد به منابع خود معرفی می‌کند و به کاربران اجازه می‌دهد تا به جای نیاز به اعتماد کور، اطلاعات را به تنهایی تحلیل کنند.

و هنگامی که نوبت به مقابله با دیپ‌فیک‌ها می‌رسد، OpenAI در ماه فوریه اعلام کرد که متادیتا را در تصاویر ایجاد شده در ChatGPT و API آن جاسازی می‌کند تا پلتفرم‌های اجتماعی و توزیع‌کنندگان محتوا بتوانند راحت‌تر آنها را شناسایی کنند. در همان ماه، متا رویکرد جدیدی را برای شناسایی و برچسب گذاری محتوای تولید شده توسط هوش مصنوعی در فیس بوک، اینستاگرام و Threads اعلام کرد.

این مقررات نوظهور، فن‌آوری‌های حاکمیتی و استانداردها اولین گام عالی برای تقویت اعتماد بیشتر در مورد هوش مصنوعی و هموار کردن راه برای پذیرش مسئولانه است. اما کارهای بیشتری باید در بخش عمومی و خصوصی انجام شود، به‌ویژه با توجه به لحظات ویروسی که ناراحتی عمومی را نسبت به هوش مصنوعی افزایش داده است، انتخابات آینده در سراسر جهان و نگرانی‌های فزاینده در مورد امنیت هوش مصنوعی در شرکت.

ما در حال رسیدن به یک لحظه کلیدی در مسیر پذیرش هوش مصنوعی هستیم، با اعتماد به فناوری که قدرت بالا بردن ترازو را در اختیار دارد. تنها با شفافیت و اعتماد بیشتر، کسب‌وکارها هوش مصنوعی را در آغوش می‌گیرند و مشتریانشان از مزایای آن در محصولات و تجربیات مبتنی بر هوش مصنوعی بهره می‌برند که جرقه‌ای برانگیختن لذت است، نه ناراحتی.

ما بهترین سازندگان وب سایت هوش مصنوعی را فهرست می کنیم .

این مقاله به عنوان بخشی از کانال Expert Insights TechRadarPro تهیه شده است که در آن بهترین و باهوش ترین ذهن ها در صنعت فناوری امروز را معرفی می کنیم. نظرات بیان شده در اینجا نظرات نویسنده است و لزوماً نظرات TechRadarPro یا Future plc نیست. اگر علاقه مند به مشارکت هستید، اطلاعات بیشتری را در اینجا بیابید: https://www.techradar.com/news/submit-your-story-to-techradar-pro

مرینال منوهار مدیر عامل و بنیانگذار آزمایشگاه کاسپر است.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است