از عکس بدنام روز مادر از کاخ کنزینگتون گرفته تا صداهای جعلی تام کروز که کمیته المپیک را تحقیر می کند، محتوای تولید شده توسط هوش مصنوعی اخیرا به دلایل اشتباه تیتر خبرها شده است. این موارد جنجال و پارانویای گسترده ای را برانگیخته است و مردم را در مورد صحت و منشأ محتوایی که آنلاین می بینند زیر سوال می برد.
این امر بر هر گوشه ای از جامعه تأثیر می گذارد، نه تنها بر شخصیت های عمومی و کاربران روزمره اینترنت، بلکه بر بزرگترین شرکت های جهان نیز تأثیر می گذارد. به عنوان مثال، بانک چیس گزارش داد که در طی یک آزمایش داخلی توسط یک دیپ فیک فریب خورده است. در همین حال، یک گزارش نشان داد که تنها در یک سال، حوادث دیپفیک در بخش فینتک 700 درصد افزایش یافته است.
امروزه، عدم شفافیت اساسی در مورد هوش مصنوعی وجود دارد، از جمله اینکه آیا یک تصویر، ویدیو یا صدا توسط هوش مصنوعی تولید شده است یا خیر. روشهای کارآمد حسابرسی هوش مصنوعی، که سطح بیشتری از مسئولیتپذیری را باز میکند و شرکتها را تشویق میکند تا محتوای گمراهکننده را با شدت بیشتری ریشهیابی کنند، هنوز در حال توسعه هستند. این کاستیها مشکل اعتماد هوش مصنوعی را تشدید میکنند و مبارزه با این چالشها منوط به شفافسازی بیشتر مدلهای هوش مصنوعی است. این یک مانع اصلی برای شرکتهایی است که به دنبال بهرهبرداری از ارزش عظیم ابزارهای هوش مصنوعی هستند، اما نگران هستند که خطر آن بیشتر از پاداش باشد.
مدیرعامل و موسس آزمایشگاه کاسپر.
آیا رهبران کسب و کار می توانند به هوش مصنوعی اعتماد کنند؟
در حال حاضر، همه نگاه ها به هوش مصنوعی است. اما در حالی که این فناوری سطوح تاریخی نوآوری و سرمایه گذاری را تجربه کرده است، اعتماد به هوش مصنوعی و بسیاری از شرکت های پشتیبان این فناوری به طور پیوسته کاهش یافته است. نه تنها تشخیص محتوای تولید شده توسط انسان و هوش مصنوعی به صورت آنلاین دشوارتر می شود، بلکه رهبران کسب و کار نیز نسبت به سرمایه گذاری در سیستم های هوش مصنوعی خود محتاط هستند. یک مبارزه مشترک برای اطمینان از اینکه مزایا بر خطر آن بیشتر است، وجود دارد، همه اینها با تیرگی در مورد نحوه عملکرد واقعی فناوری ترکیب شده است. اغلب مشخص نیست که چه نوع داده ای برای آموزش مدل ها استفاده می شود، چگونه داده ها بر خروجی های تولید شده تأثیر می گذارد و این فناوری با داده های اختصاصی یک شرکت چه می کند.
این عدم دید، خطرات قانونی و امنیتی زیادی را برای رهبران کسب و کار به همراه دارد. علیرغم این واقعیت که بودجه های هوش مصنوعی قرار است تا پنج برابر در سال جاری افزایش یابد، افزایش نگرانی های امنیت سایبری گزارش شده است که منجر به مسدود شدن 18.5 درصد از کل تراکنش های هوش مصنوعی یا ML در این شرکت شده است. این افزایش 577 درصدی تنها در 9 ماه گذشته است که بالاترین نمونه آن (37.16 درصد) مربوط به امور مالی و بیمه است - صنایعی که دارای الزامات امنیتی و قانونی سختگیرانه هستند. امور مالی و بیمه نشان دهنده آن چیزی است که می تواند در سایر صنایع رخ دهد، زیرا سؤالات مربوط به امنیت و خطرات قانونی هوش مصنوعی رشد می کند و مشاغل باید پیامدهای استفاده از این فناوری را در نظر بگیرند.
حتی در حالی که میخواهند تا سال 2030 به هوش مصنوعی 15.7 تریلیون دلاری دست پیدا کنند، واضح است که شرکتها در حال حاضر نمیتوانند کاملاً به هوش مصنوعی اعتماد کنند و این مانع در صورت عدم رسیدگی به مشکلات ممکن است بدتر شود. نیاز مبرمی به ارائه شفافیت بیشتر برای هوش مصنوعی وجود دارد تا تشخیص اینکه چه زمانی محتوا توسط هوش مصنوعی تولید میشود یا نه، برای دیدن نحوه استفاده سیستمهای هوش مصنوعی از دادهها و درک بهتر خروجیها آسانتر است. سوال بزرگ در این است که چگونه این کار انجام می شود. شفافیت و کاهش اعتماد هوش مصنوعی مشکلات پیچیدهای هستند که تنها راه حلی برای اسلحه دود کردن ندارند و پیشرفت به همکاری بخشهای سراسر جهان نیاز دارد.
مقابله با یک چالش فنی پیچیده
خوشبختانه، ما قبلاً نشانههایی را دیدهایم که هم دولت و هم رهبران فناوری روی پرداختن به این موضوع متمرکز هستند. قانون اخیر هوش مصنوعی اتحادیه اروپا اولین گام مهم در تنظیم دستورالعمل ها و الزامات نظارتی در مورد استقرار هوش مصنوعی مسئول است و در ایالات متحده، ایالت هایی مانند کالیفرنیا اقداماتی را برای معرفی قوانین خود انجام داده اند.
در حالی که این قوانین از این جهت ارزشمند هستند که خطرات خاص را برای موارد استفاده در صنعت ترسیم می کنند، آنها فقط استانداردهایی را ارائه می دهند که باید رعایت شوند، نه راه حل هایی برای اجرا. فقدان شفافیت در سیستمهای هوش مصنوعی به دادههای مورد استفاده برای آموزش مدلها و نحوه اطلاع رسانی خروجیها از آن دادهها مربوط میشود و یک مشکل فنی خاردار ایجاد میکند.
بلاک چین یکی از فناوری هایی است که به عنوان یک راه حل بالقوه در حال ظهور است. در حالی که بلاک چین به طور گسترده با رمزنگاری مرتبط است، در قلب آن، فناوری اساسی بر روی یک ذخیرهگاه دادهای ضد دستکاری و بسیار سریالی ساخته شده است. برای هوش مصنوعی، میتواند شفافیت و اعتماد را با ارائه یک مسیر حسابرسی خودکار و قابل تأیید از دادههای هوش مصنوعی - از دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی گرفته تا ورودیها و خروجیها در حین استفاده، و حتی تأثیر مجموعه دادههای خاص بر خروجی هوش مصنوعی افزایش دهد.
نسل گفت ه بازیابی (RAG) نیز به سرعت پدیدار شد و توسط رهبران هوش مصنوعی برای ایجاد شفافیت در سیستمها مورد استقبال قرار گرفت. RAG مدلهای هوش مصنوعی را قادر میسازد تا منابع داده خارجی مانند اینترنت یا اسناد داخلی یک شرکت را در زمان واقعی برای اطلاع از خروجیها جستجو کنند، به این معنی که مدلها میتوانند اطمینان حاصل کنند که خروجیها در مرتبطترین و بهروزترین اطلاعات ممکن استقرار دارند. RAG همچنین توانایی مدل را برای استناد به منابع خود معرفی میکند و به کاربران اجازه میدهد تا به جای نیاز به اعتماد کور، اطلاعات را به تنهایی تحلیل کنند.
و هنگامی که نوبت به مقابله با دیپفیکها میرسد، OpenAI در ماه فوریه اعلام کرد که متادیتا را در تصاویر ایجاد شده در ChatGPT و API آن جاسازی میکند تا پلتفرمهای اجتماعی و توزیعکنندگان محتوا بتوانند راحتتر آنها را شناسایی کنند. در همان ماه، متا رویکرد جدیدی را برای شناسایی و برچسب گذاری محتوای تولید شده توسط هوش مصنوعی در فیس بوک، اینستاگرام و Threads اعلام کرد.
این مقررات نوظهور، فنآوریهای حاکمیتی و استانداردها اولین گام عالی برای تقویت اعتماد بیشتر در مورد هوش مصنوعی و هموار کردن راه برای پذیرش مسئولانه است. اما کارهای بیشتری باید در بخش عمومی و خصوصی انجام شود، بهویژه با توجه به لحظات ویروسی که ناراحتی عمومی را نسبت به هوش مصنوعی افزایش داده است، انتخابات آینده در سراسر جهان و نگرانیهای فزاینده در مورد امنیت هوش مصنوعی در شرکت.
ما در حال رسیدن به یک لحظه کلیدی در مسیر پذیرش هوش مصنوعی هستیم، با اعتماد به فناوری که قدرت بالا بردن ترازو را در اختیار دارد. تنها با شفافیت و اعتماد بیشتر، کسبوکارها هوش مصنوعی را در آغوش میگیرند و مشتریانشان از مزایای آن در محصولات و تجربیات مبتنی بر هوش مصنوعی بهره میبرند که جرقهای برانگیختن لذت است، نه ناراحتی.
ما بهترین سازندگان وب سایت هوش مصنوعی را فهرست می کنیم .
این مقاله به عنوان بخشی از کانال Expert Insights TechRadarPro تهیه شده است که در آن بهترین و باهوش ترین ذهن ها در صنعت فناوری امروز را معرفی می کنیم. نظرات بیان شده در اینجا نظرات نویسنده است و لزوماً نظرات TechRadarPro یا Future plc نیست. اگر علاقه مند به مشارکت هستید، اطلاعات بیشتری را در اینجا بیابید: https://www.techradar.com/news/submit-your-story-to-techradar-pro
ارسال نظر