ماریا مارکستدتر، مدیر عامل و موسس آزمایشگاه های آزریا، در کنفرانس اخیر Dynatrace Perform 2024 در لاس وگاس، برای رسیدگی به کمبود مهارت ها و منابع پیرامون ادغام و امنیت هوش مصنوعی باید کارهای بیشتری انجام شود.
برای مبارزه با خطرات ناشی از نوآوری های جدید مانند عوامل هوش مصنوعی و هوش مصنوعی ترکیبی، تیم های امنیتی و دانشمندان داده باید ارتباطات و همکاری خود را تقویت کنند.
مارکستدتر با تجربه ناامیدیهایی که کمبود منابع ناشی از تجربه مهندسی معکوس پردازندههای ARM به همراه دارد، معتقد است که برای به حداقل رساندن تهدیدات ناشی از ادغامهای هوش مصنوعی به همکاری و درک بهتری نیاز است.
"شما نمی توانید آسیب پذیری هایی را در سیستمی که به طور کامل درک نمی کنید پیدا کنید."
افزایش اندازه و پیچیدگی دادههای پردازش شده توسط مدلهای هوش مصنوعی فراتر از محدودههایی است که تیمهای امنیتی قادر به مدلسازی تهدید هستند، به ویژه زمانی که متخصصان امنیتی منابع لازم برای درک آنها را ندارند.
مارکستدتر او میگوید : حملات جدید و آسیبپذیریهای جدید، "به شما نیاز دارند که درکی از علم داده و نحوه عملکرد سیستمهای هوش مصنوعی داشته باشید، اما در عین حال درک بسیار عمیقی از مدلسازی امنیت و تهدید و مدیریت ریسک داشته باشید."
این امر به ویژه در مورد سیستمهای هوش مصنوعی چندوجهی جدید که میتوانند چندین ورودی داده مانند متن، صدا و تصاویر را همزمان پردازش کنند، صادق است. مارکستدتر اشاره میکند که در حالی که سیستمهای هوش مصنوعی تکوجهی و چندوجهی در دادههایی که میتوانند پردازش کنند تفاوت زیادی دارند، ماهیت فراخوانی و پاسخ عمومی تعامل انسان با هوش مصنوعی تا حد زیادی یکسان است.
"این ماهیت معاملاتی فقط گلوله نقره ای نیست که ما به آن امیدوار بودیم. اینجاست که عوامل هوش مصنوعی وارد می شوند."
عوامل هوش مصنوعی با داشتن توانایی «فکر کردن» در مورد وظیفه خود و رسیدن به یک نتیجه نهایی منحصر به فرد بسته به اطلاعات در دسترس در آن زمان، راه حلی برای این ماهیت بسیار معاملاتی ارائه می دهند.
این یک تهدید مهم و بیسابقه برای تیمهای امنیتی است، زیرا مفهوم دسترسی و مدیریت هویت باید مورد ارزیابی مجدد قرار گیرد، زیرا ما اساساً در حال ورود به دنیایی هستیم که در آن یک سیستم غیر قطعی داریم که به انبوهی از دادههای تجاری دسترسی دارد و برنامهها، و مجوز انجام اقدامات غیر قطعی را دارد."
مارکستدتر استدلال می کند که از آنجایی که این عوامل هوش مصنوعی نیاز به دسترسی به منابع داده داخلی و خارجی دارند، خطر قابل توجهی وجود دارد که این عوامل با داده های مخرب تغذیه شوند که در غیر این صورت ممکن است برای یک ارزیاب امنیتی غیر مضر به نظر برسند.
این پردازش دادههای خارجی با هوش مصنوعی چندوجهی حتی پیچیدهتر میشود، زیرا اکنون دستورالعملهای مخرب لازم نیست بخشی از متن یک وبسایت یا بخشی از ایمیل باشند، اما میتوانند در تصاویر و فایلهای صوتی پنهان شوند.»
هر چند این همه خبر بد نیست. تکامل سیستمهای ترکیبی که چندین فناوری هوش مصنوعی را در یک محصول واحد ترکیب میکنند، میتواند «ابزارهایی را ایجاد کند که تجربه تحلیلی تعاملیتر و پویاتری به ما بدهد».
با ترکیب مدلسازی تهدید با هوش مصنوعی ترکیبی، و با تشویق تیمهای امنیتی برای همکاری نزدیکتر با دانشمندان داده، میتوان نه تنها خطرات ناشی از ادغامهای هوش مصنوعی را کاهش داد، بلکه مهارتهای تیمهای امنیتی را نیز افزایش داد.
ارسال نظر