متن خبر

پیشبرد اکتشاف هوش مصنوعی مولد به صورت ایمن و ایمن

پیشبرد اکتشاف هوش مصنوعی مولد به صورت ایمن و ایمن

شناسهٔ خبر: 441152 -




نگرانی های امنیتی به طور اجتناب ناپذیری با کاوش و اجرای هوش مصنوعی مولد در هم تنیده است . طبق گزارش اخیری که شامل داده‌هایی است که ما سفارش داده‌ایم، ۴۹ درصد از رهبران کسب‌وکار خطرات ایمنی و امنیتی را یک نگرانی اصلی می‌دانند، در حالی که ۳۸ درصد خطاهای انسانی یا نقض داده‌های ناشی از انسان را ناشی از عدم درک نحوه استفاده از ابزارهای GPT می‌دانند.

در حالی که این نگرانی ها معتبر هستند، مزایایی که پذیرندگان اولیه می بینند بسیار بیشتر از جنبه های منفی بالقوه محدود کردن یکپارچگی است.

من می خواهم آنچه را که از کمک به هم تیمی ها و مشتریانمان به طور یکسان یاد گرفته ام به اشتراک بگذارم که چرا امنیت نباید یک فکر بعدی باشد، بلکه یک پیش نیاز برای ادغام هوش مصنوعی در تجارت و برخی از بهترین شیوه ها برای انجام این کار است.

مکالمه هوش مصنوعی با یک سیاست استفاده ایمن شروع می شود

شرکت ها نیاز فوری به پاسخگویی به خطرات امنیتی جدیدی را که هوش مصنوعی ارائه می دهد درک می کنند. در واقع، طبق گزارشی که در بالا به آن اشاره شد، ۸۱ درصد از رهبران کسب‌وکار گفتند که شرکت آنها قبلاً سیاست‌های کاربر را پیرامون هوش مصنوعی مولد پیاده‌سازی کرده یا در حال ایجاد آن است.

نرده های محافظ برای آزمایش و یادگیری برای تسریع در اکتشاف و در عین حال به حداقل رساندن خطرات امنیتی ضروری هستند.

با این حال، به دلیل ماهیت به سرعت در حال تحول این فناوری - با برنامه های کاربردی جدید و موارد استفاده که هر روز در حال ظهور هستند - این سیاست باید به طور مداوم برای رسیدگی به خطرات و چالش های در حال ظهور به روز شود.

نرده های محافظ برای آزمایش و یادگیری برای تسریع در اکتشاف و در عین حال به حداقل رساندن خطرات امنیتی ضروری هستند. این سیاست همچنین نباید در یک سیلو ایجاد شود. نمایندگی از سراسر کسب و کار برای درک چگونگی استفاده از فناوری یا می تواند توسط هر عملکرد برای محاسبه خطرات امنیتی منحصر به فرد استفاده شود، مهم است.

نکته مهم این است که اکتشاف skunkworks از هوش مصنوعی نباید به طور کامل ممنوع شود. شرکت‌هایی که از ترس در برابر آن مقاومت می‌کنند، دیگر نگران کاهش سهم بازار رقبا نخواهند بود. آنها قبلاً این کار را برای خودشان انجام داده اند.

توانمندسازی شهروند توسعه دهندگان

به منظور اطمینان از استفاده ایمن از هوش مصنوعی، ابتدا به توسعه دهندگان شهروند خود اجازه دادیم تا از یک نمونه خصوصی از مدل بزرگ یادگیری زبان ما، Insight GPT استفاده کنند. این نه تنها به ما کمک کرده است موارد استفاده بالقوه را شناسایی کنیم، بلکه به ما اجازه می‌دهد تا نتایج آن را آزمایش کنیم و ما را قادر می‌سازد تا اصلاحات مداوم را انجام دهیم.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است