سایت خبرکاو

جستجوگر هوشمند اخبار و مطالب فناوری

طرح خط مشی حیاتی هوش مصنوعی 2024: باز کردن پتانسیل و محافظت در برابر خطرات محل کار

ریچارد مارکوس همکار ریچارد مارکوس رئیس امنیت اطلاعات در AuditBoard است. بسیاری سال 2023 را به عنوان سال هوش مصنوعی توصیف کرده‌اند و این واژه در چندین فهرست «کلمات سال» قرار دارد. در حالی که بر بهره وری و بهره وری در محیط کار تأثیر مثبتی گذاشته است، هوش مصنوعی همچنین تعدادی از خطرات نوظهور را برای مشاغل ایجاد کرده است. به عنوان مثال، نظرسنجی اخیر هریس که به سفارش AuditBoard انجام شد، نشان داد ...

بسیاری سال 2023 را به عنوان سال هوش مصنوعی توصیف کرده‌اند و این واژه در چندین فهرست «کلمات سال» قرار دارد. در حالی که بر بهره وری و بهره وری در محیط کار تأثیر مثبتی گذاشته است، هوش مصنوعی همچنین تعدادی از خطرات نوظهور را برای مشاغل ایجاد کرده است.

به عنوان مثال، نظرسنجی اخیر هریس که به سفارش AuditBoard انجام شد، نشان داد که تقریباً نیمی از آمریکایی‌های شاغل (51 درصد) در حال حاضر از ابزارهای مبتنی بر هوش مصنوعی برای کار استفاده می‌کنند که بدون شک توسط ChatGPT و سایر راه‌حل‌های هوش مصنوعی مولد هدایت می‌شود. با این حال، در همان زمان، نزدیک به نیمی (48٪) گفتند که داده های شرکت را در ابزارهای هوش مصنوعی که توسط کسب و کارشان ارائه نشده است وارد می کنند تا به آنها در کارشان کمک کند.

این ادغام سریع ابزارهای هوش مصنوعی در محل کار، چالش‌های اخلاقی، قانونی، حریم خصوصی و عملی را ارائه می‌کند و نیاز کسب‌وکارها را برای اجرای سیاست‌های جدید و قوی پیرامون ابزارهای هوش مصنوعی مولد ایجاد می‌کند. در حال حاضر، بیشتر آنها هنوز این کار را انجام نداده اند - یک نظرسنجی اخیر گارتنر نشان داد که بیش از نیمی از سازمان ها فاقد سیاست داخلی در مورد هوش مصنوعی مولد هستند و نظرسنجی هریس نشان داد که فقط 37 درصد از آمریکایی های شاغل سیاست رسمی در مورد استفاده از هوش مصنوعی دارند. ابزارهای مجهز به هوش مصنوعی غیر شرکتی

اگرچه ممکن است کاری دلهره آور به نظر برسد، توسعه مجموعه ای از سیاست ها و استانداردها در حال حاضر می تواند سازمان ها را از سردردهای بزرگ نجات دهد.

استفاده و حاکمیت هوش مصنوعی: خطرات و چالش ها

توسعه مجموعه ای از سیاست ها و استانداردها در حال حاضر می تواند سازمان ها را از سردردهای بزرگ در آینده نجات دهد.

پذیرش سریع هوش مصنوعی مولد، همگامی با مدیریت ریسک و حاکمیت هوش مصنوعی را برای کسب و کارها دشوار کرده است و بین اتخاذ و سیاست های رسمی گسست مشخصی وجود دارد. نظرسنجی هریس که قبلا ذکر شد نشان داد که 64٪ استفاده از ابزار هوش مصنوعی را ایمن می دانند، که نشان می دهد بسیاری از کارگران و سازمان ها ممکن است خطرات را نادیده بگیرند.

این خطرات و چالش ها می توانند متفاوت باشند، اما سه مورد از رایج ترین آنها عبارتند از:

    اعتماد به نفس بیش از حد اثر دانینگ-کروگر یک سوگیری است که زمانی رخ می دهد که دانش یا توانایی های ما بیش از حد برآورد شود. ما این خود را نسبت به استفاده از هوش مصنوعی دیده‌ایم. بسیاری توانایی های هوش مصنوعی را بدون درک محدودیت های آن دست بالا می گیرند. این می تواند نتایج نسبتاً بی ضرری مانند ارائه خروجی ناقص یا نادرست ایجاد کند، اما همچنین می تواند منجر به موقعیت های بسیار جدی تری شود، مانند خروجی هایی که محدودیت های استفاده قانونی را نقض می کند یا خطر مالکیت معنوی ایجاد می کند.

    امنیت و حریم خصوصی. هوش مصنوعی برای اثربخشی کامل نیاز به دسترسی به مقادیر زیادی از داده ها دارد، اما گاهی اوقات شامل داده های شخصی یا سایر اطلاعات حساس می شود. خطرات ذاتی همراه با استفاده از ابزارهای هوش مصنوعی تحلیل نشده وجود دارد، پس سازمان ها باید اطمینان حاصل کنند که از ابزارهایی استفاده می کنند که استانداردهای امنیت داده های آنها را برآورده می کند.

خبرکاو