متن خبر

اتحادیه اروپا ChatGPT Task Force: راهی برای اجرای GDPR در هوش مصنوعی؟

اتحادیه اروپا ChatGPT Task Force: راهی برای اجرای GDPR در هوش مصنوعی؟

شناسهٔ خبر: 476683 -




در <a href= این تصویر، لوگوی ChatGPT روی گوشی هوشمند و پرچم اتحادیه اروپا در پس‌زمینه نمایش داده می‌شود." class=" block-image-ads hero-image" srcset="https://cdn.mos.cms.futurecdn.net/gZwKujYK45e69edB9Fa6SJ-320-80.jpg 320w, https://cdn.mos.cms.futurecdn.net/gZwKujYK45e69edB9Fa6SJ-480-80.jpg 480w, https://cdn.mos.cms.futurecdn.net/gZwKujYK45e69edB9Fa6SJ-650-80.jpg 650w, https://cdn.mos.cms.futurecdn.net/gZwKujYK45e69edB9Fa6SJ-970-80.jpg 970w, https://cdn.mos.cms.futurecdn.net/gZwKujYK45e69edB9Fa6SJ-1024-80.jpg 1024w, https://cdn.mos.cms.futurecdn.net/gZwKujYK45e69edB9Fa6SJ-1200-80.jpg 1200w, https://cdn.mos.cms.futurecdn.net/gZwKujYK45e69edB9Fa6SJ-1920-80.jpg 1920w" sizes="(min-width: 1000px) 600px, calc(100vw - 40px)" data-pin-media="https://cdn.mos.cms.futurecdn.net/gZwKujYK45e69edB9Fa6SJ.jpg">
(اعتبار تصویر: تصویرسازی عکس توسط رافائل هنریک/SOPA Images/LightRocket از طریق گتی ایماژ)

بار دیگر، ChatGPT در اروپا تحت نظارت است و این غول هوش مصنوعی همچنان حریم خصوصی شهروندان اتحادیه اروپا و حقوق صحت داده ها را تحت GDPR به خطر می اندازد.

این نکته اصلی است که از یافته های اولیه تحقیقات یک ساله اتحادیه اروپا ChatGPT Task Force به دست آمده است. هیئت حفاظت از داده های اتحادیه اروپا (EDPB) - نهادی که ناظران ملی حفظ حریم خصوصی اروپا را متحد می کند - در آوریل سال گذشته پس از ممنوعیت موقت این برنامه توسط ایتالیا به دلیل حفظ حریم خصوصی باعث افزایش استفاده از بهترین خدمات VPN در سراسر منطقه شد، این کارگروه را ایجاد کرد.

این گروه چندین جنبه مشکل ساز چت ربات محبوب هوش مصنوعی را تجزیه و تحلیل کرد، به ویژه در مورد قانونی بودن شیوه های خراش دادن وب و دقت داده ها. در واقع، علاوه بر مسائل مربوط به جمع آوری داده ها، تمایل به توهم ChatGPT نیز اخیراً توسط برخی از مقامات ملی حفظ حریم خصوصی داده ها (DPAs) تحت تأثیر شکایت قرار گرفته است.

تحقیقات اتحادیه اروپا در ابتدای راه است، پس بعید است به این زودی اقدامات OpenAI سازگارتر با GPR شود. با این حال، این ممکن است اولین گام – هرچند سبک – به سوی چارچوب حفظ حریم خصوصی بهتر برای ابزارهای مدل‌های زبان بزرگ (LLM) باشد که در اروپا دنبال می‌شوند.

نقص های خراش دادن وب و دقت ChatGPT

پس از اینکه ایتالیا به طور موقت ChatGPT را به دلیل جمع آوری و ذخیره نادرست داده ها در مارس 2023 مسدود کرد ، سایر کشورهای اتحادیه اروپا از جمله فرانسه، آلمان و ایرلند شروع به تحلیل این موضوع کردند. شکایات زیادی ثبت شده است، اما تا کنون چندان اجرایی نشده است.

Task Force به عنوان راهی برای ارتقای همکاری بین DPAهای ملی است که در مورد چت بات OpenAI تحقیق می کنند. با این حال، EDPB توضیح داد ، در حالی که دیدگاه های اولیه در مورد جنبه های مورد مناقشه در میان DPA ها ارائه می شود، این گزارش "تحلیلی را که توسط هر DPA در تحقیقات در حال انجام مربوطه انجام خواهد شد، پیش داوری نمی کند."

موضوع اصلی مورد بحث این است که ChatGPT چگونه داده های شهروندان اتحادیه اروپا را جمع آوری، نگهداری و استفاده می کند. OpenAI مقیاس وسیعی از داده‌ها را بدون درخواست رضایت از وب می‌خرد. از طریق اعلان‌های chatbot، کاربران می‌توانند سیستم را با داده‌های بسیار حساس تغذیه کنند که به محافظت بهتری نیاز دارد. همچنین عدم شفافیت در مورد نحوه پردازش نهایی این داده ها توسط شرکت برای آموزش مدل های هوش مصنوعی وجود دارد.

GDPR به یک مبنای قانونی برای پردازش داده های شخصی نیاز دارد - در این مورد، یا درخواست رضایت فرد یا داشتن "منافع قانونی" در انجام این کار. OpenAI نمی تواند برای خراش دادن اطلاعات شما به صورت آنلاین درخواست رضایت کند. به همین دلیل است که پس از پرونده ایتالیایی، این شرکت تا حد زیادی با کارت دوم بازی می کند.

در حالی که "ارزیابی قانونی بودن هنوز مشمول تحقیقات معلق است"، این گزارش اشاره می کند که در صورت استفاده از برخی اقدامات فنی، بند منفعت مشروع ممکن است از نظر قانونی معتبر باشد. این موارد شامل پرهیز از دسته‌ها یا منابع داده خاص (مانند نمایه‌های عمومی رسانه‌های اجتماعی) است. این شرکت همچنین باید بتواند با رعایت حقوق شهروندان اتحادیه اروپا مانند حق فراموشی، داده های شخصی را حذف یا بی نام کند.

با این حال، به گفته لویزا جاروفسکی، متخصص هوش مصنوعی و حریم خصوصی (به توییت زیر مراجعه کنید): "منافع قانونی در اینجا کاملاً تحریف شده است. "

او توضیح داد که بر اساس ماده 14.5 (ب) GDPR، "کنترل کننده باید اقدامات مناسبی را برای حفاظت از حقوق و آزادی ها و منافع مشروع موضوع داده، از جمله در دسترس قرار دادن اطلاعات برای عموم، انجام دهد." با این حال، داده های ChatGPT هر چیزی جز در دسترس عموم است.

Jarovsky گفت: «یا EDPB او میگوید که منافع مشروع برای OpenAI و سایر شرکت‌های AI که برای آموزش هوش مصنوعی به خراش دادن متکی هستند، متفاوت عمل می‌کند (و توضیح می‌دهد که چرا)، یا آنها را ملزم می‌کنند که مطابق با GDPR از منافع قانونی پیروی کنند.

🚨 BREAKING: EDPB به تازگی گزارش ChatGPT Task Force خود را منتشر کرد ، و یک فیل بزرگ در اتاق وجود دارد. این را بخوانید: ➡ در مورد خراش دادن وب و "جمع آوری داده های آموزشی، پیش پردازش داده ها و آموزش"، این گزارش تشخیص می دهد که OpenAI به قانونی متکی است… pic.twitter.com/QEiyqhuDqz 24 مه 2024

دقت داده ها نکته بحث برانگیز بعدی است. قبلاً بحث کردیم که چگونه ChatGPT و چت ربات‌های هوش مصنوعی مشابه احتمالاً هرگز از ساختن مطالب دست نمی‌کشند . "توهمات هوش مصنوعی" نه تنها می تواند به اطلاعات نادرست آنلاین دامن بزند، بلکه بر خلاف قوانین حریم خصوصی اتحادیه اروپا است.

طبق ماده 5 GDPR، تمام اطلاعات آنلاین در مورد افراد در اتحادیه اروپا باید دقیق باشد. ماده 16 مستلزم اصلاح کلیه داده های نادرست یا نادرست است. ماده 15 پس از آن به اروپایی ها «حق دسترسی» می دهد و از شرکت ها می خواهد که نشان دهند چه اطلاعاتی در مورد افراد دارند و چه منابعی دارند. باز هم OpenAI هیچ یک از این معیارها را برآورده نمی کند.

در این گزارش آمده است: «در واقع، به دلیل ماهیت احتمالی سیستم، رویکرد آموزشی فعلی به مدلی منتهی می‌شود که ممکن است خروجی‌های مغرضانه یا ساختگی ایجاد کند».

"اگرچه اقدامات انجام شده به منظور رعایت اصل شفافیت برای جلوگیری از تفسیر نادرست خروجی ChatGPT مفید است، اما برای مطابقت با اصل دقت داده کافی نیست."

کارشناسان پیشنهاد می کنند که OpenAI مطابق با اصل شفافیت در ماده 5 عمل کند، باید به صراحت به کاربر اطلاع دهد که متن تولید شده ممکن است مغرضانه یا ساخته شده باشد. به همین ترتیب، آنها همچنین توصیه می کنند به کاربران اطلاع دهند که اطلاعات به اشتراک گذاشته شده از طریق اعلانات ربات چت ممکن است برای اهداف آموزشی استفاده شود.

این گزارش در نهایت بر اهمیت حقوق شهروندان اتحادیه اروپا بر اساس GDPR، مانند حق حذف یا اصلاح داده‌های شما (معروف به «حق فراموش شدن») یا حق کسب اطلاعات در مورد نحوه پردازش داده‌های شما تأکید می‌کند.

با این حال، در مورد این نکته مهم، گروه ویژه هیچ توصیه عملی ارائه نمی کند و فقط توصیه های گسترده ای را ارائه می دهد. کارشناسان گفتند که OpenAI باید "اقدامات مناسب" را اجرا کند و "ضمانت های لازم" را برای برآورده کردن الزامات GDPR و محافظت از حقوق افراد سوژه داده ها یکپارچه کند.

آیا واقعاً انتظار دارند که OpenAI راه حلی ارائه دهد؟ به نظر محتمل است

نویسنده ارشد ستاد

کیارا یک روزنامه‌نگار چندرسانه‌ای است که متعهد به پوشش داستان‌ها برای کمک به ترویج حقوق و محکوم کردن سوء استفاده از جنبه دیجیتالی زندگی است - هرجا که امنیت سایبری، بازارها و سیاست در هم پیچیده باشند.   او عمدتاً اخبار، مصاحبه‌ها و تحلیل‌هایی را درباره حریم خصوصی داده‌ها، سانسور آنلاین، حقوق دیجیتال، جرایم سایبری و نرم‌افزار امنیتی، با تمرکز ویژه بر VPN‌ها، برای TechRadar Pro، TechRadar و Tom's Guide می‌نویسد. داستان، نکته یا چیز جالب فنی برای گفتن دارید؟ با chiara.castro@futurenet.com تماس بگیرید

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است