بار دیگر، ChatGPT در اروپا تحت نظارت است و این غول هوش مصنوعی همچنان حریم خصوصی شهروندان اتحادیه اروپا و حقوق صحت داده ها را تحت GDPR به خطر می اندازد.
این نکته اصلی است که از یافته های اولیه تحقیقات یک ساله اتحادیه اروپا ChatGPT Task Force به دست آمده است. هیئت حفاظت از داده های اتحادیه اروپا (EDPB) - نهادی که ناظران ملی حفظ حریم خصوصی اروپا را متحد می کند - در آوریل سال گذشته پس از ممنوعیت موقت این برنامه توسط ایتالیا به دلیل حفظ حریم خصوصی باعث افزایش استفاده از بهترین خدمات VPN در سراسر منطقه شد، این کارگروه را ایجاد کرد.
این گروه چندین جنبه مشکل ساز چت ربات محبوب هوش مصنوعی را تجزیه و تحلیل کرد، به ویژه در مورد قانونی بودن شیوه های خراش دادن وب و دقت داده ها. در واقع، علاوه بر مسائل مربوط به جمع آوری داده ها، تمایل به توهم ChatGPT نیز اخیراً توسط برخی از مقامات ملی حفظ حریم خصوصی داده ها (DPAs) تحت تأثیر شکایت قرار گرفته است.
تحقیقات اتحادیه اروپا در ابتدای راه است، پس بعید است به این زودی اقدامات OpenAI سازگارتر با GPR شود. با این حال، این ممکن است اولین گام – هرچند سبک – به سوی چارچوب حفظ حریم خصوصی بهتر برای ابزارهای مدلهای زبان بزرگ (LLM) باشد که در اروپا دنبال میشوند.
نقص های خراش دادن وب و دقت ChatGPT
پس از اینکه ایتالیا به طور موقت ChatGPT را به دلیل جمع آوری و ذخیره نادرست داده ها در مارس 2023 مسدود کرد ، سایر کشورهای اتحادیه اروپا از جمله فرانسه، آلمان و ایرلند شروع به تحلیل این موضوع کردند. شکایات زیادی ثبت شده است، اما تا کنون چندان اجرایی نشده است.
Task Force به عنوان راهی برای ارتقای همکاری بین DPAهای ملی است که در مورد چت بات OpenAI تحقیق می کنند. با این حال، EDPB توضیح داد ، در حالی که دیدگاه های اولیه در مورد جنبه های مورد مناقشه در میان DPA ها ارائه می شود، این گزارش "تحلیلی را که توسط هر DPA در تحقیقات در حال انجام مربوطه انجام خواهد شد، پیش داوری نمی کند."
موضوع اصلی مورد بحث این است که ChatGPT چگونه داده های شهروندان اتحادیه اروپا را جمع آوری، نگهداری و استفاده می کند. OpenAI مقیاس وسیعی از دادهها را بدون درخواست رضایت از وب میخرد. از طریق اعلانهای chatbot، کاربران میتوانند سیستم را با دادههای بسیار حساس تغذیه کنند که به محافظت بهتری نیاز دارد. همچنین عدم شفافیت در مورد نحوه پردازش نهایی این داده ها توسط شرکت برای آموزش مدل های هوش مصنوعی وجود دارد.
GDPR به یک مبنای قانونی برای پردازش داده های شخصی نیاز دارد - در این مورد، یا درخواست رضایت فرد یا داشتن "منافع قانونی" در انجام این کار. OpenAI نمی تواند برای خراش دادن اطلاعات شما به صورت آنلاین درخواست رضایت کند. به همین دلیل است که پس از پرونده ایتالیایی، این شرکت تا حد زیادی با کارت دوم بازی می کند.
در حالی که "ارزیابی قانونی بودن هنوز مشمول تحقیقات معلق است"، این گزارش اشاره می کند که در صورت استفاده از برخی اقدامات فنی، بند منفعت مشروع ممکن است از نظر قانونی معتبر باشد. این موارد شامل پرهیز از دستهها یا منابع داده خاص (مانند نمایههای عمومی رسانههای اجتماعی) است. این شرکت همچنین باید بتواند با رعایت حقوق شهروندان اتحادیه اروپا مانند حق فراموشی، داده های شخصی را حذف یا بی نام کند.
با این حال، به گفته لویزا جاروفسکی، متخصص هوش مصنوعی و حریم خصوصی (به توییت زیر مراجعه کنید): "منافع قانونی در اینجا کاملاً تحریف شده است. "
او توضیح داد که بر اساس ماده 14.5 (ب) GDPR، "کنترل کننده باید اقدامات مناسبی را برای حفاظت از حقوق و آزادی ها و منافع مشروع موضوع داده، از جمله در دسترس قرار دادن اطلاعات برای عموم، انجام دهد." با این حال، داده های ChatGPT هر چیزی جز در دسترس عموم است.
Jarovsky گفت: «یا EDPB او میگوید که منافع مشروع برای OpenAI و سایر شرکتهای AI که برای آموزش هوش مصنوعی به خراش دادن متکی هستند، متفاوت عمل میکند (و توضیح میدهد که چرا)، یا آنها را ملزم میکنند که مطابق با GDPR از منافع قانونی پیروی کنند.
🚨 BREAKING: EDPB به تازگی گزارش ChatGPT Task Force خود را منتشر کرد ، و یک فیل بزرگ در اتاق وجود دارد. این را بخوانید: ➡ در مورد خراش دادن وب و "جمع آوری داده های آموزشی، پیش پردازش داده ها و آموزش"، این گزارش تشخیص می دهد که OpenAI به قانونی متکی است… pic.twitter.com/QEiyqhuDqz 24 مه 2024
دقت داده ها نکته بحث برانگیز بعدی است. قبلاً بحث کردیم که چگونه ChatGPT و چت رباتهای هوش مصنوعی مشابه احتمالاً هرگز از ساختن مطالب دست نمیکشند . "توهمات هوش مصنوعی" نه تنها می تواند به اطلاعات نادرست آنلاین دامن بزند، بلکه بر خلاف قوانین حریم خصوصی اتحادیه اروپا است.
طبق ماده 5 GDPR، تمام اطلاعات آنلاین در مورد افراد در اتحادیه اروپا باید دقیق باشد. ماده 16 مستلزم اصلاح کلیه داده های نادرست یا نادرست است. ماده 15 پس از آن به اروپایی ها «حق دسترسی» می دهد و از شرکت ها می خواهد که نشان دهند چه اطلاعاتی در مورد افراد دارند و چه منابعی دارند. باز هم OpenAI هیچ یک از این معیارها را برآورده نمی کند.
در این گزارش آمده است: «در واقع، به دلیل ماهیت احتمالی سیستم، رویکرد آموزشی فعلی به مدلی منتهی میشود که ممکن است خروجیهای مغرضانه یا ساختگی ایجاد کند».
"اگرچه اقدامات انجام شده به منظور رعایت اصل شفافیت برای جلوگیری از تفسیر نادرست خروجی ChatGPT مفید است، اما برای مطابقت با اصل دقت داده کافی نیست."
کارشناسان پیشنهاد می کنند که OpenAI مطابق با اصل شفافیت در ماده 5 عمل کند، باید به صراحت به کاربر اطلاع دهد که متن تولید شده ممکن است مغرضانه یا ساخته شده باشد. به همین ترتیب، آنها همچنین توصیه می کنند به کاربران اطلاع دهند که اطلاعات به اشتراک گذاشته شده از طریق اعلانات ربات چت ممکن است برای اهداف آموزشی استفاده شود.
این گزارش در نهایت بر اهمیت حقوق شهروندان اتحادیه اروپا بر اساس GDPR، مانند حق حذف یا اصلاح دادههای شما (معروف به «حق فراموش شدن») یا حق کسب اطلاعات در مورد نحوه پردازش دادههای شما تأکید میکند.
با این حال، در مورد این نکته مهم، گروه ویژه هیچ توصیه عملی ارائه نمی کند و فقط توصیه های گسترده ای را ارائه می دهد. کارشناسان گفتند که OpenAI باید "اقدامات مناسب" را اجرا کند و "ضمانت های لازم" را برای برآورده کردن الزامات GDPR و محافظت از حقوق افراد سوژه داده ها یکپارچه کند.
آیا واقعاً انتظار دارند که OpenAI راه حلی ارائه دهد؟ به نظر محتمل است
ارسال نظر