متن خبر

متا برنامه‌های آموزش هوش مصنوعی را با استفاده از داده‌های کاربران اروپایی متوقف می‌کند و در مقابل فشارهای نظارتی تعظیم می‌کند

متا برنامه‌های آموزش هوش مصنوعی را با استفاده از داده‌های کاربران اروپایی متوقف می‌کند و در مقابل فشارهای نظارتی تعظیم می‌کند

شناسهٔ خبر: 548580 -




متا تایید کرده است که برنامه های خود را برای شروع آموزش سیستم های هوش مصنوعی با استفاده از داده های کاربرانش در اتحادیه اروپا و بریتانیا متوقف می کند.

این اقدام به دنبال مخالفت کمیسیون حفاظت از داده‌های ایرلندی (DPC)، تنظیم‌کننده اصلی متا در اتحادیه اروپا، که به نمایندگی از چندین مقام حفاظت از داده‌ها در سراسر بلوک عمل می‌کند، صورت می‌گیرد. دفتر کمیساریای اطلاعات بریتانیا (ICO) همچنین از متا درخواست کرد که برنامه‌های خود را تا زمانی که بتواند نگرانی‌های مطرح شده را برآورده کند، متوقف کند.

DPC روز جمعه در بیانیه ای اعلام کرد: DPC از تصمیم متا برای توقف برنامه های خود برای آموزش مدل زبان بزرگ خود با استفاده از محتوای عمومی به اشتراک گذاشته شده توسط بزرگسالان در فیس بوک و اینستاگرام در سراسر اتحادیه اروپا و EEA استقبال می کند. این تصمیم به دنبال تعامل فشرده بین DPC و Meta بود. DPC، در همکاری با مقامات دیگر اتحادیه اروپا حفاظت از داده، به تعامل با متا در مورد این موضوع ادامه خواهد داد.

در حالی که متا در حال حاضر از محتوای تولید شده توسط کاربر برای آموزش هوش مصنوعی خود در بازارهایی مانند ایالات متحده استفاده می کند، مقررات سختگیرانه GDPR اروپا موانعی را برای متا و سایر شرکت ها ایجاد کرده است که به دنبال بهبود سیستم های هوش مصنوعی از جمله مدل های زبان بزرگ با مواد آموزشی تولید شده توسط کاربر هستند. .

با این حال، متا در ماه گذشته شروع به اطلاع رسانی به کاربران در مورد تغییر آتی در سیاست حفظ حریم خصوصی خود کرد، تغییری که به گفته او این حق را به آن می دهد تا از محتوای عمومی در فیس بوک و اینستاگرام برای آموزش هوش مصنوعی خود از جمله محتوای نظرات، تعامل با شرکت ها، به روز رسانی وضعیت استفاده کند. ، عکس ها و زیرنویس های مرتبط با آنها. این شرکت استدلال کرد که باید این کار را انجام دهد تا «زبان‌ها، جغرافیا و منابع فرهنگی مختلف مردم اروپا را منعکس کند».

قرار بود این تغییرات در 26 ژوئن 2024 - 12 روز دیگر - اعمال شود. اما این طرح‌ها سازمان غیرانتفاعی فعال حریم خصوصی NOYB ("به شما مربوط نیست") را برانگیخت تا 11 شکایت را با کشورهای اتحادیه اروپا ارسال کند، با این استدلال که متا جنبه‌های مختلف GDPR را نقض می‌کند. یکی از این موارد مربوط به موضوع انتخاب در مقابل انصراف است، در مورد جایی که پردازش داده‌های شخصی انجام می‌شود، ابتدا باید از کاربران اجازه گرفته شود تا اینکه برای امتناع اقدامی انجام شود.

متا، به نوبه خود، به یک ماده GDRP به نام "منافع مشروع" تکیه می کرد تا ادعا کند که اقداماتش با مقررات مطابقت دارد. این اولین باری نیست که متا از این مبنای قانونی در دفاع استفاده می‌کند، زیرا قبلاً این کار را برای توجیه پردازش کاربران اروپایی برای تبلیغات هدفمند انجام داده است.

همیشه به نظر می‌رسید که تنظیم‌کننده‌ها حداقل اجرای تغییرات برنامه‌ریزی‌شده متا را متوقف کنند، به‌ویژه از آنجایی که شرکت چقدر کار را برای «انصراف» کاربران از استفاده از داده‌هایشان دشوار کرده بود. این شرکت بيان کرد که بیش از 2 میلیارد نوتیفیکیشن ارسال کرده است تا کاربران را از تغییرات آتی آگاه کند، اما برخلاف سایر پیام‌های عمومی مهم که در بالای فیدهای کاربران قرار می‌گیرند، مانند پیام‌هایی برای خروج و رای دادن، این اعلان‌ها در کنار کاربران ظاهر می‌شوند. اعلان‌های استاندارد - تولد دوستان، هشدارهای برچسب عکس، اطلاعیه‌های گروهی و موارد دیگر. پس اگر کسی به طور منظم اعلان‌های خود را تحلیل نمی‌کند، از دست دادن این موضوع بسیار آسان است.

و کسانی که این اعلان را مشاهده کرده‌اند به‌طور خودکار نمی‌دانند که راهی برای اعتراض یا انصراف وجود دارد، زیرا به سادگی از کاربران دعوت می‌کند تا در مورد نحوه استفاده متا از اطلاعاتشان کلیک کنند. هیچ چیزی وجود نداشت که نشان دهد در اینجا یک انتخاب وجود دارد.

متا: اعلان هوش مصنوعی
متا: اعلان هوش مصنوعی
اعتبار تصویر: متا

علاوه بر این، کاربران از نظر فنی قادر به "انصراف" از استفاده از داده های خود نبودند. در عوض، آنها باید یک فرم اعتراض را تکمیل می‌کردند که در آن استدلال‌های خود را برای اینکه چرا نمی‌خواهند داده‌هایشان پردازش شود، ارائه می‌کردند - این کاملاً به صلاحدید متا بود که آیا این درخواست مورد توجه قرار می‌گیرد، اگرچه شرکت اعلام کرد که به هر یک از آنها احترام می‌گذارد. درخو است.

فرم "اعتراض" فیس بوک
فرم "اعتراض" فیس بوک
اعتبار تصویر: متا / اسکرین شات

اگرچه فرم اعتراض از طریق خود اعلان پیوند داده شده بود، اما هر کسی که فعالانه به دنبال فرم اعتراض در تنظیمات حساب خود بود، کارش قطع شد.

در وب سایت فیس بوک، آنها باید ابتدا روی عکس نمایه خود در بالا سمت راست کلیک می کردند. تنظیمات و حریم خصوصی را بزنید. روی مرکز حریم خصوصی ضربه بزنید؛ به پایین بروید و روی بخش Generative AI at Meta کلیک کنید. دوباره به پایین اسکرول کنید و دسته ای از پیوندها را به بخشی با عنوان منابع بیشتر پشت سر بگذارید. اولین پیوند زیر این بخش «چگونه متا از اطلاعات برای مدل‌های هوش مصنوعی تولیدی استفاده می‌کند» نام دارد و قبل از رسیدن به یک پیوند مجزا به فرم «حق اعتراض» شرکت باید حدود 1100 کلمه را بخوانند. این داستان مشابه در برنامه تلفن همراه فیس بوک نیز وجود داشت.

پیوند <a href= به فرم "حق اعتراض"." class="wp-image-2794885" srcset="https://techcrunch.com/wp-content/uploads/2024/06/6.RightToObject.png 1602w, https://techcrunch.com/wp-content/uploads/2024/06/6.RightToObject.png?resize=150,66 150w, https://techcrunch.com/wp-content/uploads/2024/06/6.RightToObject.png?resize=300,131 300w, https://techcrunch.com/wp-content/uploads/2024/06/6.RightToObject.png?resize=768,336 768w, https://techcrunch.com/wp-content/uploads/2024/06/6.RightToObject.png?resize=680,297 680w, https://techcrunch.com/wp-content/uploads/2024/06/6.RightToObject.png?resize=1200,524 1200w, https://techcrunch.com/wp-content/uploads/2024/06/6.RightToObject.png?resize=1536,671 1536w" sizes="(max-width: 1602px) 100vw, 1602px">
پیوند به فرم "حق اعتراض".
اعتبار تصویر: متا / اسکرین شات

در اوایل این هفته، وقتی از او پرسیده شد که چرا این فرآیند کاربر را مجبور می‌کند به جای انتخاب کردن، اعتراض کند، مت پولارد، مدیر ارتباطات خط‌مشی متا، TechCrunch را به پست وبلاگ موجود خود اشاره کرد که او میگوید : «ما این مبنای قانونی ["منافع مشروع" را باور داریم. ] مناسب ترین تعادل برای پردازش داده های عمومی در مقیاس لازم برای آموزش مدل های هوش مصنوعی و در عین حال رعایت حقوق افراد است.

برای ترجمه این، ایجاد این انتخاب به احتمال زیاد "مقیاس" کافی را از نظر افرادی که مایل به ارائه داده های خود هستند ایجاد نمی کند. پس بهترین راه برای حل این مشکل، صدور یک اعلان انفرادی در میان سایر اعلان‌های کاربران بود. برای کسانی که به طور مستقل به دنبال «انصراف» هستند، فرم اعتراض را پشت نیم دوجین کلیک پنهان کنید. و سپس آنها را مجبور کنید اعتراض خود را توجیه کنند، نه اینکه به آنها یک انصراف مستقیم بدهید.

استفانو فراتا، مدیر مشارکت جهانی متا برای سیاست حفظ حریم خصوصی، در یک پست وبلاگ به روز شده امروز بيان کرد که از درخواستی که از DPC دریافت کرده است، "ناامید" شده است.

فراتا نوشت: «این یک گام به عقب برای نوآوری اروپا، رقابت در توسعه هوش مصنوعی و تأخیر بیشتر در رساندن مزایای هوش مصنوعی به مردم اروپا است. ما بسیار مطمئن هستیم که رویکرد ما با قوانین و مقررات اروپایی مطابقت دارد. آموزش هوش مصنوعی منحصر به خدمات ما نیست و ما شفاف تر از بسیاری از همتایان صنعتی خود هستیم.

مسابقه تسلیحاتی هوش مصنوعی

البته هیچ یک از این موارد جدید نیست، و متا در یک مسابقه تسلیحاتی هوش مصنوعی است که مرکز توجه عظیمی را بر روی زرادخانه عظیم داده هایی که Big Tech در اختیار همه ما قرار داده است، درخشیده است.

در اوایل سال جاری، Reddit فاش کرد که برای صدور مجوز داده‌های خود به شرکت‌هایی مانند OpenAI سازنده ChatGPT و Google، قراردادی برای کسب درآمد 200 میلیون دلاری در سال‌های آینده دارد. و شرکت دومی از این شرکت‌ها در حال حاضر با جریمه‌های هنگفتی برای تکیه بر محتوای خبری دارای حق چاپ برای آموزش مدل‌های هوش مصنوعی خود مواجه است.

اما این تلاش‌ها همچنین نشان می‌دهند که شرکت‌ها برای اطمینان از اینکه می‌توانند از این داده‌ها در چارچوب محدودیت‌های قوانین موجود بهره ببرند، تا چه حد باید پیش بروند - «انتخاب کردن» به ندرت در دستور کار قرار می‌گیرد، و فرآیند انصراف اغلب بی‌هیچ سخت است. همین ماه گذشته، شخصی عبارات مشکوکی را در خط مشی حفظ حریم خصوصی Slack مشاهده کرد که نشان می‌داد می‌تواند از داده‌های کاربر برای آموزش سیستم‌های هوش مصنوعی خود استفاده کند، و کاربران تنها با ارسال ایمیل به شرکت می‌توانند از آن انصراف دهند.

و سال گذشته، گوگل در نهایت راهی را به ناشران آنلاین داد تا وب‌سایت‌هایشان را از آموزش مدل‌هایش با استفاده از امکان تزریق کد به سایت‌هایشان حذف کنند. OpenAI، به نوبه خود، در حال ساخت یک ابزار اختصاصی است تا به سازندگان محتوا اجازه دهد از آموزش هوش مصنوعی مولد خود صرف نظر کنند - این ابزار باید تا سال 2025 آماده شود.

در حالی که تلاش‌های متا برای آموزش هوش مصنوعی خود بر روی محتوای عمومی کاربران در اروپا فعلاً متوقف شده است، احتمالاً پس از مشورت با DPC و ICO مجدداً به شکل دیگری سر و کار خواهد داشت - امیدواریم با فرآیند مجوز کاربر متفاوتی در جریان باشد.

استفان آلموند، مدیر اجرایی ریسک نظارتی ICO، در این باره گفت: «به منظور استفاده حداکثری از هوش مصنوعی مولد و فرصت‌هایی که به ارمغان می‌آورد، بسیار مهم است که عموم مردم بتوانند اعتماد کنند که حقوق حریم خصوصی آنها از همان ابتدا رعایت می‌شود. بیانیه ای امروز ما به نظارت بر توسعه دهندگان اصلی هوش مصنوعی مولد، از جمله متا، ادامه خواهیم داد تا تدابیر امنیتی که آنها اعمال کرده اند را تحلیل کنیم و اطمینان حاصل کنیم که از حقوق اطلاعاتی کاربران بریتانیا محافظت می شود.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است