متا برنامههای آموزش هوش مصنوعی را با استفاده از دادههای کاربران اروپایی متوقف میکند و در مقابل فشارهای نظارتی تعظیم میکند

متا تایید کرده است که برنامه های خود را برای شروع آموزش سیستم های هوش مصنوعی با استفاده از داده های کاربرانش در اتحادیه اروپا و بریتانیا متوقف می کند.
این اقدام به دنبال مخالفت کمیسیون حفاظت از دادههای ایرلندی (DPC)، تنظیمکننده اصلی متا در اتحادیه اروپا، که به نمایندگی از چندین مقام حفاظت از دادهها در سراسر بلوک عمل میکند، صورت میگیرد. دفتر کمیساریای اطلاعات بریتانیا (ICO) همچنین از متا درخواست کرد که برنامههای خود را تا زمانی که بتواند نگرانیهای مطرح شده را برآورده کند، متوقف کند.
DPC روز جمعه در بیانیه ای اعلام کرد: DPC از تصمیم متا برای توقف برنامه های خود برای آموزش مدل زبان بزرگ خود با استفاده از محتوای عمومی به اشتراک گذاشته شده توسط بزرگسالان در فیس بوک و اینستاگرام در سراسر اتحادیه اروپا و EEA استقبال می کند. این تصمیم به دنبال تعامل فشرده بین DPC و Meta بود. DPC، در همکاری با مقامات دیگر اتحادیه اروپا حفاظت از داده، به تعامل با متا در مورد این موضوع ادامه خواهد داد.
در حالی که متا در حال حاضر از محتوای تولید شده توسط کاربر برای آموزش هوش مصنوعی خود در بازارهایی مانند ایالات متحده استفاده می کند، مقررات سختگیرانه GDPR اروپا موانعی را برای متا و سایر شرکت ها ایجاد کرده است که به دنبال بهبود سیستم های هوش مصنوعی از جمله مدل های زبان بزرگ با مواد آموزشی تولید شده توسط کاربر هستند. .
با این حال، متا در ماه گذشته شروع به اطلاع رسانی به کاربران در مورد تغییر آتی در سیاست حفظ حریم خصوصی خود کرد، تغییری که به گفته او این حق را به آن می دهد تا از محتوای عمومی در فیس بوک و اینستاگرام برای آموزش هوش مصنوعی خود از جمله محتوای نظرات، تعامل با شرکت ها، به روز رسانی وضعیت استفاده کند. ، عکس ها و زیرنویس های مرتبط با آنها. این شرکت استدلال کرد که باید این کار را انجام دهد تا «زبانها، جغرافیا و منابع فرهنگی مختلف مردم اروپا را منعکس کند».
قرار بود این تغییرات در 26 ژوئن 2024 - 12 روز دیگر - اعمال شود. اما این طرحها سازمان غیرانتفاعی فعال حریم خصوصی NOYB ("به شما مربوط نیست") را برانگیخت تا 11 شکایت را با کشورهای اتحادیه اروپا ارسال کند، با این استدلال که متا جنبههای مختلف GDPR را نقض میکند. یکی از این موارد مربوط به موضوع انتخاب در مقابل انصراف است، در مورد جایی که پردازش دادههای شخصی انجام میشود، ابتدا باید از کاربران اجازه گرفته شود تا اینکه برای امتناع اقدامی انجام شود.
متا، به نوبه خود، به یک ماده GDRP به نام "منافع مشروع" تکیه می کرد تا ادعا کند که اقداماتش با مقررات مطابقت دارد. این اولین باری نیست که متا از این مبنای قانونی در دفاع استفاده میکند، زیرا قبلاً این کار را برای توجیه پردازش کاربران اروپایی برای تبلیغات هدفمند انجام داده است.
همیشه به نظر میرسید که تنظیمکنندهها حداقل اجرای تغییرات برنامهریزیشده متا را متوقف کنند، بهویژه از آنجایی که شرکت چقدر کار را برای «انصراف» کاربران از استفاده از دادههایشان دشوار کرده بود. این شرکت بيان کرد که بیش از 2 میلیارد نوتیفیکیشن ارسال کرده است تا کاربران را از تغییرات آتی آگاه کند، اما برخلاف سایر پیامهای عمومی مهم که در بالای فیدهای کاربران قرار میگیرند، مانند پیامهایی برای خروج و رای دادن، این اعلانها در کنار کاربران ظاهر میشوند. اعلانهای استاندارد - تولد دوستان، هشدارهای برچسب عکس، اطلاعیههای گروهی و موارد دیگر. پس اگر کسی به طور منظم اعلانهای خود را تحلیل نمیکند، از دست دادن این موضوع بسیار آسان است.
و کسانی که این اعلان را مشاهده کردهاند بهطور خودکار نمیدانند که راهی برای اعتراض یا انصراف وجود دارد، زیرا به سادگی از کاربران دعوت میکند تا در مورد نحوه استفاده متا از اطلاعاتشان کلیک کنند. هیچ چیزی وجود نداشت که نشان دهد در اینجا یک انتخاب وجود دارد.

علاوه بر این، کاربران از نظر فنی قادر به "انصراف" از استفاده از داده های خود نبودند. در عوض، آنها باید یک فرم اعتراض را تکمیل میکردند که در آن استدلالهای خود را برای اینکه چرا نمیخواهند دادههایشان پردازش شود، ارائه میکردند - این کاملاً به صلاحدید متا بود که آیا این درخواست مورد توجه قرار میگیرد، اگرچه شرکت اعلام کرد که به هر یک از آنها احترام میگذارد. درخو است.

اگرچه فرم اعتراض از طریق خود اعلان پیوند داده شده بود، اما هر کسی که فعالانه به دنبال فرم اعتراض در تنظیمات حساب خود بود، کارش قطع شد.
در وب سایت فیس بوک، آنها باید ابتدا روی عکس نمایه خود در بالا سمت راست کلیک می کردند. تنظیمات و حریم خصوصی را بزنید. روی مرکز حریم خصوصی ضربه بزنید؛ به پایین بروید و روی بخش Generative AI at Meta کلیک کنید. دوباره به پایین اسکرول کنید و دسته ای از پیوندها را به بخشی با عنوان منابع بیشتر پشت سر بگذارید. اولین پیوند زیر این بخش «چگونه متا از اطلاعات برای مدلهای هوش مصنوعی تولیدی استفاده میکند» نام دارد و قبل از رسیدن به یک پیوند مجزا به فرم «حق اعتراض» شرکت باید حدود 1100 کلمه را بخوانند. این داستان مشابه در برنامه تلفن همراه فیس بوک نیز وجود داشت.

در اوایل این هفته، وقتی از او پرسیده شد که چرا این فرآیند کاربر را مجبور میکند به جای انتخاب کردن، اعتراض کند، مت پولارد، مدیر ارتباطات خطمشی متا، TechCrunch را به پست وبلاگ موجود خود اشاره کرد که او میگوید : «ما این مبنای قانونی ["منافع مشروع" را باور داریم. ] مناسب ترین تعادل برای پردازش داده های عمومی در مقیاس لازم برای آموزش مدل های هوش مصنوعی و در عین حال رعایت حقوق افراد است.
برای ترجمه این، ایجاد این انتخاب به احتمال زیاد "مقیاس" کافی را از نظر افرادی که مایل به ارائه داده های خود هستند ایجاد نمی کند. پس بهترین راه برای حل این مشکل، صدور یک اعلان انفرادی در میان سایر اعلانهای کاربران بود. برای کسانی که به طور مستقل به دنبال «انصراف» هستند، فرم اعتراض را پشت نیم دوجین کلیک پنهان کنید. و سپس آنها را مجبور کنید اعتراض خود را توجیه کنند، نه اینکه به آنها یک انصراف مستقیم بدهید.
استفانو فراتا، مدیر مشارکت جهانی متا برای سیاست حفظ حریم خصوصی، در یک پست وبلاگ به روز شده امروز بيان کرد که از درخواستی که از DPC دریافت کرده است، "ناامید" شده است.
فراتا نوشت: «این یک گام به عقب برای نوآوری اروپا، رقابت در توسعه هوش مصنوعی و تأخیر بیشتر در رساندن مزایای هوش مصنوعی به مردم اروپا است. ما بسیار مطمئن هستیم که رویکرد ما با قوانین و مقررات اروپایی مطابقت دارد. آموزش هوش مصنوعی منحصر به خدمات ما نیست و ما شفاف تر از بسیاری از همتایان صنعتی خود هستیم.
مسابقه تسلیحاتی هوش مصنوعی
البته هیچ یک از این موارد جدید نیست، و متا در یک مسابقه تسلیحاتی هوش مصنوعی است که مرکز توجه عظیمی را بر روی زرادخانه عظیم داده هایی که Big Tech در اختیار همه ما قرار داده است، درخشیده است.
در اوایل سال جاری، Reddit فاش کرد که برای صدور مجوز دادههای خود به شرکتهایی مانند OpenAI سازنده ChatGPT و Google، قراردادی برای کسب درآمد 200 میلیون دلاری در سالهای آینده دارد. و شرکت دومی از این شرکتها در حال حاضر با جریمههای هنگفتی برای تکیه بر محتوای خبری دارای حق چاپ برای آموزش مدلهای هوش مصنوعی خود مواجه است.
اما این تلاشها همچنین نشان میدهند که شرکتها برای اطمینان از اینکه میتوانند از این دادهها در چارچوب محدودیتهای قوانین موجود بهره ببرند، تا چه حد باید پیش بروند - «انتخاب کردن» به ندرت در دستور کار قرار میگیرد، و فرآیند انصراف اغلب بیهیچ سخت است. همین ماه گذشته، شخصی عبارات مشکوکی را در خط مشی حفظ حریم خصوصی Slack مشاهده کرد که نشان میداد میتواند از دادههای کاربر برای آموزش سیستمهای هوش مصنوعی خود استفاده کند، و کاربران تنها با ارسال ایمیل به شرکت میتوانند از آن انصراف دهند.
و سال گذشته، گوگل در نهایت راهی را به ناشران آنلاین داد تا وبسایتهایشان را از آموزش مدلهایش با استفاده از امکان تزریق کد به سایتهایشان حذف کنند. OpenAI، به نوبه خود، در حال ساخت یک ابزار اختصاصی است تا به سازندگان محتوا اجازه دهد از آموزش هوش مصنوعی مولد خود صرف نظر کنند - این ابزار باید تا سال 2025 آماده شود.
در حالی که تلاشهای متا برای آموزش هوش مصنوعی خود بر روی محتوای عمومی کاربران در اروپا فعلاً متوقف شده است، احتمالاً پس از مشورت با DPC و ICO مجدداً به شکل دیگری سر و کار خواهد داشت - امیدواریم با فرآیند مجوز کاربر متفاوتی در جریان باشد.
استفان آلموند، مدیر اجرایی ریسک نظارتی ICO، در این باره گفت: «به منظور استفاده حداکثری از هوش مصنوعی مولد و فرصتهایی که به ارمغان میآورد، بسیار مهم است که عموم مردم بتوانند اعتماد کنند که حقوق حریم خصوصی آنها از همان ابتدا رعایت میشود. بیانیه ای امروز ما به نظارت بر توسعه دهندگان اصلی هوش مصنوعی مولد، از جمله متا، ادامه خواهیم داد تا تدابیر امنیتی که آنها اعمال کرده اند را تحلیل کنیم و اطمینان حاصل کنیم که از حقوق اطلاعاتی کاربران بریتانیا محافظت می شود.
ارسال نظر