مبارزه پیک Uber Eats با تعصب هوش مصنوعی نشان می دهد که عدالت تحت قوانین بریتانیا به سختی به دست می آید
روز سهشنبه، بیبیسی گزارش داد که پیک Uber Eats، Pa Edrissa Manjang، که سیاهپوست است، پس از بررسیهای تشخیص چهره «تبعیضآمیز نژادی» که او را از دسترسی به برنامهای که از نوامبر 2019 برای دریافت آن استفاده میکرده بود، از اوبر دریافت کرده است. مشاغل تحویل غذا در پلتفرم اوبر.
این اخبار سوالاتی را در مورد اینکه قانون انگلستان برای مقابله با افزایش استفاده از سیستم های هوش مصنوعی چقدر مناسب است، ایجاد می کند. به طور خاص، عدم شفافیت در مورد سیستم های خودکار به بازار آمد، با وعده افزایش ایمنی کاربر و/یا بهره وری خدمات، که ممکن است خطر آسیب های فردی را به دنبال داشته باشد، حتی اگر دستیابی به جبران خسارت برای کسانی که تحت تأثیر تعصب مبتنی بر هوش مصنوعی قرار گرفته اند. سال ها.
این شکایت به دنبال تعدادی از شکایتها در مورد بررسیهای ناموفق تشخیص چهره از زمانی که اوبر سیستم Real Time ID Check را در بریتانیا در آوریل 2020 اجرا کرد. در برابر عکسی از آنها که برای تأیید هویت آنها در پرونده نگهداری می شود.
تحلیل های شناسایی ناموفق
بر اساس شکایت Manjang، اوبر حساب کاربری او را به دنبال یک تحلیل ناموفق ID و متعاقب آن فرآیند خودکار مسدود کرد و ادعا کرد که "تداوم عدم تطابق" را در عکسهایی از چهرهاش که به منظور دسترسی به پلتفرم گرفته بود، پیدا کرده است. Manjang در اکتبر 2021 با حمایت کمیسیون برابری و حقوق بشر (EHRC) و اتحادیه برنامه رانندگان و پیکها (ADCU) شکایتهای حقوقی علیه اوبر ارائه کرد.
سالها دعوای حقوقی به دنبال داشت و اوبر نتوانست ادعای Manjang را لغو کند یا برای ادامه پرونده دستور ودیعه نداد. به نظر میرسد که این تاکتیک به حل این دعوا کمک کرده است، به طوری که EHRC پرونده را هنوز در «مراحل مقدماتی» در پاییز 2023 توصیف کرد و اشاره کرد که این پرونده «پیچیدگی یک ادعای مربوط به فناوری هوش مصنوعی» را نشان میدهد. جلسه نهایی برای 17 روز در نوامبر 2024 برنامه ریزی شده بود.
پس از اینکه اوبر پیشنهاد داد - و Manjang - پرداختی را برای تسویه حساب، به این معنی که جزئیات کاملتر از اینکه دقیقاً چه اشتباهی رخ داده است و چرا علنی نمیشود، این استماع اکنون برگزار نمیشود. شرایط تسویه مالی نیز فاش نشده است. اوبر در زمانی که ما پرسیدیم جزئیاتی ارائه نکرد و همچنین در مورد اینکه دقیقا چه مشکلی رخ داده است اظهار نظر ن کرد.
ما همچنین برای پاسخ به نتیجه پرونده با مایکروسافت تماس گرفتیم، اما این شرکت از اظهار نظر خودداری کرد.
علیرغم توافق با Manjang، اوبر علناً قبول نمی کند که سیستم ها یا فرآیندهای آن در اشتباه بوده اند. بیانیه آن در مورد تسویه حساب رد میکند که حسابهای پیک را میتوان تنها در نتیجه ارزیابیهای هوش مصنوعی فسخ کرد، زیرا ادعا میکند که چکهای تشخیص چهره با "بازبینی انسانی قوی" متوقف میشوند.
این شرکت در بیانیهای گفت: «بررسی شناسه بیدرنگ ما برای کمک به ایمن نگهداشتن همه افرادی که از برنامه ما استفاده میکنند طراحی شده است، و شامل بازبینی انسانی قوی است تا مطمئن شویم که در خلأ و بدون نظارت درباره معیشت کسی تصمیم نمیگیریم». . "تأیید خودکار چهره دلیلی برای از دست دادن موقت دسترسی آقای منجانگ به حساب پیک خود نبود."
با این حال، واضح است که مشکلی در تحلیل شناسه اوبر در مورد Manjang رخ داده است.
Worker Info Exchange (WIE)، یک سازمان مدافع حقوق دیجیتال کارگران پلتفرم که از شکایت منجانگ نیز پشتیبانی میکند، موفق شد تمام سلفیهای او را از طریق درخواست دسترسی موضوع تحت قانون حفاظت از دادههای بریتانیا به دست آورد و توانست نشان دهد که همه عکسها او به تحلیل تشخیص چهره اش ارسال کرده بود در واقع عکس هایی از خودش بود.
بیشتر بخوانید
پس از اخراج، پا پیغامهای متعددی به اوبر ارسال کرد تا مشکل را برطرف کند، بهویژه از یک انسان درخواست کرد تا مطالب ارسالیاش را تحلیل کند. WIE در بحث در مورد پرونده خود در یک گزارش می گوید هر بار که به پا گفته می شد "ما نمی توانستیم تأیید کنیم که عکس های ارائه شده واقعاً از شما هستند و به دلیل تداوم عدم تطابق، ما تصمیم نهایی را برای پایان دادن به همکاری خود با شما گرفته ایم". گزارش گستردهتری که به «استثمار مبتنی بر داده در اقتصاد گیگ» نگاه میکند.
بر اساس جزئیات شکایت Manjang که علنی شده است، به نظر می رسد که هم تحلیل های تشخیص چهره Uber و هم سیستم بازبینی انسانی که به عنوان شبکه ایمنی ادعایی برای تصمیم گیری های خودکار راه اندازی کرده بود، در این مورد شکست خورده است.
قانون برابری به علاوه حفاظت از داده ها
این مورد این سوال را زیر سوال میبرد که قوانین بریتانیا در مورد استفاده از هوش مصنوعی چقدر مناسب است.
Manjang بالاخره توانست از طریق یک فرآیند قانونی مبتنی بر قانون برابری - به ویژه، یک ادعای تبعیض بر اساس قانون برابری بریتانیا در سال 2006، که نژاد را به عنوان یک ویژگی محافظت شده فهرست می کند، از اوبر تسویه حساب بگیرد.
بارونس کیشور فالکنر، رئیس EHRC، از این واقعیت انتقاد کرد که پیک Uber Eats باید یک ادعای حقوقی ارائه کند "به منظور درک فرآیندهای مبهم که بر کار او تأثیر گذاشته است. "
هوش مصنوعی پیچیده است و چالشهای منحصر به فردی را برای کارفرمایان، وکلا و قانونگذاران ایجاد میکند. درک این نکته مهم است که با افزایش استفاده از هوش مصنوعی، این فناوری می تواند منجر به تبعیض و نقض حقوق بشر شود. ما به ویژه نگران این هستیم که آقای Manjang متوجه نشده بود که حسابش در حال غیرفعال شدن است و هیچ مسیر روشن و مؤثری برای به چالش کشیدن فناوری ارائه نکرده است. کارهای بیشتری باید انجام شود تا اطمینان حاصل شود که کارفرمایان با نیروی کار خود در مورد زمان و نحوه استفاده از هوش مصنوعی شفاف و باز هستند."
قانون حفاظت از داده های بریتانیا، دیگر قانون مربوطه در اینجا است. روی کاغذ، باید محافظت قدرتمندی در برابر فرآیندهای غیرشفاف هوش مصنوعی ارائه دهد.
داده های سلفی مربوط به ادعای Manjang با استفاده از حقوق دسترسی به داده موجود در GDPR بریتانیا به دست آمده است. اگر او نمی توانست به چنین شواهد روشنی مبنی بر شکست تحلیل های شناسه اوبر دست یابد، ممکن بود شرکت اصلا تصمیم به تسویه حساب نمی گرفت. اثبات یک سیستم اختصاصی بدون اجازه دادن به افراد برای دسترسی به دادههای شخصی مربوطه ناقص است، شانس بیشتری برای پلتفرمهای دارای منابع غنیتر دارد.
شکاف های اجرایی
فراتر از حقوق دسترسی به دادهها، قدرتها در GDPR بریتانیا قرار است تدابیر بیشتری را برای افراد فراهم کنند، از جمله در برابر تصمیمات خودکار با تأثیر قانونی یا مشابه. این قانون همچنین مبنای قانونی برای پردازش دادههای شخصی را میطلبد و توسعهدهندگان سیستم را تشویق میکند تا با انجام ارزیابی تأثیر حفاظت از دادهها، در ارزیابی آسیبهای احتمالی فعال باشند. این باید تحلیل های بیشتری را در برابر سیستم های مضر هوش مصنوعی مجبور کند.
با این حال، برای تأثیرگذاری این حفاظتها - از جمله تأثیر بازدارنده در برابر گسترش هوش مصنوعی مغرضانه، به اجرا نیاز است.
در مورد بریتانیا، مجری مربوطه، دفتر کمیسر اطلاعات (ICO)، علیرغم شکایتهایی که در مورد بررسیهای شناسایی نادرست از سال 2021 وجود داشت، وارد عمل نشد و شکایات علیه اوبر را تحلیل کرد.
جان بینز، متخصص ارشد حفاظت از داده ها در شرکت حقوقی Mishcon de Reya، پیشنهاد می کند که "عدم اجرای صحیح" توسط ICO، حمایت های قانونی از افراد را تضعیف کرده است.
او به TechCrunch می گوید: «ما نباید فرض کنیم که چارچوب های قانونی و نظارتی موجود قادر به مقابله با برخی از آسیب های احتمالی سیستم های هوش مصنوعی نیستند. "در این مثال، من را شگفت زده می کند ... که کمیسیونر اطلاعات مطمئناً صلاحیت رسیدگی به هر دو را در مورد فردی دارد، اما همچنین به طور گسترده تر، اینکه آیا پردازش انجام شده تحت GDPR بریتانیا قانونی بوده است یا خیر.
"چیزهایی مانند - آیا پردازش منصفانه است؟ آیا مبنای قانونی دارد؟ آیا شرط ماده 9 ( از آنجایی که دسته های خاصی از داده های شخصی در حال پردازش هستند) وجود دارد؟ اما همچنین، و مهمتر از همه، آیا قبل از اجرای برنامه راستیآزمایی، ارزیابی تأثیر حفاظت از دادههای قوی وجود داشت؟»
او می افزاید: « پس ، بله، ICO باید کاملاً فعال تر باشد.
ما با ICO در مورد پرونده Manjang تماس گرفتیم و از آن خواستیم تا تأیید کند که آیا اوبر در حال تحلیل استفاده از هوش مصنوعی برای تحلیل شناسه با توجه به شکایات است یا خیر. سخنگوی سازمان دیده بان مستقیماً به سؤالات ما پاسخ نداد، اما بیانیه ای کلی ارسال کرد که در آن بر نیاز سازمان ها به "دانستن نحوه استفاده از فناوری بیومتریک به گونه ای که با حقوق مردم تداخل نداشته باشد" تاکید کرد.
در بیانیه این سازمان همچنین آمده است: «آخرین راهنمایی بیومتریک ما روشن است که سازمانها باید خطرات ناشی از استفاده از دادههای بیومتریک، مانند خطاهای شناسایی دقیق افراد و سوگیری در سیستم را کاهش دهند. آنها می توانند این نگرانی ها را به ICO گزارش کنند.
در همین حال، دولت در حال کاهش قانون حفاظت از داده ها از طریق لایحه اصلاح داده پس از برگزیت است.
علاوه بر این، دولت همچنین در اوایل سال جاری تایید کرد که در حال حاضر قانون اختصاصی ایمنی هوش مصنوعی را معرفی نخواهد کرد، علیرغم اینکه ریشی سوناک، نخست وزیر، ادعاهای چشمگیر در مورد ایمنی هوش مصنوعی اولویت دولت خود دارد.
در عوض، پیشنهادی را تأیید کرد - که در کاغذ سفید مارس 2023 در مورد هوش مصنوعی ارائه شد - که در آن قصد دارد به قوانین موجود و نهادهای نظارتی که فعالیت نظارتی را برای پوشش خطرات هوش مصنوعی که ممکن است در وصله آنها ایجاد میشود، تکیه کند. یکی از تغییراتی که در رویکردی که در فوریه اعلام کرد، مبلغ ناچیزی بودجه اضافی (10 میلیون پوند) برای تنظیمکنندهها بود که دولت پیشنهاد کرد میتوان از آن برای تحقیق در مورد خطرات هوش مصنوعی و توسعه ابزارهایی برای کمک به تحلیل سیستمهای هوش مصنوعی استفاده کرد.
هیچ جدول زمانی برای پرداخت این ظرف کوچک وجوه اضافی ارائه نشده است. در اینجا چندین تنظیم کننده در چارچوب هستند، پس اگر تقسیم یکسانی از پول نقد بین ارگان هایی مانند ICO، EHRC و آژانس تنظیم مقررات داروها و محصولات بهداشتی وجود داشته باشد، به نام تنها سه تن از 13 تنظیم کننده و بخش، وزیر امور خارجه بریتانیا نوشت. تا ماه گذشته که از آنها خواسته شد تا یک به روز رسانی در مورد "رویکرد استراتژیک خود به هوش مصنوعی" منتشر کنند، هر یک می توانند کمتر از یک میلیون پوند برای تکمیل بودجه برای مقابله با خطرات هوش مصنوعی در مقیاس سریع دریافت کنند.
صادقانه بگویم، اگر ایمنی هوش مصنوعی در واقع اولویت دولت باشد، به نظر میرسد سطح بسیار پایینی از منابع اضافی برای تنظیمکنندههای در حال حاضر بیش از حد گسترده باشد. همچنین به این معنی است که همچنان که منتقدان رویکرد دولت پیش از این اشاره کردهاند، پول نقد یا نظارت فعالی برای آسیبهای هوش مصنوعی وجود ندارد که در بین شکافهای قوانین موجود در بریتانیا قرار میگیرد.
یک قانون جدید ایمنی هوش مصنوعی ممکن است سیگنالی قویتر از اولویت ارسال کند - مشابه چارچوب آسیبهای هوش مصنوعی مبتنی بر ریسک اتحادیه اروپا که به سرعت در حال تصویب به عنوان قانون سخت توسط این اتحادیه است. اما همچنین باید اراده ای برای اجرای واقعی آن وجود داشته باشد. و این سیگنال باید از بالا بیاید.
ارسال نظر