متن خبر

مبارزه پیک Uber Eats با تعصب هوش مصنوعی نشان می دهد که عدالت تحت قوانین بریتانیا به سختی به دست می آید

مبارزه پیک Uber Eats با تعصب هوش مصنوعی نشان می دهد که عدالت تحت قوانین بریتانیا به سختی به دست می آید

شناسهٔ خبر: 460733 -




روز سه‌شنبه، بی‌بی‌سی گزارش داد که پیک Uber Eats، Pa Edrissa Manjang، که سیاه‌پوست است، پس از بررسی‌های تشخیص چهره «تبعیض‌آمیز نژادی» که او را از دسترسی به برنامه‌ای که از نوامبر 2019 برای دریافت آن استفاده می‌کرده بود، از اوبر دریافت کرده است. مشاغل تحویل غذا در پلتفرم اوبر.

این اخبار سوالاتی را در مورد اینکه قانون انگلستان برای مقابله با افزایش استفاده از سیستم های هوش مصنوعی چقدر مناسب است، ایجاد می کند. به طور خاص، عدم شفافیت در مورد سیستم های خودکار به بازار آمد، با وعده افزایش ایمنی کاربر و/یا بهره وری خدمات، که ممکن است خطر آسیب های فردی را به دنبال داشته باشد، حتی اگر دستیابی به جبران خسارت برای کسانی که تحت تأثیر تعصب مبتنی بر هوش مصنوعی قرار گرفته اند. سال ها.

این شکایت به دنبال تعدادی از شکایت‌ها در مورد بررسی‌های ناموفق تشخیص چهره از زمانی که اوبر سیستم Real Time ID Check را در بریتانیا در آوریل 2020 اجرا کرد. در برابر عکسی از آنها که برای تأیید هویت آنها در پرونده نگهداری می شود.

تحلیل های شناسایی ناموفق

بر اساس شکایت Manjang، اوبر حساب کاربری او را به دنبال یک تحلیل ناموفق ID و متعاقب آن فرآیند خودکار مسدود کرد و ادعا کرد که "تداوم عدم تطابق" را در عکس‌هایی از چهره‌اش که به منظور دسترسی به پلتفرم گرفته بود، پیدا کرده است. Manjang در اکتبر 2021 با حمایت کمیسیون برابری و حقوق بشر (EHRC) و اتحادیه برنامه رانندگان و پیک‌ها (ADCU) شکایت‌های حقوقی علیه اوبر ارائه کرد.

سال‌ها دعوای حقوقی به دنبال داشت و اوبر نتوانست ادعای Manjang را لغو کند یا برای ادامه پرونده دستور ودیعه نداد. به نظر می‌رسد که این تاکتیک به حل این دعوا کمک کرده است، به طوری که EHRC پرونده را هنوز در «مراحل مقدماتی» در پاییز 2023 توصیف کرد و اشاره کرد که این پرونده «پیچیدگی یک ادعای مربوط به فناوری هوش مصنوعی» را نشان می‌دهد. جلسه نهایی برای 17 روز در نوامبر 2024 برنامه ریزی شده بود.

پس از اینکه اوبر پیشنهاد داد - و Manjang - پرداختی را برای تسویه حساب، به این معنی که جزئیات کامل‌تر از اینکه دقیقاً چه اشتباهی رخ داده است و چرا علنی نمی‌شود، این استماع اکنون برگزار نمی‌شود. شرایط تسویه مالی نیز فاش نشده است. اوبر در زمانی که ما پرسیدیم جزئیاتی ارائه نکرد و همچنین در مورد اینکه دقیقا چه مشکلی رخ داده است اظهار نظر ن کرد.

ما همچنین برای پاسخ به نتیجه پرونده با مایکروسافت تماس گرفتیم، اما این شرکت از اظهار نظر خودداری کرد.

علیرغم توافق با Manjang، اوبر علناً قبول نمی کند که سیستم ها یا فرآیندهای آن در اشتباه بوده اند. بیانیه آن در مورد تسویه حساب رد می‌کند که حساب‌های پیک را می‌توان تنها در نتیجه ارزیابی‌های هوش مصنوعی فسخ کرد، زیرا ادعا می‌کند که چک‌های تشخیص چهره با "بازبینی انسانی قوی" متوقف می‌شوند.

این شرکت در بیانیه‌ای گفت: «بررسی شناسه بی‌درنگ ما برای کمک به ایمن نگه‌داشتن همه افرادی که از برنامه ما استفاده می‌کنند طراحی شده است، و شامل بازبینی انسانی قوی است تا مطمئن شویم که در خلأ و بدون نظارت درباره معیشت کسی تصمیم نمی‌گیریم». . "تأیید خودکار چهره دلیلی برای از دست دادن موقت دسترسی آقای منجانگ به حساب پیک خود نبود."

با این حال، واضح است که مشکلی در تحلیل شناسه اوبر در مورد Manjang رخ داده است.

Worker Info Exchange (WIE)، یک سازمان مدافع حقوق دیجیتال کارگران پلتفرم که از شکایت منجانگ نیز پشتیبانی می‌کند، موفق شد تمام سلفی‌های او را از طریق درخواست دسترسی موضوع تحت قانون حفاظت از داده‌های بریتانیا به دست آورد و توانست نشان دهد که همه عکس‌ها او به تحلیل تشخیص چهره اش ارسال کرده بود در واقع عکس هایی از خودش بود.

پس از اخراج، پا پیغام‌های متعددی به اوبر ارسال کرد تا مشکل را برطرف کند، به‌ویژه از یک انسان درخواست کرد تا مطالب ارسالی‌اش را تحلیل کند. WIE در بحث در مورد پرونده خود در یک گزارش می گوید هر بار که به پا گفته می شد "ما نمی توانستیم تأیید کنیم که عکس های ارائه شده واقعاً از شما هستند و به دلیل تداوم عدم تطابق، ما تصمیم نهایی را برای پایان دادن به همکاری خود با شما گرفته ایم". گزارش گسترده‌تری که به «استثمار مبتنی بر داده در اقتصاد گیگ» نگاه می‌کند.

بر اساس جزئیات شکایت Manjang که علنی شده است، به نظر می رسد که هم تحلیل های تشخیص چهره Uber و هم سیستم بازبینی انسانی که به عنوان شبکه ایمنی ادعایی برای تصمیم گیری های خودکار راه اندازی کرده بود، در این مورد شکست خورده است.

قانون برابری به علاوه حفاظت از داده ها

این مورد این سوال را زیر سوال می‌برد که قوانین بریتانیا در مورد استفاده از هوش مصنوعی چقدر مناسب است.

Manjang بالاخره توانست از طریق یک فرآیند قانونی مبتنی بر قانون برابری - به ویژه، یک ادعای تبعیض بر اساس قانون برابری بریتانیا در سال 2006، که نژاد را به عنوان یک ویژگی محافظت شده فهرست می کند، از اوبر تسویه حساب بگیرد.

بارونس کیشور فالکنر، رئیس EHRC، از این واقعیت انتقاد کرد که پیک Uber Eats باید یک ادعای حقوقی ارائه کند "به منظور درک فرآیندهای مبهم که بر کار او تأثیر گذاشته است. "

هوش مصنوعی پیچیده است و چالش‌های منحصر به فردی را برای کارفرمایان، وکلا و قانون‌گذاران ایجاد می‌کند. درک این نکته مهم است که با افزایش استفاده از هوش مصنوعی، این فناوری می تواند منجر به تبعیض و نقض حقوق بشر شود. ما به ویژه نگران این هستیم که آقای Manjang متوجه نشده بود که حسابش در حال غیرفعال شدن است و هیچ مسیر روشن و مؤثری برای به چالش کشیدن فناوری ارائه نکرده است. کارهای بیشتری باید انجام شود تا اطمینان حاصل شود که کارفرمایان با نیروی کار خود در مورد زمان و نحوه استفاده از هوش مصنوعی شفاف و باز هستند."

قانون حفاظت از داده های بریتانیا، دیگر قانون مربوطه در اینجا است. روی کاغذ، باید محافظت قدرتمندی در برابر فرآیندهای غیرشفاف هوش مصنوعی ارائه دهد.

داده های سلفی مربوط به ادعای Manjang با استفاده از حقوق دسترسی به داده موجود در GDPR بریتانیا به دست آمده است. اگر او نمی توانست به چنین شواهد روشنی مبنی بر شکست تحلیل های شناسه اوبر دست یابد، ممکن بود شرکت اصلا تصمیم به تسویه حساب نمی گرفت. اثبات یک سیستم اختصاصی بدون اجازه دادن به افراد برای دسترسی به داده‌های شخصی مربوطه ناقص است، شانس بیشتری برای پلتفرم‌های دارای منابع غنی‌تر دارد.

شکاف های اجرایی

فراتر از حقوق دسترسی به داده‌ها، قدرت‌ها در GDPR بریتانیا قرار است تدابیر بیشتری را برای افراد فراهم کنند، از جمله در برابر تصمیمات خودکار با تأثیر قانونی یا مشابه. این قانون همچنین مبنای قانونی برای پردازش داده‌های شخصی را می‌طلبد و توسعه‌دهندگان سیستم را تشویق می‌کند تا با انجام ارزیابی تأثیر حفاظت از داده‌ها، در ارزیابی آسیب‌های احتمالی فعال باشند. این باید تحلیل های بیشتری را در برابر سیستم های مضر هوش مصنوعی مجبور کند.

با این حال، برای تأثیرگذاری این حفاظت‌ها - از جمله تأثیر بازدارنده در برابر گسترش هوش مصنوعی مغرضانه، به اجرا نیاز است.

در مورد بریتانیا، مجری مربوطه، دفتر کمیسر اطلاعات (ICO)، علیرغم شکایت‌هایی که در مورد بررسی‌های شناسایی نادرست از سال 2021 وجود داشت، وارد عمل نشد و شکایات علیه اوبر را تحلیل کرد.

جان بینز، متخصص ارشد حفاظت از داده ها در شرکت حقوقی Mishcon de Reya، پیشنهاد می کند که "عدم اجرای صحیح" توسط ICO، حمایت های قانونی از افراد را تضعیف کرده است.

او به TechCrunch می گوید: «ما نباید فرض کنیم که چارچوب های قانونی و نظارتی موجود قادر به مقابله با برخی از آسیب های احتمالی سیستم های هوش مصنوعی نیستند. "در این مثال، من را شگفت زده می کند ... که کمیسیونر اطلاعات مطمئناً صلاحیت رسیدگی به هر دو را در مورد فردی دارد، اما همچنین به طور گسترده تر، اینکه آیا پردازش انجام شده تحت GDPR بریتانیا قانونی بوده است یا خیر.

"چیزهایی مانند - آیا پردازش منصفانه است؟ آیا مبنای قانونی دارد؟ آیا شرط ماده 9 ( از آنجایی که دسته های خاصی از داده های شخصی در حال پردازش هستند) وجود دارد؟ اما همچنین، و مهمتر از همه، آیا قبل از اجرای برنامه راستی‌آزمایی، ارزیابی تأثیر حفاظت از داده‌های قوی وجود داشت؟»

او می افزاید: « پس ، بله، ICO باید کاملاً فعال تر باشد.

ما با ICO در مورد پرونده Manjang تماس گرفتیم و از آن خواستیم تا تأیید کند که آیا اوبر در حال تحلیل استفاده از هوش مصنوعی برای تحلیل شناسه با توجه به شکایات است یا خیر. سخنگوی سازمان دیده بان مستقیماً به سؤالات ما پاسخ نداد، اما بیانیه ای کلی ارسال کرد که در آن بر نیاز سازمان ها به "دانستن نحوه استفاده از فناوری بیومتریک به گونه ای که با حقوق مردم تداخل نداشته باشد" تاکید کرد.

در بیانیه این سازمان همچنین آمده است: «آخرین راهنمایی بیومتریک ما روشن است که سازمان‌ها باید خطرات ناشی از استفاده از داده‌های بیومتریک، مانند خطاهای شناسایی دقیق افراد و سوگیری در سیستم را کاهش دهند. آنها می توانند این نگرانی ها را به ICO گزارش کنند.

در همین حال، دولت در حال کاهش قانون حفاظت از داده ها از طریق لایحه اصلاح داده پس از برگزیت است.

علاوه بر این، دولت همچنین در اوایل سال جاری تایید کرد که در حال حاضر قانون اختصاصی ایمنی هوش مصنوعی را معرفی نخواهد کرد، علیرغم اینکه ریشی سوناک، نخست وزیر، ادعاهای چشمگیر در مورد ایمنی هوش مصنوعی اولویت دولت خود دارد.

در عوض، پیشنهادی را تأیید کرد - که در کاغذ سفید مارس 2023 در مورد هوش مصنوعی ارائه شد - که در آن قصد دارد به قوانین موجود و نهادهای نظارتی که فعالیت نظارتی را برای پوشش خطرات هوش مصنوعی که ممکن است در وصله آنها ایجاد می‌شود، تکیه کند. یکی از تغییراتی که در رویکردی که در فوریه اعلام کرد، مبلغ ناچیزی بودجه اضافی (10 میلیون پوند) برای تنظیم‌کننده‌ها بود که دولت پیشنهاد کرد می‌توان از آن برای تحقیق در مورد خطرات هوش مصنوعی و توسعه ابزارهایی برای کمک به تحلیل سیستم‌های هوش مصنوعی استفاده کرد.

هیچ جدول زمانی برای پرداخت این ظرف کوچک وجوه اضافی ارائه نشده است. در اینجا چندین تنظیم کننده در چارچوب هستند، پس اگر تقسیم یکسانی از پول نقد بین ارگان هایی مانند ICO، EHRC و آژانس تنظیم مقررات داروها و محصولات بهداشتی وجود داشته باشد، به نام تنها سه تن از 13 تنظیم کننده و بخش، وزیر امور خارجه بریتانیا نوشت. تا ماه گذشته که از آنها خواسته شد تا یک به روز رسانی در مورد "رویکرد استراتژیک خود به هوش مصنوعی" منتشر کنند، هر یک می توانند کمتر از یک میلیون پوند برای تکمیل بودجه برای مقابله با خطرات هوش مصنوعی در مقیاس سریع دریافت کنند.

صادقانه بگویم، اگر ایمنی هوش مصنوعی در واقع اولویت دولت باشد، به نظر می‌رسد سطح بسیار پایینی از منابع اضافی برای تنظیم‌کننده‌های در حال حاضر بیش از حد گسترده باشد. همچنین به این معنی است که همچنان که منتقدان رویکرد دولت پیش از این اشاره کرده‌اند، پول نقد یا نظارت فعالی برای آسیب‌های هوش مصنوعی وجود ندارد که در بین شکاف‌های قوانین موجود در بریتانیا قرار می‌گیرد.

یک قانون جدید ایمنی هوش مصنوعی ممکن است سیگنالی قوی‌تر از اولویت ارسال کند - مشابه چارچوب آسیب‌های هوش مصنوعی مبتنی بر ریسک اتحادیه اروپا که به سرعت در حال تصویب به عنوان قانون سخت توسط این اتحادیه است. اما همچنین باید اراده ای برای اجرای واقعی آن وجود داشته باشد. و این سیگنال باید از بالا بیاید.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است