مایکروسافت ادارات پلیس ایالات متحده را از استفاده از ابزار هوش مصنوعی سازمانی برای تشخیص چهره منع می کند
مایکروسافت سیاست خود را تغییر داده است تا دپارتمانهای پلیس ایالات متحده را از استفاده از هوش مصنوعی مولد برای تشخیص چهره از طریق سرویس Azure OpenAI، بستهبندی کاملاً مدیریت شده و متمرکز شرکت در اطراف فناوریهای OpenAI، تغییر داده است.
زبانی که چهارشنبه به شرایط خدمات سرویس Azure OpenAI اضافه شد، استفاده از ادغام با سرویس OpenAI Azure را از استفاده «توسط یا برای» ادارات پلیس برای تشخیص چهره در ایالات متحده منع میکند، از جمله ادغام با مدلهای تحلیل متن و گفتار OpenAI.
یک نقطه جدید جداگانه «هر مجری قانون در سطح جهانی» را پوشش میدهد و به صراحت استفاده از «فناوری تشخیص چهره در زمان واقعی» را در دوربینهای تلفن همراه، مانند دوربینهای بدنه و دوربینهای داشبورد، برای شناسایی افراد در «کنترلنشده، در داخل» ممنوع میکند. محیطهای وحشی
این تغییرات در شرایط یک هفته پس از آن اتفاق میافتد که Axon، سازنده محصولات فناوری و تسلیحاتی برای نیروهای نظامی و مجری قانون، محصول جدیدی را معرفی کرد که از مدل متنی GPT-4 OpenAI برای خلاصهسازی صدا از دوربینهای بدن استفاده میکند. منتقدان به سرعت به مشکلات احتمالی، مانند توهمات (حتی بهترین مدلهای هوش مصنوعی مولد امروزی حقایق را اختراع میکنند) و تعصبات نژادی که از دادههای آموزشی معرفی شدهاند (که بهویژه از آنجایی که افراد رنگینپوست به احتمال زیاد توسط پلیس متوقف میشوند نگرانکننده است، اشاره کردند. نسبت به همتایان سفیدپوست خود).
مشخص نیست که آیا Axon از GPT-4 از طریق سرویس Azure OpenAI استفاده می کرده است یا خیر، و اگر چنین است، آیا سیاست به روز شده در پاسخ به عرضه محصول Axon بوده است یا خیر. OpenAI قبلاً استفاده از مدل های خود را برای تشخیص چهره از طریق API های خود محدود کرده بود. ما با Axon، Microsoft و OpenAI تماس گرفتهایم و در صورت شنیدن پاسخ، این پست را بهروزرسانی خواهیم کرد.
شرایط جدید فضایی برای مایکروسافت ایجاد می کند.
ممنوعیت کامل استفاده از سرویس OpenAI Azure فقط مربوط به پلیس ایالات متحده است و نه بین المللی. و تشخیص چهره انجام شده با دوربین های ثابت در محیط های کنترل شده ، مانند دفتر پشتی را پوشش نمی دهد (اگرچه شرایط استفاده از تشخیص چهره توسط پلیس ایالات متحده را ممنوع می کند).
این رویکرد اخیر مایکروسافت و شریک نزدیک OpenAI به قراردادهای اجرای قانون و دفاعی مرتبط با هوش مصنوعی را دنبال می کند.
در ماه ژانویه، گزارش بلومبرگ فاش کرد که OpenAI با پنتاگون روی تعدادی از پروژهها از جمله قابلیتهای امنیت سایبری کار میکند – که انحراف از ممنوعیت قبلی این استارتآپ برای ارائه هوش مصنوعی به ارتش است. در جاهای دیگر، مایکروسافت با استفاده از ابزار تولید تصویر OpenAI، DALL-E، برای کمک به وزارت دفاع (DoD) در ساخت نرمافزاری برای اجرای عملیات نظامی، طبق The Intercept، استفاده کرده است.
سرویس Azure OpenAI در محصول Azure Government مایکروسافت در ماه فوریه در دسترس قرار گرفت و آپشن های انطباق و مدیریت بیشتری را برای سازمانهای دولتی از جمله مجری قانون اضافه کرد. در یک پست وبلاگ، Candice Ling، معاون بخش دولتی مایکروسافت فدرال مایکروسافت، متعهد شد که سرویس OpenAI Azure "برای مجوزهای اضافی" به وزارت دفاع برای بارهای کاری که از ماموریت های وزارت دفاع پشتیبانی می کند، ارائه می شود.
به روز رسانی: پس از انتشار، مایکروسافت بيان کرد که تغییر اصلی آن در شرایط خدمات حاوی یک خطا است و در واقع این ممنوعیت فقط برای تشخیص چهره در ایالات متحده اعمال می شود.
ارسال نظر