متن خبر

زنان در هوش مصنوعی: آنیکا کولیر ناوارولی در تلاش است تا عدم تعادل قدرت را تغییر دهد

زنان در هوش مصنوعی: آنیکا کولیر ناوارولی در تلاش است تا عدم تعادل قدرت را تغییر دهد

شناسهٔ خبر: 594245 -




TechCrunch برای اینکه به زنان دانشگاهی و سایرین که با تمرکز بر هوش مصنوعی تمرکز دارند، زمان شایسته و دیررس آنها را در کانون توجه قرار دهد، مجموعه‌ای از مصاحبه‌ها را با تمرکز بر زنان برجسته‌ای که در انقلاب هوش مصنوعی مشارکت داشته‌اند، راه‌اندازی می‌کند.

آنیکا کولیر ناوارولی یکی از اعضای ارشد مرکز یدک‌کشی برای روزنامه‌نگاری دیجیتال در دانشگاه کلمبیا و همکار فناوری صدای عمومی در پروژه OpEd است که با همکاری بنیاد مک آرتور برگزار می‌شود.

او به خاطر کارهای تحقیقاتی و حمایتی خود در زمینه فناوری شناخته شده است. پیش از این، او به عنوان همکار نژاد و فناوری در مرکز بشردوستی و جامعه مدنی استنفورد کار می کرد. قبل از این، او Trust & Safety را در Twitch و Twitter رهبری می کرد. ناوارولی شاید بیشتر به خاطر شهادتش در کنگره درباره توییتر شناخته شود، جایی که او درباره هشدارهای نادیده گرفته شده درباره خشونت قریب الوقوع در رسانه های اجتماعی صحبت کرد که مقدمه حمله 6 ژانویه به کنگره بود.

به طور خلاصه، چگونه شروع به هوش مصنوعی کردید؟ چه چیزی شما را به این رشته جذب کرد؟

حدود 20 سال پیش، در تابستان که دیجیتال شد، در اتاق خبر روزنامه زادگاهم کار می کردم. در آن زمان من دانشجوی کارشناسی روزنامه نگاری بودم. سایت‌های رسانه‌های اجتماعی مانند فیس‌بوک محوطه دانشگاه من را فراگرفته بودند، و من در تلاش برای درک اینکه چگونه قوانینی که بر روی ماشین چاپ ساخته شده‌اند با فناوری‌های نوظهور تکامل می‌یابند وسواس پیدا کردم. این کنجکاوی مرا به سمت دانشکده حقوق سوق داد، جایی که به توییتر مهاجرت کردم، قوانین و سیاست رسانه را مطالعه کردم، و بهار عربی و جنبش‌های تسخیر وال استریت را تماشا کردم. من همه اینها را کنار هم گذاشتم و پایان نامه کارشناسی ارشدم را در مورد اینکه چگونه فناوری جدید نحوه جریان اطلاعات را تغییر می دهد و چگونه جامعه آزادی بیان را اعمال می کند، نوشتم.

من پس از فارغ التحصیلی در چند شرکت حقوقی کار کردم و سپس به مؤسسه تحقیقاتی داده و جامعه راه یافتم که تحقیقات اتاق فکر جدید را در مورد آنچه در آن زمان «داده های بزرگ»، حقوق مدنی و انصاف نامیده می شد، هدایت کرد. کار من در آنجا به این موضوع می‌پردازد که چگونه سیستم‌های اولیه هوش مصنوعی مانند نرم‌افزار تشخیص چهره، ابزارهای پلیسی پیش‌بینی‌کننده، و الگوریتم‌های ارزیابی ریسک عدالت کیفری، سوگیری را تکرار می‌کنند و پیامدهای ناخواسته‌ای را ایجاد می‌کنند که بر جوامع به حاشیه رانده شده تأثیر می‌گذارد. سپس در Color of Change کار کردم و اولین ممیزی حقوق مدنی یک شرکت فناوری را رهبری کردم، کتاب بازی سازمان را برای کمپین‌های مسئولیت‌پذیری فناوری توسعه دادم و از تغییرات سیاست‌های فناوری در دولت‌ها و تنظیم‌کننده‌ها حمایت کردم. از آنجا، من یک مقام ارشد سیاست گذاری در تیم های Trust & Safety در توییتر و توییچ شدم.

در زمینه هوش مصنوعی به چه کاری بیشتر افتخار می کنید؟

من بیش از همه به کار خود در شرکت های فناوری با استفاده از سیاست برای تغییر عملی توازن قدرت و اصلاح تعصب در فرهنگ و سیستم های الگوریتمی تولید کننده دانش افتخار می کنم. در توییتر، من چند کمپین راه اندازی کردم تا افرادی را که به طرز شگفت انگیزی قبلاً از فرآیند تأیید انحصاری حذف شده بودند، تأیید کنم، از جمله زنان سیاه پوست، رنگین پوستان و افراد عجیب و غریب. این همچنین شامل دانشمندان برجسته هوش مصنوعی مانند Safiya Noble، Alondra Nelson، Timnit Gebru و Meredith Broussard می‌شود. این در سال 2020 بود، زمانی که توییتر هنوز توییتر بود. در آن زمان، تأیید به این معنی بود که نام و محتوای شما بخشی از الگوریتم اصلی توییتر شد، زیرا توییت‌هایی از حساب‌های تأیید شده به توصیه‌ها، نتایج جستجو، جدول‌های زمانی خانگی تزریق می‌شدند و به ایجاد روندها کمک می‌کردند. پس کار برای تأیید افراد جدید با دیدگاه‌های مختلف در مورد هوش مصنوعی اساساً تغییر کرد که به صدای آنها به عنوان رهبران فکری اقتدار داده شد و ایده‌های جدید در برخی لحظات واقعاً بحرانی وارد گفتگوی عمومی شد.

من همچنین به تحقیقاتی که در استنفورد انجام دادم و با عنوان سیاه در اعتدال گرد هم آمدم بسیار مفتخرم. زمانی که در داخل شرکت‌های فناوری کار می‌کردم، متوجه شدم که هیچ‌کس واقعاً در مورد تجربیاتی که من هر روز به عنوان یک سیاه‌پوست کار در Trust & Safety داشتم، نمی‌نویسد یا درباره آن صحبت نمی‌کند. پس زمانی که صنعت را ترک کردم و به دانشگاه بازگشتم، تصمیم گرفتم با کارکنان فناوری سیاه پوست صحبت کنم و داستان های آنها را فاش کنم. این تحقیق در نهایت اولین تحقیق در نوع خود بود و باعث ایجاد گفتگوهای جدید و مهم زیادی در مورد تجربیات کارمندان فناوری با هویت های حاشیه ای شده است.

چگونه چالش‌های صنعت فناوری مردانه و در نتیجه صنعت هوش مصنوعی مردانه را کنترل می‌کنید؟

به‌عنوان یک زن دگرباش سیاه‌پوست، گشت و گذار در فضاها و فضاهایی که تحت سلطه مردان قرار دارند، بخشی از کل سفر زندگی من بوده است. در حوزه فناوری و هوش مصنوعی، فکر می‌کنم چالش‌برانگیزترین جنبه آن چیزی است که من در تحقیقاتم «کار هویت اجباری» می‌نامم. من این اصطلاح را برای توصیف موقعیت‌های مکرر ابداع کردم که در آن با کارمندان با هویت‌های حاشیه‌ای به‌عنوان صداها و/یا نمایندگان کل جوامعی که هویت خود را به اشتراک می‌گذارند، برخورد می‌شود.

به دلیل خطرات زیادی که با توسعه فناوری جدید مانند هوش مصنوعی همراه است، گاهی اوقات فرار از آن نیروی کار تقریبا غیرممکن است. من باید یاد می گرفتم که مرزهای بسیار مشخصی برای خودم در مورد مسائلی که مایل به درگیر شدن با آنها و چه زمانی هستم تعیین کنم.  

برخی از اصلی ترین مسائلی که هوش مصنوعی در حال تکامل با آن مواجه است چیست؟

بر اساس گزارش‌های تحقیقاتی، مدل‌های هوش مصنوعی مولد کنونی تمام داده‌های موجود در اینترنت را جمع‌آوری کرده‌اند و به زودی داده‌های موجود برای بلعیدن تمام خواهند شد. پس ، بزرگ‌ترین شرکت‌های هوش مصنوعی در جهان برای ادامه آموزش سیستم‌های خود به داده‌های مصنوعی یا اطلاعات تولید شده توسط خود هوش مصنوعی و نه انسان‌ها روی می‌آورند.

این ایده مرا از سوراخ خرگوش پایین آورد. پس ، اخیراً یک Op-Ed نوشتم که در آن استدلال می‌کردم که فکر می‌کنم این استفاده از داده‌های مصنوعی به‌عنوان داده‌های آموزشی یکی از اصلی ترین مسائل اخلاقی پیش روی توسعه هوش مصنوعی جدید است. سیستم‌های هوش مصنوعی مولد قبلاً نشان داده‌اند که بر اساس داده‌های آموزشی اصلی‌شان، خروجی آن‌ها تکرار سوگیری و ایجاد اطلاعات نادرست است. پس مسیر آموزش سیستم‌های جدید با داده‌های مصنوعی به معنای بازگرداندن مداوم خروجی‌های مغرضانه و نادرست به سیستم به عنوان داده‌های آموزشی جدید است. من این را به عنوان یک حلقه بازخورد به جهنم توصیف کردم.

از زمانی که من این قطعه را نوشتم، مارک زاکربرگ تمجید کرد که چت ربات به روز شده متا Llama 3 تا حدی از داده های مصنوعی پشتیبانی می کند و "هوشمندترین" محصول هوش مصنوعی مولد در بازار است.

برخی از مسائلی که کاربران هوش مصنوعی باید از آن آگاه باشند چیست؟

هوش مصنوعی بخش همه‌جانبه‌ای از زندگی کنونی ما است، از تحلیل املا و فیدهای رسانه‌های اجتماعی گرفته تا چت‌بات‌ها و تولیدکننده‌های تصویر. از بسیاری جهات، جامعه به خوکچه هندی برای آزمایشات این فناوری جدید و آزمایش نشده تبدیل شده است. اما کاربران هوش مصنوعی نباید احساس ناتوانی کنند.

من این بحث را داشته ام که طرفداران فناوری باید گرد هم آیند و کاربران هوش مصنوعی را سازماندهی کنند تا درخواست توقف مردم در هوش مصنوعی را بدهند. من فکر می کنم که انجمن نویسندگان آمریکا نشان داده است که با سازماندهی، اقدام جمعی و عزم صبورانه، مردم می توانند گرد هم آیند تا مرزهای معناداری برای استفاده از فناوری های هوش مصنوعی ایجاد کنند. من همچنین معتقدم که اگر اکنون مکث کنیم تا اشتباهات گذشته را اصلاح کنیم و دستورالعمل‌ها و مقررات اخلاقی جدیدی ایجاد کنیم، هوش مصنوعی نباید به یک تهدید وجودی برای آینده ما تبدیل شود.

بهترین راه برای ساختن مسئولانه هوش مصنوعی چیست ؟

تجربه من از کار در شرکت های فناوری به من نشان داد که چه کسی در اتاق برای نوشتن خط مشی، ارائه استدلال و تصمیم گیری اهمیت دارد. مسیر من همچنین به من نشان داد که مهارت های لازم برای موفقیت در صنعت فناوری را با شروع در مدرسه روزنامه نگاری توسعه دادم. من اکنون به کار در دانشکده روزنامه نگاری کلمبیا بازگشته ام و علاقه مندم که نسل بعدی افرادی را آموزش دهم که کار مسئولیت پذیری فناوری و توسعه مسئولانه هوش مصنوعی را در داخل شرکت های فناوری و به عنوان ناظران خارجی انجام دهند.

فکر می‌کنم مدرسه [ژورنالیزم] چنین آموزش‌های منحصربه‌فردی را در بازجویی اطلاعات، جستجوی حقیقت، در نظر گرفتن دیدگاه‌های متعدد، ایجاد استدلال‌های منطقی، و استخراج حقایق و واقعیت از نظرات و اطلاعات غلط به مردم می‌دهد. من معتقدم که این یک پایه محکم برای افرادی است که مسئول نوشتن قوانین مربوط به کارهایی که تکرارهای بعدی هوش مصنوعی می توانند و نمی توانند انجام دهند، است. و من مشتاقانه منتظر ایجاد یک مسیر هموارتر برای کسانی هستم که در آینده خواهند آمد.

من همچنین معتقدم که علاوه بر کارگران ماهر Trust & Safety، صنعت هوش مصنوعی به مقررات خارجی نیاز دارد. در ایالات متحده، من استدلال می کنم که این باید در قالب یک آژانس جدید برای تنظیم شرکت های فناوری آمریکایی با قدرت ایجاد و اجرای استانداردهای ایمنی و حریم خصوصی پایه باشد. من همچنین می‌خواهم به کار ادامه دهم تا تنظیم‌کننده‌های فعلی و آینده را با کارگران فناوری سابق مرتبط کنم که می‌توانند به صاحبان قدرت کمک کنند سؤالات درست را بپرسند و راه‌حل‌های ظریف و کاربردی جدید ایجاد کنند.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است