زنان در هوش مصنوعی: آنیکا کولیر ناوارولی در تلاش است تا عدم تعادل قدرت را تغییر دهد
TechCrunch برای اینکه به زنان دانشگاهی و سایرین که با تمرکز بر هوش مصنوعی تمرکز دارند، زمان شایسته و دیررس آنها را در کانون توجه قرار دهد، مجموعهای از مصاحبهها را با تمرکز بر زنان برجستهای که در انقلاب هوش مصنوعی مشارکت داشتهاند، راهاندازی میکند.
آنیکا کولیر ناوارولی یکی از اعضای ارشد مرکز یدککشی برای روزنامهنگاری دیجیتال در دانشگاه کلمبیا و همکار فناوری صدای عمومی در پروژه OpEd است که با همکاری بنیاد مک آرتور برگزار میشود.
او به خاطر کارهای تحقیقاتی و حمایتی خود در زمینه فناوری شناخته شده است. پیش از این، او به عنوان همکار نژاد و فناوری در مرکز بشردوستی و جامعه مدنی استنفورد کار می کرد. قبل از این، او Trust & Safety را در Twitch و Twitter رهبری می کرد. ناوارولی شاید بیشتر به خاطر شهادتش در کنگره درباره توییتر شناخته شود، جایی که او درباره هشدارهای نادیده گرفته شده درباره خشونت قریب الوقوع در رسانه های اجتماعی صحبت کرد که مقدمه حمله 6 ژانویه به کنگره بود.
به طور خلاصه، چگونه شروع به هوش مصنوعی کردید؟ چه چیزی شما را به این رشته جذب کرد؟
حدود 20 سال پیش، در تابستان که دیجیتال شد، در اتاق خبر روزنامه زادگاهم کار می کردم. در آن زمان من دانشجوی کارشناسی روزنامه نگاری بودم. سایتهای رسانههای اجتماعی مانند فیسبوک محوطه دانشگاه من را فراگرفته بودند، و من در تلاش برای درک اینکه چگونه قوانینی که بر روی ماشین چاپ ساخته شدهاند با فناوریهای نوظهور تکامل مییابند وسواس پیدا کردم. این کنجکاوی مرا به سمت دانشکده حقوق سوق داد، جایی که به توییتر مهاجرت کردم، قوانین و سیاست رسانه را مطالعه کردم، و بهار عربی و جنبشهای تسخیر وال استریت را تماشا کردم. من همه اینها را کنار هم گذاشتم و پایان نامه کارشناسی ارشدم را در مورد اینکه چگونه فناوری جدید نحوه جریان اطلاعات را تغییر می دهد و چگونه جامعه آزادی بیان را اعمال می کند، نوشتم.
من پس از فارغ التحصیلی در چند شرکت حقوقی کار کردم و سپس به مؤسسه تحقیقاتی داده و جامعه راه یافتم که تحقیقات اتاق فکر جدید را در مورد آنچه در آن زمان «داده های بزرگ»، حقوق مدنی و انصاف نامیده می شد، هدایت کرد. کار من در آنجا به این موضوع میپردازد که چگونه سیستمهای اولیه هوش مصنوعی مانند نرمافزار تشخیص چهره، ابزارهای پلیسی پیشبینیکننده، و الگوریتمهای ارزیابی ریسک عدالت کیفری، سوگیری را تکرار میکنند و پیامدهای ناخواستهای را ایجاد میکنند که بر جوامع به حاشیه رانده شده تأثیر میگذارد. سپس در Color of Change کار کردم و اولین ممیزی حقوق مدنی یک شرکت فناوری را رهبری کردم، کتاب بازی سازمان را برای کمپینهای مسئولیتپذیری فناوری توسعه دادم و از تغییرات سیاستهای فناوری در دولتها و تنظیمکنندهها حمایت کردم. از آنجا، من یک مقام ارشد سیاست گذاری در تیم های Trust & Safety در توییتر و توییچ شدم.
در زمینه هوش مصنوعی به چه کاری بیشتر افتخار می کنید؟
من بیش از همه به کار خود در شرکت های فناوری با استفاده از سیاست برای تغییر عملی توازن قدرت و اصلاح تعصب در فرهنگ و سیستم های الگوریتمی تولید کننده دانش افتخار می کنم. در توییتر، من چند کمپین راه اندازی کردم تا افرادی را که به طرز شگفت انگیزی قبلاً از فرآیند تأیید انحصاری حذف شده بودند، تأیید کنم، از جمله زنان سیاه پوست، رنگین پوستان و افراد عجیب و غریب. این همچنین شامل دانشمندان برجسته هوش مصنوعی مانند Safiya Noble، Alondra Nelson، Timnit Gebru و Meredith Broussard میشود. این در سال 2020 بود، زمانی که توییتر هنوز توییتر بود. در آن زمان، تأیید به این معنی بود که نام و محتوای شما بخشی از الگوریتم اصلی توییتر شد، زیرا توییتهایی از حسابهای تأیید شده به توصیهها، نتایج جستجو، جدولهای زمانی خانگی تزریق میشدند و به ایجاد روندها کمک میکردند. پس کار برای تأیید افراد جدید با دیدگاههای مختلف در مورد هوش مصنوعی اساساً تغییر کرد که به صدای آنها به عنوان رهبران فکری اقتدار داده شد و ایدههای جدید در برخی لحظات واقعاً بحرانی وارد گفتگوی عمومی شد.
من همچنین به تحقیقاتی که در استنفورد انجام دادم و با عنوان سیاه در اعتدال گرد هم آمدم بسیار مفتخرم. زمانی که در داخل شرکتهای فناوری کار میکردم، متوجه شدم که هیچکس واقعاً در مورد تجربیاتی که من هر روز به عنوان یک سیاهپوست کار در Trust & Safety داشتم، نمینویسد یا درباره آن صحبت نمیکند. پس زمانی که صنعت را ترک کردم و به دانشگاه بازگشتم، تصمیم گرفتم با کارکنان فناوری سیاه پوست صحبت کنم و داستان های آنها را فاش کنم. این تحقیق در نهایت اولین تحقیق در نوع خود بود و باعث ایجاد گفتگوهای جدید و مهم زیادی در مورد تجربیات کارمندان فناوری با هویت های حاشیه ای شده است.
چگونه چالشهای صنعت فناوری مردانه و در نتیجه صنعت هوش مصنوعی مردانه را کنترل میکنید؟
بهعنوان یک زن دگرباش سیاهپوست، گشت و گذار در فضاها و فضاهایی که تحت سلطه مردان قرار دارند، بخشی از کل سفر زندگی من بوده است. در حوزه فناوری و هوش مصنوعی، فکر میکنم چالشبرانگیزترین جنبه آن چیزی است که من در تحقیقاتم «کار هویت اجباری» مینامم. من این اصطلاح را برای توصیف موقعیتهای مکرر ابداع کردم که در آن با کارمندان با هویتهای حاشیهای بهعنوان صداها و/یا نمایندگان کل جوامعی که هویت خود را به اشتراک میگذارند، برخورد میشود.
به دلیل خطرات زیادی که با توسعه فناوری جدید مانند هوش مصنوعی همراه است، گاهی اوقات فرار از آن نیروی کار تقریبا غیرممکن است. من باید یاد می گرفتم که مرزهای بسیار مشخصی برای خودم در مورد مسائلی که مایل به درگیر شدن با آنها و چه زمانی هستم تعیین کنم.
برخی از اصلی ترین مسائلی که هوش مصنوعی در حال تکامل با آن مواجه است چیست؟
بر اساس گزارشهای تحقیقاتی، مدلهای هوش مصنوعی مولد کنونی تمام دادههای موجود در اینترنت را جمعآوری کردهاند و به زودی دادههای موجود برای بلعیدن تمام خواهند شد. پس ، بزرگترین شرکتهای هوش مصنوعی در جهان برای ادامه آموزش سیستمهای خود به دادههای مصنوعی یا اطلاعات تولید شده توسط خود هوش مصنوعی و نه انسانها روی میآورند.
این ایده مرا از سوراخ خرگوش پایین آورد. پس ، اخیراً یک Op-Ed نوشتم که در آن استدلال میکردم که فکر میکنم این استفاده از دادههای مصنوعی بهعنوان دادههای آموزشی یکی از اصلی ترین مسائل اخلاقی پیش روی توسعه هوش مصنوعی جدید است. سیستمهای هوش مصنوعی مولد قبلاً نشان دادهاند که بر اساس دادههای آموزشی اصلیشان، خروجی آنها تکرار سوگیری و ایجاد اطلاعات نادرست است. پس مسیر آموزش سیستمهای جدید با دادههای مصنوعی به معنای بازگرداندن مداوم خروجیهای مغرضانه و نادرست به سیستم به عنوان دادههای آموزشی جدید است. من این را به عنوان یک حلقه بازخورد به جهنم توصیف کردم.
از زمانی که من این قطعه را نوشتم، مارک زاکربرگ تمجید کرد که چت ربات به روز شده متا Llama 3 تا حدی از داده های مصنوعی پشتیبانی می کند و "هوشمندترین" محصول هوش مصنوعی مولد در بازار است.
برخی از مسائلی که کاربران هوش مصنوعی باید از آن آگاه باشند چیست؟
بیشتر بخوانید
آژانس هالیوود CAA قصد دارد به ستاره ها کمک کند تا شباهت های هوش مصنوعی خود را مدیریت کنند
هوش مصنوعی بخش همهجانبهای از زندگی کنونی ما است، از تحلیل املا و فیدهای رسانههای اجتماعی گرفته تا چتباتها و تولیدکنندههای تصویر. از بسیاری جهات، جامعه به خوکچه هندی برای آزمایشات این فناوری جدید و آزمایش نشده تبدیل شده است. اما کاربران هوش مصنوعی نباید احساس ناتوانی کنند.
من این بحث را داشته ام که طرفداران فناوری باید گرد هم آیند و کاربران هوش مصنوعی را سازماندهی کنند تا درخواست توقف مردم در هوش مصنوعی را بدهند. من فکر می کنم که انجمن نویسندگان آمریکا نشان داده است که با سازماندهی، اقدام جمعی و عزم صبورانه، مردم می توانند گرد هم آیند تا مرزهای معناداری برای استفاده از فناوری های هوش مصنوعی ایجاد کنند. من همچنین معتقدم که اگر اکنون مکث کنیم تا اشتباهات گذشته را اصلاح کنیم و دستورالعملها و مقررات اخلاقی جدیدی ایجاد کنیم، هوش مصنوعی نباید به یک تهدید وجودی برای آینده ما تبدیل شود.
بهترین راه برای ساختن مسئولانه هوش مصنوعی چیست ؟
تجربه من از کار در شرکت های فناوری به من نشان داد که چه کسی در اتاق برای نوشتن خط مشی، ارائه استدلال و تصمیم گیری اهمیت دارد. مسیر من همچنین به من نشان داد که مهارت های لازم برای موفقیت در صنعت فناوری را با شروع در مدرسه روزنامه نگاری توسعه دادم. من اکنون به کار در دانشکده روزنامه نگاری کلمبیا بازگشته ام و علاقه مندم که نسل بعدی افرادی را آموزش دهم که کار مسئولیت پذیری فناوری و توسعه مسئولانه هوش مصنوعی را در داخل شرکت های فناوری و به عنوان ناظران خارجی انجام دهند.
فکر میکنم مدرسه [ژورنالیزم] چنین آموزشهای منحصربهفردی را در بازجویی اطلاعات، جستجوی حقیقت، در نظر گرفتن دیدگاههای متعدد، ایجاد استدلالهای منطقی، و استخراج حقایق و واقعیت از نظرات و اطلاعات غلط به مردم میدهد. من معتقدم که این یک پایه محکم برای افرادی است که مسئول نوشتن قوانین مربوط به کارهایی که تکرارهای بعدی هوش مصنوعی می توانند و نمی توانند انجام دهند، است. و من مشتاقانه منتظر ایجاد یک مسیر هموارتر برای کسانی هستم که در آینده خواهند آمد.
من همچنین معتقدم که علاوه بر کارگران ماهر Trust & Safety، صنعت هوش مصنوعی به مقررات خارجی نیاز دارد. در ایالات متحده، من استدلال می کنم که این باید در قالب یک آژانس جدید برای تنظیم شرکت های فناوری آمریکایی با قدرت ایجاد و اجرای استانداردهای ایمنی و حریم خصوصی پایه باشد. من همچنین میخواهم به کار ادامه دهم تا تنظیمکنندههای فعلی و آینده را با کارگران فناوری سابق مرتبط کنم که میتوانند به صاحبان قدرت کمک کنند سؤالات درست را بپرسند و راهحلهای ظریف و کاربردی جدید ایجاد کنند.
ارسال نظر