زنان در هوش مصنوعی: Ewa Luger چگونگی تأثیر هوش مصنوعی بر فرهنگ را بررسی می کند – و بالعکس
TechCrunch برای اینکه به زنان دانشگاهی و سایرین که با تمرکز بر هوش مصنوعی تمرکز دارند، زمان شایسته و دیررس آنها را در کانون توجه قرار دهد، مجموعهای از مصاحبهها را با تمرکز بر زنان برجستهای که در انقلاب هوش مصنوعی مشارکت داشتهاند، راهاندازی میکند. با ادامه رونق هوش مصنوعی، چندین قطعه را در طول سال منتشر خواهیم کرد و کارهای کلیدی را که اغلب ناشناخته میمانند برجسته میکنیم. پروفایل های بیشتر را اینجا بخوانید.
Ewa Luger یکی از مدیران مؤسسه انفورماتیک طراحی، و یکی از مدیران برنامه Bdging Responsible AI Divides (BRAID) است که توسط شورای تحقیقات هنر و علوم انسانی (AHRC) حمایت می شود. او از نزدیک با سیاست گذاران و صنعت کار می کند و عضو کالج متخصصان دپارتمان فرهنگ، رسانه و ورزش بریتانیا (DCMS) است، گروهی از کارشناسان که مشاوره علمی و فنی را به DCMS ارائه می دهند.
تحقیقات Luger مسائل اجتماعی، اخلاقی و تعاملی را در زمینه سیستمهای مبتنی بر داده، از جمله سیستمهای هوش مصنوعی، با علاقه خاصی به طراحی، توزیع قدرت، حوزههای محرومیت و رضایت کاربر تحلیل میکند. پیش از این، او در مؤسسه آلن تورینگ، به عنوان محقق در مایکروسافت، و عضو کالج کورپوس کریستی در دانشگاه کمبریج بود.
پرسش و پاسخ
به طور خلاصه، چگونه شروع به هوش مصنوعی کردید؟ چه چیزی شما را به این رشته جذب کرد؟
پس از دکترا، به مایکروسافت ریسرچ نقل مکان کردم و در گروه طراحی و تجربه کاربری در آزمایشگاه کمبریج (بریتانیا) کار کردم. هوش مصنوعی یک تمرکز اصلی در آنجا بود، پس کار من به طور طبیعی به طور کامل در آن حوزه توسعه یافت و به مسائل مربوط به هوش مصنوعی انسان محور (به عنوان مثال، دستیارهای صوتی هوشمند) گسترش یافت.
زمانی که من به دانشگاه ادینبورگ نقل مکان کردم، به دلیل تمایل به تحلیل مسائل مربوط به درک الگوریتمی بود، که در سال 2016، یک منطقه خاص بود. من خودم را در زمینه هوش مصنوعی مسئول یافته ام و در حال حاضر به طور مشترک یک برنامه ملی در این زمینه را که توسط AHRC تامین می شود، هدایت می کنم.
در زمینه هوش مصنوعی به کدام کار افتخار می کنید؟
کار پر استناد من مقاله ای درباره تجربه کاربری دستیارهای صوتی است (2016). این اولین مطالعه در نوع خود بود و هنوز هم بسیار مورد استناد است. اما کاری که من شخصاً به آن افتخار می کنم ادامه دارد. BRAID برنامه ای است که من به طور مشترک رهبری می کنم و با مشارکت یک فیلسوف و اخلاق شناس طراحی شده است. این یک تلاش چند رشته ای واقعی است که برای حمایت از توسعه یک اکوسیستم هوش مصنوعی مسئول در بریتانیا طراحی شده است.
با مشارکت موسسه آدا لاولیس و بیبیسی، هدف آن اتصال دانش هنر و علوم انسانی به سیاست، مقررات، صنعت و بخش داوطلبانه است. وقتی صحبت از هوش مصنوعی به میان میآید، اغلب هنرها و علوم انسانی را نادیده میگیریم، که همیشه برای من عجیب به نظر میرسید. وقتی کووید-19 شیوع پیدا کرد، ارزش صنایع خلاق بسیار عمیق بود. ما می دانیم که یادگیری از تاریخ برای جلوگیری از اشتباهات مشابه بسیار مهم است، و فلسفه ریشه چارچوب های اخلاقی است که ما را برای سال ها در علم پزشکی ایمن و آگاه نگه داشته است. سیستمهایی مانند Midjourney بر محتوای هنرمندان و طراحان بهعنوان دادههای آموزشی تکیه میکنند، و با این حال، به نوعی این رشتهها و متخصصان صدایی در این زمینه ندارند. ما قصد داریم آن را تغییر دهیم.
به طور عملی تر، من با شرکای صنعتی مانند مایکروسافت و بی بی سی برای تولید چالش های هوش مصنوعی مسئولیت پذیر کار کرده ام، و ما با هم کار کرده ایم تا دانشگاهیان را پیدا کنیم که بتوانند به این چالش ها پاسخ دهند. BRAID تاکنون 27 پروژه را تامین مالی کرده است که برخی از آنها کمک هزینه تحصیلی فردی بوده است و ما به زودی یک فراخوان جدید داریم.
ما در حال طراحی یک دوره آنلاین رایگان برای ذینفعانی هستیم که به دنبال تعامل با هوش مصنوعی هستند، و انجمنی را راهاندازی میکنیم که در آن امیدواریم بتوانیم با بخشی از جمعیت و همچنین سایر ذینفعان بخشی برای حمایت از حاکمیت کار مشارکت داشته باشیم - و به گسترش برخی از آنها کمک کنیم. از افسانه ها و هذلولی که در حال حاضر هوش مصنوعی را احاطه کرده است.
من میدانم که این نوع روایت چیزی است که سرمایهگذاری فعلی پیرامون هوش مصنوعی را نشان میدهد، اما همچنین باعث ایجاد ترس و سردرگمی در میان افرادی میشود که به احتمال زیاد از آسیبهای پایین دستی رنج میبرند. BRAID تا پایان سال 2028 اجرا می شود و در مرحله بعدی، ما با سواد هوش مصنوعی، فضاهای مقاومت و مکانیسم های اعتراض و توسل مقابله خواهیم کرد. این یک برنامه (نسبتا) بزرگ با مبلغ 15.9 میلیون پوند در مدت شش سال است که توسط AHRC تأمین مالی می شود.
چگونه چالشهای صنعت فناوری مردانه و در نتیجه صنعت هوش مصنوعی مردانه را کنترل میکنید؟
سوال جالبی است. من با گفتن این نکته شروع میکنم که این مسائل فقط در صنعت یافت نمیشوند، که اغلب چنین تصور میشود. محیط دانشگاهی با توجه به برابری جنسیتی چالش های بسیار مشابهی دارد. من در حال حاضر مدیر یک مؤسسه - انفورماتیک طراحی - هستم که دانشکده طراحی و دانشکده انفورماتیک را گرد هم می آورد، و پس می توانم بگویم که تعادل بهتری هم از نظر جنسیت و هم از نظر انواع فرهنگی وجود دارد. مسائلی که زنان را در رسیدن به پتانسیل حرفه ای کامل خود در محیط کار محدود می کند.
اما در طول دوره دکترا، من در یک آزمایشگاه تحت سلطه مردان و تا حدی زمانی که در صنعت کار می کردم، مستقر بودم. با کنار گذاشتن اثرات آشکار وقفه های شغلی و مراقبت، تجربه من از دو پویایی در هم تنیده شده است. اولاً، استانداردها و انتظارات بسیار بالاتری از زنان وجود دارد - به عنوان مثال، سازگاری، مثبت، مهربان بودن، حمایت کردن، تیمی بودن و غیره. ثانیاً، وقتی صحبت از ارائه فرصتهایی میشود که مردان کمصلاحیتتر به شدت به دنبال آنها میروند، اغلب ممتنع هستیم. پس من مجبور شده ام در بسیاری از موارد خودم را از منطقه راحتی ام دور کنم.
کار دیگری که باید انجام دهم این است که مرزهای بسیار محکمی تعیین کنم و یاد بگیرم چه زمانی نه بگویم. زنان اغلب به گونهای آموزش میبینند که خشنودکننده مردم باشند (و آنها را خشنود میکنند. ما میتوانیم بهراحتی بهعنوان فردی پیشرو برای انواع کارهایی دیده شویم که برای همکاران مرد شما جذابیت کمتری دارند، حتی تا حدی که تصور شود در هر جلسه چایساز یا یادداشتنویس هستیم، صرف نظر از اینکه وضعیت حرفه ای و فقط با نه گفتن، و اطمینان از اینکه ارزش خود را می دانید، در نهایت از دید دیگری دیده می شوید. خیلی تعمیم دهنده است که بگوییم این در مورد همه زنان صادق است، اما مطمئناً این تجربه من بوده است. باید بگویم زمانی که در صنعت بودم یک مدیر زن داشتم و او فوق العاده بود، پس اکثریت جنسیت گرایی که تجربه کرده ام در دانشگاه بوده است.
به طور کلی، مسائل ساختاری و فرهنگی هستند، و پس پیمایش در آنها نیازمند تلاش است - اولاً برای قابل مشاهده کردن آنها و ثانیاً در پرداختن فعالانه به آنها. هیچ راهحل سادهای وجود ندارد و هر ناوبری باعث میشود که زنان در فناوری کار احساسی بیشتری را تحمل کنند.
چه توصیه ای به زنانی که به دنبال ورود به حوزه هوش مصنوعی هستند می دهید؟
توصیه من همیشه این بوده است که به دنبال فرصتهایی بروید که به شما امکان میدهند تا سطح خود را بالا ببرید، حتی اگر فکر نمیکنید که 100% مناسب هستید. به جای اینکه خودتان فرصت ها را از دست بدهید، اجازه دهید آنها را کاهش دهند. تحقیقات نشان میدهد که مردان به دنبال نقشهایی هستند که فکر میکنند میتوانند انجام دهند، اما زنان فقط به دنبال نقشهایی میروند که احساس میکنند قبلاً میتوانند یا با شایستگی انجام میدهند. در حال حاضر، گرایشی به سمت آگاهی جنسیتی بیشتر در فرآیند استخدام و در میان سرمایهگذاران وجود دارد، اگرچه نمونههای اخیر نشان میدهد که تا کجا باید پیش برویم.
اگر به مراکز تحقیقاتی و نوآوری هوش مصنوعی بریتانیا نگاهی بیندازید، سرمایهگذاری چند میلیون پوندی اخیر، همه از 9 مرکز تحقیقاتی هوش مصنوعی که اخیراً اعلام شدهاند توسط مردان هدایت میشوند. ما واقعاً باید برای اطمینان از نمایندگی جنسیتی بهتر عمل کنیم.
برخی از مهم ترین مسائلی که هوش مصنوعی در حال تکامل با آن مواجه است چیست؟
با توجه به سوابق من، شاید تعجب آور نباشد که بگویم مبرم ترین مسائلی که هوش مصنوعی با آن مواجه است، مربوط به آسیب های فوری و پایین دستی است که ممکن است در صورت عدم دقت در طراحی، مدیریت و استفاده از سیستم های هوش مصنوعی رخ دهد.
مهم ترین مسئله و موردی که به شدت مورد تحقیق قرار نگرفته، تأثیر زیست محیطی مدل های بزرگ است. در صورتی که مزایای برنامه بیشتر از خطرات باشد، ممکن است زمانی تصمیم بگیریم که این تأثیرات را بپذیریم. اما در حال حاضر، ما شاهد استفاده گسترده از سیستمهایی مانند Midjourney هستیم که صرفاً برای سرگرمی اجرا میشوند، به طوری که کاربران تا حد زیادی، اگر نگوییم به طور کامل، هر بار که یک پرس و جو را اجرا میکنند، از تأثیر آن بیاطلاع هستند.
موضوع مهم دیگر این است که چگونه سرعت نوآوریهای هوش مصنوعی و توانایی جو نظارتی را با هم تطبیق دهیم. این موضوع جدیدی نیست، اما مقررات بهترین ابزاری است که ما برای اطمینان از توسعه و استقرار سیستمهای هوش مصنوعی مسئولانه داریم.
بسیار آسان است که فرض کنیم آنچه که دموکراسیسازی هوش مصنوعی نامیده میشود - منظور من از این جمله سیستمهایی مانند ChatGPT است که به راحتی در دسترس همه هستند - یک پیشرفت مثبت است. با این حال، ما در حال حاضر اثرات محتوای تولید شده را بر صنایع خلاق و متخصصان خلاق، به ویژه در مورد حق چاپ و اسناد می بینیم. روزنامهنگاری و تولیدکنندگان اخبار نیز برای اطمینان از اینکه محتوا و برندهایشان تحت تأثیر قرار نمیگیرد، رقابت میکنند. این نکته اخیر پیامدهای بزرگی برای نظامهای دموکراتیک ما دارد، بهویژه وقتی وارد چرخههای کلیدی انتخابات میشویم. اثرات آن می تواند به معنای واقعی کلمه از منظر ژئوپلیتیکی جهان را تغییر دهد. همچنین فهرستی از مسائل بدون اشاره به سوگیری نخواهد بود.
برخی از مسائلی که کاربران هوش مصنوعی باید از آن آگاه باشند چیست؟
مطمئن نیستم که آیا این مربوط به شرکت هایی است که از هوش مصنوعی استفاده می کنند یا شهروندان عادی، اما من دومی را فرض می کنم. من فکر می کنم مسئله اصلی در اینجا اعتماد است. من در اینجا به بسیاری از دانشآموزان فکر میکنم که اکنون از مدلهای زبان بزرگ برای تولید کار آکادمیک استفاده میکنند. اگر مسائل اخلاقی را کنار بگذاریم، مدل ها هنوز برای آن خوب نیستند. استنادها اغلب نادرست یا خارج از متن هستند و تفاوت های ظریف برخی از مقالات دانشگاهی از بین می رود.
اما این به یک نکته گستردهتر اشاره میکند: هنوز نمیتوانید به متن تولید شده کاملاً اعتماد کنید و پس باید از آن سیستمها فقط زمانی استفاده کنید که زمینه یا نتیجه کم خطر باشد. مسئله دوم آشکار، صحت و اصالت است. همانطور که مدلها به طور فزایندهای پیچیده میشوند، سختتر میشود که مطمئن شوید که آیا این مدلها توسط انسان یا ماشین تولید شدهاند. ما هنوز به عنوان یک جامعه، سواد لازم را برای قضاوت مستدل در مورد محتوا در یک چشم انداز رسانه ای غنی از هوش مصنوعی ایجاد نکرده ایم. قوانین قدیمی سواد رسانه ای در این میان اعمال می شود: منبع را تحلیل کنید.
مسئله دیگر این است که هوش مصنوعی هوش انسانی نیست، و پس مدلها بینقص نیستند – اگر کسی فکرش را بکند، میتوان آنها را به راحتی فریب داد یا خراب کرد.
بهترین راه برای ساختن مسئولانه هوش مصنوعی چیست؟
بهترین ابزاری که ما داریم، ارزیابی تاثیر الگوریتمی و انطباق با مقررات است، اما در حالت ایدهآل، ما به دنبال فرآیندهایی هستیم که فعالانه به دنبال انجام کارهای خوب هستند نه صرفاً به دنبال به حداقل رساندن ریسک.
با بازگشت به اصول اولیه، اولین گام واضح، پرداختن به ترکیب طراحان است – اطمینان از اینکه هوش مصنوعی، انفورماتیک و علوم کامپیوتر به عنوان رشتههایی، زنان، رنگین پوستان و نمایندگان فرهنگهای دیگر را جذب میکنند. بدیهی است که این یک راه حل سریع نیست، اما اگر ناهمگن تر بود، به وضوح به موضوع سوگیری زودتر رسیدگی می کردیم. این من را به موضوع مجموعه دادهها و اطمینان از مناسب بودن آن برای هدف و تلاشهایی برای تعصبزدایی مناسب از آن میرساند.
سپس نیاز به آموزش معماران سیستم برای آگاهی از مسائل اخلاقی و فنی-اجتماعی وجود دارد - همان وزنی که ما در رشتههای اولیه انجام میدهیم. سپس ما باید به معماران سیستم زمان و اختیار بیشتری بدهیم تا هر گونه مشکل بالقوه را تحلیل و رفع کنند. سپس به بحث حاکمیت و طراحی مشترک می رسیم که در آن ذینفعان باید در حکمرانی و طراحی مفهومی سیستم مشارکت داشته باشند. و در نهایت، ما نیاز داریم که سیستمها را قبل از اینکه به سوژههای انسانی نزدیک شوند، کاملاً آزمایش استرس انجام دهیم.
در حالت ایدهآل، ما همچنین باید اطمینان حاصل کنیم که مکانیسمهایی برای انصراف، اعتراض و رجوع وجود دارد - اگرچه بسیاری از این موارد توسط مقررات در حال ظهور پوشش داده میشود. بدیهی به نظر می رسد، اما من همچنین اضافه می کنم که شما باید آماده باشید تا پروژه ای را که قرار است در هر اندازه مسئولیتی شکست بخورد، بکشید. غالباً چیزی از اشتباه هزینه های کاهش یافته در اینجا وجود دارد، اما اگر پروژه ای آنطور که می خواهید در حال توسعه نباشد، افزایش تحمل ریسک به جای کشتن آن می تواند منجر به مرگ نابهنگام یک محصول شود.
قانون هوش مصنوعی اتحادیه اروپا که اخیراً تصویب شده است، البته بیشتر این موارد را پوشش می دهد.
چگونه سرمایه گذاران بهتر می توانند برای هوش مصنوعی مسئول فشار بیاورند؟
با برداشتن یک گام به عقب، اکنون به طور کلی درک و پذیرفته شده است که کل مدلی که اینترنت را زیربنا میدهد، کسب درآمد از دادههای کاربر است. به همین ترتیب، بسیاری از نوآوریهای هوش مصنوعی، اگر نگوییم همه، ناشی از سود سرمایه است. توسعه هوش مصنوعی به طور خاص یک کسب و کار تشنه منابع است و تلاش برای اولین بار بودن در بازار اغلب به عنوان یک مسابقه تسلیحاتی توصیف شده است. پس مسئولیت به عنوان یک ارزش همیشه در رقابت با آن ارزش های دیگر است.
این بدان معنا نیست که شرکتها اهمیتی نمیدهند، و همچنین تلاشهای زیادی توسط متخصصان اخلاق هوش مصنوعی انجام شده است تا مسئولیت را بهعنوان راهی برای متمایز کردن خود در این زمینه بازنگری کنند. اما این یک سناریوی بعید به نظر می رسد مگر اینکه شما یک دولت یا یک سرویس دولتی دیگر باشید. واضح است که اولین نفری که وارد بازار می شود همیشه با حذف کامل و همه جانبه آسیب های احتمالی معامله می شود.
اما برگردیم به اصطلاح مسئولیت . به نظر من مسئولیت پذیر بودن کمترین کاری است که می توانیم انجام دهیم. وقتی به فرزندانمان می گوییم که به مسئولیت پذیری آنها اعتماد داریم، منظورمان این است که کار غیرقانونی، شرم آور یا جنون آمیز انجام ندهید. وقتی صحبت از رفتار کردن مانند یک انسان کارآمد در جهان می شود، به معنای واقعی کلمه زیرزمین است. برعکس، وقتی برای شرکت ها اعمال شود، به نوعی استاندارد غیرقابل دسترس تبدیل می شود. باید از خود بپرسید، این حتی بحثی که ما خودمان در حال آن هستیم چگونه است؟
همچنین، انگیزههای اولویتبندی مسئولیتها بسیار اساسی هستند و به تمایل به یک نهاد قابل اعتماد بودن مربوط میشوند، در حالی که نمیخواهید کاربران شما به آسیبهای ارزشمندی برسند. من این را به این دلیل می گویم که بسیاری از افراد در خط فقر، یا کسانی که از گروه های حاشیه نشین هستند، زیر آستانه علاقه قرار می گیرند، زیرا سرمایه اقتصادی یا اجتماعی برای مخالفت با نتایج منفی یا جلب توجه عمومی را ندارند.
پس ، برای بازگشت به این سوال، بستگی به این دارد که سرمایه گذاران چه کسانی باشند. اگر یکی از هفت شرکت بزرگ فناوری است، پس آنها تحت پوشش موارد فوق قرار می گیرند. آنها باید همیشه اولویتبندی ارزشهای مختلف را انتخاب کنند و نه تنها زمانی که برایشان مناسب باشد. برای بخش عمومی یا بخش سوم، هوش مصنوعی مسئول از قبل با ارزشهای آنها همسو شده است، و پس چیزی که آنها به آن نیاز دارند تجربه و بینش کافی برای کمک به انتخابهای درست و آگاهانه است. در نهایت، برای تلاش برای هوش مصنوعی مسئولانه نیاز به همسویی ارزشها و مشوقها دارد.
ارسال نظر