متن خبر

زنان در هوش مصنوعی: Ewa Luger چگونگی تأثیر هوش مصنوعی بر فرهنگ را بررسی می کند – و بالعکس

زنان در هوش مصنوعی: Ewa Luger چگونگی تأثیر هوش مصنوعی بر فرهنگ را بررسی می کند – و بالعکس

شناسهٔ خبر: 465791 -




TechCrunch برای اینکه به زنان دانشگاهی و سایرین که با تمرکز بر هوش مصنوعی تمرکز دارند، زمان شایسته و دیررس آنها را در کانون توجه قرار دهد، مجموعه‌ای از مصاحبه‌ها را با تمرکز بر زنان برجسته‌ای که در انقلاب هوش مصنوعی مشارکت داشته‌اند، راه‌اندازی می‌کند. با ادامه رونق هوش مصنوعی، چندین قطعه را در طول سال منتشر خواهیم کرد و کارهای کلیدی را که اغلب ناشناخته می‌مانند برجسته می‌کنیم. پروفایل های بیشتر را اینجا بخوانید.

Ewa Luger یکی از مدیران مؤسسه انفورماتیک طراحی، و یکی از مدیران برنامه Bdging Responsible AI Divides (BRAID) است که توسط شورای تحقیقات هنر و علوم انسانی (AHRC) حمایت می شود. او از نزدیک با سیاست گذاران و صنعت کار می کند و عضو کالج متخصصان دپارتمان فرهنگ، رسانه و ورزش بریتانیا (DCMS) است، گروهی از کارشناسان که مشاوره علمی و فنی را به DCMS ارائه می دهند.

تحقیقات Luger مسائل اجتماعی، اخلاقی و تعاملی را در زمینه سیستم‌های مبتنی بر داده، از جمله سیستم‌های هوش مصنوعی، با علاقه خاصی به طراحی، توزیع قدرت، حوزه‌های محرومیت و رضایت کاربر تحلیل می‌کند. پیش از این، او در مؤسسه آلن تورینگ، به عنوان محقق در مایکروسافت، و عضو کالج کورپوس کریستی در دانشگاه کمبریج بود.

پرسش و پاسخ

به طور خلاصه، چگونه شروع به هوش مصنوعی کردید؟ چه چیزی شما را به این رشته جذب کرد؟

پس از دکترا، به مایکروسافت ریسرچ نقل مکان کردم و در گروه طراحی و تجربه کاربری در آزمایشگاه کمبریج (بریتانیا) کار کردم. هوش مصنوعی یک تمرکز اصلی در آنجا بود، پس کار من به طور طبیعی به طور کامل در آن حوزه توسعه یافت و به مسائل مربوط به هوش مصنوعی انسان محور (به عنوان مثال، دستیارهای صوتی هوشمند) گسترش یافت.

زمانی که من به دانشگاه ادینبورگ نقل مکان کردم، به دلیل تمایل به تحلیل مسائل مربوط به درک الگوریتمی بود، که در سال 2016، یک منطقه خاص بود. من خودم را در زمینه هوش مصنوعی مسئول یافته ام و در حال حاضر به طور مشترک یک برنامه ملی در این زمینه را که توسط AHRC تامین می شود، هدایت می کنم.

در زمینه هوش مصنوعی به کدام کار افتخار می کنید؟

کار پر استناد من مقاله ای درباره تجربه کاربری دستیارهای صوتی است (2016). این اولین مطالعه در نوع خود بود و هنوز هم بسیار مورد استناد است. اما کاری که من شخصاً به آن افتخار می کنم ادامه دارد. BRAID برنامه ای است که من به طور مشترک رهبری می کنم و با مشارکت یک فیلسوف و اخلاق شناس طراحی شده است. این یک تلاش چند رشته ای واقعی است که برای حمایت از توسعه یک اکوسیستم هوش مصنوعی مسئول در بریتانیا طراحی شده است.

با مشارکت موسسه آدا لاولیس و بی‌بی‌سی، هدف آن اتصال دانش هنر و علوم انسانی به سیاست، مقررات، صنعت و بخش داوطلبانه است. وقتی صحبت از هوش مصنوعی به میان می‌آید، اغلب هنرها و علوم انسانی را نادیده می‌گیریم، که همیشه برای من عجیب به نظر می‌رسید. وقتی کووید-19 شیوع پیدا کرد، ارزش صنایع خلاق بسیار عمیق بود. ما می دانیم که یادگیری از تاریخ برای جلوگیری از اشتباهات مشابه بسیار مهم است، و فلسفه ریشه چارچوب های اخلاقی است که ما را برای سال ها در علم پزشکی ایمن و آگاه نگه داشته است. سیستم‌هایی مانند Midjourney بر محتوای هنرمندان و طراحان به‌عنوان داده‌های آموزشی تکیه می‌کنند، و با این حال، به نوعی این رشته‌ها و متخصصان صدایی در این زمینه ندارند. ما قصد داریم آن را تغییر دهیم.

به طور عملی تر، من با شرکای صنعتی مانند مایکروسافت و بی بی سی برای تولید چالش های هوش مصنوعی مسئولیت پذیر کار کرده ام، و ما با هم کار کرده ایم تا دانشگاهیان را پیدا کنیم که بتوانند به این چالش ها پاسخ دهند. BRAID تاکنون 27 پروژه را تامین مالی کرده است که برخی از آنها کمک هزینه تحصیلی فردی بوده است و ما به زودی یک فراخوان جدید داریم.

ما در حال طراحی یک دوره آنلاین رایگان برای ذینفعانی هستیم که به دنبال تعامل با هوش مصنوعی هستند، و انجمنی را راه‌اندازی می‌کنیم که در آن امیدواریم بتوانیم با بخشی از جمعیت و همچنین سایر ذینفعان بخشی برای حمایت از حاکمیت کار مشارکت داشته باشیم - و به گسترش برخی از آنها کمک کنیم. از افسانه ها و هذلولی که در حال حاضر هوش مصنوعی را احاطه کرده است.

من می‌دانم که این نوع روایت چیزی است که سرمایه‌گذاری فعلی پیرامون هوش مصنوعی را نشان می‌دهد، اما همچنین باعث ایجاد ترس و سردرگمی در میان افرادی می‌شود که به احتمال زیاد از آسیب‌های پایین دستی رنج می‌برند. BRAID تا پایان سال 2028 اجرا می شود و در مرحله بعدی، ما با سواد هوش مصنوعی، فضاهای مقاومت و مکانیسم های اعتراض و توسل مقابله خواهیم کرد. این یک برنامه (نسبتا) بزرگ با مبلغ 15.9 میلیون پوند در مدت شش سال است که توسط AHRC تأمین مالی می شود.

چگونه چالش‌های صنعت فناوری مردانه و در نتیجه صنعت هوش مصنوعی مردانه را کنترل می‌کنید؟

سوال جالبی است. من با گفتن این نکته شروع می‌کنم که این مسائل فقط در صنعت یافت نمی‌شوند، که اغلب چنین تصور می‌شود. محیط دانشگاهی با توجه به برابری جنسیتی چالش های بسیار مشابهی دارد. من در حال حاضر مدیر یک مؤسسه - انفورماتیک طراحی - هستم که دانشکده طراحی و دانشکده انفورماتیک را گرد هم می آورد، و پس می توانم بگویم که تعادل بهتری هم از نظر جنسیت و هم از نظر انواع فرهنگی وجود دارد. مسائلی که زنان را در رسیدن به پتانسیل حرفه ای کامل خود در محیط کار محدود می کند.

اما در طول دوره دکترا، من در یک آزمایشگاه تحت سلطه مردان و تا حدی زمانی که در صنعت کار می کردم، مستقر بودم. با کنار گذاشتن اثرات آشکار وقفه های شغلی و مراقبت، تجربه من از دو پویایی در هم تنیده شده است. اولاً، استانداردها و انتظارات بسیار بالاتری از زنان وجود دارد - به عنوان مثال، سازگاری، مثبت، مهربان بودن، حمایت کردن، تیمی بودن و غیره. ثانیاً، وقتی صحبت از ارائه فرصت‌هایی می‌شود که مردان کم‌صلاحیت‌تر به شدت به دنبال آن‌ها می‌روند، اغلب ممتنع هستیم. پس من مجبور شده ام در بسیاری از موارد خودم را از منطقه راحتی ام دور کنم.

کار دیگری که باید انجام دهم این است که مرزهای بسیار محکمی تعیین کنم و یاد بگیرم چه زمانی نه بگویم. زنان اغلب به گونه‌ای آموزش می‌بینند که خشنودکننده مردم باشند (و آنها را خشنود می‌کنند. ما می‌توانیم به‌راحتی به‌عنوان فردی پیشرو برای انواع کارهایی دیده شویم که برای همکاران مرد شما جذابیت کمتری دارند، حتی تا حدی که تصور شود در هر جلسه چای‌ساز یا یادداشت‌نویس هستیم، صرف نظر از اینکه وضعیت حرفه ای و فقط با نه گفتن، و اطمینان از اینکه ارزش خود را می دانید، در نهایت از دید دیگری دیده می شوید. خیلی تعمیم دهنده است که بگوییم این در مورد همه زنان صادق است، اما مطمئناً این تجربه من بوده است. باید بگویم زمانی که در صنعت بودم یک مدیر زن داشتم و او فوق العاده بود، پس اکثریت جنسیت گرایی که تجربه کرده ام در دانشگاه بوده است.

به طور کلی، مسائل ساختاری و فرهنگی هستند، و پس پیمایش در آنها نیازمند تلاش است - اولاً برای قابل مشاهده کردن آنها و ثانیاً در پرداختن فعالانه به آنها. هیچ راه‌حل ساده‌ای وجود ندارد و هر ناوبری باعث می‌شود که زنان در فناوری کار احساسی بیشتری را تحمل کنند.

چه توصیه ای به زنانی که به دنبال ورود به حوزه هوش مصنوعی هستند می دهید؟

توصیه من همیشه این بوده است که به دنبال فرصت‌هایی بروید که به شما امکان می‌دهند تا سطح خود را بالا ببرید، حتی اگر فکر نمی‌کنید که 100% مناسب هستید. به جای اینکه خودتان فرصت ها را از دست بدهید، اجازه دهید آنها را کاهش دهند. تحقیقات نشان می‌دهد که مردان به دنبال نقش‌هایی هستند که فکر می‌کنند می‌توانند انجام دهند، اما زنان فقط به دنبال نقش‌هایی می‌روند که احساس می‌کنند قبلاً می‌توانند یا با شایستگی انجام می‌دهند. در حال حاضر، گرایشی به سمت آگاهی جنسیتی بیشتر در فرآیند استخدام و در میان سرمایه‌گذاران وجود دارد، اگرچه نمونه‌های اخیر نشان می‌دهد که تا کجا باید پیش برویم.

اگر به مراکز تحقیقاتی و نوآوری هوش مصنوعی بریتانیا نگاهی بیندازید، سرمایه‌گذاری چند میلیون پوندی اخیر، همه از 9 مرکز تحقیقاتی هوش مصنوعی که اخیراً اعلام شده‌اند توسط مردان هدایت می‌شوند. ما واقعاً باید برای اطمینان از نمایندگی جنسیتی بهتر عمل کنیم.

برخی از مهم ترین مسائلی که هوش مصنوعی در حال تکامل با آن مواجه است چیست؟

با توجه به سوابق من، شاید تعجب آور نباشد که بگویم مبرم ترین مسائلی که هوش مصنوعی با آن مواجه است، مربوط به آسیب های فوری و پایین دستی است که ممکن است در صورت عدم دقت در طراحی، مدیریت و استفاده از سیستم های هوش مصنوعی رخ دهد.

مهم ترین مسئله و موردی که به شدت مورد تحقیق قرار نگرفته، تأثیر زیست محیطی مدل های بزرگ است. در صورتی که مزایای برنامه بیشتر از خطرات باشد، ممکن است زمانی تصمیم بگیریم که این تأثیرات را بپذیریم. اما در حال حاضر، ما شاهد استفاده گسترده از سیستم‌هایی مانند Midjourney هستیم که صرفاً برای سرگرمی اجرا می‌شوند، به طوری که کاربران تا حد زیادی، اگر نگوییم به طور کامل، هر بار که یک پرس و جو را اجرا می‌کنند، از تأثیر آن بی‌اطلاع هستند.

موضوع مهم دیگر این است که چگونه سرعت نوآوری‌های هوش مصنوعی و توانایی جو نظارتی را با هم تطبیق دهیم. این موضوع جدیدی نیست، اما مقررات بهترین ابزاری است که ما برای اطمینان از توسعه و استقرار سیستم‌های هوش مصنوعی مسئولانه داریم.

بسیار آسان است که فرض کنیم آنچه که دموکراسی‌سازی هوش مصنوعی نامیده می‌شود - منظور من از این جمله سیستم‌هایی مانند ChatGPT است که به راحتی در دسترس همه هستند - یک پیشرفت مثبت است. با این حال، ما در حال حاضر اثرات محتوای تولید شده را بر صنایع خلاق و متخصصان خلاق، به ویژه در مورد حق چاپ و اسناد می بینیم. روزنامه‌نگاری و تولیدکنندگان اخبار نیز برای اطمینان از اینکه محتوا و برندهایشان تحت تأثیر قرار نمی‌گیرد، رقابت می‌کنند. این نکته اخیر پیامدهای بزرگی برای نظام‌های دموکراتیک ما دارد، به‌ویژه وقتی وارد چرخه‌های کلیدی انتخابات می‌شویم. اثرات آن می تواند به معنای واقعی کلمه از منظر ژئوپلیتیکی جهان را تغییر دهد. همچنین فهرستی از مسائل بدون اشاره به سوگیری نخواهد بود.

برخی از مسائلی که کاربران هوش مصنوعی باید از آن آگاه باشند چیست؟

مطمئن نیستم که آیا این مربوط به شرکت هایی است که از هوش مصنوعی استفاده می کنند یا شهروندان عادی، اما من دومی را فرض می کنم. من فکر می کنم مسئله اصلی در اینجا اعتماد است. من در اینجا به بسیاری از دانش‌آموزان فکر می‌کنم که اکنون از مدل‌های زبان بزرگ برای تولید کار آکادمیک استفاده می‌کنند. اگر مسائل اخلاقی را کنار بگذاریم، مدل ها هنوز برای آن خوب نیستند. استنادها اغلب نادرست یا خارج از متن هستند و تفاوت های ظریف برخی از مقالات دانشگاهی از بین می رود.

اما این به یک نکته گسترده‌تر اشاره می‌کند: هنوز نمی‌توانید به متن تولید شده کاملاً اعتماد کنید و پس باید از آن سیستم‌ها فقط زمانی استفاده کنید که زمینه یا نتیجه کم خطر باشد. مسئله دوم آشکار، صحت و اصالت است. همانطور که مدل‌ها به طور فزاینده‌ای پیچیده می‌شوند، سخت‌تر می‌شود که مطمئن شوید که آیا این مدل‌ها توسط انسان یا ماشین تولید شده‌اند. ما هنوز به عنوان یک جامعه، سواد لازم را برای قضاوت مستدل در مورد محتوا در یک چشم انداز رسانه ای غنی از هوش مصنوعی ایجاد نکرده ایم. قوانین قدیمی سواد رسانه ای در این میان اعمال می شود: منبع را تحلیل کنید.

مسئله دیگر این است که هوش مصنوعی هوش انسانی نیست، و پس مدل‌ها بی‌نقص نیستند – اگر کسی فکرش را بکند، می‌توان آن‌ها را به راحتی فریب داد یا خراب کرد.

بهترین راه برای ساختن مسئولانه هوش مصنوعی چیست؟

بهترین ابزاری که ما داریم، ارزیابی تاثیر الگوریتمی و انطباق با مقررات است، اما در حالت ایده‌آل، ما به دنبال فرآیندهایی هستیم که فعالانه به دنبال انجام کارهای خوب هستند نه صرفاً به دنبال به حداقل رساندن ریسک.

با بازگشت به اصول اولیه، اولین گام واضح، پرداختن به ترکیب طراحان است – اطمینان از اینکه هوش مصنوعی، انفورماتیک و علوم کامپیوتر به عنوان رشته‌هایی، زنان، رنگین پوستان و نمایندگان فرهنگ‌های دیگر را جذب می‌کنند. بدیهی است که این یک راه حل سریع نیست، اما اگر ناهمگن تر بود، به وضوح به موضوع سوگیری زودتر رسیدگی می کردیم. این من را به موضوع مجموعه داده‌ها و اطمینان از مناسب بودن آن برای هدف و تلاش‌هایی برای تعصب‌زدایی مناسب از آن می‌رساند.

سپس نیاز به آموزش معماران سیستم برای آگاهی از مسائل اخلاقی و فنی-اجتماعی وجود دارد - همان وزنی که ما در رشته‌های اولیه انجام می‌دهیم. سپس ما باید به معماران سیستم زمان و اختیار بیشتری بدهیم تا هر گونه مشکل بالقوه را تحلیل و رفع کنند. سپس به بحث حاکمیت و طراحی مشترک می رسیم که در آن ذینفعان باید در حکمرانی و طراحی مفهومی سیستم مشارکت داشته باشند. و در نهایت، ما نیاز داریم که سیستم‌ها را قبل از اینکه به سوژه‌های انسانی نزدیک شوند، کاملاً آزمایش استرس انجام دهیم.

در حالت ایده‌آل، ما همچنین باید اطمینان حاصل کنیم که مکانیسم‌هایی برای انصراف، اعتراض و رجوع وجود دارد - اگرچه بسیاری از این موارد توسط مقررات در حال ظهور پوشش داده می‌شود. بدیهی به نظر می رسد، اما من همچنین اضافه می کنم که شما باید آماده باشید تا پروژه ای را که قرار است در هر اندازه مسئولیتی شکست بخورد، بکشید. غالباً چیزی از اشتباه هزینه های کاهش یافته در اینجا وجود دارد، اما اگر پروژه ای آنطور که می خواهید در حال توسعه نباشد، افزایش تحمل ریسک به جای کشتن آن می تواند منجر به مرگ نابهنگام یک محصول شود.

قانون هوش مصنوعی اتحادیه اروپا که اخیراً تصویب شده است، البته بیشتر این موارد را پوشش می دهد.

چگونه سرمایه گذاران بهتر می توانند برای هوش مصنوعی مسئول فشار بیاورند؟

با برداشتن یک گام به عقب، اکنون به طور کلی درک و پذیرفته شده است که کل مدلی که اینترنت را زیربنا می‌دهد، کسب درآمد از داده‌های کاربر است. به همین ترتیب، بسیاری از نوآوری‌های هوش مصنوعی، اگر نگوییم همه، ناشی از سود سرمایه است. توسعه هوش مصنوعی به طور خاص یک کسب و کار تشنه منابع است و تلاش برای اولین بار بودن در بازار اغلب به عنوان یک مسابقه تسلیحاتی توصیف شده است. پس مسئولیت به عنوان یک ارزش همیشه در رقابت با آن ارزش های دیگر است.

این بدان معنا نیست که شرکت‌ها اهمیتی نمی‌دهند، و همچنین تلاش‌های زیادی توسط متخصصان اخلاق هوش مصنوعی انجام شده است تا مسئولیت را به‌عنوان راهی برای متمایز کردن خود در این زمینه بازنگری کنند. اما این یک سناریوی بعید به نظر می رسد مگر اینکه شما یک دولت یا یک سرویس دولتی دیگر باشید. واضح است که اولین نفری که وارد بازار می شود همیشه با حذف کامل و همه جانبه آسیب های احتمالی معامله می شود.

اما برگردیم به اصطلاح مسئولیت . به نظر من مسئولیت پذیر بودن کمترین کاری است که می توانیم انجام دهیم. وقتی به فرزندانمان می گوییم که به مسئولیت پذیری آنها اعتماد داریم، منظورمان این است که کار غیرقانونی، شرم آور یا جنون آمیز انجام ندهید. وقتی صحبت از رفتار کردن مانند یک انسان کارآمد در جهان می شود، به معنای واقعی کلمه زیرزمین است. برعکس، وقتی برای شرکت ها اعمال شود، به نوعی استاندارد غیرقابل دسترس تبدیل می شود. باید از خود بپرسید، این حتی بحثی که ما خودمان در حال آن هستیم چگونه است؟

همچنین، انگیزه‌های اولویت‌بندی مسئولیت‌ها بسیار اساسی هستند و به تمایل به یک نهاد قابل اعتماد بودن مربوط می‌شوند، در حالی که نمی‌خواهید کاربران شما به آسیب‌های ارزشمندی برسند. من این را به این دلیل می گویم که بسیاری از افراد در خط فقر، یا کسانی که از گروه های حاشیه نشین هستند، زیر آستانه علاقه قرار می گیرند، زیرا سرمایه اقتصادی یا اجتماعی برای مخالفت با نتایج منفی یا جلب توجه عمومی را ندارند.

پس ، برای بازگشت به این سوال، بستگی به این دارد که سرمایه گذاران چه کسانی باشند. اگر یکی از هفت شرکت بزرگ فناوری است، پس آنها تحت پوشش موارد فوق قرار می گیرند. آن‌ها باید همیشه اولویت‌بندی ارزش‌های مختلف را انتخاب کنند و نه تنها زمانی که برایشان مناسب باشد. برای بخش عمومی یا بخش سوم، هوش مصنوعی مسئول از قبل با ارزش‌های آن‌ها همسو شده است، و پس چیزی که آن‌ها به آن نیاز دارند تجربه و بینش کافی برای کمک به انتخاب‌های درست و آگاهانه است. در نهایت، برای تلاش برای هوش مصنوعی مسئولانه نیاز به همسویی ارزش‌ها و مشوق‌ها دارد.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است