زنان در هوش مصنوعی: ساندرا واچر، استاد اخلاق داده در آکسفورد
TechCrunch برای اینکه به زنان دانشگاهی و سایرین که با تمرکز بر هوش مصنوعی تمرکز دارند، زمان شایسته و دیررس آنها را در کانون توجه قرار دهد، مجموعهای از مصاحبهها را با تمرکز بر زنان برجستهای که در انقلاب هوش مصنوعی مشارکت داشتهاند، راهاندازی میکند. با ادامه رونق هوش مصنوعی، چندین قطعه را در طول سال منتشر خواهیم کرد و کارهای کلیدی را که اغلب ناشناخته میمانند برجسته میکنیم. پروفایل های بیشتر را اینجا بخوانید.
ساندرا واچر پروفسور و محقق ارشد در اخلاق داده ها، هوش مصنوعی، روباتیک، الگوریتم ها و مقررات در موسسه اینترنت آکسفورد است. او همچنین یکی از همکاران سابق موسسه آلن تورینگ، موسسه ملی علوم داده و هوش مصنوعی بریتانیا است.
در حالی که واچر در موسسه تورینگ بود، جنبههای اخلاقی و قانونی علم داده را ارزیابی کرد و مواردی را برجسته کرد که الگوریتمهای مبهم نژادپرستانه و جنسیتگرا شدهاند. او همچنین به راههایی برای ممیزی هوش مصنوعی برای مقابله با اطلاعات نادرست و ترویج عدالت نگاه کرد.
پرسش و پاسخ
به طور خلاصه، چگونه شروع به هوش مصنوعی کردید؟ چه چیزی شما را به این رشته جذب کرد؟
زمانی را در زندگیام به خاطر نمیآورم که فکر نمیکردم نوآوری و فناوری پتانسیل باورنکردنی برای بهتر کردن زندگی مردم داشته باشد. با این حال، من همچنین می دانم که فناوری می تواند عواقب مخربی برای زندگی مردم داشته باشد. و پس من همیشه - نه حداقل به دلیل احساس قوی عدالت - رانده شدم تا راهی برای تضمین آن حد وسط کامل بیابم. امکان نوآوری در عین حمایت از حقوق بشر.
من همیشه احساس می کردم که قانون نقش بسیار مهمی دارد. قانون می تواند آن حد وسط توانمندی باشد که هم از مردم محافظت می کند اما هم نوآوری را امکان پذیر می کند. قانون به عنوان یک رشته برای من بسیار طبیعی بود. من چالش ها را دوست دارم، دوست دارم بفهمم یک سیستم چگونه کار می کند، ببینم چگونه می توانم آن را بازی کنم، نقاط ضعف را پیدا کنم و متعاقبا آنها را ببندم.
هوش مصنوعی یک نیروی فوق العاده دگرگون کننده است. این در امور مالی، استخدام، عدالت کیفری، مهاجرت، بهداشت و هنر اجرا می شود. این می تواند خوب و بد باشد. و خوب یا بد بودن آن موضوع طراحی و سیاست است. من به طور طبیعی جذب آن شدم زیرا احساس می کردم که قانون می تواند سهم معناداری در حصول اطمینان از اینکه نوآوری تا آنجا که ممکن است به نفع مردم باشد، داشته باشد.
به چه کاری بیشتر افتخار می کنید (در زمینه هوش مصنوعی)؟
فکر میکنم اثری که در حال حاضر بیشتر به آن افتخار میکنم، اثری است که با همکاری برنت میتلشتات (فیلسوف)، کریس راسل (دانشمند کامپیوتر) و من بهعنوان وکیل، نوشتهام.
آخرین کار ما در مورد تعصب و انصاف، «ناعادلانه یادگیری ماشین منصفانه»، تأثیر مضر اجرای بسیاری از اقدامات «عدالت گروهی» را در عمل نشان داد. به طور خاص، انصاف به جای کمک به گروههای محروم، با «پایینتر کردن» یا بدتر کردن وضعیت همه به دست میآید. این رویکرد در چارچوب قانون عدم تبعیض اتحادیه اروپا و بریتانیا و همچنین از نظر اخلاقی مشکل ساز است. در مقالهای در Wired بحث کردیم که کاهش سطح در عمل چقدر میتواند مضر باشد – برای مثال در مراقبتهای بهداشتی، اجرای انصاف گروهی میتواند به معنای از دست دادن موارد بیشتری از سرطان نسبت به آنچه کاملاً ضروری است باشد، در حالی که سیستم را به طور کلی دقیقتر میکند.
برای ما این وحشتناک بود و دانستن آن برای مردم در حوزه فناوری، سیاست و در واقع هر انسان مهم است. در واقع ما با تنظیم کننده های بریتانیا و اتحادیه اروپا تعامل داشته ایم و نتایج نگران کننده خود را با آنها به اشتراک گذاشته ایم. من عمیقاً امیدوارم که این امر به سیاستگذاران اهرم لازم برای اجرای سیاستهای جدیدی را بدهد که از ایجاد چنین آسیبهای جدی توسط هوش مصنوعی جلوگیری میکند.
چگونه چالشهای صنعت فناوری مردانه و در نتیجه صنعت هوش مصنوعی مردانه را پشت سر میگذارید؟
نکته جالب این است که من هرگز تکنولوژی را به عنوان چیزی که "متعلق" به مردان است ندیدم. تنها زمانی که مدرسه را شروع کردم، جامعه به من بيان کرد که فناوری جایی برای افرادی مثل من ندارد. هنوز به یاد دارم که وقتی 10 ساله بودم، برنامه درسی حکم می کرد که دختران باید بافتنی و خیاطی انجام دهند در حالی که پسرها در حال ساختن خانه پرندگان بودند. من همچنین می خواستم یک خانه پرنده بسازم و درخواست کردم که به کلاس پسران منتقل شوم، اما معلمانم به من گفتند که "دختران این کار را نمی کنند." حتی برای لغو این تصمیم به مدیر مدرسه رفتم اما متاسفانه در آن زمان موفق نشدم.
مبارزه با کلیشه ای که می گوید نباید بخشی از این جامعه باشید بسیار سخت است. کاش میتوانستم بگویم که دیگر چنین اتفاقاتی نمیافتد، اما متاسفانه این درست نیست.
با این حال، من بسیار خوش شانس بودم که با متحدانی مانند برنت میتلشتات و کریس راسل کار کردم. من از امتیاز مربیان باورنکردنی مانند دکتری ام برخوردار بودم. ناظر و من یک شبکه رو به رشد از افراد همفکر از هر جنسیت داریم که تمام تلاش خود را می کنند تا مسیر را برای بهبود وضعیت برای همه کسانی که به فناوری علاقه دارند هدایت کنند.
چه توصیه ای به زنانی که به دنبال ورود به حوزه هوش مصنوعی هستند می دهید؟
بیش از هر چیز سعی کنید افراد و متحدان همفکر خود را پیدا کنید. پیدا کردن افراد خود و حمایت از یکدیگر بسیار مهم است. تاثیرگذارترین کار من همیشه از صحبت با افراد با ذهن باز از زمینه ها و رشته های دیگر برای حل مشکلات رایجی است که با آن روبرو هستیم. خرد پذیرفته شده به تنهایی نمی تواند مشکلات جدید را حل کند، پس زنان و سایر گروه هایی که در طول تاریخ با موانعی برای ورود به هوش مصنوعی و سایر زمینه های فناوری مواجه بوده اند، ابزارهایی را برای نوآوری واقعی و ارائه چیزهای جدید در اختیار دارند.
برخی از مهم ترین مسائلی که هوش مصنوعی در حال تکامل با آن مواجه است چیست؟
من فکر می کنم طیف گسترده ای از مسائل وجود دارد که نیاز به تحلیل جدی حقوقی و سیاسی دارد. برای نام بردن از چند مورد، هوش مصنوعی گرفتار داده های مغرضانه است که منجر به نتایج تبعیض آمیز و ناعادلانه می شود. هوش مصنوعی ذاتاً غیرشفاف است و درک آن دشوار است، با این حال وظیفه دارد تصمیم بگیرد که چه کسی وام می گیرد، چه کسی شغل را دریافت می کند، چه کسی باید به زندان برود و چه کسی اجازه دارد به دانشگاه برود.
هوش مصنوعی مولد مشکلات مرتبطی دارد، اما همچنین به اطلاعات نادرست کمک می کند، مملو از توهم است، حفاظت از داده ها و حقوق مالکیت معنوی را نقض می کند، مشاغل مردم را در معرض خطر قرار می دهد و بیشتر از صنعت هوانوردی به تغییرات آب و هوایی کمک می کند.
ما زمانی برای از دست دادن نداریم. ما باید دیروز به این مسائل بپردازیم.
برخی از مسائلی که کاربران هوش مصنوعی باید از آن آگاه باشند چیست؟
من فکر میکنم این تمایل وجود دارد که روایت خاصی را در امتداد این جمله باور کنیم که "هوش مصنوعی اینجاست و اینجاست تا بماند، سوار شود یا عقب بماند." من فکر می کنم مهم است که به این فکر کنیم که چه کسی این روایت را پیش می برد و چه کسی از آن سود می برد. مهم است که به یاد داشته باشید که قدرت واقعی کج است. قدرت در اختیار کسانی نیست که نوآوری می کنند، بلکه در اختیار کسانی است که هوش مصنوعی را خریداری و پیاده سازی می کنند.
پس مصرفکنندگان و کسبوکارها باید از خود بپرسند: «آیا این فناوری واقعاً به من کمک میکند و در چه زمینهای؟» مسواک های برقی اکنون "AI" در آنها تعبیه شده است. این برای کیست؟ چه کسی به این نیاز دارد؟ چه چیزی در اینجا در حال بهبود است؟
به عبارت دیگر، از خود بپرسید چه چیزی خراب است و چه چیزی نیاز به تعمیر دارد و آیا هوش مصنوعی واقعاً می تواند آن را برطرف کند.
این نوع تفکر قدرت بازار را تغییر خواهد داد و امیدواریم نوآوری به سمتی هدایت شود که به جای صرفاً سود، بر سودمندی برای یک جامعه تمرکز دارد.
بهترین راه برای ساختن مسئولانه هوش مصنوعی چیست؟
وجود قوانینی که نیاز به هوش مصنوعی مسئولانه دارند. در اینجا نیز روایتی بسیار غیرمفید و نادرست غالب است: این مقررات نوآوری را خفه میکند. این درست نیست. مقررات نوآوری مضر را خفه می کند. قوانین خوب نوآوری اخلاقی را تقویت و تغذیه می کند. به همین دلیل است که ما ماشینها، هواپیماها، قطارها و پلهای امن داریم. اگر مقررات مانع از آن شود، جامعه ضرر نمی کند
ایجاد هوش مصنوعی که حقوق بشر را نقض می کند.
همچنین گفته شد که قوانین ترافیکی و ایمنی برای خودروها "نوآوری را خفه می کند" و "استقلال" را محدود می کند. این قوانین از رانندگی بدون گواهینامه جلوگیری می کند، از ورود خودروهایی که کمربند ایمنی و کیسه هوا ندارند جلوگیری می کند و افرادی را که با سرعت مجاز رانندگی نمی کنند مجازات می کند. تصور کنید اگر قوانینی برای تنظیم وسایل نقلیه و رانندگان نداشته باشیم، سابقه ایمنی صنعت خودرو چگونه خواهد بود. هوش مصنوعی در حال حاضر در نقطه عطف مشابهی قرار دارد و لابیگری صنایع سنگین و فشار سیاسی به این معنی است که هنوز مشخص نیست که کدام مسیر را طی خواهد کرد.
چگونه سرمایه گذاران بهتر می توانند برای هوش مصنوعی مسئول فشار بیاورند؟
چند سال پیش مقالهای نوشتم به نام «هوش مصنوعی چگونه میتواند ما را ثروتمندتر کند». من عمیقا معتقدم که هوش مصنوعی که به حقوق بشر احترام می گذارد و بی طرفانه، قابل توضیح و پایدار است، نه تنها از نظر قانونی، اخلاقی و اخلاقی کار درستی است، بلکه می تواند سودآور نیز باشد.
من واقعا امیدوارم که سرمایه گذاران متوجه شوند که اگر برای تحقیق و نوآوری مسئولانه اصرار دارند، محصولات بهتری نیز دریافت خواهند کرد. داده های بد، الگوریتم های بد و انتخاب های بد طراحی منجر به محصولات بدتر می شود. حتی اگر نتوانم شما را متقاعد کنم که باید کار اخلاقی را انجام دهید زیرا این کار درستی است، امیدوارم ببینید که کار اخلاقی نیز سود بیشتری دارد. اخلاق باید به عنوان یک سرمایه گذاری در نظر گرفته شود، نه مانعی برای غلبه بر آن.
ارسال نظر