متن خبر

زنان در هوش مصنوعی: ساندرا واچر، استاد اخلاق داده در آکسفورد

زنان در هوش مصنوعی: ساندرا واچر، استاد اخلاق داده در آکسفورد

شناسهٔ خبر: 456798 -




TechCrunch برای اینکه به زنان دانشگاهی و سایرین که با تمرکز بر هوش مصنوعی تمرکز دارند، زمان شایسته و دیررس آنها را در کانون توجه قرار دهد، مجموعه‌ای از مصاحبه‌ها را با تمرکز بر زنان برجسته‌ای که در انقلاب هوش مصنوعی مشارکت داشته‌اند، راه‌اندازی می‌کند. با ادامه رونق هوش مصنوعی، چندین قطعه را در طول سال منتشر خواهیم کرد و کارهای کلیدی را که اغلب ناشناخته می‌مانند برجسته می‌کنیم. پروفایل های بیشتر را اینجا بخوانید.

ساندرا واچر پروفسور و محقق ارشد در اخلاق داده ها، هوش مصنوعی، روباتیک، الگوریتم ها و مقررات در موسسه اینترنت آکسفورد است. او همچنین یکی از همکاران سابق موسسه آلن تورینگ، موسسه ملی علوم داده و هوش مصنوعی بریتانیا است.

در حالی که واچر در موسسه تورینگ بود، جنبه‌های اخلاقی و قانونی علم داده را ارزیابی کرد و مواردی را برجسته کرد که الگوریتم‌های مبهم نژادپرستانه و جنسیت‌گرا شده‌اند. او همچنین به راه‌هایی برای ممیزی هوش مصنوعی برای مقابله با اطلاعات نادرست و ترویج عدالت نگاه کرد.

پرسش و پاسخ

به طور خلاصه، چگونه شروع به هوش مصنوعی کردید؟ چه چیزی شما را به این رشته جذب کرد؟

زمانی را در زندگی‌ام به خاطر نمی‌آورم که فکر نمی‌کردم نوآوری و فناوری پتانسیل باورنکردنی برای بهتر کردن زندگی مردم داشته باشد. با این حال، من همچنین می دانم که فناوری می تواند عواقب مخربی برای زندگی مردم داشته باشد. و پس من همیشه - نه حداقل به دلیل احساس قوی عدالت - رانده شدم تا راهی برای تضمین آن حد وسط کامل بیابم. امکان نوآوری در عین حمایت از حقوق بشر.

من همیشه احساس می کردم که قانون نقش بسیار مهمی دارد. قانون می تواند آن حد وسط توانمندی باشد که هم از مردم محافظت می کند اما هم نوآوری را امکان پذیر می کند. قانون به عنوان یک رشته برای من بسیار طبیعی بود. من چالش ها را دوست دارم، دوست دارم بفهمم یک سیستم چگونه کار می کند، ببینم چگونه می توانم آن را بازی کنم، نقاط ضعف را پیدا کنم و متعاقبا آنها را ببندم.

هوش مصنوعی یک نیروی فوق العاده دگرگون کننده است. این در امور مالی، استخدام، عدالت کیفری، مهاجرت، بهداشت و هنر اجرا می شود. این می تواند خوب و بد باشد. و خوب یا بد بودن آن موضوع طراحی و سیاست است. من به طور طبیعی جذب آن شدم زیرا احساس می کردم که قانون می تواند سهم معناداری در حصول اطمینان از اینکه نوآوری تا آنجا که ممکن است به نفع مردم باشد، داشته باشد.

به چه کاری بیشتر افتخار می کنید (در زمینه هوش مصنوعی)؟

فکر می‌کنم اثری که در حال حاضر بیشتر به آن افتخار می‌کنم، اثری است که با همکاری برنت میتلشتات (فیلسوف)، کریس راسل (دانشمند کامپیوتر) و من به‌عنوان وکیل، نوشته‌ام.

آخرین کار ما در مورد تعصب و انصاف، «ناعادلانه یادگیری ماشین منصفانه»، تأثیر مضر اجرای بسیاری از اقدامات «عدالت گروهی» را در عمل نشان داد. به طور خاص، انصاف به جای کمک به گروه‌های محروم، با «پایین‌تر کردن» یا بدتر کردن وضعیت همه به دست می‌آید. این رویکرد در چارچوب قانون عدم تبعیض اتحادیه اروپا و بریتانیا و همچنین از نظر اخلاقی مشکل ساز است. در مقاله‌ای در Wired بحث کردیم که کاهش سطح در عمل چقدر می‌تواند مضر باشد – برای مثال در مراقبت‌های بهداشتی، اجرای انصاف گروهی می‌تواند به معنای از دست دادن موارد بیشتری از سرطان نسبت به آنچه کاملاً ضروری است باشد، در حالی که سیستم را به طور کلی دقیق‌تر می‌کند.

برای ما این وحشتناک بود و دانستن آن برای مردم در حوزه فناوری، سیاست و در واقع هر انسان مهم است. در واقع ما با تنظیم کننده های بریتانیا و اتحادیه اروپا تعامل داشته ایم و نتایج نگران کننده خود را با آنها به اشتراک گذاشته ایم. من عمیقاً امیدوارم که این امر به سیاستگذاران اهرم لازم برای اجرای سیاست‌های جدیدی را بدهد که از ایجاد چنین آسیب‌های جدی توسط هوش مصنوعی جلوگیری می‌کند.

چگونه چالش‌های صنعت فناوری مردانه و در نتیجه صنعت هوش مصنوعی مردانه را پشت سر می‌گذارید؟

نکته جالب این است که من هرگز تکنولوژی را به عنوان چیزی که "متعلق" به مردان است ندیدم. تنها زمانی که مدرسه را شروع کردم، جامعه به من بيان کرد که فناوری جایی برای افرادی مثل من ندارد. هنوز به یاد دارم که وقتی 10 ساله بودم، برنامه درسی حکم می کرد که دختران باید بافتنی و خیاطی انجام دهند در حالی که پسرها در حال ساختن خانه پرندگان بودند. من همچنین می خواستم یک خانه پرنده بسازم و درخواست کردم که به کلاس پسران منتقل شوم، اما معلمانم به من گفتند که "دختران این کار را نمی کنند." حتی برای لغو این تصمیم به مدیر مدرسه رفتم اما متاسفانه در آن زمان موفق نشدم.

مبارزه با کلیشه ای که می گوید نباید بخشی از این جامعه باشید بسیار سخت است. کاش می‌توانستم بگویم که دیگر چنین اتفاقاتی نمی‌افتد، اما متاسفانه این درست نیست.

با این حال، من بسیار خوش شانس بودم که با متحدانی مانند برنت میتلشتات و کریس راسل کار کردم. من از امتیاز مربیان باورنکردنی مانند دکتری ام برخوردار بودم. ناظر و من یک شبکه رو به رشد از افراد همفکر از هر جنسیت داریم که تمام تلاش خود را می کنند تا مسیر را برای بهبود وضعیت برای همه کسانی که به فناوری علاقه دارند هدایت کنند.

چه توصیه ای به زنانی که به دنبال ورود به حوزه هوش مصنوعی هستند می دهید؟

بیش از هر چیز سعی کنید افراد و متحدان همفکر خود را پیدا کنید. پیدا کردن افراد خود و حمایت از یکدیگر بسیار مهم است. تاثیرگذارترین کار من همیشه از صحبت با افراد با ذهن باز از زمینه ها و رشته های دیگر برای حل مشکلات رایجی است که با آن روبرو هستیم. خرد پذیرفته شده به تنهایی نمی تواند مشکلات جدید را حل کند، پس زنان و سایر گروه هایی که در طول تاریخ با موانعی برای ورود به هوش مصنوعی و سایر زمینه های فناوری مواجه بوده اند، ابزارهایی را برای نوآوری واقعی و ارائه چیزهای جدید در اختیار دارند.

برخی از مهم ترین مسائلی که هوش مصنوعی در حال تکامل با آن مواجه است چیست؟

من فکر می کنم طیف گسترده ای از مسائل وجود دارد که نیاز به تحلیل جدی حقوقی و سیاسی دارد. برای نام بردن از چند مورد، هوش مصنوعی گرفتار داده های مغرضانه است که منجر به نتایج تبعیض آمیز و ناعادلانه می شود. هوش مصنوعی ذاتاً غیرشفاف است و درک آن دشوار است، با این حال وظیفه دارد تصمیم بگیرد که چه کسی وام می گیرد، چه کسی شغل را دریافت می کند، چه کسی باید به زندان برود و چه کسی اجازه دارد به دانشگاه برود.

هوش مصنوعی مولد مشکلات مرتبطی دارد، اما همچنین به اطلاعات نادرست کمک می کند، مملو از توهم است، حفاظت از داده ها و حقوق مالکیت معنوی را نقض می کند، مشاغل مردم را در معرض خطر قرار می دهد و بیشتر از صنعت هوانوردی به تغییرات آب و هوایی کمک می کند.

ما زمانی برای از دست دادن نداریم. ما باید دیروز به این مسائل بپردازیم.

برخی از مسائلی که کاربران هوش مصنوعی باید از آن آگاه باشند چیست؟

من فکر می‌کنم این تمایل وجود دارد که روایت خاصی را در امتداد این جمله باور کنیم که "هوش مصنوعی اینجاست و اینجاست تا بماند، سوار شود یا عقب بماند." من فکر می کنم مهم است که به این فکر کنیم که چه کسی این روایت را پیش می برد و چه کسی از آن سود می برد. مهم است که به یاد داشته باشید که قدرت واقعی کج است. قدرت در اختیار کسانی نیست که نوآوری می کنند، بلکه در اختیار کسانی است که هوش مصنوعی را خریداری و پیاده سازی می کنند.

پس مصرف‌کنندگان و کسب‌وکارها باید از خود بپرسند: «آیا این فناوری واقعاً به من کمک می‌کند و در چه زمینه‌ای؟» مسواک های برقی اکنون "AI" در آنها تعبیه شده است. این برای کیست؟ چه کسی به این نیاز دارد؟ چه چیزی در اینجا در حال بهبود است؟

به عبارت دیگر، از خود بپرسید چه چیزی خراب است و چه چیزی نیاز به تعمیر دارد و آیا هوش مصنوعی واقعاً می تواند آن را برطرف کند.

این نوع تفکر قدرت بازار را تغییر خواهد داد و امیدواریم نوآوری به سمتی هدایت شود که به جای صرفاً سود، بر سودمندی برای یک جامعه تمرکز دارد.

بهترین راه برای ساختن مسئولانه هوش مصنوعی چیست؟

وجود قوانینی که نیاز به هوش مصنوعی مسئولانه دارند. در اینجا نیز روایتی بسیار غیرمفید و نادرست غالب است: این مقررات نوآوری را خفه می‌کند. این درست نیست. مقررات نوآوری مضر را خفه می کند. قوانین خوب نوآوری اخلاقی را تقویت و تغذیه می کند. به همین دلیل است که ما ماشین‌ها، هواپیماها، قطارها و پل‌های امن داریم. اگر مقررات مانع از آن شود، جامعه ضرر نمی کند
ایجاد هوش مصنوعی که حقوق بشر را نقض می کند.

همچنین گفته شد که قوانین ترافیکی و ایمنی برای خودروها "نوآوری را خفه می کند" و "استقلال" را محدود می کند. این قوانین از رانندگی بدون گواهینامه جلوگیری می کند، از ورود خودروهایی که کمربند ایمنی و کیسه هوا ندارند جلوگیری می کند و افرادی را که با سرعت مجاز رانندگی نمی کنند مجازات می کند. تصور کنید اگر قوانینی برای تنظیم وسایل نقلیه و رانندگان نداشته باشیم، سابقه ایمنی صنعت خودرو چگونه خواهد بود. هوش مصنوعی در حال حاضر در نقطه عطف مشابهی قرار دارد و لابی‌گری صنایع سنگین و فشار سیاسی به این معنی است که هنوز مشخص نیست که کدام مسیر را طی خواهد کرد.

چگونه سرمایه گذاران بهتر می توانند برای هوش مصنوعی مسئول فشار بیاورند؟

چند سال پیش مقاله‌ای نوشتم به نام «هوش مصنوعی چگونه می‌تواند ما را ثروتمندتر کند». من عمیقا معتقدم که هوش مصنوعی که به حقوق بشر احترام می گذارد و بی طرفانه، قابل توضیح و پایدار است، نه تنها از نظر قانونی، اخلاقی و اخلاقی کار درستی است، بلکه می تواند سودآور نیز باشد.

من واقعا امیدوارم که سرمایه گذاران متوجه شوند که اگر برای تحقیق و نوآوری مسئولانه اصرار دارند، محصولات بهتری نیز دریافت خواهند کرد. داده های بد، الگوریتم های بد و انتخاب های بد طراحی منجر به محصولات بدتر می شود. حتی اگر نتوانم شما را متقاعد کنم که باید کار اخلاقی را انجام دهید زیرا این کار درستی است، امیدوارم ببینید که کار اخلاقی نیز سود بیشتری دارد. اخلاق باید به عنوان یک سرمایه گذاری در نظر گرفته شود، نه مانعی برای غلبه بر آن.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است