زنان در هوش مصنوعی: کلر لیبوویچ، متخصص هوش مصنوعی و یکپارچگی رسانه در PAI
![](https://khabarkaav.ir/wp-content/uploads/2024/03/women-in-ai-leibowicz-1.jpg)
![](https://techcrunch.com/wp-content/uploads/2024/03/women-in-ai-leibowicz.jpg?resize=1200,675)
TechCrunch برای اینکه به زنان دانشگاهی و سایرین که با تمرکز بر هوش مصنوعی تمرکز دارند، زمان شایسته و دیررس آنها را در کانون توجه قرار دهد، مجموعهای از مصاحبهها را با تمرکز بر زنان برجستهای که در انقلاب هوش مصنوعی مشارکت داشتهاند، راهاندازی میکند. با ادامه رونق هوش مصنوعی، چندین قطعه را در طول سال منتشر خواهیم کرد و کارهای کلیدی را که اغلب ناشناخته میمانند برجسته میکنیم. پروفایل های بیشتر را اینجا بخوانید.
Claire Leibowicz رئیس برنامه هوش مصنوعی و یکپارچگی رسانه در Partnership on AI (PAI) است، گروه صنعتی که توسط آمازون، متا، گوگل، مایکروسافت و دیگران متعهد به استقرار "مسئولانه" فناوری هوش مصنوعی هستند. او همچنین بر کمیته راهبری هوش مصنوعی و یکپارچگی رسانه PAI نظارت می کند.
در سال 2021، لیبوویچ در مجله تبلت عضو روزنامهنگاری بود و در سال 2022 در مرکز بلاژیو بنیاد راکفلر با تمرکز بر حاکمیت هوش مصنوعی بود. لیبوویچ - که دارای مدرک لیسانس روانشناسی و علوم کامپیوتر از هاروارد و مدرک کارشناسی ارشد از آکسفورد است - به شرکت ها، دولت ها و سازمان های غیرانتفاعی در مورد حکمرانی هوش مصنوعی، رسانه های مولد و اطلاعات دیجیتال مشاوره داده است.
پرسش و پاسخ
به طور خلاصه، چگونه شروع به هوش مصنوعی کردید؟ چه چیزی شما را به این رشته جذب کرد؟
ممکن است متناقض به نظر برسد، اما من به دلیل علاقه به رفتار انسانی وارد حوزه هوش مصنوعی شدم. من در نیویورک بزرگ شدم و همیشه شیفته شیوههای تعامل مردم در آنجا و نحوه شکلگیری چنین جامعهای متنوع بودم. کنجکاو بودم درباره سؤالات بزرگی که بر حقیقت و عدالت تأثیر می گذارد، مانند اینکه چگونه به دیگران اعتماد کنیم؟ چه چیزی باعث تضاد بین گروهی می شود؟ چرا مردم بعضی چیزها را درست می دانند و بعضی را نه؟ من شروع به تحلیل این سؤالات در زندگی آکادمیک خود از طریق تحقیقات علوم شناختی کردم و به سرعت متوجه شدم که فناوری بر پاسخ به این سؤالات تأثیر می گذارد. همچنین برای من جالب بود که چگونه هوش مصنوعی می تواند استعاره ای از هوش انسانی باشد.
این من را وارد کلاس های درس علوم کامپیوتر کرد، جایی که اساتید - باید فریاد بزنم پروفسور باربارا گروس، که پیشگام در پردازش زبان طبیعی است، و پروفسور جیم والدو، که فلسفه و پیشینه علوم کامپیوتری خود را با هم ترکیب کرده است - بر اهمیت پر کردن کلاس های درس خود تأکید کردند. رشته های غیر کامپیوتری و مهندسی برای تمرکز بر تاثیر اجتماعی فناوری ها، از جمله هوش مصنوعی. و این قبل از آن بود که «اخلاق هوش مصنوعی» یک زمینه متمایز و محبوب باشد. آنها روشن کردند که در حالی که درک فنی مفید است، فناوری بر قلمروهای وسیعی از جمله ژئوپلیتیک، اقتصاد، تعامل اجتماعی و موارد دیگر تأثیر میگذارد، در نتیجه از افراد با پیشینههای رشتهای مختلف میخواهد تا در مورد سؤالات به ظاهر تکنولوژیک فکر کنند.
چه معلمی باشید که به این فکر میکند که چگونه ابزارهای هوش مصنوعی مولد بر آموزش تأثیر میگذارند، مدیر موزهای که با یک مسیر پیشبینی برای یک نمایشگاه آزمایش میکند یا پزشکی که روشهای جدید تشخیص تصویر را برای خواندن گزارشهای آزمایشگاهی تحلیل میکند، هوش مصنوعی میتواند بر حوزه شما تأثیر بگذارد. این واقعیت، که هوش مصنوعی حوزههای زیادی را تحت تأثیر قرار میدهد، من را مجذوب خود کرد: کار در زمینه هوش مصنوعی، تنوع فکری ذاتی داشت، و این فرصتی را برای تأثیرگذاری بر بسیاری از جنبههای جامعه به ارمغان آورد.
به چه کاری بیشتر افتخار می کنید (در زمینه هوش مصنوعی)؟
من به کار در هوش مصنوعی که دیدگاههای متفاوت را به شیوهای شگفتانگیز و کنشمحور گرد هم میآورد، افتخار میکنم - که نه تنها مخالفتها را در بر میگیرد، بلکه تشویق میکند. من شش سال پیش بهعنوان دومین کارمند سازمان به PAI پیوستم و بلافاصله احساس کردم که سازمان در تعهد خود به دیدگاههای مختلف دنبالهدار است. PAI چنین کاری را یک پیش نیاز حیاتی برای حکمرانی هوش مصنوعی میدانست که آسیب را کاهش میدهد و منجر به پذیرش عملی و تأثیرگذاری در زمینه هوش مصنوعی میشود. این حقیقت ثابت شده است، و من مشتاق شدم به شکل دادن به استقبال چند رشته ای PAI کمک کنم و شاهد رشد موسسه در کنار حوزه هوش مصنوعی باشم.
کار ما بر روی رسانههای مصنوعی در شش سال گذشته بسیار قبل از اینکه هوش مصنوعی مولد بخشی از آگاهی عمومی شود، آغاز شد و نمونهای از امکانات حاکمیت هوش مصنوعی چندجانبه است. در سال 2020، ما با 9 سازمان مختلف از جامعه مدنی، صنعت و رسانه کار کردیم تا چالش تشخیص عمیق فیس بوک را شکل دهیم، مسابقه یادگیری ماشینی برای ساخت مدل هایی برای شناسایی رسانه های تولید شده توسط هوش مصنوعی. این دیدگاههای بیرونی به شکلدهی عادلانه و اهداف مدلهای برنده کمک کردند - نشان دادند که چگونه کارشناسان حقوق بشر و روزنامهنگاران میتوانند به یک سوال ظاهراً فنی مانند تشخیص عمیق دروغین کمک کنند. سال گذشته، مجموعهای هنجاری از راهنماییها را در مورد رسانههای مصنوعی مسئول منتشر کردیم - شیوههای مسئول PAI برای رسانههای مصنوعی - که اکنون 18 حامی از پیشینههای بسیار متفاوت دارد، از OpenAI گرفته تا TikTok تا Code for Africa، Bumble، BBC و WITNESS. اینکه بتوانیم بر روی رهنمودهای عملی که از واقعیتهای فنی و اجتماعی اطلاع داده میشود، روی کاغذ بنویسیم، یک چیز است، اما دریافت حمایت نهادی واقعاً چیز دیگری است. در این مورد، مؤسسات متعهد به ارائه گزارشهای شفاف در مورد نحوه حرکت در حوزه رسانه مصنوعی هستند. پروژههای هوش مصنوعی که دارای راهنمایی ملموس هستند و نشان میدهند که چگونه میتوان این راهنماییها را در سراسر مؤسسات پیادهسازی کرد، برای من اصلی ترین آنها هستند.
چگونه چالشهای صنعت فناوری مردانه و در نتیجه صنعت هوش مصنوعی مردانه را پشت سر میگذارید؟
من در طول زندگی حرفهای خود، مربیان زن و مرد فوقالعادهای داشتهام. یافتن افرادی که به طور همزمان از من حمایت و به چالش می کشند، کلید رشدی است که من تجربه کرده ام. من متوجه شدم که تمرکز بر علایق مشترک و بحث در مورد سؤالاتی که زمینه هوش مصنوعی را متحرک می کند، می تواند افراد با زمینه ها و دیدگاه های مختلف را دور هم جمع کند. نکته جالب این است که تیم PAI از بیش از نیمی از زنان تشکیل شده است و بسیاری از سازمانهایی که در زمینه هوش مصنوعی و جامعه یا پرسشهای مسئولیتپذیر هوش مصنوعی کار میکنند، تعداد زیادی از زنان کارمند هستند. این اغلب برخلاف تیمهای تحقیقاتی مهندسی و هوش مصنوعی است و گامی در جهت درست برای نمایندگی در اکوسیستم هوش مصنوعی است.
چه توصیه ای به زنانی که به دنبال ورود به حوزه هوش مصنوعی هستند می دهید؟
همانطور که در سوال قبلی به آن اشاره کردم، برخی از فضاهای عمدتاً مردانه در هوش مصنوعی که با آنها مواجه شده ام، فنی ترین فضاها نیز بوده اند. در حالی که ما نباید زیرکی فنی را بر سایر اشکال سواد در زمینه هوش مصنوعی اولویت دهیم، دریافته ام که داشتن آموزش فنی برای اعتماد به نفس و اثربخشی من در چنین فضاهایی یک موهبت بوده است. ما به نمایندگی برابر در نقشهای فنی و گشودن به تخصص افراد متخصص در زمینههای دیگر مانند حقوق مدنی و سیاست که نمایندگی متعادلتری دارند، نیاز داریم. در عین حال، تجهیز بیشتر زنان به سواد فنی کلیدی برای متعادل کردن نمایندگی در زمینه هوش مصنوعی است.
همچنین ارتباط با زنانی در زمینه هوش مصنوعی که تعادل بین زندگی خانوادگی و حرفهای را دنبال کردهاند، بسیار معنادار یافتهام. یافتن الگوهایی برای صحبت در مورد سؤالات بزرگ مرتبط با شغل و والدین - و برخی از چالشهای منحصربهفردی که زنان هنوز در محل کار با آنها مواجه هستند - باعث شده است که احساس کنم برای مقابله با برخی از آن چالشها در زمان بروز آنها، آمادگی بیشتری دارم.
برخی از مهم ترین مسائلی که هوش مصنوعی در حال تکامل با آن مواجه است چیست؟
سوالات حقیقت و اعتماد آنلاین - و آفلاین - با تکامل هوش مصنوعی به طور فزاینده ای پیچیده می شوند. از آنجایی که محتوایی از تصاویر گرفته تا ویدیوها و متن را میتوان با هوش مصنوعی تولید کرد یا تغییر داد، آیا دیدن همچنان باور دارد؟ در صورتی که اسناد به راحتی و به طور واقع بینانه قابل تحلیل باشند، چگونه می توانیم به شواهد اعتماد کنیم؟ اگر تقلید از یک شخص واقعی بسیار آسان است، آیا میتوانیم فضاهایی برای انسانها به صورت آنلاین داشته باشیم؟ چگونه میتوانیم معاوضههایی را که هوش مصنوعی بین آزادی بیان و احتمال آسیب رساندن به سیستمهای هوش مصنوعی ایجاد میکند، تحلیل کنیم؟ به طور گسترده تر، چگونه می توانیم اطمینان حاصل کنیم که محیط اطلاعاتی نه تنها توسط چند شرکت منتخب و کسانی که برای آنها کار می کنند شکل می گیرد، بلکه دیدگاه سهامداران از سراسر جهان، از جمله مردم را نیز در بر می گیرد؟
در کنار این سؤالات خاص، PAI در جنبههای دیگری از هوش مصنوعی و جامعه نقش داشته است، از جمله اینکه چگونه انصاف و تعصب را در عصر تصمیمگیری الگوریتمی در نظر میگیریم، چگونه کار تأثیر میگذارد و تحت تأثیر هوش مصنوعی قرار میگیرد، چگونه میتوان در استقرار مسئولانه سیستمهای هوش مصنوعی پیمایش کرد و حتی چگونه می توان سیستم های هوش مصنوعی را منعکس کننده دیدگاه های بی شماری کرد. در سطح ساختاری، ما باید در نظر بگیریم که چگونه حکمرانی هوش مصنوعی میتواند با ترکیب دیدگاههای مختلف، مبادلات گسترده را برطرف کند.
برخی از مسائلی که کاربران هوش مصنوعی باید از آن آگاه باشند چیست؟
ابتدا، کاربران هوش مصنوعی باید بدانند که اگر چیزی بیش از حد خوب به نظر می رسد که درست باشد، احتمالاً درست است.
رونق مولد هوش مصنوعی در سال گذشته، البته، نشان دهنده نبوغ و نوآوری بسیار زیاد بوده است، اما همچنین منجر به ارسال پیام های عمومی پیرامون هوش مصنوعی شده است که اغلب هذلولی و نادرست است.
کاربران هوش مصنوعی همچنین باید درک کنند که هوش مصنوعی انقلابی نیست، بلکه مشکلات و فرصتهای موجود را تشدید و افزایش میدهد. این بدان معنا نیست که آنها باید هوش مصنوعی را کمتر جدی بگیرند، بلکه از این دانش به عنوان پایه ای مفید برای پیمایش در دنیایی که به طور فزاینده ای از هوش مصنوعی استفاده می شود، استفاده کنند. به عنوان مثال، اگر نگران این واقعیت هستید که افراد می توانند قبل از انتخابات با تغییر عنوان، یک ویدیو را به اشتباه زمینه سازی کنند، باید نگران سرعت و مقیاسی باشید که می توانند با استفاده از فناوری دیپ فیک آنها را گمراه کنند. اگر نگران استفاده از نظارت در محل کار هستید، باید در نظر داشته باشید که چگونه هوش مصنوعی چنین نظارتی را آسانتر و فراگیرتر میکند. حفظ شک و تردید سالم در مورد جدید بودن مشکلات هوش مصنوعی، در عین حال صادق بودن در مورد آنچه در لحظه کنونی متمایز است، چارچوبی مفید برای کاربران است که بتوانند با هوش مصنوعی مواجه شوند.
بهترین راه برای ساختن مسئولانه هوش مصنوعی چیست؟
ایجاد مسئولانه هوش مصنوعی مستلزم آن است که تصور خود را از اینکه چه کسی در «ساختن» هوش مصنوعی ایفا می کند را گسترش دهیم. البته، تأثیرگذاری بر شرکتهای فناوری و پلتفرمهای رسانههای اجتماعی یک راه کلیدی برای تأثیرگذاری بر تأثیر سیستمهای هوش مصنوعی است و این مؤسسات برای ساختن فناوری مسئولانه حیاتی هستند. در عین حال، ما باید اذعان کنیم که چگونه نهادهای متنوعی از جامعه مدنی، صنعت، رسانه، دانشگاه و مردم باید به مشارکت در ساخت هوش مصنوعی مسئولانه که در خدمت منافع عمومی باشد، ادامه دهند.
به عنوان مثال، توسعه و استقرار مسئول رسانه های مصنوعی را در نظر بگیرید.
در حالی که شرکتهای فناوری ممکن است نگران مسئولیت خود در هنگام تحلیل نحوه تأثیرگذاری یک ویدیوی مصنوعی بر روی کاربران قبل از انتخابات باشند، روزنامهنگاران ممکن است نگران عواملی باشند که ویدیوهای مصنوعی را ایجاد میکنند که ادعا میکنند از برند خبری مورد اعتماد آنها میآیند. مدافعان حقوق بشر ممکن است مسئولیت مرتبط با نحوه کاهش تأثیر ویدیوها توسط رسانه های تولید شده توسط هوش مصنوعی را به عنوان شواهدی از سوء استفاده در نظر بگیرند. و هنرمندان ممکن است از فرصتی برای بیان خود از طریق رسانههای مولد هیجانزده شوند، در حالی که نگران این باشند که چگونه ممکن است از آثارشان بدون رضایت آنها برای آموزش مدلهای هوش مصنوعی که رسانههای جدید تولید میکنند، استفاده شود. این ملاحظات متنوع نشان میدهد که مشارکت دادن سهامداران مختلف در ابتکارات و تلاشها برای ایجاد مسئولانه هوش مصنوعی چقدر حیاتی است و چگونه نهادهای بیشماری تحت تأثیر - و تأثیر - بر نحوه ادغام هوش مصنوعی در جامعه هستند.
چگونه سرمایه گذاران بهتر می توانند برای هوش مصنوعی مسئول فشار بیاورند؟
سالها پیش، شنیدم که دیجی پاتیل، دانشمند ارشد سابق داده در کاخ سفید، بازنگری در شعار فراگیر «سریع حرکت کن و چیزها را بشکن» دوران اولیه رسانههای اجتماعی را توصیف می کرد. او این حوزه را پیشنهاد کرد «هدفمند حرکت کنید و مسائل را اصلاح کنید».
من این را دوست داشتم، زیرا به معنای رکود یا کنار گذاشتن نوآوری نیست، بلکه قصد و نیت و احتمال اینکه فرد بتواند در حین پذیرش مسئولیت، نوآوری کند. سرمایهگذاران باید به القای این ذهنیت کمک کنند - به شرکتهای پرتفولیوی خود زمان و فضای بیشتری بدهند تا در شیوههای هوش مصنوعی مسئولانه بدون خفه کردن پیشرفت کار کنند. اغلب، مؤسسات زمان محدود و ضربالاجلهای محدود را بهعنوان عامل محدودکننده برای انجام کار «درست» توصیف میکنند و سرمایهگذاران میتوانند کاتالیزور اصلی برای تغییر این پویایی باشند.
هر چه بیشتر در زمینه هوش مصنوعی کار کرده ام، بیشتر متوجه شده ام که با سؤالات عمیقاً انسانی دست و پنجه نرم می کنم. و این سوالات نیازمند پاسخگویی همه ما به آنه است.
ارسال نظر