متن خبر

زنان در هوش مصنوعی: کلر لیبوویچ، متخصص هوش مصنوعی و یکپارچگی رسانه در PAI

زنان در هوش مصنوعی: کلر لیبوویچ، متخصص هوش مصنوعی و یکپارچگی رسانه در PAI

شناسهٔ خبر: 456928 -




TechCrunch برای اینکه به زنان دانشگاهی و سایرین که با تمرکز بر هوش مصنوعی تمرکز دارند، زمان شایسته و دیررس آنها را در کانون توجه قرار دهد، مجموعه‌ای از مصاحبه‌ها را با تمرکز بر زنان برجسته‌ای که در انقلاب هوش مصنوعی مشارکت داشته‌اند، راه‌اندازی می‌کند. با ادامه رونق هوش مصنوعی، چندین قطعه را در طول سال منتشر خواهیم کرد و کارهای کلیدی را که اغلب ناشناخته می‌مانند برجسته می‌کنیم. پروفایل های بیشتر را اینجا بخوانید.

Claire Leibowicz رئیس برنامه هوش مصنوعی و یکپارچگی رسانه در Partnership on AI (PAI) است، گروه صنعتی که توسط آمازون، متا، گوگل، مایکروسافت و دیگران متعهد به استقرار "مسئولانه" فناوری هوش مصنوعی هستند. او همچنین بر کمیته راهبری هوش مصنوعی و یکپارچگی رسانه PAI نظارت می کند.

در سال 2021، لیبوویچ در مجله تبلت عضو روزنامه‌نگاری بود و در سال 2022 در مرکز بلاژیو بنیاد راکفلر با تمرکز بر حاکمیت هوش مصنوعی بود. لیبوویچ - که دارای مدرک لیسانس روانشناسی و علوم کامپیوتر از هاروارد و مدرک کارشناسی ارشد از آکسفورد است - به شرکت ها، دولت ها و سازمان های غیرانتفاعی در مورد حکمرانی هوش مصنوعی، رسانه های مولد و اطلاعات دیجیتال مشاوره داده است.

پرسش و پاسخ

به طور خلاصه، چگونه شروع به هوش مصنوعی کردید؟ چه چیزی شما را به این رشته جذب کرد؟

ممکن است متناقض به نظر برسد، اما من به دلیل علاقه به رفتار انسانی وارد حوزه هوش مصنوعی شدم. من در نیویورک بزرگ شدم و همیشه شیفته شیوه‌های تعامل مردم در آنجا و نحوه شکل‌گیری چنین جامعه‌ای متنوع بودم. کنجکاو بودم درباره سؤالات بزرگی که بر حقیقت و عدالت تأثیر می گذارد، مانند اینکه چگونه به دیگران اعتماد کنیم؟ چه چیزی باعث تضاد بین گروهی می شود؟ چرا مردم بعضی چیزها را درست می دانند و بعضی را نه؟ من شروع به تحلیل این سؤالات در زندگی آکادمیک خود از طریق تحقیقات علوم شناختی کردم و به سرعت متوجه شدم که فناوری بر پاسخ به این سؤالات تأثیر می گذارد. همچنین برای من جالب بود که چگونه هوش مصنوعی می تواند استعاره ای از هوش انسانی باشد.

این من را وارد کلاس های درس علوم کامپیوتر کرد، جایی که اساتید - باید فریاد بزنم پروفسور باربارا گروس، که پیشگام در پردازش زبان طبیعی است، و پروفسور جیم والدو، که فلسفه و پیشینه علوم کامپیوتری خود را با هم ترکیب کرده است - بر اهمیت پر کردن کلاس های درس خود تأکید کردند. رشته های غیر کامپیوتری و مهندسی برای تمرکز بر تاثیر اجتماعی فناوری ها، از جمله هوش مصنوعی. و این قبل از آن بود که «اخلاق هوش مصنوعی» یک زمینه متمایز و محبوب باشد. آنها روشن کردند که در حالی که درک فنی مفید است، فناوری بر قلمروهای وسیعی از جمله ژئوپلیتیک، اقتصاد، تعامل اجتماعی و موارد دیگر تأثیر می‌گذارد، در نتیجه از افراد با پیشینه‌های رشته‌ای مختلف می‌خواهد تا در مورد سؤالات به ظاهر تکنولوژیک فکر کنند.

چه معلمی باشید که به این فکر می‌کند که چگونه ابزارهای هوش مصنوعی مولد بر آموزش تأثیر می‌گذارند، مدیر موزه‌ای که با یک مسیر پیش‌بینی برای یک نمایشگاه آزمایش می‌کند یا پزشکی که روش‌های جدید تشخیص تصویر را برای خواندن گزارش‌های آزمایشگاهی تحلیل می‌کند، هوش مصنوعی می‌تواند بر حوزه شما تأثیر بگذارد. این واقعیت، که هوش مصنوعی حوزه‌های زیادی را تحت تأثیر قرار می‌دهد، من را مجذوب خود کرد: کار در زمینه هوش مصنوعی، تنوع فکری ذاتی داشت، و این فرصتی را برای تأثیرگذاری بر بسیاری از جنبه‌های جامعه به ارمغان آورد.

به چه کاری بیشتر افتخار می کنید (در زمینه هوش مصنوعی)؟

من به کار در هوش مصنوعی که دیدگاه‌های متفاوت را به شیوه‌ای شگفت‌انگیز و کنش‌محور گرد هم می‌آورد، افتخار می‌کنم - که نه تنها مخالفت‌ها را در بر می‌گیرد، بلکه تشویق می‌کند. من شش سال پیش به‌عنوان دومین کارمند سازمان به PAI پیوستم و بلافاصله احساس کردم که سازمان در تعهد خود به دیدگاه‌های مختلف دنباله‌دار است. PAI چنین کاری را یک پیش نیاز حیاتی برای حکمرانی هوش مصنوعی می‌دانست که آسیب را کاهش می‌دهد و منجر به پذیرش عملی و تأثیرگذاری در زمینه هوش مصنوعی می‌شود. این حقیقت ثابت شده است، و من مشتاق شدم به شکل دادن به استقبال چند رشته ای PAI کمک کنم و شاهد رشد موسسه در کنار حوزه هوش مصنوعی باشم.

کار ما بر روی رسانه‌های مصنوعی در شش سال گذشته بسیار قبل از اینکه هوش مصنوعی مولد بخشی از آگاهی عمومی شود، آغاز شد و نمونه‌ای از امکانات حاکمیت هوش مصنوعی چندجانبه است. در سال 2020، ما با 9 سازمان مختلف از جامعه مدنی، صنعت و رسانه کار کردیم تا چالش تشخیص عمیق فیس بوک را شکل دهیم، مسابقه یادگیری ماشینی برای ساخت مدل هایی برای شناسایی رسانه های تولید شده توسط هوش مصنوعی. این دیدگاه‌های بیرونی به شکل‌دهی عادلانه و اهداف مدل‌های برنده کمک کردند - نشان دادند که چگونه کارشناسان حقوق بشر و روزنامه‌نگاران می‌توانند به یک سوال ظاهراً فنی مانند تشخیص عمیق دروغین کمک کنند. سال گذشته، مجموعه‌ای هنجاری از راهنمایی‌ها را در مورد رسانه‌های مصنوعی مسئول منتشر کردیم - شیوه‌های مسئول PAI برای رسانه‌های مصنوعی - که اکنون 18 حامی از پیشینه‌های بسیار متفاوت دارد، از OpenAI گرفته تا TikTok تا Code for Africa، Bumble، BBC و WITNESS. اینکه بتوانیم بر روی رهنمودهای عملی که از واقعیت‌های فنی و اجتماعی اطلاع داده می‌شود، روی کاغذ بنویسیم، یک چیز است، اما دریافت حمایت نهادی واقعاً چیز دیگری است. در این مورد، مؤسسات متعهد به ارائه گزارش‌های شفاف در مورد نحوه حرکت در حوزه رسانه مصنوعی هستند. پروژه‌های هوش مصنوعی که دارای راهنمایی ملموس هستند و نشان می‌دهند که چگونه می‌توان این راهنمایی‌ها را در سراسر مؤسسات پیاده‌سازی کرد، برای من اصلی ترین آنها هستند.

چگونه چالش‌های صنعت فناوری مردانه و در نتیجه صنعت هوش مصنوعی مردانه را پشت سر می‌گذارید؟

من در طول زندگی حرفه‌ای خود، مربیان زن و مرد فوق‌العاده‌ای داشته‌ام. یافتن افرادی که به طور همزمان از من حمایت و به چالش می کشند، کلید رشدی است که من تجربه کرده ام. من متوجه شدم که تمرکز بر علایق مشترک و بحث در مورد سؤالاتی که زمینه هوش مصنوعی را متحرک می کند، می تواند افراد با زمینه ها و دیدگاه های مختلف را دور هم جمع کند. نکته جالب این است که تیم PAI از بیش از نیمی از زنان تشکیل شده است و بسیاری از سازمان‌هایی که در زمینه هوش مصنوعی و جامعه یا پرسش‌های مسئولیت‌پذیر هوش مصنوعی کار می‌کنند، تعداد زیادی از زنان کارمند هستند. این اغلب برخلاف تیم‌های تحقیقاتی مهندسی و هوش مصنوعی است و گامی در جهت درست برای نمایندگی در اکوسیستم هوش مصنوعی است.

چه توصیه ای به زنانی که به دنبال ورود به حوزه هوش مصنوعی هستند می دهید؟

همانطور که در سوال قبلی به آن اشاره کردم، برخی از فضاهای عمدتاً مردانه در هوش مصنوعی که با آنها مواجه شده ام، فنی ترین فضاها نیز بوده اند. در حالی که ما نباید زیرکی فنی را بر سایر اشکال سواد در زمینه هوش مصنوعی اولویت دهیم، دریافته ام که داشتن آموزش فنی برای اعتماد به نفس و اثربخشی من در چنین فضاهایی یک موهبت بوده است. ما به نمایندگی برابر در نقش‌های فنی و گشودن به تخصص افراد متخصص در زمینه‌های دیگر مانند حقوق مدنی و سیاست که نمایندگی متعادل‌تری دارند، نیاز داریم. در عین حال، تجهیز بیشتر زنان به سواد فنی کلیدی برای متعادل کردن نمایندگی در زمینه هوش مصنوعی است.

همچنین ارتباط با زنانی در زمینه هوش مصنوعی که تعادل بین زندگی خانوادگی و حرفه‌ای را دنبال کرده‌اند، بسیار معنادار یافته‌ام. یافتن الگوهایی برای صحبت در مورد سؤالات بزرگ مرتبط با شغل و والدین - و برخی از چالش‌های منحصربه‌فردی که زنان هنوز در محل کار با آن‌ها مواجه هستند - باعث شده است که احساس کنم برای مقابله با برخی از آن چالش‌ها در زمان بروز آنها، آمادگی بیشتری دارم.

برخی از مهم ترین مسائلی که هوش مصنوعی در حال تکامل با آن مواجه است چیست؟

سوالات حقیقت و اعتماد آنلاین - و آفلاین - با تکامل هوش مصنوعی به طور فزاینده ای پیچیده می شوند. از آنجایی که محتوایی از تصاویر گرفته تا ویدیوها و متن را می‌توان با هوش مصنوعی تولید کرد یا تغییر داد، آیا دیدن همچنان باور دارد؟ در صورتی که اسناد به راحتی و به طور واقع بینانه قابل تحلیل باشند، چگونه می توانیم به شواهد اعتماد کنیم؟ اگر تقلید از یک شخص واقعی بسیار آسان است، آیا می‌توانیم فضاهایی برای انسان‌ها به صورت آنلاین داشته باشیم؟ چگونه می‌توانیم معاوضه‌هایی را که هوش مصنوعی بین آزادی بیان و احتمال آسیب رساندن به سیستم‌های هوش مصنوعی ایجاد می‌کند، تحلیل کنیم؟ به طور گسترده تر، چگونه می توانیم اطمینان حاصل کنیم که محیط اطلاعاتی نه تنها توسط چند شرکت منتخب و کسانی که برای آنها کار می کنند شکل می گیرد، بلکه دیدگاه سهامداران از سراسر جهان، از جمله مردم را نیز در بر می گیرد؟

در کنار این سؤالات خاص، PAI در جنبه‌های دیگری از هوش مصنوعی و جامعه نقش داشته است، از جمله اینکه چگونه انصاف و تعصب را در عصر تصمیم‌گیری الگوریتمی در نظر می‌گیریم، چگونه کار تأثیر می‌گذارد و تحت تأثیر هوش مصنوعی قرار می‌گیرد، چگونه می‌توان در استقرار مسئولانه سیستم‌های هوش مصنوعی پیمایش کرد و حتی چگونه می توان سیستم های هوش مصنوعی را منعکس کننده دیدگاه های بی شماری کرد. در سطح ساختاری، ما باید در نظر بگیریم که چگونه حکمرانی هوش مصنوعی می‌تواند با ترکیب دیدگاه‌های مختلف، مبادلات گسترده را برطرف کند.

برخی از مسائلی که کاربران هوش مصنوعی باید از آن آگاه باشند چیست؟

ابتدا، کاربران هوش مصنوعی باید بدانند که اگر چیزی بیش از حد خوب به نظر می رسد که درست باشد، احتمالاً درست است.

رونق مولد هوش مصنوعی در سال گذشته، البته، نشان دهنده نبوغ و نوآوری بسیار زیاد بوده است، اما همچنین منجر به ارسال پیام های عمومی پیرامون هوش مصنوعی شده است که اغلب هذلولی و نادرست است.

کاربران هوش مصنوعی همچنین باید درک کنند که هوش مصنوعی انقلابی نیست، بلکه مشکلات و فرصت‌های موجود را تشدید و افزایش می‌دهد. این بدان معنا نیست که آنها باید هوش مصنوعی را کمتر جدی بگیرند، بلکه از این دانش به عنوان پایه ای مفید برای پیمایش در دنیایی که به طور فزاینده ای از هوش مصنوعی استفاده می شود، استفاده کنند. به عنوان مثال، اگر نگران این واقعیت هستید که افراد می توانند قبل از انتخابات با تغییر عنوان، یک ویدیو را به اشتباه زمینه سازی کنند، باید نگران سرعت و مقیاسی باشید که می توانند با استفاده از فناوری دیپ فیک آنها را گمراه کنند. اگر نگران استفاده از نظارت در محل کار هستید، باید در نظر داشته باشید که چگونه هوش مصنوعی چنین نظارتی را آسان‌تر و فراگیرتر می‌کند. حفظ شک و تردید سالم در مورد جدید بودن مشکلات هوش مصنوعی، در عین حال صادق بودن در مورد آنچه در لحظه کنونی متمایز است، چارچوبی مفید برای کاربران است که بتوانند با هوش مصنوعی مواجه شوند.

بهترین راه برای ساختن مسئولانه هوش مصنوعی چیست؟

ایجاد مسئولانه هوش مصنوعی مستلزم آن است که تصور خود را از اینکه چه کسی در «ساختن» هوش مصنوعی ایفا می کند را گسترش دهیم. البته، تأثیرگذاری بر شرکت‌های فناوری و پلت‌فرم‌های رسانه‌های اجتماعی یک راه کلیدی برای تأثیرگذاری بر تأثیر سیستم‌های هوش مصنوعی است و این مؤسسات برای ساختن فناوری مسئولانه حیاتی هستند. در عین حال، ما باید اذعان کنیم که چگونه نهادهای متنوعی از جامعه مدنی، صنعت، رسانه، دانشگاه و مردم باید به مشارکت در ساخت هوش مصنوعی مسئولانه که در خدمت منافع عمومی باشد، ادامه دهند.

به عنوان مثال، توسعه و استقرار مسئول رسانه های مصنوعی را در نظر بگیرید.

در حالی که شرکت‌های فناوری ممکن است نگران مسئولیت خود در هنگام تحلیل نحوه تأثیرگذاری یک ویدیوی مصنوعی بر روی کاربران قبل از انتخابات باشند، روزنامه‌نگاران ممکن است نگران عواملی باشند که ویدیوهای مصنوعی را ایجاد می‌کنند که ادعا می‌کنند از برند خبری مورد اعتماد آنها می‌آیند. مدافعان حقوق بشر ممکن است مسئولیت مرتبط با نحوه کاهش تأثیر ویدیوها توسط رسانه های تولید شده توسط هوش مصنوعی را به عنوان شواهدی از سوء استفاده در نظر بگیرند. و هنرمندان ممکن است از فرصتی برای بیان خود از طریق رسانه‌های مولد هیجان‌زده شوند، در حالی که نگران این باشند که چگونه ممکن است از آثارشان بدون رضایت آنها برای آموزش مدل‌های هوش مصنوعی که رسانه‌های جدید تولید می‌کنند، استفاده شود. این ملاحظات متنوع نشان می‌دهد که مشارکت دادن سهامداران مختلف در ابتکارات و تلاش‌ها برای ایجاد مسئولانه هوش مصنوعی چقدر حیاتی است و چگونه نهادهای بی‌شماری تحت تأثیر - و تأثیر - بر نحوه ادغام هوش مصنوعی در جامعه هستند.

چگونه سرمایه گذاران بهتر می توانند برای هوش مصنوعی مسئول فشار بیاورند؟

سال‌ها پیش، شنیدم که دی‌جی پاتیل، دانشمند ارشد سابق داده در کاخ سفید، بازنگری در شعار فراگیر «سریع حرکت کن و چیزها را بشکن» دوران اولیه رسانه‌های اجتماعی را توصیف می‌ کرد. او این حوزه را پیشنهاد کرد «هدفمند حرکت کنید و مسائل را اصلاح کنید».

من این را دوست داشتم، زیرا به معنای رکود یا کنار گذاشتن نوآوری نیست، بلکه قصد و نیت و احتمال اینکه فرد بتواند در حین پذیرش مسئولیت، نوآوری کند. سرمایه‌گذاران باید به القای این ذهنیت کمک کنند - به شرکت‌های پرتفولیوی خود زمان و فضای بیشتری بدهند تا در شیوه‌های هوش مصنوعی مسئولانه بدون خفه کردن پیشرفت کار کنند. اغلب، مؤسسات زمان محدود و ضرب‌الاجل‌های محدود را به‌عنوان عامل محدودکننده برای انجام کار «درست» توصیف می‌کنند و سرمایه‌گذاران می‌توانند کاتالیزور اصلی برای تغییر این پویایی باشند.

هر چه بیشتر در زمینه هوش مصنوعی کار کرده ام، بیشتر متوجه شده ام که با سؤالات عمیقاً انسانی دست و پنجه نرم می کنم. و این سوالات نیازمند پاسخگویی همه ما به آنه است.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است