زنان در هوش مصنوعی: هایدی خلاف، مدیر مهندسی ایمنی در Trail of Bits
TechCrunch برای اینکه زنان دانشگاهی متمرکز بر هوش مصنوعی و دیگران را در کانون توجه قرار دهد، یک سری مصاحبه با تمرکز بر زنان برجسته ای که در انقلاب هوش مصنوعی نقش داشته اند، راه اندازی می کند. با ادامه رونق هوش مصنوعی، چندین قطعه را در طول سال منتشر خواهیم کرد و کارهای کلیدی را که اغلب ناشناخته میمانند برجسته میکنیم. پروفایل های بیشتر را اینجا بخوانید.
هایدی خلاف یک مدیر مهندسی در شرکت امنیت سایبری Trail of Bits است. او در ارزیابی نرمافزارها و پیادهسازیهای هوش مصنوعی در سیستمهای «امنیت حیاتی»، مانند نیروگاههای هستهای و خودروهای خودمختار، تخصص دارد.
خلاف دکترای علوم کامپیوتر خود را دریافت کرد. از دانشگاه کالج لندن و لیسانس او در علوم کامپیوتر و فلسفه از دانشگاه ایالتی فلوریدا. او ممیزی های ایمنی و امنیت را رهبری کرد، مشاوره و تحلیل موارد اطمینان ارائه کرد و در ایجاد استانداردها و دستورالعمل ها برای برنامه های کاربردی مرتبط با ایمنی و امنیت و توسعه آنها مشارکت داشت.
پرسش و پاسخ
به طور خلاصه، چگونه شروع به هوش مصنوعی کردید؟ چه چیزی شما را به این رشته جذب کرد؟
من در سنین بسیار جوانی به سمت رباتیک جذب شدم و در سن 15 سالگی برنامه نویسی را شروع کردم زیرا مجذوب چشم انداز استفاده از رباتیک و هوش مصنوعی (از آنجایی که به طور غیرقابل توضیحی به هم مرتبط هستند) برای خودکار کردن حجم کاری در جایی که بیشتر مورد نیاز است بودم. مانند تولید، من دیدم که از رباتیک برای کمک به افراد مسن استفاده می شود - و کار یدی خطرناک را در جامعه ما خودکار می کند. من دکترای خود را دریافت کردم. در زیر زمینه متفاوتی از علوم کامپیوتر، زیرا من معتقدم که داشتن یک پایه نظری قوی در علوم کامپیوتر به شما این امکان را می دهد که تصمیمات علمی و تحصیل کرده ای بگیرید که در چه مواردی ممکن است هوش مصنوعی مناسب باشد یا نباشد، و در کجا ممکن است تله ها وجود داشته باشد.
به چه کاری بیشتر افتخار می کنید (در زمینه هوش مصنوعی)؟
با استفاده از تخصص و پیشینه قوی خود در مهندسی ایمنی و سیستم های حیاتی ایمنی برای ارائه زمینه و انتقاد در صورت نیاز در زمینه جدید "ایمنی" هوش مصنوعی. اگرچه حوزه ایمنی هوش مصنوعی سعی در تطبیق و استناد به تکنیکهای ایمنی و امنیتی به خوبی تثبیت شده داشته است، اصطلاحات مختلف در کاربرد و معنای آن سوء تعبیر شده است. فقدان تعاریف منسجم یا عمدی وجود دارد که یکپارچگی تکنیکهای ایمنی را که جامعه هوش مصنوعی در حال حاضر استفاده میکند به خطر بیاندازد. من به ویژه به «به سوی ارزیابی جامع ریسک و اطمینان از سیستمهای مبتنی بر هوش مصنوعی» و «چارچوب تجزیه و تحلیل خطر برای مدلهای زبان بزرگ ترکیب کد» افتخار میکنم که در آن روایتهای نادرست در مورد ایمنی و ارزیابیهای هوش مصنوعی را تحلیل میکنم و گامهای مشخصی برای پل زدن با شکاف ایمنی در هوش مصنوعی
چگونه چالشهای صنعت فناوری مردانه و در نتیجه صنعت هوش مصنوعی مردانه را پشت سر میگذارید؟
اذعان به اینکه وضعیت موجود چقدر کمی تغییر کرده است چیزی نیست که ما اغلب در مورد آن صحبت می کنیم، اما معتقدم در واقع برای من و سایر زنان فنی مهم است که موقعیت خود را در صنعت درک کنیم و دیدگاهی واقع بینانه در مورد تغییرات مورد نیاز داشته باشیم. از زمانی که من به این حوزه پیوستم، میزان حفظ و نسبت زنانی که مناصب رهبری را در اختیار دارند تا حد زیادی ثابت مانده است، و این بیش از یک دهه پیش است. و همانطور که TechCrunch به درستی اشاره کرده است، با وجود پیشرفتها و مشارکتهای فوقالعاده زنان در هوش مصنوعی، ما از گفتگوهایی که خودمان تعریف کردهایم کنار میمانیم. شناخت این عدم پیشرفت به من کمک کرد تا درک کنم که ایجاد یک جامعه شخصی قوی به عنوان منبع حمایت بسیار ارزشمندتر است تا تکیه بر ابتکارات DEI که متأسفانه سوزن را حرکت نداده است، از آنجایی که تعصب و شک نسبت به زنان فنی هنوز کاملاً فراگیر است. فن آوری
چه توصیه ای به زنانی که به دنبال ورود به حوزه هوش مصنوعی هستند می دهید؟
نه اینکه به مرجعیت متوسل شوید و یک خط کاری پیدا کنید که واقعاً به آن اعتقاد دارید، حتی اگر با روایت های رایج در تضاد باشد. با توجه به قدرتی که آزمایشگاههای هوش مصنوعی از لحاظ سیاسی و اقتصادی در حال حاضر دارند، این غریزه وجود دارد که هر چیزی را که «رهبران فکری» هوش مصنوعی بیان میکنند به عنوان واقعیت در نظر بگیریم، در حالی که اغلب مواردی هستند که بسیاری از ادعاهای هوش مصنوعی بازاریابی هستند که تواناییهای هوش مصنوعی را برای منفعت نشان میدهند. یک خط پایین با این حال، من تردید قابل توجهی را، به ویژه در میان زنان جوان در این زمینه، برای ابراز تردید در برابر ادعاهای همسالان مرد خود که قابل اثبات نیست، می بینم. سندرم ایمپوستر تأثیر زیادی بر زنان در حوزه فناوری دارد و باعث میشود که بسیاری از یکپارچگی علمی خود شک کنند. اما مهمتر از هر زمان دیگری به چالش کشیدن ادعاهایی که تواناییهای هوش مصنوعی را اغراق میکنند، به ویژه آنهایی که تحت روش علمی قابل ابطال نیستند، اهمیت دارد.
دیگر اخبار
محصول آفریقایی، بازار جهانی: کارکنان Expensya از خرید در سال 2023 10 میلیون دلار پول نقد کردند.
برخی از مهم ترین مسائلی که هوش مصنوعی در حال تکامل با آن مواجه است چیست؟
صرف نظر از پیشرفت هایی که در هوش مصنوعی مشاهده خواهیم کرد، آنها هرگز راه حلی منحصر به فرد، چه از لحاظ تکنولوژیکی یا اجتماعی، برای مسائل ما نخواهند بود. در حال حاضر گرایشی وجود دارد که هوش مصنوعی را در هر سیستم ممکن، صرف نظر از اثربخشی (یا عدم وجود آن) در دامنههای متعدد، جابجا میکند. هوش مصنوعی باید به جای جایگزینی تواناییهای انسان را تقویت کند، و ما شاهد نادیده گرفتن کامل مشکلات هوش مصنوعی و حالتهای شکست هستیم که منجر به آسیبهای ملموس واقعی میشود. اخیراً یک سیستم هوش مصنوعی ShotSpotter اخیراً منجر به تیراندازی یک افسر به سمت یک کودک شد.
برخی از مسائلی که کاربران هوش مصنوعی باید از آن آگاه باشند چیست؟
چقدر هوش مصنوعی واقعا غیر قابل اعتماد است. الگوریتمهای هوش مصنوعی با نرخ خطای بالایی که در بین برنامههایی که به دقت، دقت و اهمیت حیاتی نیاز دارند، ناقص هستند. روشی که سیستمهای هوش مصنوعی آموزش داده میشوند، تعصب و تبعیض انسانی را در خروجیهایشان تعبیه میکند که «عملی» و خودکار میشوند. و این به این دلیل است که ماهیت سیستمهای هوش مصنوعی ارائه نتایج مبتنی بر استنباطها و همبستگیهای آماری و احتمالی از دادههای تاریخی است، و نه هر نوع استدلال، شواهد واقعی یا «علت».
بهترین راه برای ساختن مسئولانه هوش مصنوعی چیست؟
برای اطمینان از اینکه هوش مصنوعی به گونه ای توسعه یافته است که از حقوق و ایمنی افراد از طریق ایجاد ادعاهای قابل تأیید محافظت کند و توسعه دهندگان هوش مصنوعی را در برابر آنها پاسخگو نگه دارد. این ادعاها همچنین باید در یک برنامه نظارتی، ایمنی، اخلاقی یا فنی باشد و نباید قابل جعل باشند. در غیر این صورت، فقدان قابل توجهی از یکپارچگی علمی برای ارزیابی مناسب این سیستم ها وجود دارد. تنظیمکنندههای مستقل همچنین باید سیستمهای هوش مصنوعی را در برابر این ادعاها ارزیابی کنند، همانطور که در حال حاضر برای بسیاری از محصولات و سیستمها در صنایع دیگر مورد نیاز است - به عنوان مثال، مواردی که توسط FDA ارزیابی میشوند. سیستمهای هوش مصنوعی نباید از فرآیندهای حسابرسی استانداردی که برای اطمینان از حمایت عمومی و مصرفکننده به خوبی تثبیت شدهاند مستثنی شوند.
چگونه سرمایه گذاران بهتر می توانند برای هوش مصنوعی مسئولانه فشار بیاورند؟
سرمایه گذاران باید با سازمان هایی که به دنبال ایجاد و پیشبرد شیوه های حسابرسی برای هوش مصنوعی هستند، تعامل داشته باشند و سرمایه گذاری کنند. در حال حاضر بیشتر بودجه در آزمایشگاههای هوش مصنوعی سرمایهگذاری میشود، با این باور که تیمهای ایمنی آنها برای پیشرفت ارزیابیهای هوش مصنوعی کافی هستند. با این حال، حسابرسان و تنظیمکنندههای مستقل کلید اعتماد عمومی هستند. استقلال به مردم اجازه می دهد تا به دقت و صداقت ارزیابی ها و یکپارچگی نتایج نظارتی اعتماد کنند.
ارسال نظر