متن خبر

زنان در هوش مصنوعی: هایدی خلاف، مدیر مهندسی ایمنی در Trail of Bits

زنان در هوش مصنوعی: هایدی خلاف، مدیر مهندسی ایمنی در Trail of Bits

شناسهٔ خبر: 457066 -




TechCrunch برای اینکه زنان دانشگاهی متمرکز بر هوش مصنوعی و دیگران را در کانون توجه قرار دهد، یک سری مصاحبه با تمرکز بر زنان برجسته ای که در انقلاب هوش مصنوعی نقش داشته اند، راه اندازی می کند. با ادامه رونق هوش مصنوعی، چندین قطعه را در طول سال منتشر خواهیم کرد و کارهای کلیدی را که اغلب ناشناخته می‌مانند برجسته می‌کنیم. پروفایل های بیشتر را اینجا بخوانید.

هایدی خلاف یک مدیر مهندسی در شرکت امنیت سایبری Trail of Bits است. او در ارزیابی نرم‌افزارها و پیاده‌سازی‌های هوش مصنوعی در سیستم‌های «امنیت حیاتی»، مانند نیروگاه‌های هسته‌ای و خودروهای خودمختار، تخصص دارد.

خلاف دکترای علوم کامپیوتر خود را دریافت کرد. از دانشگاه کالج لندن و لیسانس او ​​در علوم کامپیوتر و فلسفه از دانشگاه ایالتی فلوریدا. او ممیزی های ایمنی و امنیت را رهبری کرد، مشاوره و تحلیل موارد اطمینان ارائه کرد و در ایجاد استانداردها و دستورالعمل ها برای برنامه های کاربردی مرتبط با ایمنی و امنیت و توسعه آنها مشارکت داشت.

پرسش و پاسخ

به طور خلاصه، چگونه شروع به هوش مصنوعی کردید؟ چه چیزی شما را به این رشته جذب کرد؟

من در سنین بسیار جوانی به سمت رباتیک جذب شدم و در سن 15 سالگی برنامه نویسی را شروع کردم زیرا مجذوب چشم انداز استفاده از رباتیک و هوش مصنوعی (از آنجایی که به طور غیرقابل توضیحی به هم مرتبط هستند) برای خودکار کردن حجم کاری در جایی که بیشتر مورد نیاز است بودم. مانند تولید، من دیدم که از رباتیک برای کمک به افراد مسن استفاده می شود - و کار یدی خطرناک را در جامعه ما خودکار می کند. من دکترای خود را دریافت کردم. در زیر زمینه متفاوتی از علوم کامپیوتر، زیرا من معتقدم که داشتن یک پایه نظری قوی در علوم کامپیوتر به شما این امکان را می دهد که تصمیمات علمی و تحصیل کرده ای بگیرید که در چه مواردی ممکن است هوش مصنوعی مناسب باشد یا نباشد، و در کجا ممکن است تله ها وجود داشته باشد.

به چه کاری بیشتر افتخار می کنید (در زمینه هوش مصنوعی)؟

با استفاده از تخصص و پیشینه قوی خود در مهندسی ایمنی و سیستم های حیاتی ایمنی برای ارائه زمینه و انتقاد در صورت نیاز در زمینه جدید "ایمنی" هوش مصنوعی. اگرچه حوزه ایمنی هوش مصنوعی سعی در تطبیق و استناد به تکنیک‌های ایمنی و امنیتی به خوبی تثبیت شده داشته است، اصطلاحات مختلف در کاربرد و معنای آن سوء تعبیر شده است. فقدان تعاریف منسجم یا عمدی وجود دارد که یکپارچگی تکنیک‌های ایمنی را که جامعه هوش مصنوعی در حال حاضر استفاده می‌کند به خطر بیاندازد. من به ویژه به «به سوی ارزیابی جامع ریسک و اطمینان از سیستم‌های مبتنی بر هوش مصنوعی» و «چارچوب تجزیه و تحلیل خطر برای مدل‌های زبان بزرگ ترکیب کد» افتخار می‌کنم که در آن روایت‌های نادرست در مورد ایمنی و ارزیابی‌های هوش مصنوعی را تحلیل می‌کنم و گام‌های مشخصی برای پل زدن با شکاف ایمنی در هوش مصنوعی

چگونه چالش‌های صنعت فناوری مردانه و در نتیجه صنعت هوش مصنوعی مردانه را پشت سر می‌گذارید؟

اذعان به اینکه وضعیت موجود چقدر کمی تغییر کرده است چیزی نیست که ما اغلب در مورد آن صحبت می کنیم، اما معتقدم در واقع برای من و سایر زنان فنی مهم است که موقعیت خود را در صنعت درک کنیم و دیدگاهی واقع بینانه در مورد تغییرات مورد نیاز داشته باشیم. از زمانی که من به این حوزه پیوستم، میزان حفظ و نسبت زنانی که مناصب رهبری را در اختیار دارند تا حد زیادی ثابت مانده است، و این بیش از یک دهه پیش است. و همانطور که TechCrunch به درستی اشاره کرده است، با وجود پیشرفت‌ها و مشارکت‌های فوق‌العاده زنان در هوش مصنوعی، ما از گفتگوهایی که خودمان تعریف کرده‌ایم کنار می‌مانیم. شناخت این عدم پیشرفت به من کمک کرد تا درک کنم که ایجاد یک جامعه شخصی قوی به عنوان منبع حمایت بسیار ارزشمندتر است تا تکیه بر ابتکارات DEI که متأسفانه سوزن را حرکت نداده است، از آنجایی که تعصب و شک نسبت به زنان فنی هنوز کاملاً فراگیر است. فن آوری

چه توصیه ای به زنانی که به دنبال ورود به حوزه هوش مصنوعی هستند می دهید؟

نه اینکه به مرجعیت متوسل شوید و یک خط کاری پیدا کنید که واقعاً به آن اعتقاد دارید، حتی اگر با روایت های رایج در تضاد باشد. با توجه به قدرتی که آزمایشگاه‌های هوش مصنوعی از لحاظ سیاسی و اقتصادی در حال حاضر دارند، این غریزه وجود دارد که هر چیزی را که «رهبران فکری» هوش مصنوعی بیان می‌کنند به عنوان واقعیت در نظر بگیریم، در حالی که اغلب مواردی هستند که بسیاری از ادعاهای هوش مصنوعی بازاریابی هستند که توانایی‌های هوش مصنوعی را برای منفعت نشان می‌دهند. یک خط پایین با این حال، من تردید قابل توجهی را، به ویژه در میان زنان جوان در این زمینه، برای ابراز تردید در برابر ادعاهای همسالان مرد خود که قابل اثبات نیست، می بینم. سندرم ایمپوستر تأثیر زیادی بر زنان در حوزه فناوری دارد و باعث می‌شود که بسیاری از یکپارچگی علمی خود شک کنند. اما مهم‌تر از هر زمان دیگری به چالش کشیدن ادعاهایی که توانایی‌های هوش مصنوعی را اغراق می‌کنند، به ویژه آن‌هایی که تحت روش علمی قابل ابطال نیستند، اهمیت دارد.

برخی از مهم ترین مسائلی که هوش مصنوعی در حال تکامل با آن مواجه است چیست؟

صرف نظر از پیشرفت هایی که در هوش مصنوعی مشاهده خواهیم کرد، آنها هرگز راه حلی منحصر به فرد، چه از لحاظ تکنولوژیکی یا اجتماعی، برای مسائل ما نخواهند بود. در حال حاضر گرایشی وجود دارد که هوش مصنوعی را در هر سیستم ممکن، صرف نظر از اثربخشی (یا عدم وجود آن) در دامنه‌های متعدد، جابجا می‌کند. هوش مصنوعی باید به جای جایگزینی توانایی‌های انسان را تقویت کند، و ما شاهد نادیده گرفتن کامل مشکلات هوش مصنوعی و حالت‌های شکست هستیم که منجر به آسیب‌های ملموس واقعی می‌شود. اخیراً یک سیستم هوش مصنوعی ShotSpotter اخیراً منجر به تیراندازی یک افسر به سمت یک کودک شد.

برخی از مسائلی که کاربران هوش مصنوعی باید از آن آگاه باشند چیست؟

چقدر هوش مصنوعی واقعا غیر قابل اعتماد است. الگوریتم‌های هوش مصنوعی با نرخ خطای بالایی که در بین برنامه‌هایی که به دقت، دقت و اهمیت حیاتی نیاز دارند، ناقص هستند. روشی که سیستم‌های هوش مصنوعی آموزش داده می‌شوند، تعصب و تبعیض انسانی را در خروجی‌هایشان تعبیه می‌کند که «عملی» و خودکار می‌شوند. و این به این دلیل است که ماهیت سیستم‌های هوش مصنوعی ارائه نتایج مبتنی بر استنباط‌ها و همبستگی‌های آماری و احتمالی از داده‌های تاریخی است، و نه هر نوع استدلال، شواهد واقعی یا «علت».

بهترین راه برای ساختن مسئولانه هوش مصنوعی چیست؟

برای اطمینان از اینکه هوش مصنوعی به گونه ای توسعه یافته است که از حقوق و ایمنی افراد از طریق ایجاد ادعاهای قابل تأیید محافظت کند و توسعه دهندگان هوش مصنوعی را در برابر آنها پاسخگو نگه دارد. این ادعاها همچنین باید در یک برنامه نظارتی، ایمنی، اخلاقی یا فنی باشد و نباید قابل جعل باشند. در غیر این صورت، فقدان قابل توجهی از یکپارچگی علمی برای ارزیابی مناسب این سیستم ها وجود دارد. تنظیم‌کننده‌های مستقل همچنین باید سیستم‌های هوش مصنوعی را در برابر این ادعاها ارزیابی کنند، همانطور که در حال حاضر برای بسیاری از محصولات و سیستم‌ها در صنایع دیگر مورد نیاز است - به عنوان مثال، مواردی که توسط FDA ارزیابی می‌شوند. سیستم‌های هوش مصنوعی نباید از فرآیندهای حسابرسی استانداردی که برای اطمینان از حمایت عمومی و مصرف‌کننده به خوبی تثبیت شده‌اند مستثنی شوند.

چگونه سرمایه گذاران بهتر می توانند برای هوش مصنوعی مسئولانه فشار بیاورند؟

سرمایه گذاران باید با سازمان هایی که به دنبال ایجاد و پیشبرد شیوه های حسابرسی برای هوش مصنوعی هستند، تعامل داشته باشند و سرمایه گذاری کنند. در حال حاضر بیشتر بودجه در آزمایشگاه‌های هوش مصنوعی سرمایه‌گذاری می‌شود، با این باور که تیم‌های ایمنی آنها برای پیشرفت ارزیابی‌های هوش مصنوعی کافی هستند. با این حال، حسابرسان و تنظیم‌کننده‌های مستقل کلید اعتماد عمومی هستند. استقلال به مردم اجازه می دهد تا به دقت و صداقت ارزیابی ها و یکپارچگی نتایج نظارتی اعتماد کنند.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است