آیا «ما مردم» میتوانیم هوش مصنوعی را کنترل کنیم؟


فنآور و محقق Aviv Ovadya مطمئن نیست که میتوان هوش مصنوعی مولد را کنترل کرد، اما او فکر میکند که معقولترین ابزار برای کنترل آن ممکن است تنها سپردن به افرادی که تحت تأثیر هوش مصنوعی قرار میگیرند تصمیمگیری جمعی در مورد راههای مهار آن داشته باشند.
یعنی شما؛ یعنی من این قدرت شبکههای بزرگی از افراد است که مشکلات را سریعتر و عادلانهتر حل میکنند تا اینکه یک گروه کوچک از افراد به تنهایی (از جمله در واشنگتن) انجام دهند. این اساساً بر خرد جمعیت تکیه دارد و در بسیاری از زمینه ها از جمله تحقیقات علمی، تجارت، سیاست و جنبش های اجتماعی در حال وقوع است.
به عنوان مثال، در تایوان، هکرهای متفکر مدنی در سال 2015 یک پلت فرم - "تایوان مجازی" - تشکیل دادند که "نمایندگان بخش های عمومی، خصوصی و اجتماعی را گرد هم می آورد تا راه حل های سیاستی برای مشکلات مربوط به اقتصاد دیجیتال را به بحث بگذارند." در سال 2019 توسط وزیر دیجیتال تایوان، آدری تانگ در نیویورک تایمز. تانگ در آن زمان نوشت، از آن زمان، vTaiwan، همانطور که شناخته شده است، با «تکیه بر ترکیبی از بحث آنلاین و گفتگوهای رو در رو با سهامداران» به ده ها مسئله پرداخته است.
یک ابتکار مشابه، تحلیل ابتکار شهروندان اورگان است که در سال 2011 به تصویب قانون رسید و از طریق یک "فرایند مشورتی" مبتنی بر شهروندان، مردم رای دهنده ایالت را در مورد اقدامات رای گیری آگاه می کند. تقریباً 20 تا 25 شهروند که نماینده کل رای دهندگان اورگان هستند گرد هم آمده اند تا در مورد شایستگی یک ابتکار بحث کنند. سپس به طور جمعی بیانیه ای در مورد آن ابتکار می نویسند که برای رای دهندگان دیگر ایالت ارسال می شود تا بتوانند تصمیمات آگاهانه تری در روزهای انتخابات بگیرند.
فرآیندهای به اصطلاح مشورتی همچنین با موفقیت به حل مسائل در استرالیا (سیاست آب)، کانادا (اصلاحات انتخاباتی)، شیلی (مستمری بازنشستگی و مراقبت های بهداشتی) و آرژانتین (مسکن، مالکیت زمین) در میان جاهای دیگر کمک کرده است.
اوادیا که وابسته به مرکز برکمن کلاین هاروارد است و کارش به طور فزایندهای بر تأثیرات هوش مصنوعی بر جامعه و دموکراسی متمرکز است، اذعان میکند: «موانعی برای کار کردن این کار وجود دارد»، زیرا مربوط به هوش مصنوعی است. او خاطرنشان می کند: «اما از نظر تجربی، این کار در هر قاره در سراسر جهان، در هر مقیاسی انجام شده است» و «هرچه سریعتر بتوانیم برخی از این موارد را در جای خود قرار دهیم، بهتر است».
اجازه دادن به بخش بزرگی از مردم درباره دستورالعملهای قابل قبول برای هوش مصنوعی ممکن است برای برخی عجیب به نظر برسد، اما حتی فنآوران فکر میکنند که این بخشی از راهحل است. میرا موراتی، مدیر ارشد فناوری استارتآپ برجسته هوش مصنوعی OpenAI، در مصاحبهای جدید به مجله تایم او میگوید : «[ما گروه کوچکی از مردم هستیم و به تعداد زیادی ورودی بیشتر در این سیستم و ورودیهای بسیار بیشتری نیاز داریم. فراتر از فناوریها است - قطعاً قانونگذاران، دولتها و همه افراد دیگر.»
در پاسخ به این سوال که آیا موراتی میترسد که دخالت دولت بتواند نوآوری را کند کند یا اینکه فکر میکند هنوز برای سیاستگذاران و تنظیمکنندهها خیلی زود است که درگیر شوند، او به این رسانه او میگوید : «خیلی زود نیست» و پیامهای OpenAI مربوط به سالها قبل را منعکس میکند. با توجه به تأثیری که این فناوریها خواهند داشت، برای همه مهم است که شروع به مشارکت کنند.»
در خلاء نظارتی کنونی، OpenAI رویکردی خودگردان را در پیش گرفته است، و دستورالعملهایی را برای استفاده ایمن از فناوری خود وضع کرده و تکرارهای جدید را به صورت غیرمستقیم ارائه میکند - که گاهی اوقات باعث ناامیدی عموم مردم میشود.
در همین حال، اتحادیه اروپا در حال تدوین یک چارچوب نظارتی - قانون هوش مصنوعی - است که راه خود را در پارلمان اروپا باز کرده و هدف آن تبدیل شدن به یک استاندارد جهانی است. این قانون کاربردهای هوش مصنوعی را به سه دسته خطر اختصاص میدهد: برنامهها و سیستمهایی که «ریسک غیرقابل قبول» ایجاد میکنند. "برنامه های پرخطر" که مشمول الزامات قانونی خاص هستند. و برنامههایی که صراحتاً ممنوع یا فهرستبندی نشدهاند و بهعنوان پرخطر فهرست نشدهاند و تا حد زیادی بدون نظارت رها میشوند.
وزارت بازرگانی ایالات متحده همچنین چارچوبی داوطلبانه را بهعنوان راهنمایی برای شرکتها تهیه کرده است، اما در مواقعی که به شدت مورد نیاز است، هیچ مقرراتی وجود ندارد. (علاوه بر OpenAI، غولهای فناوری مانند مایکروسافت و گوگل - علیرغم اینکه توسط نسخههای قبلی هوش مصنوعی خود سوختند که نتیجه معکوس داشت - دوباره بهطور علنی برای عرضه محصولات و برنامههای مبتنی بر هوش مصنوعی رقابت میکنند تا مبادا پشت سر بگذارند.)
نوعی کنسرسیوم وب جهانی، یک سازمان بین المللی که در سال 1994 برای تعیین استانداردهایی برای وب جهانی ایجاد شد، ظاهرا منطقی است. در واقع، موراتی به تایم او میگوید که « صداهای مختلف، مانند فیلسوفان، دانشمندان علوم اجتماعی، هنرمندان و افرادی از علوم انسانی» باید گرد هم آیند تا به بسیاری از «سوالات اخلاقی و فلسفی که باید در نظر بگیریم» پاسخ دهند.
به اصطلاح هوش جمعی می تواند بسیاری از شکاف های بین ضربات قلم مو را پر کند.
ابزارهای جدیدتر ممکن است به این هدف برسند. سام آلتمن، مدیر عامل هوش مصنوعی Open، همچنین یکی از بنیانگذاران یک شرکت اسکن شبکیه چشم در برلین به نام WorldCoin است که میخواهد احراز هویت افراد را آسان کند. سوالاتی در مورد پیامدهای حریم خصوصی و امنیتی رویکرد بیومتریک WorldCoin مطرح شده است، اما کاربردهای بالقوه آن شامل توزیع درآمد پایه جهانی جهانی و همچنین توانمندسازی اشکال جدید دموکراسی دیجیتال است.
در هر صورت، اوادیا فکر میکند که هوش جمعی راهی برای ایجاد سریع مرزها در اطراف هوش مصنوعی است و در عین حال به بازیگران صنعت اعتبار بیشتری میدهد.
Ovadya او میگوید : «OpenAI در حال حاضر از همه انتقاد میکند»، از جمله در مورد تعصب لیبرال درک شده آن. «این [برای شرکت] مفید خواهد بود که یک پاسخ واقعاً مشخص» در مورد اینکه چگونه سیاستهای آتی خود را تعیین میکند.
Ovadya به طور مشابه به Stability.AI، شرکت منبع باز هوش مصنوعی اشاره می کند که مدیر عامل آن، عماد مستقی، بارها پیشنهاد کرده است که Stability دموکراتیک تر از OpenAI است، زیرا در همه جا در دسترس است، در حالی که OpenAI فقط در کشورهایی در حال حاضر در دسترس است که می تواند ارائه دهد. دسترسی ایمن.»
اوادیا او میگوید : «عماد در استیبلی او میگوید که هوش مصنوعی را دموکراتیک میکند. خوب، آیا واقعاً خوب نیست که از فرآیندهای دموکراتیک برای فهمیدن اینکه مردم واقعاً چه می خواهند استفاده کنیم؟
ارسال نظر