متن خبر

آیا «ما مردم» می‌توانیم هوش مصنوعی را کنترل کنیم؟

آیا «ما مردم» می‌توانیم هوش مصنوعی را کنترل کنیم؟

اخبارآیا «ما مردم» می‌توانیم هوش مصنوعی را کنترل کنیم؟
شناسهٔ خبر: 267646 -




خبرکاو:

فن‌آور و محقق Aviv Ovadya مطمئن نیست که می‌توان هوش مصنوعی مولد را کنترل کرد، اما او فکر می‌کند که معقول‌ترین ابزار برای کنترل آن ممکن است تنها سپردن به افرادی که تحت تأثیر هوش مصنوعی قرار می‌گیرند تصمیم‌گیری جمعی در مورد راه‌های مهار آن داشته باشند.

یعنی شما؛ یعنی من این قدرت شبکه‌های بزرگی از افراد است که مشکلات را سریع‌تر و عادلانه‌تر حل می‌کنند تا اینکه یک گروه کوچک از افراد به تنهایی (از جمله در واشنگتن) انجام دهند. این اساساً بر خرد جمعیت تکیه دارد و در بسیاری از زمینه ها از جمله تحقیقات علمی، تجارت، سیاست و جنبش های اجتماعی در حال وقوع است.

به عنوان مثال، در تایوان، هکرهای متفکر مدنی در سال 2015 یک پلت فرم - "تایوان مجازی" - تشکیل دادند که "نمایندگان بخش های عمومی، خصوصی و اجتماعی را گرد هم می آورد تا راه حل های سیاستی برای مشکلات مربوط به اقتصاد دیجیتال را به بحث بگذارند." در سال 2019 توسط وزیر دیجیتال تایوان، آدری تانگ در نیویورک تایمز. تانگ در آن زمان نوشت، از آن زمان، vTaiwan، همانطور که شناخته شده است، با «تکیه بر ترکیبی از بحث آنلاین و گفتگوهای رو در رو با سهامداران» به ده ها مسئله پرداخته است.

یک ابتکار مشابه، تحلیل ابتکار شهروندان اورگان است که در سال 2011 به تصویب قانون رسید و از طریق یک "فرایند مشورتی" مبتنی بر شهروندان، مردم رای دهنده ایالت را در مورد اقدامات رای گیری آگاه می کند. تقریباً 20 تا 25 شهروند که نماینده کل رای دهندگان اورگان هستند گرد هم آمده اند تا در مورد شایستگی یک ابتکار بحث کنند. سپس به طور جمعی بیانیه ای در مورد آن ابتکار می نویسند که برای رای دهندگان دیگر ایالت ارسال می شود تا بتوانند تصمیمات آگاهانه تری در روزهای انتخابات بگیرند.

فرآیندهای به اصطلاح مشورتی همچنین با موفقیت به حل مسائل در استرالیا (سیاست آب)، کانادا (اصلاحات انتخاباتی)، شیلی (مستمری بازنشستگی و مراقبت های بهداشتی) و آرژانتین (مسکن، مالکیت زمین) در میان جاهای دیگر کمک کرده است.

اوادیا که وابسته به مرکز برکمن کلاین هاروارد است و کارش به طور فزاینده‌ای بر تأثیرات هوش مصنوعی بر جامعه و دموکراسی متمرکز است، اذعان می‌کند: «موانعی برای کار کردن این کار وجود دارد»، زیرا مربوط به هوش مصنوعی است. او خاطرنشان می کند: «اما از نظر تجربی، این کار در هر قاره در سراسر جهان، در هر مقیاسی انجام شده است» و «هرچه سریعتر بتوانیم برخی از این موارد را در جای خود قرار دهیم، بهتر است».

اجازه دادن به بخش بزرگی از مردم درباره دستورالعمل‌های قابل قبول برای هوش مصنوعی ممکن است برای برخی عجیب به نظر برسد، اما حتی فن‌آوران فکر می‌کنند که این بخشی از راه‌حل است. میرا موراتی، مدیر ارشد فناوری استارت‌آپ برجسته هوش مصنوعی OpenAI، در مصاحبه‌ای جدید به مجله تایم او میگوید : «[ما گروه کوچکی از مردم هستیم و به تعداد زیادی ورودی بیشتر در این سیستم و ورودی‌های بسیار بیشتری نیاز داریم. فراتر از فناوری‌ها است - قطعاً قانون‌گذاران، دولت‌ها و همه افراد دیگر.»

در پاسخ به این سوال که آیا موراتی می‌ترسد که دخالت دولت بتواند نوآوری را کند کند یا اینکه فکر می‌کند هنوز برای سیاست‌گذاران و تنظیم‌کننده‌ها خیلی زود است که درگیر شوند، او به این رسانه او میگوید : «خیلی زود نیست» و پیام‌های OpenAI مربوط به سال‌ها قبل را منعکس می‌کند. با توجه به تأثیری که این فناوری‌ها خواهند داشت، برای همه مهم است که شروع به مشارکت کنند.»

در خلاء نظارتی کنونی، OpenAI رویکردی خودگردان را در پیش گرفته است، و دستورالعمل‌هایی را برای استفاده ایمن از فناوری خود وضع کرده و تکرارهای جدید را به صورت غیرمستقیم ارائه می‌کند - که گاهی اوقات باعث ناامیدی عموم مردم می‌شود.

در همین حال، اتحادیه اروپا در حال تدوین یک چارچوب نظارتی - قانون هوش مصنوعی - است که راه خود را در پارلمان اروپا باز کرده و هدف آن تبدیل شدن به یک استاندارد جهانی است. این قانون کاربردهای هوش مصنوعی را به سه دسته خطر اختصاص می‌دهد: برنامه‌ها و سیستم‌هایی که «ریسک غیرقابل قبول» ایجاد می‌کنند. "برنامه های پرخطر" که مشمول الزامات قانونی خاص هستند. و برنامه‌هایی که صراحتاً ممنوع یا فهرست‌بندی نشده‌اند و به‌عنوان پرخطر فهرست نشده‌اند و تا حد زیادی بدون نظارت رها می‌شوند.

وزارت بازرگانی ایالات متحده همچنین چارچوبی داوطلبانه را به‌عنوان راهنمایی برای شرکت‌ها تهیه کرده است، اما در مواقعی که به شدت مورد نیاز است، هیچ مقرراتی وجود ندارد. (علاوه بر OpenAI، غول‌های فناوری مانند مایکروسافت و گوگل - علیرغم اینکه توسط نسخه‌های قبلی هوش مصنوعی خود سوختند که نتیجه معکوس داشت - دوباره به‌طور علنی برای عرضه محصولات و برنامه‌های مبتنی بر هوش مصنوعی رقابت می‌کنند تا مبادا پشت سر بگذارند.)

نوعی کنسرسیوم وب جهانی، یک سازمان بین المللی که در سال 1994 برای تعیین استانداردهایی برای وب جهانی ایجاد شد، ظاهرا منطقی است. در واقع، موراتی به تایم او میگوید که « صداهای مختلف، مانند فیلسوفان، دانشمندان علوم اجتماعی، هنرمندان و افرادی از علوم انسانی» باید گرد هم آیند تا به بسیاری از «سوالات اخلاقی و فلسفی که باید در نظر بگیریم» پاسخ دهند.

به اصطلاح هوش جمعی می تواند بسیاری از شکاف های بین ضربات قلم مو را پر کند.

ابزارهای جدیدتر ممکن است به این هدف برسند. سام آلتمن، مدیر عامل هوش مصنوعی Open، همچنین یکی از بنیانگذاران یک شرکت اسکن شبکیه چشم در برلین به نام WorldCoin است که می‌خواهد احراز هویت افراد را آسان کند. سوالاتی در مورد پیامدهای حریم خصوصی و امنیتی رویکرد بیومتریک WorldCoin مطرح شده است، اما کاربردهای بالقوه آن شامل توزیع درآمد پایه جهانی جهانی و همچنین توانمندسازی اشکال جدید دموکراسی دیجیتال است.

در هر صورت، اوادیا فکر می‌کند که هوش جمعی راهی برای ایجاد سریع مرزها در اطراف هوش مصنوعی است و در عین حال به بازیگران صنعت اعتبار بیشتری می‌دهد.

Ovadya او میگوید : «OpenAI در حال حاضر از همه انتقاد می‌کند»، از جمله در مورد تعصب لیبرال درک شده آن. «این [برای شرکت] مفید خواهد بود که یک پاسخ واقعاً مشخص» در مورد اینکه چگونه سیاست‌های آتی خود را تعیین می‌کند.

Ovadya به طور مشابه به Stability.AI، شرکت منبع باز هوش مصنوعی اشاره می کند که مدیر عامل آن، عماد مستقی، بارها پیشنهاد کرده است که Stability دموکراتیک تر از OpenAI است، زیرا در همه جا در دسترس است، در حالی که OpenAI فقط در کشورهایی در حال حاضر در دسترس است که می تواند ارائه دهد. دسترسی ایمن.»

اوادیا او میگوید : «عماد در استیبلی او میگوید که هوش مصنوعی را دموکراتیک می‌کند. خوب، آیا واقعاً خوب نیست که از فرآیندهای دموکراتیک برای فهمیدن اینکه مردم واقعاً چه می خواهند استفاده کنیم؟

خبرکاو

منبع

برچسب‌ها

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است