متن خبر

a16z VC Martin Casado توضیح می دهد که چرا بسیاری از مقررات هوش مصنوعی اشتباه هستند

a16z VC Martin Casado توضیح می دهد که چرا بسیاری از مقررات هوش مصنوعی اشتباه هستند

شناسهٔ خبر: 812042 -




مشکل اکثر تلاش‌ها برای تنظیم هوش مصنوعی تا کنون این است که قانون‌گذاران به جای درک واقعی خطرات جدیدی که هوش مصنوعی معرفی می‌کند، بر برخی از تجربه‌های افسانه‌ای در آینده تمرکز می‌کنند.

پس ، شریک عمومی اندرسن هوروویتز، وی سی مارتین کاسادو، هفته گذشته در TechCrunch Disrupt 2024 با یک جمعیت ایستاده بحث کرد. کاسادو که مدیریت زیرساخت های 1.25 میلیارد دلاری a16z را بر عهده دارد، در استارت آپ های هوش مصنوعی مانند World Labs، Cursor، Ideogram و Braintrust سرمایه گذاری کرده است.

«تکنولوژی‌ها و مقررات دگرگون‌کننده برای دهه‌ها این گفتمان جاری بوده است، درست است؟ پس چیزی که در مورد تمام گفتمان هوش مصنوعی وجود دارد این است که به نظر می رسد به نوعی از هیچ جا بیرون آمده است. » او به جمعیت گفت. "آنها به نوعی سعی در ایجاد قوانین جدید بدون استفاده از این درس ها دارند."

به عنوان مثال، او گفت: «آیا واقعاً تعاریف هوش مصنوعی را در این سیاست‌ها دیده‌اید؟ حتی نمی‌توانیم آن را تعریف کنیم.»

کاسادو یکی از صداهای دره سیلیکون بود که وقتی فرماندار کالیفرنیا، گاوین نیوسام، قانون تلاش ایالتی برای مدیریت هوش مصنوعی، SB 1047 را وتو کرد، خوشحال شد. این قانون می‌خواست یک سوئیچ به اصطلاح kill را در مدل‌های هوش مصنوعی فوق‌العاده بزرگ قرار دهد. آنها را خاموش کنید کسانی که با این لایحه مخالفت کردند گفتند که این لایحه آنقدر ضعیف بود که به جای اینکه ما را از یک هیولای خیالی هوش مصنوعی در آینده نجات دهد، به سادگی صحنه توسعه هوش مصنوعی کالیفرنیا را سردرگم و مختل می کرد.

او چند هفته قبل از وتو شدن این لایحه در X پست کرد: «من معمولاً می‌شنوم که بنیانگذاران از نقل مکان به اینجا خودداری می‌کنند، زیرا نشان‌دهنده نگرش کالیفرنیا در مورد هوش مصنوعی است – اینکه ما قوانین بد مبتنی بر نگرانی‌های علمی تخیلی را به جای خطرات ملموس ترجیح می‌دهیم. .

در حالی که این قانون خاص ایالتی مرده است، وجود آن هنوز کاسادو را آزار می دهد. او نگران است که اگر سیاستمداران تصمیم بگیرند به جای اینکه بر آنچه این فناوری واقعاً انجام می‌دهد نظارت کنند، صورت‌حساب‌های بیشتری که به همین روش ساخته می‌شوند، محقق شوند.

او فناوری هوش مصنوعی را بهتر از همه می‌داند. قبل از پیوستن به شرکت مشهور VC، کاسادو دو شرکت دیگر از جمله یک شرکت زیرساخت شبکه به نام Nicira را تأسیس کرد که یک دهه پیش به قیمت 1.26 میلیارد دلار به VMware فروخت. قبل از آن، کاسادو کارشناس امنیت کامپیوتر در آزمایشگاه ملی لاورنس لیورمور بود.

او او میگوید که بسیاری از مقررات پیشنهادی هوش مصنوعی از بسیاری از افرادی که فناوری هوش مصنوعی را بهتر می‌دانند، از جمله دانشگاهیان و بخش تجاری که محصولات هوش مصنوعی را می‌سازند، نیامده‌اند و مورد حمایت قرار نگرفته‌اند.

"شما باید تصوری از ریسک حاشیه ای داشته باشید که متفاوت است. مثلاً، امروزه هوش مصنوعی با افرادی که از گوگل استفاده می کنند، چه تفاوتی دارد؟ امروزه هوش مصنوعی با افرادی که فقط از اینترنت استفاده می کنند، چه تفاوتی دارد؟ اگر مدلی برای متفاوت بودن آن داشته باشیم، شما تصوری از ریسک حاشیه ای دارید و سپس می توانید سیاست هایی را اعمال کنید که این ریسک حاشیه ای را برطرف می کند.

او استدلال می‌کند: «من فکر می‌کنم قبل از اینکه شروع کنیم [بر روی] دسته‌ای از مقررات، کمی زود هستیم تا واقعاً بفهمیم که چه چیزی را تنظیم می‌کنیم».

استدلال متقابل - و یکی از چند نفر از حضار مطرح شد - این بود که جهان واقعاً انواع آسیب‌هایی را که اینترنت یا رسانه‌های اجتماعی می‌توانستند قبل از اینکه این آسیب‌ها متوجه ما شوند، ندیدند. زمانی که گوگل و فیس بوک راه اندازی شدند، هیچ کس نمی دانست که بر تبلیغات آنلاین تسلط خواهند داشت یا داده های زیادی از افراد جمع آوری می کنند. وقتی رسانه های اجتماعی جوان بودند، هیچ کس چیزهایی مانند زورگویی سایبری یا اتاق های پژواک را درک ن کرد.

طرفداران مقررات هوش مصنوعی اکنون اغلب به این شرایط گذشته اشاره می کنند و می گویند که این فناوری ها باید زودتر تنظیم می شدند.

پاسخ کاسادو؟

"یک رژیم نظارتی قوی امروز وجود دارد که بیش از 30 سال توسعه یافته است" و به خوبی برای ایجاد سیاست های جدید برای هوش مصنوعی و سایر فناوری ها مجهز است. درست است، تنها در سطح فدرال، نهادهای نظارتی شامل همه چیز از کمیسیون ارتباطات فدرال گرفته تا کمیته علم، فضا و فناوری مجلس نمایندگان می‌شوند. هنگامی که TechCrunch روز چهارشنبه پس از انتخابات از کاسادو پرسید که آیا او بر این عقیده می‌ایستد - اینکه مقررات هوش مصنوعی باید مسیری را دنبال کند که قبلاً توسط نهادهای نظارتی موجود ایجاد شده است - او بيان کرد که این کار را انجام داده است.

اما او همچنین معتقد است که هوش مصنوعی نباید به دلیل مشکلات مربوط به سایر فناوری ها مورد هدف قرار گیرد. به جای آن باید فناوری هایی که باعث ایجاد این مشکلات شده اند مورد هدف قرار گیرند.

او گفت: «اگر در رسانه‌های اجتماعی اشتباه کرده‌ایم، نمی‌توانید با قرار دادن آن در هوش مصنوعی آن را برطرف کنید. "مردم مقررات هوش مصنوعی، آنها می گویند، "اوه، ما آن را در شبکه های اجتماعی اشتباه کردیم، پس ما آن را در AI درست خواهیم کرد" که یک بیانیه مزخرف است. بیایید آن را در شبکه اجتماعی درست کنیم.»

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است