a16z VC Martin Casado توضیح می دهد که چرا بسیاری از مقررات هوش مصنوعی اشتباه هستند
مشکل اکثر تلاشها برای تنظیم هوش مصنوعی تا کنون این است که قانونگذاران به جای درک واقعی خطرات جدیدی که هوش مصنوعی معرفی میکند، بر برخی از تجربههای افسانهای در آینده تمرکز میکنند.
پس ، شریک عمومی اندرسن هوروویتز، وی سی مارتین کاسادو، هفته گذشته در TechCrunch Disrupt 2024 با یک جمعیت ایستاده بحث کرد. کاسادو که مدیریت زیرساخت های 1.25 میلیارد دلاری a16z را بر عهده دارد، در استارت آپ های هوش مصنوعی مانند World Labs، Cursor، Ideogram و Braintrust سرمایه گذاری کرده است.
«تکنولوژیها و مقررات دگرگونکننده برای دههها این گفتمان جاری بوده است، درست است؟ پس چیزی که در مورد تمام گفتمان هوش مصنوعی وجود دارد این است که به نظر می رسد به نوعی از هیچ جا بیرون آمده است. » او به جمعیت گفت. "آنها به نوعی سعی در ایجاد قوانین جدید بدون استفاده از این درس ها دارند."
به عنوان مثال، او گفت: «آیا واقعاً تعاریف هوش مصنوعی را در این سیاستها دیدهاید؟ حتی نمیتوانیم آن را تعریف کنیم.»
کاسادو یکی از صداهای دره سیلیکون بود که وقتی فرماندار کالیفرنیا، گاوین نیوسام، قانون تلاش ایالتی برای مدیریت هوش مصنوعی، SB 1047 را وتو کرد، خوشحال شد. این قانون میخواست یک سوئیچ به اصطلاح kill را در مدلهای هوش مصنوعی فوقالعاده بزرگ قرار دهد. آنها را خاموش کنید کسانی که با این لایحه مخالفت کردند گفتند که این لایحه آنقدر ضعیف بود که به جای اینکه ما را از یک هیولای خیالی هوش مصنوعی در آینده نجات دهد، به سادگی صحنه توسعه هوش مصنوعی کالیفرنیا را سردرگم و مختل می کرد.
او چند هفته قبل از وتو شدن این لایحه در X پست کرد: «من معمولاً میشنوم که بنیانگذاران از نقل مکان به اینجا خودداری میکنند، زیرا نشاندهنده نگرش کالیفرنیا در مورد هوش مصنوعی است – اینکه ما قوانین بد مبتنی بر نگرانیهای علمی تخیلی را به جای خطرات ملموس ترجیح میدهیم. .
در حالی که این قانون خاص ایالتی مرده است، وجود آن هنوز کاسادو را آزار می دهد. او نگران است که اگر سیاستمداران تصمیم بگیرند به جای اینکه بر آنچه این فناوری واقعاً انجام میدهد نظارت کنند، صورتحسابهای بیشتری که به همین روش ساخته میشوند، محقق شوند.
او فناوری هوش مصنوعی را بهتر از همه میداند. قبل از پیوستن به شرکت مشهور VC، کاسادو دو شرکت دیگر از جمله یک شرکت زیرساخت شبکه به نام Nicira را تأسیس کرد که یک دهه پیش به قیمت 1.26 میلیارد دلار به VMware فروخت. قبل از آن، کاسادو کارشناس امنیت کامپیوتر در آزمایشگاه ملی لاورنس لیورمور بود.
او او میگوید که بسیاری از مقررات پیشنهادی هوش مصنوعی از بسیاری از افرادی که فناوری هوش مصنوعی را بهتر میدانند، از جمله دانشگاهیان و بخش تجاری که محصولات هوش مصنوعی را میسازند، نیامدهاند و مورد حمایت قرار نگرفتهاند.
"شما باید تصوری از ریسک حاشیه ای داشته باشید که متفاوت است. مثلاً، امروزه هوش مصنوعی با افرادی که از گوگل استفاده می کنند، چه تفاوتی دارد؟ امروزه هوش مصنوعی با افرادی که فقط از اینترنت استفاده می کنند، چه تفاوتی دارد؟ اگر مدلی برای متفاوت بودن آن داشته باشیم، شما تصوری از ریسک حاشیه ای دارید و سپس می توانید سیاست هایی را اعمال کنید که این ریسک حاشیه ای را برطرف می کند.
دیگر اخبار
ICYMI: 7 داستان بزرگ فناوری هفته از تیزر مک M4 اپل تا انتشار Alien Romulus در VHS در سال 2024
او استدلال میکند: «من فکر میکنم قبل از اینکه شروع کنیم [بر روی] دستهای از مقررات، کمی زود هستیم تا واقعاً بفهمیم که چه چیزی را تنظیم میکنیم».
استدلال متقابل - و یکی از چند نفر از حضار مطرح شد - این بود که جهان واقعاً انواع آسیبهایی را که اینترنت یا رسانههای اجتماعی میتوانستند قبل از اینکه این آسیبها متوجه ما شوند، ندیدند. زمانی که گوگل و فیس بوک راه اندازی شدند، هیچ کس نمی دانست که بر تبلیغات آنلاین تسلط خواهند داشت یا داده های زیادی از افراد جمع آوری می کنند. وقتی رسانه های اجتماعی جوان بودند، هیچ کس چیزهایی مانند زورگویی سایبری یا اتاق های پژواک را درک ن کرد.
طرفداران مقررات هوش مصنوعی اکنون اغلب به این شرایط گذشته اشاره می کنند و می گویند که این فناوری ها باید زودتر تنظیم می شدند.
پاسخ کاسادو؟
"یک رژیم نظارتی قوی امروز وجود دارد که بیش از 30 سال توسعه یافته است" و به خوبی برای ایجاد سیاست های جدید برای هوش مصنوعی و سایر فناوری ها مجهز است. درست است، تنها در سطح فدرال، نهادهای نظارتی شامل همه چیز از کمیسیون ارتباطات فدرال گرفته تا کمیته علم، فضا و فناوری مجلس نمایندگان میشوند. هنگامی که TechCrunch روز چهارشنبه پس از انتخابات از کاسادو پرسید که آیا او بر این عقیده میایستد - اینکه مقررات هوش مصنوعی باید مسیری را دنبال کند که قبلاً توسط نهادهای نظارتی موجود ایجاد شده است - او بيان کرد که این کار را انجام داده است.
اما او همچنین معتقد است که هوش مصنوعی نباید به دلیل مشکلات مربوط به سایر فناوری ها مورد هدف قرار گیرد. به جای آن باید فناوری هایی که باعث ایجاد این مشکلات شده اند مورد هدف قرار گیرند.
او گفت: «اگر در رسانههای اجتماعی اشتباه کردهایم، نمیتوانید با قرار دادن آن در هوش مصنوعی آن را برطرف کنید. "مردم مقررات هوش مصنوعی، آنها می گویند، "اوه، ما آن را در شبکه های اجتماعی اشتباه کردیم، پس ما آن را در AI درست خواهیم کرد" که یک بیانیه مزخرف است. بیایید آن را در شبکه اجتماعی درست کنیم.»
ارسال نظر