دره سیلیکون در حال بحث است که آیا سلاح های هوش مصنوعی باید تصمیم به کشتن بگیرند یا خیر
در اواخر سپتامبر، براندون تسنگ، یکی از بنیانگذاران هوش مصنوعی Shield، سوگند یاد کرد که سلاح ها در ایالات متحده هرگز کاملاً خودمختار نخواهند بود - به این معنی که یک الگوریتم هوش مصنوعی تصمیم نهایی را برای کشتن یک نفر می گیرد. بنیانگذار فناوری دفاعی به TechCrunch گفت: «کنگره چنین چیزی را نمیخواهد». "هیچ کس آن را نمی خواهد."
اما Tseng خیلی زود صحبت کرد. پنج روز بعد، پالمر لاکی، یکی از بنیانگذاران Anduril، تمایل خود را به سلاحهای خودمختار ابراز کرد - یا حداقل تردید شدیدی نسبت به استدلالها علیه آنها داشت. دشمنان ایالات متحده "از عباراتی استفاده می کنند که واقعاً خوب به نظر می رسند: خوب، آیا نمی توانید قبول کنید که یک ربات هرگز نباید بتواند تصمیم بگیرد که چه کسی زندگی کند و چه کسی بمیرد؟" لاکی در طی سخنرانی اوایل این ماه در دانشگاه پپردین گفت. و منظور من از آنها این است که در یک مین زمینی که نمی تواند تفاوت بین یک اتوبوس مدرسه پر از بچه ها و یک تانک روسی را تشخیص دهد، کج است.
وقتی از شانون پریور، سخنگوی اندوریل خواسته شد، اظهار داشت که منظور لاکی این نیست که روباتها باید طوری برنامهریزی شوند که به تنهایی مردم را بکشند، بلکه او نگران «افراد بدی است که از هوش مصنوعی بد استفاده میکنند».
در گذشته، سیلیکون ولی از نظر احتیاط اشتباه کرده است. آن را از بنیانگذار Luckey، Trae Stephens بگیرید. او سال گذشته به Kara Swisher گفت: «من فکر میکنم فناوریهایی که ما در حال ساختن آنها هستیم، این امکان را برای انسانها فراهم میکند که تصمیمات درستی در مورد این موارد بگیرند. "به طوری که یک طرف پاسخگو و مسئول در حلقه برای همه تصمیماتی که می تواند منجر به مرگبار باشد، وجود دارد."
سخنگوی Anduril هرگونه ناهماهنگی بین لاکی (تصویر بالا) و دیدگاههای استفنز را رد کرد و بيان کرد که منظور استفن این نبود که یک انسان همیشه باید تماس بگیرد، بلکه فقط این بود که کسی پاسخگو باشد.
اگر منصف باشیم، موضع خود دولت ایالات متحده نیز به همین ترتیب مبهم است. ارتش ایالات متحده در حال حاضر تسلیحات کاملاً خودمختار خریداری نمی کند. اما شرکت ها را از ساخت آنها منع نمی کند و صراحتاً آنها را ممنوع نمی کند فروش چنین چیزهایی به کشورهای خارجی سال گذشته، ایالات متحده دستورالعمل های به روز شده ای را برای ایمنی هوش مصنوعی در ارتش منتشر کرد که توسط بسیاری از متحدان ایالات متحده تأیید شده است و مقامات ارشد نظامی را ملزم می کند تا هرگونه سلاح خودران جدید را تأیید کنند. با این حال این دستورالعمل ها داوطلبانه هستند (اندوریل بيان کرد که متعهد به پیروی از دستورالعمل ها است)، و مقامات ایالات متحده به طور مداوم گفته اند که "زمان مناسب" برای تحلیل هرگونه ممنوعیت الزام آور سلاح های خودمختار نیست.
ماه گذشته، جو لونزدیل، یکی از بنیانگذاران Palantir و سرمایه گذار Anduril نیز تمایل خود را برای در نظر گرفتن سلاح های کاملا خودمختار نشان داد. در رویدادی که توسط اندیشکده موسسه هادسون برگزار شد، لونزدیل از اینکه این سوال اصلاً به عنوان یک بله یا نه مطرح می شود ابراز ناامیدی کرد. او در عوض یک فرضیه ارائه کرد که در آن چین از تسلیحات هوش مصنوعی استقبال کرده است، اما ایالات متحده باید هر بار که شلیک می کند دکمه را فشار دهد. او سیاستگذاران را تشویق کرد که رویکردی انعطافپذیرتر در مورد میزان هوش مصنوعی در سلاحها را در پیش بگیرند.
او گفت: "شما خیلی سریع متوجه می شوید، خوب، اگر من فقط یک قانون احمقانه از بالا به پایین وضع کنم، فرضیات من اشتباه بود، زیرا من کارمندی هستم که قبلاً هرگز این بازی را انجام نداده ام." من میتوانم ما را در جنگ نابود کنم.»
زمانی که TC از لونزدیل خواست تا نظر بیشتری بدهد، او تاکید کرد که شرکتهای فناوری دفاعی نباید کسانی باشند که دستور کار هوش مصنوعی مرگبار را تنظیم میکنند. او گفت: «زمینه کلیدی آنچه که من میگفتم این بود که شرکتهای ما سیاستگذاری را انجام نمیدهند، و نمیخواهند سیاستگذاری کنند: این وظیفه مقامات منتخب است که سیاستگذاری را انجام دهند. "اما آنها باید خود را در مورد تفاوت های ظریف برای انجام یک کار خوب آموزش دهند."
او همچنین تمایل خود را برای در نظر گرفتن خودمختاری بیشتر در سلاح ها تکرار کرد. "آنطور که شما پیشنهاد می کنید دودویی نیست - "کاملاً خودمختار یا نه" سؤال سیاست درستی نیست. یک صفحه پیچیده در چند ابعاد مختلف برای کارهایی که ممکن است یک سرباز انجام دهد و آنچه که سیستم تسلیحاتی شما انجام می دهد وجود دارد. قبل از اینکه سیاستگذاران این قوانین را وضع کنند و تصمیم بگیرند که در چه شرایطی شمارهگیرها باید در کجا تنظیم شوند، باید بازی را یاد بگیرند و بیاموزند که افراد بد چه کار میکنند و چه چیزی برای برنده شدن با زندگی آمریکاییها در خط است. »
فعالان و گروههای حقوق بشر مدتها تلاش کردهاند که ممنوعیتهای بینالمللی را برای سلاحهای مرگبار خود مختار ایجاد کنند - ممنوعیتهایی که ایالات متحده در برابر امضای آنها مقاومت کرده است. اما جنگ در اوکراین ممکن است جریان را علیه فعالان تغییر داده باشد، و هم انباری از دادههای رزمی و هم میدان نبردی را برای آزمایشکردن بنیانگذاران فناوری دفاعی فراهم کرده است. در حال حاضر، شرکتها هوش مصنوعی را در سیستمهای تسلیحاتی ادغام میکنند، اگرچه هنوز برای گرفتن تصمیم نهایی برای کشتن به یک انسان نیاز دارند.
در همین حال، مقامات اوکراینی برای اتوماسیون بیشتر در تسلیحات فشار آورده اند، به این امید که این امر آنها را از روسیه عبور دهد. میخائیلو فدوروف، وزیر تحول دیجیتال اوکراین در مصاحبه ای با نیویورک تایمز گفت: ما به حداکثر اتوماسیون نیاز داریم. این فناوریها برای پیروزی ما اساسی هستند.»
برای بسیاری در سیلیکون ولی و دی سی، بزرگترین ترس این است که چین یا روسیه ابتدا تسلیحات کاملاً خودمختار تولید کنند و دست ایالات متحده را مجبور کنند. در یک مناظره سازمان ملل در مورد تسلیحات هوش مصنوعی در سال گذشته، یک دیپلمات روسی به طور قابل توجهی خجالتی بود. او گفت: «ما درک می کنیم که برای بسیاری از هیئت ها اولویت کنترل انسانی است. برای فدراسیون روسیه، اولویت ها تا حدودی متفاوت است.
در رویداد موسسه هادسون، لونزدیل بيان کرد که بخش فناوری باید این وظیفه را بپذیرد که «به نیروی دریایی آموزش دهد، وزارت دفاع آمریکا را آموزش دهد، به کنگره آموزش دهد» در مورد پتانسیل هوش مصنوعی برای «امیدوارم ما را از چین پیشی بگیرد».
شرکت های وابسته به Lonsdale و Luckey در حال کار بر روی این هستند که کنگره به آنها گوش دهد. طبق گفته OpenSecrets، Anduril و Palantir امسال بیش از 4 میلیون دلار را برای لابی کردن هزینه کرده اند.
ارسال نظر