متن خبر

دره سیلیکون در حال بحث است که آیا سلاح های هوش مصنوعی باید تصمیم به کشتن بگیرند یا خیر

دره سیلیکون در حال بحث است که آیا سلاح های هوش مصنوعی باید تصمیم به کشتن بگیرند یا خیر

شناسهٔ خبر: 782335 -




در اواخر سپتامبر، براندون تسنگ، یکی از بنیانگذاران هوش مصنوعی Shield، سوگند یاد کرد که سلاح ها در ایالات متحده هرگز کاملاً خودمختار نخواهند بود - به این معنی که یک الگوریتم هوش مصنوعی تصمیم نهایی را برای کشتن یک نفر می گیرد. بنیانگذار فناوری دفاعی به TechCrunch گفت: «کنگره چنین چیزی را نمی‌خواهد». "هیچ کس آن را نمی خواهد."

اما Tseng خیلی زود صحبت کرد. پنج روز بعد، پالمر لاکی، یکی از بنیانگذاران Anduril، تمایل خود را به سلاح‌های خودمختار ابراز کرد - یا حداقل تردید شدیدی نسبت به استدلال‌ها علیه آنها داشت. دشمنان ایالات متحده "از عباراتی استفاده می کنند که واقعاً خوب به نظر می رسند: خوب، آیا نمی توانید قبول کنید که یک ربات هرگز نباید بتواند تصمیم بگیرد که چه کسی زندگی کند و چه کسی بمیرد؟" لاکی در طی سخنرانی اوایل این ماه در دانشگاه پپردین گفت. و منظور من از آنها این است که در یک مین زمینی که نمی تواند تفاوت بین یک اتوبوس مدرسه پر از بچه ها و یک تانک روسی را تشخیص دهد، کج است.

وقتی از شانون پریور، سخنگوی اندوریل خواسته شد، اظهار داشت که منظور لاکی این نیست که روبات‌ها باید طوری برنامه‌ریزی شوند که به تنهایی مردم را بکشند، بلکه او نگران «افراد بدی است که از هوش مصنوعی بد استفاده می‌کنند».

در گذشته، سیلیکون ولی از نظر احتیاط اشتباه کرده است. آن را از بنیانگذار Luckey، Trae Stephens بگیرید. او سال گذشته به Kara Swisher گفت: «من فکر می‌کنم فناوری‌هایی که ما در حال ساختن آن‌ها هستیم، این امکان را برای انسان‌ها فراهم می‌کند که تصمیمات درستی در مورد این موارد بگیرند. "به طوری که یک طرف پاسخگو و مسئول در حلقه برای همه تصمیماتی که می تواند منجر به مرگبار باشد، وجود دارد."  

سخنگوی Anduril هرگونه ناهماهنگی بین لاکی (تصویر بالا) و دیدگاه‌های استفنز را رد کرد و بيان کرد که منظور استفن این نبود که یک انسان همیشه باید تماس بگیرد، بلکه فقط این بود که کسی پاسخگو باشد.

اگر منصف باشیم، موضع خود دولت ایالات متحده نیز به همین ترتیب مبهم است. ارتش ایالات متحده در حال حاضر تسلیحات کاملاً خودمختار خریداری نمی کند. اما شرکت ها را از ساخت آنها منع نمی کند و صراحتاً آنها را ممنوع نمی کند فروش چنین چیزهایی به کشورهای خارجی سال گذشته، ایالات متحده دستورالعمل های به روز شده ای را برای ایمنی هوش مصنوعی در ارتش منتشر کرد که توسط بسیاری از متحدان ایالات متحده تأیید شده است و مقامات ارشد نظامی را ملزم می کند تا هرگونه سلاح خودران جدید را تأیید کنند. با این حال این دستورالعمل ها داوطلبانه هستند (اندوریل بيان کرد که متعهد به پیروی از دستورالعمل ها است)، و مقامات ایالات متحده به طور مداوم گفته اند که "زمان مناسب" برای تحلیل هرگونه ممنوعیت الزام آور سلاح های خودمختار نیست.

ماه گذشته، جو لونزدیل، یکی از بنیانگذاران Palantir و سرمایه گذار Anduril نیز تمایل خود را برای در نظر گرفتن سلاح های کاملا خودمختار نشان داد. در رویدادی که توسط اندیشکده موسسه هادسون برگزار شد، لونزدیل از اینکه این سوال اصلاً به عنوان یک بله یا نه مطرح می شود ابراز ناامیدی کرد. او در عوض یک فرضیه ارائه کرد که در آن چین از تسلیحات هوش مصنوعی استقبال کرده است، اما ایالات متحده باید هر بار که شلیک می کند دکمه را فشار دهد. او سیاستگذاران را تشویق کرد که رویکردی انعطاف‌پذیرتر در مورد میزان هوش مصنوعی در سلاح‌ها را در پیش بگیرند.

او گفت: "شما خیلی سریع متوجه می شوید، خوب، اگر من فقط یک قانون احمقانه از بالا به پایین وضع کنم، فرضیات من اشتباه بود، زیرا من کارمندی هستم که قبلاً هرگز این بازی را انجام نداده ام." من می‌توانم ما را در جنگ نابود کنم.»

زمانی که TC از لونزدیل خواست تا نظر بیشتری بدهد، او تاکید کرد که شرکت‌های فناوری دفاعی نباید کسانی باشند که دستور کار هوش مصنوعی مرگبار را تنظیم می‌کنند. او گفت: «زمینه کلیدی آنچه که من می‌گفتم این بود که شرکت‌های ما سیاست‌گذاری را انجام نمی‌دهند، و نمی‌خواهند سیاست‌گذاری کنند: این وظیفه مقامات منتخب است که سیاست‌گذاری را انجام دهند. "اما آنها باید خود را در مورد تفاوت های ظریف برای انجام یک کار خوب آموزش دهند."

او همچنین تمایل خود را برای در نظر گرفتن خودمختاری بیشتر در سلاح ها تکرار کرد. "آنطور که شما پیشنهاد می کنید دودویی نیست - "کاملاً خودمختار یا نه" سؤال سیاست درستی نیست. یک صفحه پیچیده در چند ابعاد مختلف برای کارهایی که ممکن است یک سرباز انجام دهد و آنچه که سیستم تسلیحاتی شما انجام می دهد وجود دارد. قبل از اینکه سیاستگذاران این قوانین را وضع کنند و تصمیم بگیرند که در چه شرایطی شماره‌گیرها باید در کجا تنظیم شوند، باید بازی را یاد بگیرند و بیاموزند که افراد بد چه کار می‌کنند و چه چیزی برای برنده شدن با زندگی آمریکایی‌ها در خط است. »

فعالان و گروه‌های حقوق بشر مدت‌ها تلاش کرده‌اند که ممنوعیت‌های بین‌المللی را برای سلاح‌های مرگبار خود مختار ایجاد کنند - ممنوعیت‌هایی که ایالات متحده در برابر امضای آنها مقاومت کرده است. اما جنگ در اوکراین ممکن است جریان را علیه فعالان تغییر داده باشد، و هم انباری از داده‌های رزمی و هم میدان نبردی را برای آزمایش‌کردن بنیان‌گذاران فناوری دفاعی فراهم کرده است. در حال حاضر، شرکت‌ها هوش مصنوعی را در سیستم‌های تسلیحاتی ادغام می‌کنند، اگرچه هنوز برای گرفتن تصمیم نهایی برای کشتن به یک انسان نیاز دارند.

در همین حال، مقامات اوکراینی برای اتوماسیون بیشتر در تسلیحات فشار آورده اند، به این امید که این امر آنها را از روسیه عبور دهد. میخائیلو فدوروف، وزیر تحول دیجیتال اوکراین در مصاحبه ای با نیویورک تایمز گفت: ما به حداکثر اتوماسیون نیاز داریم. این فناوری‌ها برای پیروزی ما اساسی هستند.»

برای بسیاری در سیلیکون ولی و دی سی، بزرگترین ترس این است که چین یا روسیه ابتدا تسلیحات کاملاً خودمختار تولید کنند و دست ایالات متحده را مجبور کنند. در یک مناظره سازمان ملل در مورد تسلیحات هوش مصنوعی در سال گذشته، یک دیپلمات روسی به طور قابل توجهی خجالتی بود. او گفت: «ما درک می کنیم که برای بسیاری از هیئت ها اولویت کنترل انسانی است. برای فدراسیون روسیه، اولویت ها تا حدودی متفاوت است.

در رویداد موسسه هادسون، لونزدیل بيان کرد که بخش فناوری باید این وظیفه را بپذیرد که «به نیروی دریایی آموزش دهد، وزارت دفاع آمریکا را آموزش دهد، به کنگره آموزش دهد» در مورد پتانسیل هوش مصنوعی برای «امیدوارم ما را از چین پیشی بگیرد».

شرکت های وابسته به Lonsdale و Luckey در حال کار بر روی این هستند که کنگره به آنها گوش دهد. طبق گفته OpenSecrets، Anduril و Palantir امسال بیش از 4 میلیون دلار را برای لابی کردن هزینه کرده اند.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است