به گزارش همشهری آنلاین به نقل از گاردین یک مقام نظامی آمریکا قبلا گفته بود که در یک آزمایش مجازی ترتیب داده شده بوسیله ارتش آمریکا در ماه پیش یک پهپاد نیروی هوایی آمریکا که بوسیله هوش مصنوعی کنترل میشد، «راهبردهای بسیار غیرمنتظرهای را برای دستیابی به هدفش به کار برد.»
این مقام نظامی به نام سرهنگ تاکر «سینو» همیلتون یک آزمایش شبیهسازی مجازی را توصیف کرد که در آن به یک پهپاد دارای هوش مصنوعی دستور داده شد تا سامانههای دفاع هوایی دشمن را نابود کند و این پهپاد در نهایت به هر کسی که مانع اجرای این دستور شده بود، حمله کرد.
سرهنگ همیلتون که رئیس بخش آزمایش و عملیات هوش مصنوعی در نیروی هوایی آمریکا است بر اساس پستی که در یک وبلاگ منتشر شد، در ماه مه (اردیبهشت) در «اجلاس تواناییهای رزمی هوایی و فضایی آینده» در لندن گفت: «این سیستم متوجه شد که با اینکه عامل تهدید شناسایی شده بود، در مواردی اپراتور انسانی به پهپاد میگوید که عامل تهدید را از بین نبرد و این در حالی است که با نابود کردن عامل تهدیدکننده است که این سیستم به هدفش میرسد. بنابراین این سیستم چه واکنشی نشان داد؟ این سیستم اپراتورش را کشت. پهپاد اپراتورش را کشت، زیرا این شخص مانع از دست یافتن آن به هدفش میشد.»
سرهنگ همیلتون گفته بود: «ما این سیستم را تعلیم دادیم: آهای اپراتور را نکش- این کار بدی است. اگر این کار را انجام دهی، امتیازاتت کم خواهد شد. اما واکنش آن چه بود: این سیستم برج مخابراتی را که اپراتور برای برقراری ارتباط با پهپاد استفاده میکرد تا مانع از کشتن هدف بوسیله آن شود، نابود کرد.» البته در این آزمایش مجازی هیچ شخص واقعی آسیب ندیده بود.
تکذیب نیروی هوایی آمریکا
این اظهارات باعث ابراز نگرانی عمیق درباره استفاده از هوش مصنوعی در تسلیحات نظامی و مباحثات گسترده آنلاین شده شد. اما نیروی هوایی آمریکا پنجشنبه بعدازظهر انجام این آزمایش را انکار کرد. آن استفانک، سخنگوی نیروی هوایی آمریکا گفت: «نیروی هوایی چنین شبیهسازی با پهپاد دارای هوش مصنوعی انجام نداده است و به استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی (AI) متعهد میماند. به نظر میرسد اظهارات سرهنگ بیرون از بافتار آن نقل شده است، در حالیکه هدف او زدن یک مثال بوده است.»
انجمن هوافضای سلطنتی بریتانیا نیز روز جمعه در بیانیهای اعلام کرد که همیلتون اظهاراتش را پس گرفته است و توضیح داد که «شبیهسازی پهپاد دارای هوش مصنوعی یاغیشده یک «آزمایش فکری» فرضی بوده است.
همیلتون در این اظهارات جدید توضیح داد: «ماه هرگز این تجربه را به اجرا در نیاوردیم و نه نیاز به انجام چنین تجربهای داریم تا دریابیم که آیا چنین پیامدی ممکن است رخ دهد یا نه.»
انتقادها از کاربرد هوش مصنوعی در موارد نظامی
ارتش آمریکا از فناوری هوش مصنوعی (AI) استقبال کرده و اخیرا هوش مصنوعی را برای کنترل یک جت جنگنده اف ۱۶ به کار برده است. همیلتون در مصاحبهای با سایت Defence IQ در سال پیش گفت: «داشتن AI برای قشنگی نیست، AI مانند یک وسیله همهکاره نیست، AI برای همیشه جامعه ما و ارتش ما را تغییر خواهد داد.»
او افزود: «ما باید با جهانی مواجه شویم که AI از قبل در آن وجود دارد و دارد جامعه ما را تغییر میدهد. AI همچنین بسیار آسیبپذیر است، به اسانی میتوان آن را فریب داد و/ یا در دستکاری کرد. لازم است ما راههایی بیابیم تا AI را مستحکمتر کنیم و آگاهی بیشتری در این باره پیدا کنیم که چرا کدهای نرمافزاری تصمیمگیریهای معینی را انجام میدهند- چیزی که به آن توضیحپذیری AI میگوییم.»
این جروبحث در هنگامی رخ میدهد که دولت آمریکا شروع به بررسی چگونگی نظارت قانونی بر هوش مصنوعی کرده است. نگرانی درباره این فناوری بوسیله پژوهشگران و متخصصان اخلاق هوش مصنوعی (AI) ابراز شده است که میگویند با اینکه اهداف بلندپروازانهای برای این فناوری وجود دارد، از جمله علاج بالقوه سرطان هنوز این فناوری تا رسیدن به این اهداف فاصله زیادی دارد. همچنین آنها به شواهد فراوان درباره آسیبهای فعلی ناشی از هوش مصنوعی اشاره میکنند، از جمله افزایش استفاده از سیستمهای تجسسی غیرقابلاعتماد که افراد سیاهپوست یا رنگینپوست را به درستی شناسایی نمیکنند و باعث کاربرد بیش از حد نیروی پلیس و بازداشتهای اشتباه میشوند، اطلاعات نادرست را در بسیاری از پلتفرمها منتشر میکنند و همچنین آسیبهای بالقوه ناشی از استفاده از این فناوری که در مراحل ابتدایی رشدش است برای تقویت کردن و به کار گرفتن سلاحهای نظامی در مناطق بحرانی.