براساس گزارش گيزمگ، اين نامه در كنفرانس بينالمللي هوش مصنوعي ارائه شده و از سوي دانشمندان و رهبران تجاري برجستهاي از قبيل استفان هاوكينگ، الون ماسك، استيو وزنياك و نوام چامسكي به تاييد رسيدهاست.
هوش مصنوعي مسلح و خودكار در نظر برخي از افراد مفهومي خيالي است كه به قلمرو بازيهاي رايانهاي و علميتخيلي محدود ميشود. با اينهمه اخطار هراسآوري كه در اين نامه سرگشاده مطرح شدهاست تاكيد ميكند كه اين تكنولوژي طي سالهاي آينده و نه دهههاي آينده، آماده بهرهبرداري خواهدبود و اگر بشر قصد دارد مانع از تولد گونهاي جديد از سلاحهاي مدرن شود، منع توليد آن هماكنون بايد عملي شود.
براساس اين نامه، امروزه بسياري هوش مصنوعي مسلح يا سلاحهاي هوشمند را پس از باروت و سلاحهاي اتمي، انقلاب سوم در صنعت اسلحهسازي مدرن ميپندارند. براي دو نمونه پيشين همواره بازدارندههاي قدرتمندي براي ممانعت از استفاده از تكنولوژي وجود داشتهاست، براي استفاده از يك تفنگ بايد سربازي وجود داشته باشد كه آن را حمل كرده و شليك كند،و اين يعني به خطر انداختن جان سربازها و نوعي محدوديت در استفاده از تفنگ.
در بخش توليد سلاحهاي اتمي نيز بايد طبيعت پرهزينه و پيچيده دستيابي به مواد اوليه و نياز به متخصص براي ساخت بمب را درنظر گرفت، علاوه بر اين استفاده از چنين سلاحهايي هزينه گزافي در پي خواهد داشت، از نابودي طيف گستردهاي از انسانها گرفته تا محكوميتهاي شديدي بينالمللي. اين عوامل بازدارنده باعث شدهاند از زمان ساخت بمبهاي اتمي تاكنون تنها دو بمب طي درگيريها منفجر شوند.
خطر حقيقي درمورد ماشينهاي جنگي هوش مصنوعي عدم وجود بازدارندهها است. روباتهاي هوشمند و مسلح ميتوانند خطر جاني موجود براي سربازارن در ميدانهاي جنگ را برطرف ساخته و استفاده از آنها به اندازه بمب اتمي جوامع بينالمللي را خشمگين نخواهدساخت. علاوه بر اينها،براساس اين نامه، توليد انبوه پهپادهاي خودكار هوشمصنوعي و مسلح با قابليت شكار و كشتن انسانها فرايندي بسيار ارزان و سادهاست.
چنين تكنولوژيي ميتواند هجومهاي نظامي را كمهزينهتر و تاثيرگذارتر ساخته و به ويژه آغاز درگيريها را سادهتر سازد. علاوهبراين خارج كردن قدرت تصميمگيري درمورد كشتن انساني ديگر از دست انسان به صورت طبيعي عوامل استدلال و ترحم را حذف خواهدكرد.
ديگر وجه ترسناك فناوري هوش مصنوعي مسلح كه در نامه به آن اشاره شده اين است كه شايد اين فناوري و تجهيزات نظامي به دست افرادي مستبد و ظالم بيافتد كه حتي يك لحظه نيز درباره استفاده از اين ماشينهاي مرگ به عنوان ابزاري براي سركوبي معترضين و يا حتي پاكسازي نژادي ترديد به دل راه نخواهند داد.
توبي والش استاد هوش مصنوعي دانشگاه نيوساوثولز ميگويد: بسياري از دانشمندان مطرح جهان در زمينه هوش مصنوعي اين نامه را امضا كردهاند. اميدواريم با انتشار اين نامه سرگشاده بتوانيم نسبت به موضوعي بسيار وخيم كه بدون شك بر كل بشر تاثيري مرگبار خواهد داشت، جلب توجه كنيم. ميتوانيم در همين مراحل اوليه مانع از آن شويم يا ميتوانيم بيتوجه در گوشهاي ايستاده و شاهد ظهور نسلي جديد از سلاحهاي مرگبار شويم و صادقانه بگويم،اين چيزي نيست كه اكثر انسانها در انتظار ديدن آن باشند. درخواست اقدام ما بسيار سادهاست: مانع از توليد سلاحهاي خودكار مخرب شويد و در اين راستا آيندهاي ايمن را براي انسانها رقم بزنيد.