براساس گزارش لايوساينس، هوش مصنوعي قدرت آن را دارد تا زندگي بشر را به واسطه درك نيازهاي انسان يا راندن خودروها، راحتتر سازد،اما اگر تحت كنترل نباشد، اين تكولوژي ميتواند خطرات جدي را براي جوامع به دنبال داشته باشد. از اين رو است كه استفان هاوكينگ، الون ماسك و دهها نفر از دانشمندان و مديران تكنولوژي برجسته در جهان نامهاي را به امضا رساندهاند كه در آن نسبت به خطرات بالقوه توسعه هوش مصنوعي هشدار دادهاند.
در كنار شخصيتهاي بزرگي مانند هاوكينگ و ماسك، يكي از برجستهترين فيزيكدانان جهان و بنيانگذار شركتهاي تسلا موتورز و اسپيسايكس، اين نامه توسط محققان ارشد MIT، شركت گوگل و ديگر موسسات مشهور نيز امضا شدهاست.
در اين نامه كه توسط موسسه Future of Life به صورت آنلاين منتشر شده، به فوايد هوش مصنوعي اشاره شده، اما درباره خطرات احتمالي آن نيز هشدار داده شدهاست. در بخشي از اين نامه آمدهاست: باتوجه به تواناييهاي قابل توجه هوشمصنوعي، تحقيقات درباره دستيابي به فوايد اين تكنولوژي به شكلي كه از بروز خطرات توسط آن جلوگيري شود، از اهميت بسيار زيادي برخوردار است. به بياني ديگر، سيستمهاي هوش مصنوعي بايد آن كاري را انجام دهند كه ما ميخواهيم.
به گفته اين نامه، روند پيشرفت تكنولوژي هوش مصنوعي، از سيستمهاي تشخيص كلام گرفته تا خودروهاي بدون راننده، بر بشريت تاثير روزافزوني داشتهاست. در بخشي ديگر از اين نامه بر اين موضوع تاكيد شده كه تحقيقات در زمينه هوش مصنوعي بايد نهتنها بر قابل استفاده ساختن اين تكنولوژي تمركز داشتهباشد، بلكه بايد بر فوايد آن براي جوامع نيز تمركز داشتهباشد. تاكنون تمامي تحقيقاتي كه در زمينه هوش مصنوعي انجام گرفته بر اهداف خنثي متمركز بودهاند نه اهداف سودبخش.
اين نامه به ليستي از اولويتهاي تحقيقاتي هوش مصنوعي اشاره كردهاست كه شامل مهار تاثير اين تكنولوژي بر اشتغال، اطمينان از عدم تقابل ماشينها و سلاحهاي خودكار با اخلاقيات و حفظ كنترل مناسب بر اين تكنولوژي است.
اين اولينباري نيست كه هاوكينگ، ماسك و ديگر فعالان حوزه دانش و فناوري نسبت به خطرات هوش مصنوعي هشدار ميدهند. در دسامبر سال 2014، هاوكينگ اعلام كرد توسعه هوش مصنوعي ميتواند نسل بشر را به نابودي بكشاند. اكتبر گذشته نيز هاوكينگ در مراسمي در MIT اعلام كرد بشريت در معرض بزرگترين خطر موجود قرار گرفتهاست.