آیا ماشینها ابزارهایی هستند که در مقام کارگزار بتوانند تصمیمات اخلاقی بگیرند؟ اگر پاسخ مثبت است، چرا و اگر منفی است، باز چرا؟ آیا تصمیمات اخلاقی میتوانند از قواعد رایانهای و روباتیک پیروی کنند؟ آیا ماشینها دارای احساس هستند که بتوانند تصمیمات اخلاقی متناسب با آن بگیرند؟ آیا اصلاً انسان میپذیرد که روزی ماشینها قادر به این کار (تصمیمگیری اخلاقی) بشوند؟ اگر پاسخ مثبت است، چه هنگام و چگونه؟ و در نهایت اینکه چه نوع تصمیمات اخلاقیای باید عملی شوند یا به مرحله اجرا درآیند؟
بیتردید هر یک از پرسشهای یادشده، چالشهای زیادی را در حوزه فلسفه اخلاق و حتی انسانشناسی پدید آورده است. با این حال، بیشتر پژوهشگران با این نکته که ماشین بتواند خودآگاهانه و برخوردار از احساسی مشابه انسان عمل کند و تصمیم بگیرد، مخالفند.
با این حال، هر روز شاهد افزایش روباتهای مستقلی هستیم که تأثیرات مثبت و منفی زیادی بر زندگی فردی و شاید اجتماعی انسانها میگذارند. به همین علت، اخیراً عدهای به این فکر افتادهاند که روباتهایی بسازند که قادر باشند تصمیمات اخلاقی و عقلانی بگیرند. طراحی چنین سامانههای روباتیکی که به انسان آسیب نرساند، خود بزرگترین چالش علمی معاصر است. در این وضعیت، نظریهپردازان و فیلسوفان اخلاق ماشینی وارد گود شدهاند و به دانشمندان در فهم این پدیده جدید یاری میرسانند. گرچه پیدایی چنین حوزهای، خود آنها را نیز رویاروی چالشهای بیشماری کرده است.مطلب حاضر باتوجه به مباحث اخیر در حوزه اخلاق ماشینی و پرسش از امکان پیدایی چنین مبحثی، به بررسی و نقد مسیرهایی که میتوانند به چنین اخلاقی مدد رسانند، میپردازد.
علم اخلاق ماشینی وجوهی چندگانه دارد که شامل ورودیها ی رایانهای محققان، فلاسفه، محققان جامعه شناس، تئوری پردازان قانون و غیره است. این گروه چند وجهی برای طراحی یک کارگزار مصنوعی به جنبههای مختلف تصمیمگیری اخلاقی میپردازند. یک فیلسوف اخلاق اهمیت تحلیل سامانههای رایانهای را برای عملی ساختن تئوریهای اخلاقی همانند تئوریهای کانتی در یک روبات خاطر نشان میسازد. یک روان شناس تکاملی (زیستی) راههایی را بررسی میکند که سیر تکاملی تمایلات درونی رفتار اجتماعی انسان و شاید حتی قواعد اخلاق درونی را پدیدآورده است. یک روان شناس پرورشی در جستوجوی راههایی برای تعلیم روبات است تا با ساختن یک مرحله پس از دیگری به ملاحظات اخلاقی حساس و پایبند باشد.
یک مادر نیز در طرف دیگر این ماجرا ضرورت ماشین را در همدردی و مراقبت ذکر میکند و بررسی و دستیابی به موارد قانونی و تفسیر آن در شرایط گوناگون در حیطه این مسئله از دیدگاه یک وکیل یا قانونگذار حائز اهمیت است. همچنین بسیار مهم است که سیستم رایانهای بتواند اعمال خویش را تحلیل کرده و از گذشته خویش درس عبرت بگیرد. در واقع یک سازنده روبات میخواهد بداند که چگونه یک کارگزار مصنوعی اطلاعات لازم را برای تصمیمگیری بهدست میآورد. به چه حسگرها و یا حافظهای نیاز دارد؟ چگونه تمام اطلاعات موجود را به هم ربط داده و واکنش مناسب را در هر شرایطی بروز میدهد؟ پاسخهایی را که در طبیعت تبلوریافته چگونه میتوان در سیستم روباتیک گنجاند ؟ و چگونه او چالشهای موجود را که نیاز به تامل دارد تشخیص خواهد داد ؟
مهندسان سازنده روبات مدلهای گوناگون و یا زیر مجموعههایی برای راهاندازی هریک از وظایف روبات، طراحی خواهند کرد. بههرگونه ادغام این زیر مجموعهها در سیستمیواحد که عملی مطمئن داشته و تابع ارزشهای انسانی است نیازمند درک درستی از مکانیسم ذهنی تصمیمگیری وجدانی و اخلاقی کنونی آدمیاست. انسانها کما بیش جایزالخطا هستند اما اگر روباتهای اخلاقی نیاز به نوعی از هوش هیجانی داشته باشند لزوما بدین معنا نیست که آنها نیز باید نیازمند خصائلی نظیر آرزو، غرور وترس باشند و به همین خاطر این احتمال افزایش مییابد که موجودات مصنوعی اخلاقیتر از انسان عمل کنند.
از سوی دیگر روباتها ممکن است در انتخاب واکنش مورد نظر به تنگناهایی که باید براساس وجدان و اخلاق تصمیمگیری شود محدودیت کمتری داشته باشند. همچنین آنها ممکن است عکسالعملهای مناسبتری نسبت به همکاران انسانی خویش بروز دهند. با این حال گفته میشود تصمیمگیری مبنی بر وجدانیات در آدمیتوسط فرایندهایی تسهیل میشود، پدیدهای که قابل شبیهسازی در عنصر وجودی روباتها نیست.
برخی از تئوریسینها اذعان داشتهاند، روباتها به دلایلی نظیر عدموجود وجدان، حساسیتهای اخلاقی و هدف، قادر به تصمیمگیری وجدانی و اخلاقی نیستند. به هرحال اگر این تفاسیر حقیقت داشته باشد نیز نمیتوان از لزوم به کارگیری برخی از حیطههای تصمیمگیری براساس ارزشهای انسانی در روباتها گذشت ؛ زیراتحقق این امر ما را از صحت انتخابها و اعمال آنها و ضرر نرساندن به انسانها و موجودات زنده دیگر مطمئن میسازد.
آینده علم اخلاق ماشینی
سرانجام ممکن است روزی سامانههایهای مصنوعی هوشمندی برابر با انسان داشته باشیم، موضوعی که موج عظیمیاز توجه و گاهی نگرانی را پدید میآورد و پیشبینی آنکه روزی این روباتها بخواهند از قید و بند محدودیتها رها شوند ایجاب میکند تا تمایلات اخلاقی در ساختار اصلی و پیچیده این سیستمها نهادینه شود و نباید بهعنوان خصوصیتی که از اهمیت کمتری برخوردار است به آن توجه شود.
ملاحظه تمامیاحتمالات میتواند بهعنوان تجربههای فکری جالب توجه و راهگشا عمل کند.بهعنوان مثال فلاسفه و حقوقدانان به این نتیجه رسیدهاند که محدودهای برای شناسایی حقوق و مسئولیتهای این کارگزاران باید در نظر گرفته شود.
تحقیقات ابتدایی هوش مصنوعی نشان داده است که ساخت ماشین اخلاق گرا از ریسک بسیار بالایی برخوردار است. با این وجود این حدسیات بیشتر درون مایهای همانند داستانهای علمی- تخیلی دارند. برای نمونه ترس از آنکه روزی ابر روباتها حیات انسانی را به خطر خواهند انداخت نمودار ترسی اجتماعی است که علم را غیرقابل اعتماد و تکنولوژی را نیرویی ویرانگر و غیرقابل کنترل میپندارد.
در آینده نزدیک، تحقیقات علم اخلاق ماشینی بر پایه تکنولوژی حاضر و یا قریب الوقوع خواهد بود. این حیطه از طریق پیجویی انبوه پرسش و پاسخهایی در باب آینده رایانهای کردن تصمیمات وجدانی که به دو مسیرفرعی «عملی» و «فلسفی» تقسیم میشود، پیشرفتهای شایانی خواهد داشت و در آن زمان که این عنصر نوظهور پا به عرصه وجود گذارد بازارهای جدید به این موجود باهوش خوش آمد خواهند گفت.
ساخت ماشینهای اخلاق گرا سکویی برای تحقیقات تجربی در حوزه تصمیمگیری و اخلاق است. تفاوت و شباهت بین راههای تصمیمگیری انسان و روبات به ما میآموزد که ما انسانها چگونه باید عمل کنیم یا نکنیم و بیش از آن به ما خاطر نشان میسازد که عنصر وجودی ما چیست و یا ما چه هستیم ؟