我們能否教育機(jī)器人做個(gè)“好人”?似乎是有希望的。英國布里斯托爾機(jī)器人實(shí)驗(yàn)室的機(jī)器人專家艾倫·溫菲爾德展開了實(shí)驗(yàn),為機(jī)器人設(shè)定道德程序,觀察機(jī)器人完成道德選擇的情況。“機(jī)器人必須防止人類受傷害”,這是人類給機(jī)器人設(shè)定的道德法則中的基礎(chǔ)。但是如果是自動(dòng)駕駛的汽車,究竟是該救自己的司機(jī)還是救迎頭撞上來的車?yán)锏乃緳C(jī)呢?這是機(jī)器人需要面臨的道德困境。研究者給機(jī)器人出了一個(gè)類似“你媽和我同時(shí)掉到水里,你先救誰”的選擇難題。計(jì)算機(jī)科學(xué)家羅納德·阿金專門針對名為“道德監(jiān)督員”的軍事機(jī)器人研制了一套運(yùn)算法則,這套運(yùn)算法則可幫機(jī)器人在戰(zhàn)場上做出明智的抉擇。結(jié)果顯示,安裝這種程序的機(jī)器人能夠選擇不開槍,且在戰(zhàn)斗過程中,能夠在學(xué)校和醫(yī)院等戰(zhàn)爭條例規(guī)定的受保護(hù)區(qū)域附近盡量減少人員傷亡。