
希瑟 奈特博士(Heather Knight)是美國卡耐基梅隆大學(Carnegie Mellon University)的機器人專家。最近,他發(fā)表了一篇題為《人類如何應對機器人》(How Humans Respond To Robots)的論文。
奈特的研究特別注重機器人與人類的互動方式。她曾經參與創(chuàng)建了一個名叫“Marilyn Monrobot”的實驗室,該實驗室致力于研究具有社會感性、可以娛樂觀眾的機器人。他也是機器人電影節(jié)(Robotics Film Festival)的創(chuàng)始人。此外,他還是美國匹茲堡一個叫“Cyborg Cabaret”的綜藝節(jié)目的支持者,該節(jié)目使用了一些機器人作“演員”。
奈特希望更多的人們關心機器人。他的這篇論文寫得很完美,下面我們引用原文的一些關鍵段落(用楷體字表示)來談談機器人的未來。
機器人并不需要眼睛、手臂或腿,也可以成為人類的社會代理人。事實證明,我們能夠在本能的作用下迅速評估設備的功能和角色,也許這是因為機器本身具有物理形體和顯而易見的目的。社交性是我們的自然屬性,我們不但與喜歡與同類社交,與其他生物也是如此。事實上,作為一種社會生物,往往是我們的默認行為使機器人變得人格化。
奈特認為,機器人并不需要在外表上看起來像人類,也可以作為人類社會的角色而存在。它甚至不需要有類似人的身體部位的部件,如作為“眼睛”的攝像頭。
要使未來的機器人成為我們的社會成員,我們只需要使它們能夠移動,并能夠在一定程度上與我們交往。
即使客運無人機的安全紀錄比有人駕駛的民用航班更好,人們會喜歡乘坐沒有駕駛員的飛機嗎?在醫(yī)院里,患者會不會被一臺能夠與人交談的醫(yī)療設備嚇壞?
如果我們要真正接受機器人并充分發(fā)揮機器人的潛力,我們需要克服某種心理障礙。我們已經擁有許多自動化技術。我們可以想象這樣一個世界:在那個世界里,航空,——以及所有的運輸系統(tǒng),都是全自動的。但是,要讓人們適應這些自動化的機器人,我們還需要克服一個社會障礙。
拆彈機器人Packbot的提供商iRobot公司經常收到士兵的返修要求。這些士兵將被炸碎的機器人殘骸裝在盒子里遞送到iRobot公司,盒子上面貼著一張紙條:“你們能修好它嗎?”這些士兵拒絕iRobot公司為他們更換一個新的機器人。他們說:“不,我們要的是原來的那個。”這是因為,原來的那個機器人已經與士兵們有了共同的經歷,已經與他們“結合”在一起了。他們不希望他們的機器人“死去”。
盡管機器人沒有生命,但有些人確實已經與他們的機器人結合在一起了。在上面的例子中,拆彈機器人已經成為士兵們的“戰(zhàn)友” 。
正如卡耐基梅隆大學的倫理學家約翰?胡克(John Hooker)說的那樣:從理論上講,傷害一個機器人并沒有什么不道德的。但是,如果我們將機器人看作社會實體,我們對它們的傷害也會讓我們感到不安。這就像我們制止小孩傷害螞蟻一樣,我們不希望這樣的行為發(fā)展成傷害其他小孩。
機器人不是真人。“殺死”一個機器人并不能算是“殺生”。虐待一個機器人實際上并沒有引起它的“疼痛”。問題在于虐待行為本身。
人與機器人的結合的另一個問題是,機器人設計師和政策制定者可能需要防止人類對機器人的過度依賴,因為機器人終究不能代替人與人之間健康的交往,對它們的過度依賴會阻礙人的正常的發(fā)育。關于這一點,想象那些視頻游戲迷吧,他們沉湎在虛擬的世界中,以此逃避社會。
在一個機器人充當社會角色的世界里,人們面臨一個危險,即他們可能會遺忘與其他人的交往。奈特寫道:“相比真正的人類,機器人的智能及其模擬的社會行為太簡單化了。機器人不能取代人類,人類也不能取代機器人。我們要采取切實的措施避免人對機器的過度依賴。”
另一方面,我們也可以利用機器人技術來促進人與人的交往。一些研究者已經發(fā)現(xiàn),具有社交功能的機器人可以幫助那些有社交恐懼癥的人,它們可以讓這些孤獨者練習社交行為,以使他們走向真正的人類交往。
不同的機器人具有不同層次的社交能力,它們已經被用于幫助那些社交有困難的人群。正如我們前面提到的,人與機器人的交往不會傷害“感情”。所以,人與機器人一起練習社交技巧,是一件沒有風險只有進步的事情。