據(jù)國外媒體報(bào)道,不久之前,一群科學(xué)家、行業(yè)帶頭人和非政府組織共同發(fā)起了“阻止殺手機(jī)器人運(yùn)動(dòng)”,致力于阻止致命性自動(dòng)武器系統(tǒng)的研發(fā)。發(fā)起人包括史蒂芬·霍金(Stephen Hawking),美國學(xué)者諾姆·喬姆斯基(Noam Chomsky)、伊隆·馬斯克(Elon Musk),以及蘋果公司共同創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak),陣容不可謂不強(qiáng)大。這些名人為此次運(yùn)動(dòng)吸引了不少關(guān)注,亦讓立法機(jī)構(gòu)意識到,曾被視作只存在于科幻小說中的殺手機(jī)器人,如今就快成為現(xiàn)實(shí)了。

但情況當(dāng)真如此嗎?一些研究人員將“殺手機(jī)器人”視作一種文化概念,采用另一種方法對其進(jìn)行了研究。他們指出,就像人類造出的其它東西一樣,哪怕再先進(jìn)的機(jī)器人也僅僅是機(jī)器而已。如果我們在設(shè)置機(jī)器人時(shí)對技術(shù)問題和文化問題多加注意,它們就不會發(fā)起機(jī)器人革命、背叛人類。
“關(guān)鍵是,‘殺手機(jī)器人’這個(gè)概念并不是憑空產(chǎn)生的,”該研究的共同作者、紐約州立大學(xué)布法羅分校的媒體理論助理教授特羅·卡爾佩(Tero Karppi)指出,“在此之前先有了相關(guān)技術(shù)和科技,這些系統(tǒng)的構(gòu)想和研發(fā)才得以變成現(xiàn)實(shí)。”

換句話說,我們之所以對殺手機(jī)器人感到憂慮,是因?yàn)槲覀円恢痹谧约簢樆W约?。該研究作者提到了《終結(jié)者》或《我,機(jī)器人》等電影,它們都假設(shè)未來的機(jī)器人逐漸會將人類取而代之。而在人工智能領(lǐng)域,我們也常常做出這樣的假設(shè)。例如,論文中援引了“阻止殺手機(jī)器人運(yùn)動(dòng)”官網(wǎng)上的一段文章:
在過去十年間,無人武器的使用不斷增加,大大改變了戰(zhàn)爭方式,也帶來了新的人權(quán)和法律問題。如今,不斷進(jìn)步的科技正致力于研發(fā)全自動(dòng)化武器。這些機(jī)器人武器能夠自己選擇目標(biāo)并開火,不需要任何人類的干預(yù)。
研究人員指出,這些設(shè)想是“技術(shù)決定論”的體現(xiàn)。該理論的支持者認(rèn)為,如果技術(shù)系統(tǒng)的自動(dòng)化程度過高,不僅將對社會、還會對整個(gè)人類造成毀滅性打擊。
“該理論暗示著人類與機(jī)器是截然不同的,”研究作者指出,“它似乎認(rèn)為,‘人類控制機(jī)器’與自動(dòng)化武器、即‘機(jī)器控制機(jī)器’之間存在絕對的差別。”
但如果我們能以某種方式為機(jī)器智能編碼、使其無法區(qū)分人類與機(jī)器之間的區(qū)別呢?這是個(gè)很有意思的想法:如果沒有“人類”與“機(jī)器”之分,也就不會有“人類與機(jī)器之爭”了。
卡爾佩提出,或許我們可以從根本上改變未來機(jī)器對人類的理解方式。
“我們可以試著將機(jī)器人和機(jī)器智能看作人類社會的一部分,”他說道,“思考它們?nèi)绾闻c人類共事,而不是獨(dú)立運(yùn)作、與人類作對。”
這樣一來,我們便可以分析、并重新設(shè)計(jì)與未來機(jī)器人相關(guān)的技術(shù)了。該研究作者引用了紐約時(shí)報(bào)的一篇報(bào)道:美國國防部近日撥款180億美元(約合1200億人民幣),用于研發(fā)全自動(dòng)武器系統(tǒng)和技術(shù)。
如果我們想改變研發(fā)這些系統(tǒng)的方法的話,就應(yīng)當(dāng)趁現(xiàn)在行動(dòng)。僅僅禁止致命性自動(dòng)化武器是無法從根本上解決這一難題的。我們需要深入該問題的技術(shù)與文化層面,才能真正阻止自動(dòng)化殺傷武器的發(fā)展。
要想在未來與機(jī)器人和平共處,關(guān)鍵是要意識到,機(jī)器人歸根結(jié)底不過是人類創(chuàng)造出的產(chǎn)物。未來的機(jī)器人不會是來自外太空的科技強(qiáng)軍(但愿如此),而是由人類一手打造的。
“機(jī)器智能已經(jīng)成為了現(xiàn)實(shí),我們需要學(xué)會與它們共處,”卡爾佩指出,“這不僅僅是一個(gè)技術(shù)或工程問題,還囊括了文化、人性和社會關(guān)系。”