據(jù)國外媒體報道,不久之前,一群科學家、行業(yè)帶頭人和非政府組織共同發(fā)起了“阻止殺手機器人運動”,致力于阻止致命性自動武器系統(tǒng)的研發(fā)。發(fā)起人包括史蒂芬·霍金(Stephen Hawking),美國學者諾姆·喬姆斯基(Noam Chomsky)、伊隆·馬斯克(Elon Musk),以及蘋果公司共同創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak),陣容不可謂不強大。這些名人為此次運動吸引了不少關(guān)注,亦讓立法機構(gòu)意識到,曾被視作只存在于科幻小說中的殺手機器人,如今就快成為現(xiàn)實了。

但情況當真如此嗎?一些研究人員將“殺手機器人”視作一種文化概念,采用另一種方法對其進行了研究。他們指出,就像人類造出的其它東西一樣,哪怕再先進的機器人也僅僅是機器而已。如果我們在設(shè)置機器人時對技術(shù)問題和文化問題多加注意,它們就不會發(fā)起機器人革命、背叛人類。
“關(guān)鍵是,‘殺手機器人’這個概念并不是憑空產(chǎn)生的,”該研究的共同作者、紐約州立大學布法羅分校的媒體理論助理教授特羅·卡爾佩(Tero Karppi)指出,“在此之前先有了相關(guān)技術(shù)和科技,這些系統(tǒng)的構(gòu)想和研發(fā)才得以變成現(xiàn)實。”

換句話說,我們之所以對殺手機器人感到憂慮,是因為我們一直在自己嚇唬自己。該研究作者提到了《終結(jié)者》或《我,機器人》等電影,它們都假設(shè)未來的機器人逐漸會將人類取而代之。而在人工智能領(lǐng)域,我們也常常做出這樣的假設(shè)。例如,論文中援引了“阻止殺手機器人運動”官網(wǎng)上的一段文章:
在過去十年間,無人武器的使用不斷增加,大大改變了戰(zhàn)爭方式,也帶來了新的人權(quán)和法律問題。如今,不斷進步的科技正致力于研發(fā)全自動化武器。這些機器人武器能夠自己選擇目標并開火,不需要任何人類的干預(yù)。
研究人員指出,這些設(shè)想是“技術(shù)決定論”的體現(xiàn)。該理論的支持者認為,如果技術(shù)系統(tǒng)的自動化程度過高,不僅將對社會、還會對整個人類造成毀滅性打擊。
“該理論暗示著人類與機器是截然不同的,”研究作者指出,“它似乎認為,‘人類控制機器’與自動化武器、即‘機器控制機器’之間存在絕對的差別。”
但如果我們能以某種方式為機器智能編碼、使其無法區(qū)分人類與機器之間的區(qū)別呢?這是個很有意思的想法:如果沒有“人類”與“機器”之分,也就不會有“人類與機器之爭”了。
卡爾佩提出,或許我們可以從根本上改變未來機器對人類的理解方式。
“我們可以試著將機器人和機器智能看作人類社會的一部分,”他說道,“思考它們?nèi)绾闻c人類共事,而不是獨立運作、與人類作對。”
這樣一來,我們便可以分析、并重新設(shè)計與未來機器人相關(guān)的技術(shù)了。該研究作者引用了紐約時報的一篇報道:美國國防部近日撥款180億美元(約合1200億人民幣),用于研發(fā)全自動武器系統(tǒng)和技術(shù)。
如果我們想改變研發(fā)這些系統(tǒng)的方法的話,就應(yīng)當趁現(xiàn)在行動。僅僅禁止致命性自動化武器是無法從根本上解決這一難題的。我們需要深入該問題的技術(shù)與文化層面,才能真正阻止自動化殺傷武器的發(fā)展。
要想在未來與機器人和平共處,關(guān)鍵是要意識到,機器人歸根結(jié)底不過是人類創(chuàng)造出的產(chǎn)物。未來的機器人不會是來自外太空的科技強軍(但愿如此),而是由人類一手打造的。
“機器智能已經(jīng)成為了現(xiàn)實,我們需要學會與它們共處,”卡爾佩指出,“這不僅僅是一個技術(shù)或工程問題,還囊括了文化、人性和社會關(guān)系。”