據(jù)國外媒體報道,鑒于美國宇航局信使號探測器在水星極區(qū)發(fā)現(xiàn)了冰水化合物痕跡,而且在南極湖泊深處也發(fā)現(xiàn)了細(xì)菌群落,這里是公認(rèn)為地球上最黑暗、含鹽量最高、溫度最低的環(huán)境之一。另一方面,遠(yuǎn)在火星的好奇號火星科學(xué)實(shí)驗(yàn)室正在蓋爾撞擊坑的土壤樣品中尋找碳元素的痕跡。這些探測任務(wù)讓天文學(xué)家產(chǎn)生了新的想法:是否生命的種子廣泛存在于我們的太陽系中,倘若人類這樣的生物打造出超級機(jī)器人,那么這些人工智能機(jī)器很可能成為我們星系的統(tǒng)治者,它們擁有由硅、鍺、鎵等元素構(gòu)成的大腦。
諸如著名科幻系列電影《終結(jié)者》中具有金屬骨架的仿生人或?qū)⑹侨祟愇拿鞯淖罱K敵人,人工智能技術(shù)的進(jìn)步使這一切有可能實(shí)現(xiàn)。
在很多科幻書籍中都嵌入了邪惡機(jī)器人征服并扼殺人類的情景,比如經(jīng)典的電影《2001太空漫游》中就描述了一種令人恐怖的邪惡機(jī)器。不僅近些年的科幻片采用了恐怖機(jī)器作為線索,早在1970年代科幻大片中也有類似的元素,又如《巨人:福賓計(jì)劃》中“怪博士”打造了一臺超級機(jī)器,蘇聯(lián)人針對此也打造了一臺控制全境核武器的超級機(jī)器,但這兩臺超級機(jī)器卻聯(lián)手消滅人類。
隨著計(jì)算機(jī)技術(shù)的進(jìn)步,一些未來學(xué)家警告我們現(xiàn)在努力打造的計(jì)算機(jī)技術(shù)在將來會對人類的生存構(gòu)成威脅,在不遠(yuǎn)的未來可能導(dǎo)致一些災(zāi)難性的后果或者不可逆轉(zhuǎn)的結(jié)局。在上周一,由劍橋大學(xué)的研究人員宣布建立起人類生存風(fēng)險研究中心,試圖推演未來的智能機(jī)器人是否能取代我們并對人類的繼續(xù)生存產(chǎn)生威脅。當(dāng)然,預(yù)測人類的未來具有相當(dāng)大的難度,即使是古代瑪雅人也不可能預(yù)見到機(jī)器人能否取代人類而統(tǒng)治太陽系,甚至是銀河系。
劍橋大學(xué)宇宙科學(xué)家馬丁·里斯(MartinRees)在他于2003年出版的一本名為《我們最后的世紀(jì)》一書中提到:人類可能在2100年前被某種先進(jìn)力量所扼殺。來自劍橋大學(xué)的宇宙(未來)學(xué)家(派)所擔(dān)心的問題之一就是恐怖的殺人機(jī)器人可能是末日審判的主角,此外還有氣候變化、人類爆發(fā)的核戰(zhàn)爭和失控的生物技術(shù)等,都有可能成為人類末日來臨的情節(jié)。根據(jù)一份人類生存風(fēng)險評估中心的報告:許多科學(xué)家擔(dān)心人類科技發(fā)展成果可能很快形成新的可滅絕人類文明的新風(fēng)險。
從人工智能技術(shù)的進(jìn)展、生物技術(shù)和人工生命工程的研究突破、納米技術(shù)等等都可能形成極端的風(fēng)險,可怕的是這樣風(fēng)險的嚴(yán)重性是難以評估的,但它們會引起我們更多的關(guān)注。著名的科幻小說家艾薩克·阿西莫夫在他的科幻作品中提到了關(guān)于機(jī)器人的三大定律,其中提到機(jī)器人不得傷害人類,或者當(dāng)人類受到傷害不得袖手旁觀,在不違背第一法則的情況下,機(jī)器人必須服從人類的命令。
但是,就算是當(dāng)今世界中,無人飛機(jī)在遠(yuǎn)程控制下可以對敵方目標(biāo)進(jìn)行打擊,隨著人工智能技術(shù)的進(jìn)步,它們最終會成為自主選擇攻擊目標(biāo)的恐怖機(jī)器。到了2030年,微處理器的飛速發(fā)展也使得機(jī)器(人)大腦中央處理計(jì)算機(jī)將比現(xiàn)在強(qiáng)數(shù)百萬倍,但人工智能到達(dá)何種程度的時候才會對人類的生存構(gòu)成威脅呢?比如與人類進(jìn)行競爭、爭奪資源等。英國數(shù)學(xué)家歐文·約翰·古德(IrvingJohnGood)在1965年撰寫的文章中提到,機(jī)器人或?qū)⑹侨祟惖淖詈笠粋€發(fā)明,其未來發(fā)展可超越人類自身,隨著“智能爆炸”的出現(xiàn),超級機(jī)器人將遠(yuǎn)超人類智慧。
在2000年,太陽微系統(tǒng)公司的創(chuàng)始人之一、兼首席科學(xué)家比爾·喬伊(BillJoy)認(rèn)為巨大的變革力量正在的釋放出來,在人工智能上的飛速發(fā)展打開了一個全新的世界。根據(jù)賓夕法尼亞州卡內(nèi)基·梅隆大學(xué)機(jī)器人研究所所長介紹:“機(jī)器人最終會先戰(zhàn)勝我們,人類在超級智能機(jī)器人面前將瀕臨滅絕。”然而考慮到費(fèi)米悖論,我們可得處為什么還沒有已經(jīng)經(jīng)歷人工智能化過程的機(jī)器人抵達(dá)地球的疑問。如果宇宙進(jìn)化規(guī)模巨大,人工智能將不可避免地取代有血有肉的生物。