我曾多次對朋友說,假如有一天世界上出現(xiàn)了這樣的機器人——它們完全擺脫了人類的控制,能夠自由自在地行動,并且能夠自己研究和生產(chǎn)更先進的機器人——那人類就可能完全受機器人控制,成為機器人的奴隸,甚至被機器人關進籠子,供它們解剖做實驗用或供它們觀賞。
朋友總是充滿自信,他認為機器人是人類研制的,當然會受到人類的控制。他說的雖然有道理,但還是說服不了我,因為我覺得有很多種可能性導致人類控制不了機器人:按照設計,本來是能控制某種機器人的,但可能由于設計中有錯誤或沒有完全按設計生產(chǎn),結(jié)果生產(chǎn)出來的機器人不被人類所控制;設計人員本來是能控制某種機器人的,但由于設計人員出了意外,就無人能控制機器人了……
原本以為只有像我這樣知識貧乏的人才會有如此荒唐的想法,誰知大科學家霍金教授也這么說。在前不久的倫敦“谷歌時代精神”大會上,他平靜地描述了人類的命運:“在未來100年內(nèi),結(jié)合人工智能的計算機將會變得比人類更聰明。”這位大科學家認為,屆時,人類將被機器控制。為了讓人信服,他還講了一個故事:“世上真的有上帝嗎?”科學家用顫抖的聲音問道。“現(xiàn)在有了。”世界上最聰明的人工智能電腦回答。說完,一道電光閃過它的電源插頭——人們再也關不掉它了。微軟創(chuàng)始人比爾·蓋茨、特斯拉汽車公司與美國太空探索技術(shù)公司CEO伊隆·馬斯克的名字也赫然在列。在他們看來,飛速發(fā)展的人工智能已經(jīng)成為“我們現(xiàn)存的最大威脅”。甚至,有學者描繪了人類完全被機器人“脾氣”主宰的悲涼命運——它若殘暴,我們可能被屠殺;它若人道,我們的出生率可能被逐漸降低,自然滅絕;若它們當中有善良的自由主義者,我們將被馴化。
除了計算機,人類還可能以其他方式消滅自己。比如,是不是哪天會出現(xiàn)這樣先進的武器:只須扔出去一枚,就能將地球毀了?如果出現(xiàn)這樣的武器,又恰巧遇上一個狂人,人類的未來就著實讓人擔憂了。我們今天說某種科技成果對人類無害,有可能只是一時沒有發(fā)現(xiàn)它對人類的潛在危害,但到了幾百年之后,它的危害可能顯露出來,而那時人類可能對它已經(jīng)束手無策了,只能眼睜睜看著它傷害人類。
我們發(fā)展科學,本來是為了人類的生活更加美好,可是由于某種原因,科技發(fā)展的成果在某些領域和時刻卻給人類帶來了滅亡。當然,這說的可能還是比較極端的情形,此外,還可能有某些發(fā)展雖不足以讓人類滅亡,但也給人類帶來巨大傷害,這種傷害有顯性的,也有隱性和長久的。
我們要看到科學發(fā)展所帶來的好處,但也要警惕它可能給人類帶來的某種危害,警惕短視而自私的人類只看到它的好處卻忽視它的潛在危害??萍嫉陌l(fā)展不是越快越好,計算機不是越先進越好,動車不是跑得越快越好,人類還是多一點辯證思維好。