據(jù)國外媒體報(bào)道,去年10月份,埃隆·馬斯克(Elon Musk)聲稱人工智能是“我們最大的生存威脅”,使用計(jì)算機(jī)相當(dāng)于在“召喚惡魔”。去年12月份,史蒂芬·霍金(Stephen Hawking)表示,“全人工智能可能意味著人類的終結(jié)。”今年,比爾·蓋茨(Bill Gates)表示,他“擔(dān)心超級(jí)智能”,他好像認(rèn)為超級(jí)智能距離我們只有幾十年時(shí)間。
不過如果人類將處于殺手式機(jī)器人帶來的危險(xiǎn)中,問題可能并不稱作“人工智能”,而是“人工愚蠢”。這兩種觀念之間的差異充分表明,我們?nèi)绾慰创娔X。
大多數(shù)人所擔(dān)心的人工智能中,“電腦決定人”是一個(gè)并非是個(gè)正確的觀念,因此他們要消滅這個(gè)觀念。電腦決定人無疑是不利于人類的,但這是電腦的智能行為。
不過該領(lǐng)域的專家表示,真正擔(dān)心的是電腦程序在沒有語境的情況下迅速地對(duì)一個(gè)任務(wù)做過了頭。比如,一個(gè)生產(chǎn)曲別針的機(jī)器如果失去了控制,那么只需一晚上,我們就可能會(huì)被堆積成山的回形針淹沒。換話說,這樣的情況可能會(huì)在全球范圍內(nèi)默默上演。但是對(duì)于那些小說電影里聳人聽聞的“人工智能地球終結(jié)者”之說,還是不要太當(dāng)真了。
麻省理工(Massachusetts Institute of Technology )物理學(xué)院教授及FLI( Future of Life Institute)主席鐵馬克(Max Tegmark)表示,現(xiàn)在人類應(yīng)當(dāng)恐懼的是那些本來專注于某一領(lǐng)域的計(jì)算機(jī)以及人工智能設(shè)備發(fā)展到了一個(gè)很壞的層面。
在今年六月底,德國工廠一流水線組裝機(jī)器人“殘忍”地殺死一工人。消息一經(jīng)傳出,轟動(dòng)全球。Tegmark對(duì)此表示,這只不過是一起機(jī)器人故障事件,他們把人類當(dāng)成了一片金屬。
最近特斯拉及SpaceX創(chuàng)始人埃隆·馬斯克資助了“FLI”1000萬美元用以鏟除自動(dòng)化程序可能帶來的威脅,這讓Tegmark先生有一點(diǎn)無奈,因?yàn)榘R斯克,史蒂芬霍金及比爾蓋茨在內(nèi)的眾多科技界杰出人物沒有意識(shí)到這其中存在的真正潛在威脅。
現(xiàn)在在那些遍布人工智能機(jī)器人的領(lǐng)域,這些“機(jī)器”在依據(jù)人的意愿辦事,還沒有足夠的能力去自己思考,甚至產(chǎn)生殺死自己“主人”的念頭。艾倫人工智能研究所(Allen Institute for Artificial Intelligence)首席執(zhí)行官Oren Etzioni表示,那些小說電影里出現(xiàn)的機(jī)器人帶來的世界末日景象顯然是違背了科學(xué)以及遠(yuǎn)程哲學(xué)理論的。如果有更多的人會(huì)電腦編程,那么他們就會(huì)知道計(jì)算機(jī)“所想”的有多么雜亂無章。
那么為什么大家會(huì)產(chǎn)生這樣錯(cuò)誤的想法呢?一個(gè)原因就是計(jì)算機(jī)的運(yùn)行方式。A.I人工智能一詞最早出現(xiàn)在20世紀(jì)50年代,在那時(shí)候人們就開始認(rèn)為機(jī)器即將可以獨(dú)立思考了,所以現(xiàn)在很多人沿用了這個(gè)錯(cuò)誤的想法。
“人工智能”一詞現(xiàn)今已經(jīng)廣泛應(yīng)用。谷歌公司(Google)的人工智能項(xiàng)目主要由收購來的DeepMind公司負(fù)責(zé)。同時(shí)該領(lǐng)域的一家領(lǐng)頭公司“Thinking Machine”,也在開發(fā)機(jī)器的“深度學(xué)習(xí)”(Deep Learning),也就是說我們正在創(chuàng)造“智慧”。
DeepLearning需要依靠一種分層歸因技術(shù),叫做神經(jīng)中樞網(wǎng)絡(luò),就像人類大腦中神經(jīng)元和神經(jīng)節(jié)點(diǎn)那樣工作。
現(xiàn)在“人工智能”技術(shù)是科技行業(yè)最熱的一個(gè)領(lǐng)域。亞馬遜、Facebook和谷歌正在展開技術(shù)上的競爭;包括Uber和通用電氣在內(nèi)的很多公司都將未來與機(jī)器學(xué)習(xí)系在了一起。
但是這樣的“學(xué)習(xí)”不同于現(xiàn)在的計(jì)算機(jī)那樣,是自動(dòng)產(chǎn)生的,而不是事先編輯儲(chǔ)存好的。
DeepMind開發(fā)出的一款程序可以操控簡單的視頻游戲,但是無法將一款游戲的經(jīng)驗(yàn)應(yīng)用至另一款。這一神經(jīng)網(wǎng)絡(luò)系統(tǒng)識(shí)別圖片的方式與人腦有很大差異,并且很容易被擊敗。
從這類愚蠢的機(jī)器行為到廣泛的類人行為被稱作“遷移學(xué)習(xí)”,現(xiàn)在這一領(lǐng)域還處在研究階段。
加州大學(xué)伯克利分校信息科學(xué)教授Stuart Russell表示:“生產(chǎn)曲別針針的是由于“缺少程序”作為基礎(chǔ)的想法。目前的曲解就是,機(jī)器一旦產(chǎn)生意識(shí)同時(shí)就會(huì)產(chǎn)生威脅。”