強(qiáng)人工智能(強(qiáng)AI)是什么?簡單來說,就是一個(gè)類似于人類大腦的智能,它可以自主完成對(duì)世界的理解、對(duì)知識(shí)的學(xué)習(xí),而不需要人類為它們的感知和實(shí)踐預(yù)先建立好模型(就像現(xiàn)在的深度神經(jīng)網(wǎng)絡(luò)和千千萬萬比它更弱的程序那樣)。強(qiáng)人工智能是人工智能的終極形態(tài),相信它能給人類帶來福祉和帶來災(zāi)難的人都為數(shù)不少,但大家普遍都同意在超強(qiáng)計(jì)算能力的加持下,強(qiáng)人工智能的進(jìn)步速度會(huì)遠(yuǎn)遠(yuǎn)快于人類,而且會(huì)對(duì)人類社會(huì)產(chǎn)生深遠(yuǎn)的影響。
但強(qiáng)人工智能到底還有多久才會(huì)出現(xiàn),對(duì)這個(gè)問題的觀點(diǎn)就是千奇百怪了,從5年到100年、甚至認(rèn)為永遠(yuǎn)不會(huì)出現(xiàn)的人也有。我們選取了一些Qurora上關(guān)于這個(gè)問題比較有價(jià)值的討論,供大家參考。

計(jì)算設(shè)備(包括計(jì)算機(jī)和其他)的計(jì)算能力在以指數(shù)級(jí)增長
Paul King是一名計(jì)算神經(jīng)系統(tǒng)科學(xué)家和數(shù)據(jù)科學(xué)家,在醫(yī)學(xué)日?qǐng)?bào)、福布斯等多家雜志上刊登過文章。他表示目前強(qiáng)人工智能面臨的最大障礙恰恰是自我建模的能力(這種能力被稱為結(jié)構(gòu)學(xué)習(xí))。以下是他的答案:
強(qiáng)AI看起來確實(shí)是可行的,但是還需要一段時(shí)間。
現(xiàn)階段主要的技術(shù)壁壘在于人們對(duì)于“結(jié)構(gòu)學(xué)習(xí)”的認(rèn)識(shí)還不夠深刻,尤其是當(dāng)它與對(duì)世界建模和引導(dǎo)行動(dòng)相關(guān)的時(shí)候。
機(jī)器學(xué)習(xí)在“參數(shù)學(xué)習(xí)”上已經(jīng)做得很好了。當(dāng)一個(gè)問題被人類設(shè)計(jì)師建模后,機(jī)器學(xué)習(xí)可以很準(zhǔn)確的自我調(diào)整其中的參數(shù)。但是如何一個(gè)模型到底是如何被建立起來的呢?這就是“結(jié)構(gòu)學(xué)習(xí)”:讓機(jī)器自己推測出模型的最優(yōu)結(jié)構(gòu),并且在實(shí)測數(shù)據(jù)與模型不符的時(shí)候?qū)δP瓦M(jìn)行更正。
比如,組成物理環(huán)境的模型中最基本的單元應(yīng)該是什么呢?常見的有人、樹、汽車和凳子這樣的物體。但是AI怎么在沒有人給它們預(yù)先編程的情況下就知道這些東西的含義呢?這是個(gè)最基本的例子。而人的大腦就天生能給這些物體的存在賦予準(zhǔn)確的理解和定義。結(jié)構(gòu)學(xué)習(xí)也可以應(yīng)用在行為指導(dǎo)上,因?yàn)榕c環(huán)境的互動(dòng),作為人們與世界交流和“思考”的結(jié)果,也必須建立在可以變形、融合和切分的可延伸的元素的基礎(chǔ)上。
一個(gè)很值得思考的問題是:我們到底能用現(xiàn)有的電腦算法來解決這個(gè)問題,還是必須得對(duì)我們的大腦進(jìn)行徹底的逆向工程研究,然后根據(jù)我們得到的東西重新設(shè)計(jì)一套計(jì)算架構(gòu)和模式才能做到這一點(diǎn)。

現(xiàn)有的深度神經(jīng)網(wǎng)絡(luò)架構(gòu)
Robert Stone是一位在認(rèn)知科學(xué)和計(jì)算機(jī)系統(tǒng)方面已經(jīng)擁有超過35年經(jīng)驗(yàn)的研究者。他并沒有從技術(shù)細(xì)節(jié)上來解釋強(qiáng)人工智能的問題,但給出了一個(gè)很有說服力的推論:其實(shí)我們的大腦在某種程度上來說就是一個(gè)計(jì)算能力沒有那么強(qiáng)的強(qiáng)AI,所以由于我們的大腦已經(jīng)存在,所以在機(jī)器中制造出類似東西的可行性是一定存在的。他同時(shí)認(rèn)為,其實(shí)人類現(xiàn)在對(duì)強(qiáng)AI的需求并沒有那么迫切,人類和弱AI的協(xié)同已經(jīng)能做的非常出色了。
強(qiáng)AI是能夠做到的,但是非常非常難,智能的產(chǎn)生是一個(gè)很復(fù)雜的過程,包含了很多細(xì)小的事件,其中的一些是非常復(fù)雜而且在工程學(xué)上難以實(shí)現(xiàn)的。建造這樣的一個(gè)東西不是一件簡單的事。
但是強(qiáng)AI事實(shí)上已經(jīng)在自然中演化出來了,我們最終肯定也是能在機(jī)器上實(shí)現(xiàn)它的。需要注意的是人類并不是嚴(yán)格意義上的思維機(jī)器——我們會(huì)犯錯(cuò),而且經(jīng)常犯錯(cuò)——但是在目前這些尚不完美的機(jī)器的幫助下,我們就能做得很好了。這意味著如果我們只是想要把什么事做好、讓什么東西充分發(fā)揮它的作用的話,我們完全不需要去制造一臺(tái)完美的AI。我們只需要讓這個(gè)系統(tǒng)進(jìn)行各種嘗試,讓它能夠自我提升,并且在犯下錯(cuò)誤或者做的不夠好的時(shí)候能自己意識(shí)到這一點(diǎn)。做到這一點(diǎn)在理論上就變得可行多了,只是在實(shí)現(xiàn)上仍要費(fèi)一番功夫而已。我還注意到人類正在面臨一個(gè)不確定、不精確、沒有任何事情能被準(zhǔn)確預(yù)言的宇宙(量子力學(xué)認(rèn)為,未被觀察者觀察到的物體狀態(tài)永遠(yuǎn)不會(huì)確定,而是以各種可能的疊加態(tài)而存在著),但是從某種程度上來說,我們就是強(qiáng)AI。所以要我說的話,強(qiáng)AI是有可能實(shí)現(xiàn)的,如果不能的話,人類就不會(huì)是現(xiàn)在這個(gè)樣子了。我們估計(jì)還在樹上蕩來蕩去。

深度神經(jīng)網(wǎng)絡(luò)的神經(jīng)元模型
但也有相對(duì)冷靜,或者說悲觀的理論:一位從事了十余年軟件開發(fā)的軟件工程師Orange Monkeybat認(rèn)為強(qiáng)AI即使能夠?qū)崿F(xiàn),也離我們還很遠(yuǎn),因?yàn)樵谌藗儗?duì)一件事物并不了解的時(shí)候總是會(huì)低估實(shí)現(xiàn)它的難度。
我只是一個(gè)普通的工程師,進(jìn)行了差不多18年的軟件開發(fā),但是我想在我的工作中我發(fā)現(xiàn)的一些規(guī)律其實(shí)可以完美應(yīng)用在你的問題上。首先是一些關(guān)于技術(shù)和技術(shù)開發(fā)人員的公理:
?。?)當(dāng)一個(gè)問題涉及到大家知之甚少的技術(shù)挑戰(zhàn)的時(shí)候,人們對(duì)能解決它的時(shí)間的估計(jì)往往會(huì)比實(shí)際需要的時(shí)間少。而且,做出這個(gè)估計(jì)花費(fèi)的時(shí)間越久,往往這個(gè)估計(jì)的數(shù)值也就錯(cuò)得越離譜。(在幾個(gè)典型的例子里,人們?cè)陔y題解決時(shí)間的估計(jì)上甚至少了幾個(gè)數(shù)量級(jí))
(2)工程師、程序員、科學(xué)家們和其他的技術(shù)研究者們聚集在一起的時(shí)候永遠(yuǎn)會(huì)對(duì)自己團(tuán)隊(duì)的能力過于樂觀。(原因多種多樣,但總的來說大家都會(huì)認(rèn)為自己是一個(gè)非常有智慧的——這個(gè)判斷常常會(huì)偏高——團(tuán)隊(duì))
?。?)因?yàn)椋?)中描述的原因,很多技術(shù)工作者會(huì)把一些難題看成是很簡單的事,直到他們需要著手解決它,甚至直到他們已經(jīng)在解決它的努力上付出了很多之后,才會(huì)意識(shí)到自己的問題。
由于這些公理的存在和大多數(shù)人,尤其是那些經(jīng)常會(huì)陷入各種各樣的“確認(rèn)誤差”的聰明人的表現(xiàn),我覺得暫時(shí)不應(yīng)該相信那些鋪天蓋地的關(guān)于AI的宣傳。
強(qiáng)AI是可能的。我們就在思考,并且有自我的意識(shí),所以我相信我們是能創(chuàng)造出來這種東西的。但是我也相信P/NP問題(克雷數(shù)學(xué)研究所七個(gè)千禧年大獎(jiǎng)難題之一,至今未被解決)是可以被解決的。我的意思是,不管是P=NP還是P!=NP,沒理由我們永遠(yuǎn)沒法找到問題的答案,我們只是暫時(shí)還沒找到罷了。
我的假設(shè)是跟解決強(qiáng)AI問題相比,我們解決P/NP問題的時(shí)間會(huì)早得多,為什么我會(huì)這么說呢?因?yàn)橹辽僭赑/NP問題中我們還能清楚的知道我們知道和不知道的條件有哪些,而我們對(duì)AI的認(rèn)識(shí)則要混沌得多。除非我們有一天對(duì)AI的認(rèn)識(shí)也像今天對(duì)P/NP問題的認(rèn)識(shí)那樣清晰了,不然只會(huì)證明我們?cè)谶@個(gè)問題上根本沒有進(jìn)步多少。
我們現(xiàn)在實(shí)際上還并不是很了解“學(xué)習(xí)”的含義。我們知道深度神經(jīng)網(wǎng)絡(luò)在一定程度上具備了“學(xué)習(xí)”的能力,但我們其實(shí)對(duì)體現(xiàn)在哺乳動(dòng)物上的學(xué)習(xí)能力幾乎一無所知。而就是因?yàn)閷?duì)于強(qiáng)AI我們現(xiàn)在連“我們不知道什么”都不知道,很多人才會(huì)認(rèn)為我們已經(jīng)同強(qiáng)AI相當(dāng)接近了。但是我們?nèi)绻宄擞卸嗌偈率俏覀円詾橹榔鋵?shí)根本不了解的,我們的估計(jì)就會(huì)靠譜很多。比如P/NP問題,我們研究的越多,越覺得我們離解決這個(gè)問題遙遙無期。同樣的事也有可能在強(qiáng)AI身上上演。
別誤會(huì)了,我是強(qiáng)人工智能的堅(jiān)定支持者。但當(dāng)你們正視我們真正了解的知識(shí)的時(shí)候你就會(huì)明白,我們離強(qiáng)人工智能(或者說奇點(diǎn)的到來)仍然很遠(yuǎn)。我覺得,就算考慮到技術(shù)指數(shù)級(jí)的增長。
人類的大腦是自然界最神奇的成果之一了?;蛟S我們真的需要等到能對(duì)大腦進(jìn)行徹底的逆向工程的那天才會(huì)擁有建造強(qiáng)AI的條件了,至少像工程師Monkeybat說的那樣,我們得先知道我們不知道什么東西。