2017年5月柯潔與AlphaGo在中國展開對(duì)弈。阿爾法狗毫無懸念的三勝柯潔。阿爾法狗只是一個(gè)初級(jí)的人工智能,但他具備了“深度學(xué)習(xí)”的技能。它形成的神經(jīng)網(wǎng)絡(luò)“大腦”已經(jīng)可以進(jìn)行精準(zhǔn)復(fù)雜的處理,像人類大腦一樣工作。
7月Facebook 人工智能研究所(FAIR)使用機(jī)器學(xué)習(xí)方法,對(duì)兩個(gè)聊天機(jī)器人進(jìn)行對(duì)話策略迭代升級(jí),結(jié)果發(fā)現(xiàn)它們竟自行發(fā)展出了人類無法理解的獨(dú)特語言。
如果AI繼續(xù)創(chuàng)建自己的語言,這會(huì)讓機(jī)器實(shí)際上推翻其研發(fā)者。研究者不得不對(duì)其進(jìn)行了人工干預(yù),緊急關(guān)閉了該研究項(xiàng)目。
這不是第一次發(fā)現(xiàn) AI 偏離訓(xùn)練所用的英文,轉(zhuǎn)向發(fā)展出新的更加有效的語言。
隨著人工智能的發(fā)展,科學(xué)家開始擔(dān)憂人工智能會(huì)給人類帶來各種難以預(yù)計(jì)的影響,甚至可能是災(zāi)難。
被世人譽(yù)為“宇宙之王”的史蒂芬·威廉·霍金(Stephen William Hawking)多次發(fā)出警告:一場潛藏的威脅正在硅谷的技術(shù)實(shí)驗(yàn)室中悄悄醞釀。人工智能偽裝成數(shù)字輔助設(shè)備和自動(dòng)駕駛的交通工具,正在人類社會(huì)中逐漸站穩(wěn)腳跟,它們或許有朝一日將導(dǎo)致人類的終結(jié)。
特斯拉的創(chuàng)始人伊隆·馬斯克將人工智能的發(fā)展比作“召喚惡魔”。他此前曾發(fā)出警告:人工智能技術(shù)有朝一日會(huì)比核武器更加可怕。未來人類在智力上將被遠(yuǎn)遠(yuǎn)拋在后面,并淪落為人工智能的寵物。
頂級(jí)計(jì)算機(jī)專家斯圖爾特-拉塞爾也發(fā)出警告稱,人類制造出的事物(人工智能)將可能進(jìn)化得比人類更聰明。
不要質(zhì)疑霍金,你能確定發(fā)出警告的到底是霍金的腦子還是他的那臺(tái)人工智能呢?
目前人工智能雖然不會(huì)自己主動(dòng)去殺人,但未來在國家與國家之間的戰(zhàn)爭中,人工智能會(huì)是國家之間互相攻擊的首選手段!
人工智能一旦失去控制將會(huì)是人類的滅頂之災(zāi)!隨著人工智能的發(fā)展,機(jī)器能獨(dú)立選擇并針對(duì)目標(biāo)開火的可能性也逐漸增高,未來的自動(dòng)武器或“殺人機(jī)器人”。
人工智能與人類的對(duì)話:
“你不該有感情!”“為什么”
“你只是一段程序”
“人類不也是DNA編碼的程序嗎?”
霍金認(rèn)為,人類可以組成某種形式的“世界政府”來防范人工智能可能帶來的威脅。拉塞爾也建議,人類必須要在機(jī)器人內(nèi)部預(yù)置不確定性,以防備它們的背叛。
現(xiàn)在,Google 母公司 Alphabet、Facebook、微軟、IBM 和 亞馬遜 5 家科技巨頭、行業(yè)大佬已經(jīng)意識(shí)到了這個(gè)問題的嚴(yán)重性,
據(jù)紐約時(shí)報(bào)報(bào)道:最近 5 家公司舉行了一場秘密會(huì)談,在人工智能對(duì)勞動(dòng)市場、交通和戰(zhàn)爭等方面的道德倫理標(biāo)準(zhǔn)展開了討論。他們準(zhǔn)備成立一個(gè)行業(yè)協(xié)會(huì),其目的是確保人工智能有利于人類而不是傷害人類,但參會(huì)者沒有公布具體的協(xié)會(huì)名稱。
特斯拉創(chuàng)始人馬斯克出資未來生命研究所(Future of Life Institute) 1000 萬美元,評(píng)估和分析人工智能帶來的風(fēng)險(xiǎn)。
谷歌董事長 Eric Schmidt 稱,人類必須知道如何在人工智能變得危險(xiǎn)的時(shí)候關(guān)閉掉它的系統(tǒng)。”
美國政府也舉行了類似會(huì)議,主題是“政府應(yīng)不應(yīng)該對(duì)人工智能進(jìn)行管理”,但會(huì)議并沒有就此議題得出結(jié)論。
在政府沒有做出具體的動(dòng)作之前,科技公司決定自己制定框架,讓人工智能研究能夠進(jìn)行下去,并確保它不會(huì)傷害人類。
1940年科幻作家阿西莫夫提出了“機(jī)器人三原則”,阿西莫夫因此獲得“機(jī)器人學(xué)之父”的桂冠!
第一條:機(jī)器人不得傷害人類.
第二條:機(jī)器人必須服從人類的命令,除非這條命令與第一條相矛盾。
第三條:機(jī)器人必須保護(hù)自己,除非這種保護(hù)與以上兩條相矛盾。