據(jù)Elon Musk說,人工智能(AI)的發(fā)展是人類未來的最大威脅。

Musk最近指出:
“我想我們要非常小心人工智能。如果讓我說對我們的存在產(chǎn)生最大威脅的是什么,那可能就是它了。所以我們需要非常小心。我越來越傾向于認為應該從國家和國際層面對其進行一些監(jiān)管,從而確保我們不會做蠢事。”
Musk提到了幾個關(guān)鍵問題。第一個是我們應該如何處理人工智能的實施;第二個是如何規(guī)范和監(jiān)督這項技術(shù),這可能也是最嚴峻的一項挑戰(zhàn)。
在如今人們急于采用機器學習和人工智能技術(shù)來獲得競爭優(yōu)勢的情況下,極有可能出現(xiàn)將技術(shù)部署在不當領(lǐng)域的危險。這最終會導致不均衡和不公平深深扎根于我們的社會中。
Cathy O’Neil在《數(shù)學毀滅性武器》(The Weapons of Math Destruction)一書中闡述了如今多個領(lǐng)域(包括美國監(jiān)獄系統(tǒng)及教育部門)不假思索地迅速采用機器學習和人工智能所帶來的危險。她的主要論點是,預測模型并不是中立的,而是反映了其創(chuàng)造者的目標和意識形態(tài)。它們往往也不利于窮人,加劇了社會中的不平等。
無論是計算大學排名,進行信用評級,處理工作申請,還是決定你在網(wǎng)上看到什么廣告或臉書的新聞資訊中出現(xiàn)什么消息,算法在我們的生活中扮演著越來越重要的角色。
由此得出的結(jié)論是,在設(shè)計機器學習時,我們必須確保我們已經(jīng)通過歷史數(shù)據(jù)和數(shù)據(jù)輸入本身測試并避免了明顯的偏差。
然而,該書對于如何有效地實時監(jiān)管該技術(shù)幾乎沒有提及。事實上,區(qū)塊鏈正是實現(xiàn)該目標的可行選擇之一,它在機器學習和人工智能技術(shù)的監(jiān)管中起著至關(guān)重要的作用。擁有不可變的防篡改行為記錄是其對自治人工智能實體執(zhí)行監(jiān)管的關(guān)鍵機制。
區(qū)塊鏈還可以基于自治人工智能實體的聲譽來啟動對其的訪問控制。畢竟,唯一可以適用于自治人工智能實體的規(guī)范可能只有終止它;如果你沒有這種權(quán)力,那么就把訪問權(quán)限交給社區(qū)。
所以,如果未來出現(xiàn)了人工智能必須將哪些內(nèi)容寫進區(qū)塊鏈的標準,并且能依據(jù)自治人工智能實體的“聲譽”進行訪問控制,那么我們就有了任何人工智能實體都無法繞過的控制機制。
從哲學的角度來看,最接近的方法源自英國哲學家托馬斯·霍布斯(Thomas Hobbes)的論點。他在著作《利維坦》一書中指出公民有必要放棄一些自己的權(quán)利,為了社會的利益將其交給統(tǒng)治者或“利維坦”(即國家)。
許多文章都寫到了這種技術(shù)的不正當利用,其后果是創(chuàng)造者無法預料的。但很少有文章提到如何創(chuàng)建一個監(jiān)管人工智能和機器學習的“利維坦”。
創(chuàng)造這樣的“利維坦”可以對人工智能自治機構(gòu)進行驗證并使其向區(qū)塊鏈匯報。區(qū)塊鏈的不可變性確保了任何人工智能機構(gòu)都不可以篡改它,從而可以為所有此類機構(gòu)創(chuàng)建聲譽賬本。這種機制能夠有效地按照制定好的規(guī)則行事,一旦發(fā)現(xiàn)機構(gòu)不合規(guī)就可以實行制裁。
人們對于區(qū)塊鏈不斷出現(xiàn)的各種用例已經(jīng)進行了很多報道。坦率地說,其最重要的用例可能在于保障人類生存。