国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

人工智能全局概覽:通用智能的當前困境和未來可能

   日期:2016-07-28     來源:鈦媒體    作者:lx     評論:0    
標簽:

   定義人工智能不是困難,而簡直是不可能,這完全不是因為我們并不理解人類智能。奇怪的是,人工智能的進步更多的將幫助我們定義人類智能不是什么,而不是定義人工智能是什么?
 
  但不管人工智能是什么,過去幾年我們確實已經(jīng)在從機器視覺到玩游戲等眾多領域取得了很多進展。人工智能正在從一項研究主題向早期的企業(yè)采用轉變。谷歌和 Facebook 等公司已經(jīng)在人工智能上投入了巨大的賭注,并且已經(jīng)在它們產(chǎn)品中應用了這一技術。
 
  但谷歌和 Facebook 只是開始而已:在未來十年,我們將見證人工智能蔓延進一個又一個的產(chǎn)品。我們將與 Bot 交流——它們不是照本宣科的機器人撥號程序(robo-dialer),我們甚至不能意識到它們不是人類。我們將依賴汽車進行路線規(guī)劃,對道路危險做出反應。
 
  可以毫不夸張地估計:在未來幾十年中,我們所接觸的每一種應用程序都將整合進一些人工智能功能,而如果使用應用程序,我們將無法做任何事。
 
  鑒于我們的未來將不可避免地與人工智能捆綁在一起,我們就必須要問:我們現(xiàn)在發(fā)展得如何了?人工智能的現(xiàn)狀是怎樣的?我們將走向何方?
 
  如今人工智能的能力和局限
 
  對人工智能的描述圍繞著以下幾個中心:強度(有多智能)、廣度(解決的是范圍狹窄的問題,還是廣義的問題)、訓練(如何學習)、能力(能解決什么問題)和自主性(人工智能是輔助技術還是能夠只靠自己行動)。這些每一個中心都有一個范圍,而且這個多維空間中的每一個點都代表著理解人工智能系統(tǒng)的目標和能力的一種不同的方式。
 
  在強度(strength)中心上,可以很容易看到過去 20 年的成果,并認識到我們已經(jīng)造出了一些極其強大的程序。深藍(Deep Blue)在國際象棋中擊敗了 Garry Kasparov;沃森(Watson)擊敗了 Jeopardy 的常勝冠軍;AlphaGo 擊敗了可以說是世界上最好的圍棋棋手李世石。
 
  但所有這些成功都是有限的。深藍、沃森和 AlphaGo 都是高度專業(yè)化的、目的單一的機器,只能在一件事上做得很好。深藍和沃森不能下圍棋,AlphaGo 不能下國際象棋或參加 Jeopardy,甚至最基本的水平都不行。它們的智能范圍非常狹窄,也不能泛化。
 
  沃森已經(jīng)在醫(yī)療診斷等應用中取得了很多成果,但它基本上仍然只是一個必須為特定領域專門調制的問答機器。深藍擁有大量關于國際象棋策略的專門知識和百科全書式的開放知識。AlphaGo 是用更通用的架構構建的,但其代碼中仍然有很多人工編碼的知識。我不是輕視或低估他們的成就,但認識到他們還沒有做成的事也是很重要的。
 
  我們還沒能創(chuàng)造出可以解決多種多樣不同類型問題的人工通用智能(artificial general intelligence)。我們還沒有聽一兩年人類對話的錄音就能自己說話的機器。盡管 AlphaGo 通過分析數(shù)千局比賽然后又進行更多的自我對弈而“學會”了下圍棋,但這同樣的程序卻不能用來掌握國際象棋。
 
  同樣的一般方法呢?也許可以吧。但我們目前最好的成就離真正的通用智能還很遠——真正的通用智能能靈活地無監(jiān)督地學習,或能足夠靈活地選擇自己想要學習的內(nèi)容,不管那是玩棋盤游戲,還是設計 PC 板。
 
  邁向通用人工智能
 
  我們?nèi)绾螐莫M窄的、特定領域的智能邁向更通用的智能呢?這里說的“通用智能”并不一定意味著人類智能,但我們確實想要機器能在沒有編碼特定領域知識的情況下解決不同種類的問題。我們希望機器能做出人類的判斷和決策。
 
  這并不一定意味著機器將實現(xiàn)創(chuàng)造力、直覺或本能等沒有數(shù)字類比的概念。通用智能將具備處理多種類型的任務和適應未曾預料的情形的能力。一個通用智能無疑可以實現(xiàn)“正義”和“公平”這樣的概念:我們已經(jīng)在談論人工智能對法律系統(tǒng)的影響了。
 
  我們先以自動駕駛汽車來證明我們所面臨的問題。要實現(xiàn)自動駕駛,汽車需要將模式識別和其它能力整合到一起,包括推理、規(guī)劃和記憶。它需要識別模式,這樣才能對障礙物和街道標志做出反應;它需要推理,這樣才能理解交通規(guī)則和解決像避開障礙物等任務;它需要規(guī)劃以獲得從當前位置到目標位置的路徑,并同時考慮到交通狀況等其它模式。
 
  它需要不斷重復做這些事,不斷更新它的解決方案。但是,即使一輛自動駕駛汽車整合了所有這些人工智能,它也不具備我們所期望的通用智能應該具備的靈活性。你不會期待一輛自動駕駛汽車能和你交談或布置你的花園。將從一個領域學習到的知識應用到另一個領域的遷移學習是非常困難的。
 
  你也許可以重新加工其中許多軟件組件,但那只能指出缺少了什么:我們當前的人工智能能為特定問題提供范圍狹窄的解決方案,它們并不是通用的問題解決者。你可以將范圍狹窄的人工智能疊加到一起(一輛車可以帶有能談論去哪里、進行餐廳推薦和與你下棋讓你不會感覺無聊的 Bot),但狹窄人工智能的疊加永遠不能得到一個通用人工智能。通用人工智能的關鍵不是有多少種能力,而是這些能力的整合。
 
  盡管神經(jīng)網(wǎng)絡這樣的方法原本是為模擬人腦過程而開發(fā)的,但許多人工智能計劃已經(jīng)放棄了模仿生物大腦的概念。我們不知道大腦的工作方式;神經(jīng)網(wǎng)絡計算是非常有用的,但它們并沒有模擬人類的思維。
 
  在《Artificial Intelligence: A Modern Approach》一書中,Peter Norvig 和 Stuart Russell 寫道:“當萊特兄弟和其他人停止模仿鳥類并開始學習空氣動力學時,對‘人工飛行’的追求才獲得成功。”
 
  類似地,要取得成功,人工智能不需要將重點放到模仿大腦的生物過程上,而應該嘗試理解大腦所處理的問題。可以合理地估計,人類使用了任意數(shù)量的技術進行學習,而不管生物學層面上可能會發(fā)生什么。這可能對通用人工智能來說也是一樣:它將使用模式匹配(類似 AlphaGo),它將使用基于規(guī)則的系統(tǒng)(類似沃森),它將使用窮舉搜索樹(類似深藍)。
 
  這些技術沒有一種能與人類智能直接對應。人類比任何計算機都做得更好的是構建他們的世界的模型,并根據(jù)這些模型采取行動。
 
  超越通用智能后的下一步是超智能(super-intelligence 或 hyper-intelligence)。目前我們還不清楚如何區(qū)分通用人工智能和超智能。我們期望超智能系統(tǒng)會具備創(chuàng)造力和直覺等性質嗎?鑒于我們對人類的創(chuàng)造力還不甚理解,思考機器的創(chuàng)造力就更為困難了。
 
  圍棋專家稱 AlphaGo 的一些落子是“創(chuàng)造性的”;但它們源自與其它所有落子完全一樣的過程和模式,而并非以一種新的視角看待這項游戲。同樣算法的重復應用可能會產(chǎn)生讓人類感到驚訝或意外的結果,但僅僅的驚訝并不是我們所說的“創(chuàng)造力”。
 
  將超智能看作一個規(guī)模問題會更容易一點。如果我們可以創(chuàng)造“通用智能”,可以很容易估計出它將很快就比人類強大成千上萬倍?;蛘?,更準確地說,通用人工智能要么將顯著慢于人類思維,難以通過硬件或軟件加速;要么就將通過大規(guī)模并行和硬件改進而獲得快速提速。
 
  我們將從數(shù)千個內(nèi)核 GPU 擴展到數(shù)千個芯片上的數(shù)以萬億計的內(nèi)核,其數(shù)據(jù)流來自數(shù)十億的傳感器。在第一種情況中,當加速變緩時,通用智能可能不會那么有趣(盡管它將成為研究者的一次偉大旅程)。在第二種情況中,其增速的斜坡將會非常陡峭、非常快。
 
  訓練還是不訓練
 
  AlphaGo 的開發(fā)者聲稱使用了遠比深藍更通用的算法來訓練人工智能:他們制作了一個只具備最少圍棋知識策略的系統(tǒng),學習主要是通過觀察圍棋比賽獲得。這指明了下一個大方向:我們可以從機器基于標注數(shù)據(jù)的監(jiān)督學習走向機器依靠自己組織和結構化數(shù)據(jù)的無監(jiān)督學習嗎?
 
  Yann LeCun 曾在 Facebook 的一篇帖子中說到:“在我們想要得到真正的人工智能之前,我們必須解決無監(jiān)督學習的問題。”
 
  要對照片分類,一個人工智能系統(tǒng)首先會獲得數(shù)百萬張已經(jīng)正確分類了的照片;在學習了這些分類之后,它還要使用一系列標注了的照片進行測試,看它們是否能夠正確標注這個測試集。如果沒有標注,機器又能做什么?如果沒有元數(shù)據(jù)告訴機器“這是鳥,這是飛機,這是花”,它還能發(fā)現(xiàn)照片中重要的內(nèi)容嗎?機器能像人和動物一樣,只需觀察遠遠更少的數(shù)據(jù)就能發(fā)現(xiàn)模式嗎?
 
  人類和動物都可以從相對很少的數(shù)據(jù)中構建模型和抽象:比如,我們不需要幾百萬張圖像才能識別出一種新的鳥或在一座新城市找到我們的路。研究者正在研究的一個問題是對視頻的未來畫面的預測,這將需要人工智能系統(tǒng)構建對世界運作方式的理解。
 
  有可能開發(fā)出能應對全新環(huán)境的系統(tǒng)嗎?比如在冰面汽車會難以預料的打滑。人類可以解決這些問題,盡管它們不一定很擅長。無監(jiān)督學習指出,光是靠更好更快的硬件,或開發(fā)者只是用當前的庫進行開發(fā),問題將無法得到解決。
 
  有一些學習方法處在監(jiān)督學習和無監(jiān)督學習的中間。在強化學習中,系統(tǒng)會被給予一些代表獎勵(reward)的值。機器人可以穿過一片地面而不跌倒嗎?機器人可以不用地圖就駕駛汽車穿過市中心嗎?獎勵可以被反饋給系統(tǒng)并最大化成功的概率。(OpenAI Gym 是一個很有潛力的強化學習框架)。
 
  在一端,監(jiān)督學習意味著再現(xiàn)一組標記,這在本質上是模式識別,而且容易發(fā)生過擬合。在另一個極端,完全無監(jiān)督學習意味著學習歸納性地推理關于一個情形的情況,這還需要算法上的突破。半監(jiān)督學習(使用最少的標注)或強化學習(通過連續(xù)決策)代表著這些極端之間的方法。我們將看到它們能達到哪種程度。
 
  智能的意義
 
  我們所說的“智能”是一個根本性的問題。在 Radar 2014 年的一篇文章中,Beau Cronin 出色地總結了許多人工智能的定義。我們對人工智能的期待嚴重依賴于我們希望用人工智能做什么。對人工智能的討論幾乎總是開始于圖靈測試。
 
  圖靈假設人們可以通過聊天的方式與計算機交互:他假設了一種與計算機的溝通方式。這個假設限制了我們期望計算機做的事:比如,我們不能期望它能駕駛汽車或組裝電路。這也是一個故意的模棱兩可的測試。計算機的答案可能是閃爍其詞的或完全不正確的,正確無誤不是重點。人類智能也可能會是閃爍其側或不正確的。我們不大可能將正確無誤的人工智能誤解為人類。
 
  如果我們假設人工智能必須被嵌入到能夠運動的硬件中,比如機器人或自動駕駛汽車,我們會得到一組不同的標準。我們會要求計算機在它自己的控制下執(zhí)行一個定義不清的任務(比如開車到一家商店)。我們已經(jīng)打造出了在路線規(guī)劃和駕駛上比大多數(shù)人類都做得更好的人工智能系統(tǒng)。
 
  谷歌的自動駕駛汽車負有責任的那次事故的原因是該算法被修改得更像人類一樣駕駛,并由此帶來了人工智能系統(tǒng)通常不會具備的風險。
 
  自動駕駛汽車還有很多沒能解決的困難問題:比如在暴風雪的山路上行進。不管人工智能系統(tǒng)是嵌入在汽車里,還是無人飛行器或人形機器人里,其所面臨的問題本質上是類似的:在安全、舒適的環(huán)境中執(zhí)行是很容易的;而在高風險、危險的情形中則艱難得多。
 
  人類也不擅長這些任務,盡管圖靈所期望的對話中人工智能是回避式的或甚至會錯誤地回答問題,但在高速路上駕駛時,模糊或不正確的方案卻是不能接受的。
 
  可以執(zhí)行物理行為的人工智能迫使我們思考機器人的行為。應該用什么樣的道德來規(guī)范自主機器人?阿西莫夫的機器人定律?如果我們認為機器人不應該殺死或傷害人類,武器化的無人機已經(jīng)打破了這道界限。盡管典型的問題“如果事故不可避免,自動汽車應該撞向嬰兒還是老奶奶?”是虛假的道德,但這個問題也有一些更為嚴肅的版本。
 
  為了避免會殺死其內(nèi)部乘客的事故,自動駕駛汽車應該沖向人群嗎?抽象地回答這個問題很容易,但很難想象人類會愿意購買會犧牲他們而不傷害旁觀者的汽車。我懷疑機器人將來能夠回答這個問題,但它也必然會在福特、通用、豐田和特斯拉的董事會上得到討論。
 
  我們可以通過對話系統(tǒng)或自主機器人系統(tǒng)的復雜度分布來更為簡單地定義人工智能,并說人工智能只是單純關于構建能回答問題和解決問題的系統(tǒng)。能夠回答問題和推理復雜邏輯的系統(tǒng)是我們已經(jīng)開發(fā)了好些年的“專家系統(tǒng)”,其中大部分都嵌入在沃森中。(AlphaGo 解決的是不同類型的問題。)
 
  但是,正如 Beau Cronin 指出的那樣,解決對人類來說存在智力挑戰(zhàn)的問題是相對簡單的;更困難的是解決對人類來說很簡單的問題。很少有三歲孩童能下圍棋。但所有的三歲孩童都能認出自己的父母——而不需要大量有標注的圖像集。
 
  我們所說的“智能”嚴重依賴于我們想要該智能所做的事,并不存在一個能夠滿足我們所有目標的單個定義。如果沒有良好定義的目標來說明我們想要實現(xiàn)的東西或讓我們衡量我們是否已經(jīng)實現(xiàn)了它的標準,由范圍狹窄的人工智能向通用人工智能的轉變就不會是一件容易的事。
 
  助手還是主角?
 
  人工智能的新聞報道聚焦于能夠自主行為的機器自主系統(tǒng)。這么做有充足的理由:它有趣、性感、且有點令人害怕。在觀看人類輔助 AlphaGo 下棋的同時,很容易去幻想一個由機器主宰的未來。然而相較于自動化設備,人工智能有更多超過人類的東西。真正的價值——人工智能或者智能增強——都在哪里?人工智能還是智能增強?
 
  這個問題自對于人工智能的初次嘗試起就被問到,并由 John Markoff 在《Machines of Loving Grace》中深入探討過。
 
  我們可能不想由一個人工智能系統(tǒng)來做決定,而可能會想為自己保留決定權。我們或許想讓人工智能通過提供信息、預測任何行動過程的后果、提出建議來增強智慧,而把決定權留給人類。盡管有點《黑客帝國》的感覺,但這個被人工智能所服務的增強我們的智慧而非推翻我們的未來會比服侍一匹脫韁的人工智能有著更大可能性。
 
  GPS 導航系統(tǒng)是一個人工智能系統(tǒng)用來增強人類智慧的絕佳案例。給定一張適宜的地圖,大多數(shù)的人都能從 A 點導航到 B 點,盡管這對于自身能力還有很多要求,尤其是在我們不熟悉的領域。繪制兩個位置之間的最佳路線是一個棘手的問題,特別是當你考慮到糟糕的交通和路況時。
 
  但是有了自動駕駛車輛的除外,我們從未把導航引擎連接到方向盤上。 GPS 是一種嚴格意義上的輔助技術:它給出了建議,而不是命令。當一個人已經(jīng)作出忽略 GPS 建議的決定(或錯誤)時,你都會聽到 GPS 說“重新計算路線中”,那是它正在適應新情況。
 
  在過去幾年中,我們已經(jīng)看到許多各種意義上有資格作為人工智能的應用程序。幾乎所有“機器學習”框架下的事物都有資格成為人工智能:事實上“機器學習”是在人工智能學科陷入聲名狼藉之時,被指稱回人工智能更為成功的那部分。你不必一定要構建帶有人類聲音的人工智能,像是亞馬遜的 Alexa,當然它的推薦引擎肯定是人工智能。
 
  類似 Stitchfix 的 web 應用也是人工智能,它增加了由時尚專家們運用推薦引擎所做出的選擇。我們已經(jīng)習慣了那些處理客戶服務電話的聊天機器人(并經(jīng)常被它們氣壞)——準確度或高或低。你可能最后還是得和人類對話,而其中的秘密就是使用聊天機器人清理掉所有例行問題。讓某個人類去抄錄你的地址、保單號碼和其他標準信息沒什么意義:如果內(nèi)容不是太多,計算機可以做得至少同樣準確無誤。
 
  下一代助理將是(已經(jīng)是)半自主性的。幾年前,Larry Page說《星際迷航》中的計算機是理想的搜索引擎:它是一臺能夠理解人類、已消化所有可用信息、能在被提問之前就給出答案的計算機。如果你現(xiàn)在正在使用谷歌,當它第一次告訴你由于交通堵塞要你早點出發(fā)赴約時,你可能會感到驚訝。
 
  這就需要縱觀多個不同的數(shù)據(jù)集:你目前所在的位置、你的約會地點(可能在你的日歷或聯(lián)系人列表中)、谷歌地圖數(shù)據(jù)、目前的交通狀況、甚至是有關預期交通模型的時間先后數(shù)據(jù)。它的目的不是回答某個問題;而是甚至在用戶意識到需求之前就提供幫助。

  為何人們對人工智能的興趣大增?

  為什么人工智能在遭受“人工智能的冬天”(AI winter)的幾十年聲名狼藉之后,會成為當下如此熱門的話題?當然,人工智能的新聞也出現(xiàn)深藍之后,之后又有沃森的故事;但這些風潮都沒能持久??吹侥壳暗娜斯ぶ悄茚绕馂榱硪淮物L潮是很有誘惑力的。這能讓我們忽視過去十年的變化。
 
  人工智能的興起依賴于計算機硬件的巨大進步。列舉計算機性能和存儲技術自人工智能之冬起(維基百科追溯到 1984 年)的 30 多年間的巨大進步是很乏味的。但這是此篇文章無法回避的一部分,特別是如果你已經(jīng)見過 IBM 的沃森機器支架。
 
  據(jù)報道 AlphaGo 運行于 1920 個 CPU 和 280 個 GPU ;;擊敗了 Lee Sedol 的機器可能更加龐大,并且它使用了谷歌用于構建神經(jīng)網(wǎng)絡所開發(fā)的定制硬件。即使人工智能算法在普通筆記本上運行很慢,但在像 AWS、GCE 和 Azure 的云平臺上配置一些重要的算力是容易且相對便宜的。機器學習得以實現(xiàn),部分也是因為這種存儲大量數(shù)據(jù)的能力。1985 年時的千兆字節(jié)(GB)還很罕見且重達數(shù)百磅;現(xiàn)在它已司空見慣,廉價而小巧。
 
  除了存儲和處理數(shù)據(jù)的能力,我們現(xiàn)在還能生成數(shù)據(jù)。在上世紀 80 年代,大多影像都是模擬信號。現(xiàn)在它們?nèi)菙?shù)字的,并有很多存儲于像是 Flickr、Google Photos、Apple Photos、Facebook 等的網(wǎng)絡服務商那里。許多在線照片已經(jīng)被貼上了一些描述性的文本,這使得它們成為了訓練人工智能系統(tǒng)的良好數(shù)據(jù)集。
 
  我們的許多對話也都是線上的,通過 Facebook、Twitter 和許多聊天服務。我們的購物歷史也是一樣。所以我們(或者更準確的說是 谷歌、蘋果、雅虎、 Facebook、亞馬遜等)就有了訓練人工智能系統(tǒng)所需的數(shù)據(jù)。
 
  我們在算法上也取得了顯著的進展。神經(jīng)網(wǎng)絡并不是特別的新,但是“深度學習”卻堆疊了一系列通過反饋來自我訓練的網(wǎng)絡。因而深度學習試圖解決機器學習中最難的人類問題之一:從數(shù)據(jù)中學習最優(yōu)表征。處理大量數(shù)據(jù)很簡單,但是特征學習就更像是一門藝術而非科學。深度學習是要實現(xiàn)那門藝術的部分自動化。
 
  我們不僅取得了算法上進展,更讓它得到了廣泛的使用,例如 Caffe、 TensorFlow、Theano、Scikit-Learn、 MXNet、 CNTK 等等。
 
  人工智能并不局限于學術界的計算機科學研究者,而是像 Pete Warden 所展示的那樣,越來越多的人都能夠參與進來。你無需了解如何實現(xiàn)一個復雜的算法并讓它在你的硬件上運行得多么好。你只需要知道如何安裝庫并標注訓練數(shù)據(jù)就行了。
 
  正如計算機革命本身所發(fā)生的那樣,計算機被搬出了機房并被廣大市民所使用,同樣的民主化進程正在制造一場人工智能革命。來自許多背景和環(huán)境的人利用人工智能做試驗,我們將會看到許多新型應用。有些會看起來像科幻小說(盡管自動駕駛汽車被看做科幻小說還只是幾年前的事);肯定會有我們甚至無法想象的新應用出現(xiàn)。
 
  建立知識數(shù)據(jù)庫
 
  世界充滿了“暗數(shù)據(jù)”:不存在于良好、有序的數(shù)據(jù)庫中的非結構化信息。它在網(wǎng)站上、埋于表格里、被珍藏在照片和電影中;但它不易被機器智能或其他智能所捕獲。
 
  像 diffbot 和 deepdive 這樣的項目是利用半監(jiān)督學習來找出非結構化數(shù)據(jù)中的結構——無論是大量的科學論文還是眾多網(wǎng)站的碎屑。一旦他們創(chuàng)建了一個數(shù)據(jù)庫,就能用更傳統(tǒng)的工具—— API、SQL 語句或者桌面應用程序——訪問該數(shù)據(jù)庫。
 
  知識數(shù)據(jù)庫和圖表已被應用到許多智能應用中,包括谷歌的知識圖譜(Knowledge Graph)。在我們走向聊天應用時,挖掘暗數(shù)據(jù)并找出其中結構的能力將變得更加重要。在聊天應用從腳本化和目標狹隘型邁向為用戶返回任意問題的答案型的道路上,暗數(shù)據(jù)的有效利用將成為這一轉變的關鍵。
 
  我們可能看不到這樣的應用程序被用于問題“理解”,而是會成為未來輔助技術的中心。它們將依靠已被機器分解并結構化的知識庫:其中包含的大量數(shù)據(jù)將超出人類的標記能力。
 
  產(chǎn)生結果
 
  不像人工智能冬天的黑暗時期,那時數(shù)據(jù)有限、計算機很慢,現(xiàn)在我們到處都能看到成功的人工智能系統(tǒng)。谷歌翻譯肯定不會像人類翻譯員那樣好,但是它經(jīng)常能夠提供一個可用的翻譯結果。盡管語音識別系統(tǒng)還沒有達到隨處可見的程度,也也已經(jīng)是司空見慣的了,且其準確度令人驚嘆;一年前谷歌聲稱安卓手機可以正確無誤地理解 92% 的問題。如果一臺計算機能夠準確地將問題轉化為文本,那么下一步就是把問題變成答案。
 
  同樣,圖像識別和圖像處理也已經(jīng)變得司空見慣。盡管存在一些被廣泛報道的尷尬錯誤,計算機視覺系統(tǒng)能夠以在幾年前還不可想象的精確度來識別人臉。
 
  理所當然地,對此問題的適宜約束在其成功中起著巨大作用:Facebook 可以識別照片中的面孔,是因為它假定照片里的人很可能是你的朋友。計算機視覺是(或將是)從尋常到可怕等各種層次的人工智能應用的中心。視覺顯然是自動駕駛車輛的關鍵;它對于監(jiān)控、自動鎖定無人機和其他不令人舒服的應用也同樣重要。
 
  深度學習和神經(jīng)網(wǎng)絡在過去的一年里已經(jīng)吸引了大量的關注:它們已經(jīng)實現(xiàn)了計算機視覺、自然語言和其他領域的進步。
 
  然而幾乎所有打著機器學習旗號的都是人工智能:分類與聚類算法(classification and clustering algorithms)、各種決策樹(decision trees)、遺傳算法(genetic algorithms)、支持向量機(support vector machines)、分層式即時記憶(HTM:hierarchical temporal memory)等等。
 
  這些技術可以被自己使用,也可以與其他技術結合使用。IBM 的沃森是集成學習(ensemble learning)一個很好的例子:它是一個基于規(guī)則的系統(tǒng),并依據(jù)所要解決的問題來結合使用其他算法。這個規(guī)則在很大程度上是手工制定的,而其他算法則需通過精心調整來獲得良好效果。
 
  像 Watson 一樣令人印象深刻的、需要大量手動調整的系統(tǒng)是一塊通向智能道路上的最好的踏腳石。任何的通用人工智能和大多數(shù)的狹義人工智能系統(tǒng)都將可能結合多種算法,而不是使用單一的、尚未被發(fā)現(xiàn)的主算法。
 
  但這種用來得到良好結果的調整是一個主要的限制:AlphaGo 團隊負責人 Demis Hassabis 說這樣的調整“幾乎像是一種藝術形式。”如果取得好結果需要花幾年時間,并且只有一些專家(Hassabis 說有幾百人)有能力做這項工作,那么它還是“人工智能”嗎?
 
  類似 Watson 這樣的引擎的創(chuàng)造過程是科學,然而也需要許多藝術。另外,手動優(yōu)化的需求表明人工智能系統(tǒng)的建立方式本質上是狹隘的,只能解決單一的問題。很難想象去優(yōu)化一個能夠解決任何問題的“通用智能”引擎。如果你正在做這件事,那么幾乎可以肯定,那是一些特定應用。
 
  人工智能方面的進步取決于更好的算法,還是更好的硬件?如果這個問題還算有意義,那么答案就是“同時”。即使 GPU 進展的時間速率已經(jīng)停止,我們把更多東西塞進一張芯片的力還沒有停滯:AlphaGo 的 280 個 GPU 能夠輕松平均 20 萬個核心。
 
  更重要的是,我們已經(jīng)看到了許多用于 GPU 的數(shù)學庫和工具方面的改進。我們可能還會看到 ASIC(application-specific integrated circuit )和 FPGA( field-programmable gate arrays)在未來的人工智能引擎中的使用。反過來,ASIC 和 FPGA 將成為在許多需要硬實時狀態(tài)(hard real-time)運行的硬件系統(tǒng)(想想自動駕駛汽車)中嵌入人工智能的關鍵。
 
  但即使有了更好的硬件,我們?nèi)匀恍枰植加诔汕先f個節(jié)點中的算法;我們需要能夠飛速地重新編程 FPGA 的算法,以適應待解決問題所使用的硬件。MapReduce 在數(shù)據(jù)分析中很流行是因為它提出了一個并行化一大類問題的方法。
 
  并行顯然在人工智能中起作用,但它的限制是什么?并行的殘酷現(xiàn)實是,其不可被并行的部分能把你折磨死。而大多數(shù)并行算法的標志是,你需要一個用以收集部分結果并產(chǎn)生單一結果的階段。AlphaGo 在計算下一步棋時可能正在查看成千上萬個選擇,但在某一點上,它需要瀏覽所有的選項,評估哪個是最好的,并給出一個單一結果。
 
  AlphaGo 可以利用 280 個 GPU 的優(yōu)勢;那么一臺有 280,000 個 GPU 的計算機怎么樣?畢竟,迄今為止我們所制造的最大計算機的計算能力只相當于一只老鼠大腦的一小部分,更不要說與人類相比了。如果是不依賴于并行設計和神經(jīng)網(wǎng)絡的算法呢?在一個路線中的每個元素都采取不同方法來解決問題的系統(tǒng)當中,你如何運用反饋?像這樣的問題有可能在不久的將來推動人工智能的研究。
 
  在人工智能算法中使用更多(更快)的硬件有可能使我們獲得更好的圍棋手、國際象棋手和 Jeopardy 玩家。我們將能更快更好地分類圖像。不過這是我們目前可解決問題的一項改進而已。更多計算能力將會把我們從監(jiān)督學習領到無監(jiān)督學習嗎?它會把我們從狹義的智能引到通用智能中嗎?這還有待觀察。無監(jiān)督學習是一個難題,而且我們并不清楚能否只通過使用更多硬件來解決它。我們?nèi)匀辉趯ふ乙粋€可能并不存在的“主算法”。
 
  道德和未來
 
  對超智能的談論很容易把人嚇到。而且據(jù)一些人說,現(xiàn)在是時候決定我們想要機器做什么了,趁現(xiàn)在還未為時已晚。盡管這種立場可能過于簡化了,但思考如何限制我們還未造出來的設備是非常困難的;而且它們的能力我們現(xiàn)在還無法想象,可能未來永遠也無法理解。
 
  拒絕人工智能也是很困難的,因為沒有任何技術是在人類事先考慮周全之后才被發(fā)明出來的。在歷史的不同時期人們害怕的許多技術現(xiàn)在已經(jīng)司空見慣:在某個時候,很多人認為以超過每小時 60 英里的速度旅行是致命的。蘇格拉底反對書寫,因為他擔心這會導致健忘:想象一下他會如何看待我們今天的技術!
 
  但我們可以思考人工智能的未來,以及我們開發(fā)協(xié)助我們的人工智能的方式。這里給出了一些建議:大部分對超人工智能的恐懼都不是在害怕我們已經(jīng)知曉或理解的機器,他們害怕的是最糟糕的人性加上無限制的力量。我們無法想象一個思考著我們不能理解的想法的機器;我們想象那是不可戰(zhàn)勝的希特勒或斯大林——我們確實能理解他們的想法。我們的恐懼本質上是人類的恐懼:對像人類一樣行為的萬能機器的恐懼。
 
  這并不是詆毀我們的恐懼,因為我們已經(jīng)見到機器學習確實能向人類學習。微軟不幸的 Tay 是對話型人工智能 Bot 從網(wǎng)絡對話中“學會”種族主義和偏見的完美案例。谷歌的圖像分類曾將黑人夫婦識別為“猩猩”,這個糟糕的測試結果的原因是訓練數(shù)據(jù)集中沒有足夠的合適標注的黑人圖片。
 
  機器學習成為種族主義者的方式和人類差不多一樣:因為這是我們教它們那樣做的,不管是有意還是無意。這是一個人類問題,而且是一個可以解決的問題。我們可以在人工智能學習的內(nèi)容和方式上更加小心。
 
  我們可以對我們的訓練集中的內(nèi)容以及這些訓練集的標注方式更加謹慎,我們可以過濾我們認為可以接受的答案類型。這些沒什么是特別困難的;但卻是必須要做的。更困難的是在目前的環(huán)境中讓人們達成共識:認為種族主義和仇恨是不好的。
 
  這是人類價值觀的問題,而不是機器智能的問題。我們會構建出反映了我們自身價值觀的機器:我們已經(jīng)在那樣做了。它們是我們想要反映的價值嗎?
 
  白宮對數(shù)據(jù)科學的報告《Big Risks, Big Opportunities: the Intersection of Big Data and Civil Rights(大風險、大機遇:大數(shù)據(jù)和民權的交集)》在總結章節(jié)中提到,我們需要研究審核算法的方法,以“確保人們被公平對待”。隨著我們從“大數(shù)據(jù)”走向人工智能,對算法的審核以及確保它們反映我們所支持的價值觀的需求將只會增長。
 
  將對人工智能的深入研究開放給大眾,讓公眾可以見證到,這一點極其重要。這并非因為我們相信,大眾會對研究少些“恐懼”(這一點,或許是對的,也可能是錯的),也不是因為大眾多少會對超級智能的觀念“習以為常”;而是因為較之公之于眾的研究,人們對閉門研究會投以更大的關注。
 
  實際上,《不道德的研究( Unethical Research)》這篇論文建議,打造一個健康的人工智能生態(tài)系統(tǒng)的最好方式就是將打造惡毒機器的想法公開。研究會繼續(xù)在背后進行,認為軍方研究和情報部門沒有致力于人工智能的想法,很天真。但是,如果沒有公開狀態(tài)下進行人工智能研究,我們就會受到軍方或者情報部門研究的支配。
 
  (一個公司,比如谷歌或者 Facebook,是閉門研究抑或開誠布公,是個值得討論的問題)這也就是 OpenAI 的宗旨:“以盡可能從整體上讓人類受益的方式推進數(shù)字化智能的研究,不受需要財務收益的限制。” OpenAI 是一個激動人心而且讓人吃驚的應答(針對人們對人工智能恐懼):盡可能遠地推進這項研究,但是公開確保公共領域的研究領先于閉門研究。
 
  對于研究來說,開放且公開也同樣重要,因為研究起源時常決定了研究的應用。核能就是個好例子。我們可以打造安全、高效的核反應堆。但是,我們從來沒有打造過釷反應堆,因為他們不會幫你制造炸彈,而且對核能的深入研究是由國防部門控制的。
 
  核反應堆不是不會產(chǎn)生可用數(shù)量的钚嗎?為什么任何人都想要核反應堆?再一次,認為軍方和國家情報部門不會做出優(yōu)秀的人工智能研究,這種想法太天真。但是,如果人工智能變成國家情報部門的專屬領域,那么,就會有秘密竊聽和理解對話的優(yōu)秀系統(tǒng)。
 
  當思考人工智能還能為我們做些什么時,我們的想象力會受到限制,而且也很難想象人工智能的應用到底會有哪些,除了殺人無人機、老大哥(Big Brother,典出喬治·奧威爾的名著《1984》)的耳目。我們或許永遠無法研發(fā)出智能醫(yī)療系統(tǒng)和機器人護士助理。
 
  如果我們想要讓人工智能服務于人類,就必須公開進行研究:作為人工智能研究人員這一更大社區(qū)的一部分,作為更為廣泛的公眾討論(討論目標和宗旨)的一部分。我們必須小心,不要打造出人類自己的最糟夢魘;但是,也許需要認識到,噩夢只不過是一個更強大的、真實的人類自身的版本。
 
  總是在未來
 
  扎克伯格最近說道,未來五到十年,人工智能會比人類更善于做一些最基礎的任務。也許他是對的,但是,同樣清楚的是,他討論的是狹義人工智能:從事特別任務,比如語音識別,圖像分類以及游戲。他繼續(xù)說,“那并不意味著計算機將會思考。。。”。
 
  根據(jù)你的交談對象,一個真的通用智能可能距離我們 10 到 50 年??紤]到預測科技未來的難度,最好的答案是“十多年以后”,而且可能更久。啥時候可以做出人類水平的機器智能?一份最近的專家調查(Future Progress in Artificial Intelligence: A Survey of Expert Opinion)顯示,可能是 2040-2050 年左右(概率為50%)。正如 LeCun 所言,“人類水平的通用智能距離我們幾十年。”
 
  因此,如果真的可以,我們什么時候會到達那里?幾年前,Jason Huggins 對機器人的評價,可謂先見之明。機器人,他說,總是在未來。機器人片段一次又一次地中斷,成為現(xiàn)在的一部分;但是,當那發(fā)生時,它們不再被視為機器人。上世紀二十年代,我們就將一臺現(xiàn)代洗碗機視為一個超級智能機器人;如今,不過是一個洗碗機。
 
  這種情形也將不可避免地發(fā)生在人工智能身上。實際上,已經(jīng)發(fā)生了。我已經(jīng)避免對機器智能和人工智能做出區(qū)分;“機器智能”是一個術語:當人工智能這個詞聲名狼藉時,這個術語被用于指代人工智能研究中的一些想法。
 
  如今,那些想法中的很多都變得很常見了。我們不會對亞馬遜的推薦系統(tǒng)或者 GPS 導航思慮再三 ,我們將之視為理所當然。我們或許發(fā)現(xiàn) Facebook 和谷歌的圖像標簽功能很詭異,但是,看到它時,你不會認為那是人工智能。
 
  所有嚴肅的象棋玩家會對陣象棋程序,圍棋菜鳥也是如此,而且在 AlphaGo 獲得成功后,對弈計算機也會延伸到專家層面。這些就是人工智能,他們已經(jīng)中斷并成為當今世界的一部分。這一過程中,人工智能變化了形態(tài),成為 IA(智能增強):碾壓人類能力的自動化技術開始變得具有輔助性。
 
  我們能否指著某件東西說,“是的,那就是人工智能?”是的,當然可以,我們現(xiàn)在就可以這么做了。更重要的是,我們將不可能避免地被人工智能圍繞著,甚至在我們知道這些東西人工智能之前。我們將管道、電力視為理所當然之物,我們的孩子將流媒體音樂視為理所當然。我們也會視人工智能為理所當然,當它們在生活中越來越普遍時。
 
 
更多>相關資訊
0相關評論

推薦圖文
推薦資訊
點擊排行