国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

AI可怕嗎?警惕我們對它犯下七宗罪

   日期:2017-10-13     來源:36氪    作者:dc136     評論:0    
標簽: 人工智能
   據MIT Technology Review報道,每當想到人工智能(AI)和機器人將會變得多么強大、多么迅速以及將對就業(yè)產生怎樣的影響時,多數人的心里充滿了歇斯底里的狂躁情緒。我(本文作者羅德尼·布魯克斯(Rodney Brooks) ,著名機器人制造專家、美國國家工程院院士、麻省理工學院(MIT)機器人技術教授)最近在MarketWatch上看到一個故事,宣稱機器人將在10到20年內接管過半的人類工作崗位。
AI可怕嗎?警惕我們對它犯下七宗罪
  這種說法非?;闹嚒Ee例來說,這個故事似乎表明,在10到20年間,美國的路面維修工人將從100萬人減少到只剩5萬人,因為機器人將接管這些工作。那么,現在有多少機器人在從事這類工作呢?答案是零。又有多少個機器人在這個領域實際工作的案例呢?答案依然是零。類似的道理也適用于所有其他行業(yè),許多預測認為這些行業(yè)中超過90%的工作將被機器終結。
 
  錯誤的預測會導致我們對那些不會發(fā)生的事情產生恐懼,無論是對就業(yè)造成的大規(guī)模破壞、奇點,還是與我們價值觀截然不同并試圖毀滅人類的AI出現。我們需要對這些錯誤進行抵制,但是人們?yōu)槭裁磿赶逻@些錯誤呢?我發(fā)現了七個常見的原因:
 
  1.高估和低估
 
  羅伊·阿瑪拉(Roy Amara)是帕洛奧圖市“未來研究所”的聯(lián)合創(chuàng)始人,而帕洛奧圖是硅谷的智識中心。阿瑪拉最出名的地方是他曾提出所謂的阿瑪拉定律(Amara’s Law),即我們傾向于高估短期內技術的影響,同時低估長期影響。這句話里包含了很多東西,樂觀主義者和悲觀主義者會對它做出不同方式的解讀。
AI可怕嗎?警惕我們對它犯下七宗罪
  美國全球定位系統(tǒng)(GPS)是展示阿瑪拉定律兩個方面的絕佳例證。從1978年開始,有24顆衛(wèi)星(現在包括備件有31顆)被陸續(xù)安置在軌道上。全球定位系統(tǒng)的目標是讓美國軍方提供精確的彈藥補給。但在20世紀80年代,這個項目數次險些被擱置。1991年“沙漠風暴”軍事行動中,這套系統(tǒng)被首次投入使用。在取得數次成功后,軍方接受了它的效用。
 
  如今,全球定位系統(tǒng)的用途是人們當初絕未想到的,這符合阿瑪拉定律中所謂的長期影響。在我外出跑步時,我的第2代Apple Watch會使用全球定位系統(tǒng)準確地記錄我的位置,可以精確分辨出我沿街跑步的痕跡。但對于早期的全球定位系統(tǒng)工程師來說,接收器的微小尺寸和價格令人有些難以理解。
 
  這項技術在全球范圍內同步進行物理實驗,并在同步美國電網和保持其運轉方面扮演著重要的角色。全球定位系統(tǒng)甚至允許那些真正控制股市的高頻交易員避免災難性的同步誤差。我們所有的飛機(無論大小)都使用它來導航,它也被用來跟蹤那些被假釋的人。全球定位系統(tǒng)還決定了在世界哪些地區(qū)應該種植哪類種子,并通過跟蹤車隊的卡車以及報告司機的表現。
 
  全球定位系統(tǒng)最初只有一個目標,但讓它發(fā)揮除了最初預期之外的作用,可能是一項艱辛的工作?,F在,全球定位系統(tǒng)已經滲透到我們生活的方方面面,如果它突然消失,我們不僅僅會陷入迷路那樣簡單。我們會感到饑寒交迫,甚至可能死亡。在過去的30年里,我們看到其他技術的發(fā)展也呈現出相似的模式。最初人們對新技術抱有巨大的期望,但逐漸陷入失望,可是最后對其取得超出最初預期的效果慢慢產生信心。在計算、基因組測序、太陽能、風能甚至是食品雜貨遞送等方面都是如此。
 
  在20世紀60年代和80年代,AI的短期影響被一次又一次地高估,我堅信現在也是如此,但它的長期潛力可能被低估了。問題是:這個“長期”到底有多長?接下來的6個錯誤有助于解釋為什么AI的未來會被嚴重低估。
 
  2.想象的魔法
 
  在我還小的時候,亞瑟·克拉克(Arthur C. Clarke)就與羅伯特·海因萊因(Robert Heinlein)及艾薩克·阿西莫夫(Isaac Asimov)并稱為三大科幻小說作家。但克拉克還是個發(fā)明家、科學作家以及未來主義者。在1962年至1973年間,他提出了三條格言,后來被稱為克拉克三大定律:
 
  第一條,如果一個德高望重的科學家說,某件事情是可能的,那他可能是正確的;但如果他說,某件事情是不可能的,那他也許是錯誤的;
 
  第二條,要發(fā)現某件事情是否成為可能的界限,唯一的途徑是跨越這個界限,從不可能到可能中去。?
 
  第三條,任何先進的技術,初看看起來都與魔法無異。?
 
  就我個人而言,我應該提防克拉克第一定律中的第二句話,因為對于AI將以多快的速度崛起,我比其他人的預測為更保守。但現在,我想就克拉克的第三定律進行闡述。想象一下,我們有一臺時光機,可以把艾薩克·牛頓(Isaac Newton)從17世紀晚期傳送到今天,把他放在一個他熟悉的地方,即劍橋大學的三一學院教堂中。
AI可怕嗎?警惕我們對它犯下七宗罪
  現在給牛頓展示一個“蘋果”。從口袋里掏出一部iPhone,打開它,這樣屏幕就會發(fā)光,上面充滿了圖標,然后遞給他。牛頓曾揭示了白光是由不同顏色的光組成的原理,即通過棱鏡將太陽光分解,然后再將其重新組合起來。毫無疑問,如此小的物體卻能在教堂的黑暗中產生如此生動的色彩,肯定會讓牛頓感到驚訝。現在播放一部有關英國鄉(xiāng)村場景的電影,還有一些他聽過的教堂音樂。然后給他看一個網頁,上面有500多頁他的個人注釋,他的杰作原理,并教他如何使用縮放手勢來放大細節(jié)。
 
  牛頓能解釋這個小玩意是如何做到這一切的嗎?盡管他發(fā)明了微積分,并解釋了光學和重力現象,但他卻無法分辨煉金術與化學。所以,我認為他會感到困惑,甚至無法想出這個設備最開始的輪廓。對于牛頓來說,這和他感興趣的超自然化身沒什么不同,它幾乎和魔法一樣。記住,牛頓實際上是非常聰明的人。
 
  如果某物存在魔法,我們就很難知道它的局限性。假設我們進一步向牛頓展示iPhone如何在黑暗中照明,如何拍攝照片和電影,如何記錄聲音,如何將它用作放大鏡和鏡子。然后我們向他展示,這款設備如何能用令人不可思議的速度來進行算術運算,以及精確到小數點后面多少位。我們指導他操作設備時應采取的詳細步驟,并向他展示,他可以在教堂里用它來與世界上任何地方的人進行交談。
 
  牛頓還能推測出這個設備的其他用途嗎?棱鏡能夠永遠工作下去。他是否會推測iPhone也會永遠工作下去,而忽略了它需要充電的情況?回想一下,在邁克爾·法拉第(Michael Faraday)誕生之前100年我們就抓住了他,為此他可能缺乏對電的科學理解。如果iPhone能在沒有火的情況下成為光源,那么它還能將鉛轉化為黃金嗎?
 
  這是一個我們在暢想未來技術時都會遇到的問題。如果它距離我們今天擁有且能理解的技術足夠遙遠,那么我們就不會知道它的局限性。如果它和魔法沒法被區(qū)別開來,人們所說的關于它的一切都無法再被證偽。
 
  這是我經常遇到的一個問題,特別是當我試圖與人們討論我們是否應該害怕通用AI(AGI)時,或者我們是否將建立像真實生物那樣運行的有著自主意識的實體時。我被告知,我不知道AGI將會變得多么強大。這不僅僅是一場爭論而已。我們不知道它是否應該存在。我希望它能夠存在,這一直是我在機器人和AI領域工作的動力。
 
  但是,現代AGI研究無論是在總體上還是支持一個真正存在的獨立實體方面做得都不好。至少50年內,AI在推理和常識方面都會遇到同樣的問題。我所看到的所有證據都表明,我們對于如何建立AGI還沒有真正的想法。它的屬性是完全未知的,所以在修辭上它很快就變成了魔法,強大到沒有任何界限。然而,宇宙中沒有任何東西是沒有界限的。
 
  注意關于未來技術的爭論,這是令人不可思議的。這樣的爭論永遠不會被駁倒,因為它是基于信仰的爭論,而不是基于科學的論證。
 
  3.表現VS能力
 
  我們都從人們如何執(zhí)行某些特定任務中尋找線索,以此來判斷和評估他們如何完成不同的任務。在一個外國城市,當我們向街上的一位陌生人問路時,她滿懷信心地回答,并指出看似正確的方向。所以我們認為,當你想坐公交車時,我們也可以向她詢問當地的付費系統(tǒng)。
 
  現在假設有人告訴我們,某張?zhí)貏e的照片顯示人們正在公園里玩飛盤。我們很自然地想到,這個人應該可以回答這樣的問題:飛盤長什么樣?飛盤能被人扔出多遠?飛盤能吃嗎?大概有多少人能同時玩飛盤?三個月大的幼兒會玩飛盤嗎?今天的天氣適合玩飛盤嗎??
AI可怕嗎?警惕我們對它犯下七宗罪
  那些能給圖片貼上“人們在公園里玩飛盤”標簽的電腦,沒有機會回答這些問題。它們只能給更多的圖片加標簽,而不能回答問題,除此之外它們甚至不知道什么是人,公園通常在露天的,人有年齡區(qū)分,天氣不僅僅是照片中表示的那么簡單等等。但這并不意味著這些系統(tǒng)是無用的,它們對搜索引擎而言有很大價值。
 
  但這就是問題所在:人們聽說有些機器人或AI系統(tǒng)已經完成了許多任務。然后,他們將這種表現歸納為一種能力,即執(zhí)行同樣任務的人可能期望的能力。最終,他們將這種泛化應用到機器人或AI系統(tǒng)中。但實際上,現在的機器人和AI系統(tǒng)所能做的事情依然十分有限。人類的歸納推理方式并不適用于它們。
 
  4.行李箱詞匯
 
  提出AI概念的計算機科學家馬文。明斯基 (Marvin Lee Minsky) 將那些擁有許多不同意義的詞稱為“行李箱詞匯”。“學習”就是個強大的行李箱詞匯,它可以指很多不同類型的經驗。學習使用筷子是一種不同于學習新歌的體驗,學習編寫代碼是不同于了解城市的體驗。
AI可怕嗎?警惕我們對它犯下七宗罪
  當人們聽說“機器學習”在某些新領域取得巨大進步時,他們往往傾向于將其作為一種思維模式,即人們學習新知識的方式。然而,機器學習是非常脆弱的,它需要研究人員或工程師進行大量的準備工作,包括專門的編碼,特殊的訓練數據集以及各個新領域的自定義學習結構。今天的機器學習并不是人類那種像海綿一樣的學習,無需專門的設計就能在一個新領域取得快速進步。
 
  同樣地,當人們聽說計算機可以擊敗世界象棋冠軍(1997年)或者世界上最好的圍棋選手(在2016年)時,他們往往認為它就像人類那樣“玩”游戲。當然,在現實中,這些程序根本不知道游戲到底是什么,甚至不知道它們在玩什么。它們的適應能力也不強。當人類玩游戲時,規(guī)則的微小變化不會讓他們放棄,而對于AlphaGo或Deep Blue(深藍)來說則不是這樣。
 
  行李箱詞匯誤導了人們,讓他們以為機器更擅長做好人們能做的事情,這在一定程度上是因為AI研究人員渴望闡述在行李箱概念中取得的進展。這里的重要短語是“實例”,但這個細節(jié)很快就被忽略。新聞頭條中總會大肆宣揚“行李箱詞匯”,而這扭曲了人們對AI的進步以及其有多接近完成更多任務的普遍理解。
 
  5.指數增長
 
  許多人正陷入嚴重“指數主義”的窘境中。每個人都對摩爾定律有一定的了解,它預示著計算機在類似時鐘的日程表上變得越來越好。戈登·摩爾(Gordon Moore)實際上說的是,可以裝在微芯片上的部件數量每年都會翻一番。在過去50年里,這種說法是成立的,盡管間隔時間不斷延長,但這種模式即將結束。
AI可怕嗎?警惕我們對它犯下七宗罪
  芯片上的組件加倍使得計算機的速度不斷增加,這也促使記憶芯片的容量每兩年就會翻倍,數碼相機變得更好,分辨率更高,液晶顯示屏的像素也呈指數級增加。但摩爾定律也有其限制條件,隨著芯片組件變得越來越小,其已經逐漸逼近了物理極限。我們不得不另尋它法,量子效應開始占據主導地位,硅基芯片技術也開始流行開來。
 
  當人們進入指數主義的狂歡中時,他們可能會認為這種增長方式會繼續(xù)持續(xù)下去。但實際上,無論是摩爾定律還是其他指數定律都可能會失敗,因為從一開始,將它們定義為“指數”定律可能就是錯誤的。
 
  本世紀初,我負責運行麻省理工學院計算機科學和AI實驗室(CSAIL),并需要幫助90多個不同的研究小組籌集資金,為了向我們的資助方證明這些項目的巨大潛力,我用400美元以下iPod內存增長情況為例來加以說明。然后,我推斷出幾年之后,我們口袋中的iPod內存會達到多少。我們當時預計,400美元iPod將擁有16萬GB的內存。然而今天,即使是頂級iPhone(售價超過400美元)內存也只有256GB,不到2007年版iPod的兩倍。
 
  事實上,當內存容量達到足以容納任何音樂庫、應用、照片以及視頻的程度時,這個特定指數就會突然崩潰。而尤其是當存儲能力的增長受到物理限制或失去經濟價值的時候,摩爾定律這種指數增長也會難以為繼。
 
  同樣,由于深度學習取得的成功,促使AI系統(tǒng)的性能也出現了飛躍。許多人似乎認為,這意味著我們將繼續(xù)看到AI性能在正?;A上成倍增長。不過,深度學習的成功是歷經30年才取得的成果,而且它也屬于個例。或許將來會有許多類似的個例出現,在AI研究的支持下,許多AI應用的性能突然大幅提升。但遺憾的是,并沒有證據表明,它們遵循著某種“定律”。
 
  6.好萊塢式場景
 
  在許多好萊塢科幻電影中,未來世界似乎與今天并沒有什么不同,除了某些新的橋段。在電影《Bicentennial Man》里,由薩姆·內爾(Sam Neill)扮演的理查德·馬?。≧ichard Martin)正坐著吃早餐,旁邊站著由羅賓·威廉姆斯(Robin Williams)扮演的人形機器人。當理查德邊吃早餐邊拿起報紙閱讀時,我們會發(fā)現,這份報紙仍是印在紙上的,而不是平板電腦,也不是像亞馬遜Echo這樣的聯(lián)網設備。
AI可怕嗎?警惕我們對它犯下七宗罪
  事實證明,許多AI研究人員和專家,尤其是那些對AI失去控制并制造殺戮的悲觀主義者,都存在同樣的想象挑戰(zhàn)。他們忽略了這樣一個事實:如果我們最終能夠制造出如此智能化的設備,那么到那時,世界將會發(fā)生巨大的變化,我們不會對這種超級智能的存在感到過分驚訝。隨著時間的推移,它們將會不斷地進化,而我們的世界將會充斥各種各樣的智能體,我們將擁有與這些智能體相處和共存的豐富經驗。
 
  早在邪惡的超級智能出現并想要擺脫我們的控制之前,肯定會有一些不那么智能、不那么好戰(zhàn)的機器。也就是說,在邪惡智能體之前,將會首先出現脾氣暴躁、令人懊惱或者傲慢的機器。我們將在這個過程中改變這個世界,同時調整新技術和新技術本身所處的環(huán)境。我并不是說人類不會遇到挑戰(zhàn),而是不會像很多人所想的那樣,遭遇到突然、出乎意料的挑戰(zhàn)。
 
  7.部署速度
 
  在某些行業(yè),軟件版本的更新非常頻繁。Facebook等平臺,幾乎每時每刻都有新功能添加。對于許多新功能來說,只要它們通過了集成測試,哪怕在部署之后發(fā)現問題需要撤回,也不會產生什么經濟方面的負面影響。這是硅谷和網絡軟件開發(fā)人員已經習慣的一種節(jié)奏。這是可行的,因為部署新代碼的邊際成本幾乎接近于零。
 
  然而,部署新硬件的邊際成本則要高得多,這在我們的日常生活中就能感受到。我們今天購買的許多汽車都不具備自動駕駛功能,大部分都不是軟件驅動的,但它們到2040年可能依然被允許上路,這無疑對無人駕駛汽車的普及提出了內在限制。再比如,如果我們今天建造起新房子,我們可能預期它會支持100年左右。我所住的那幢樓建于1904年,但它并不是我家附近最古老的建筑。
AI可怕嗎?警惕我們對它犯下七宗罪
  所以說,即便有更高科技的替代方案,大量資本投入也能確保物理硬件有相當長的使用周期。舉例來說,美國空軍仍然在使用B-52轟炸機的變種B-52H轟炸機。這個版本是1961年推出的,距今已經56年。最后一架B-52H轟炸機建造于1962年,已經有55年歷史。目前,這些飛機預計將繼續(xù)飛行至2040年,甚至有人建議將它們的壽命延長到100年。
 
  我經常在世界各地的工廠里看到幾十年前的設備。我甚至還看到了運行Windows 3.0的個人電腦,它是微軟于1990年發(fā)布的。有這種想法的人堅持的觀點是:“如果它沒有壞,就不要淘汰它。”這些電腦以及它們的軟件在過去的20多年里始終在運行相同的應用,并穩(wěn)定地做著相同的事情。
 
  這些工廠的主要控制機制基于可編程邏輯控制器(PLC)開發(fā)而成,包括美國、歐洲、日本、韓國以及中國的新工廠都是如此。PLC是在1968年引入的,以取代機電繼電器。但機電繼電器的概念到今天仍在沿用,PLC其實可以理解為編程過的24伏機電繼電器網絡。當然,有些電線已經被以太網電纜所取代,但它們不是開放網絡的一部分。相反,它們都是單獨的電纜,以點到點的方式運行,依然屬于控制流程的物理化身。
 
  當你想要改變世界上大多數工廠的信息流或控制流程時,需要數周時間才能弄明白其中的問題,設計新的流程,然后讓技術團隊重新配置硬件。這類設備的主要制造商之一最近告訴我,他們的目標是每隔20年進行3次軟件升級。理論上來說,工廠中這種陳舊的系統(tǒng)管理方式應該被擯棄,而實踐中卻根本做不到。我剛看了一份工作清單,即便在今天,特斯拉汽車的加州弗里蒙特工廠還是在招聘大量的PLC技術人員,繼續(xù)采用機電繼電器模擬的方式來生產這些AI增強型電動汽車。
 
  許多AI研究人員和權威人士都認為,世界已經進入數字化,而簡單地引入新的AI系統(tǒng)將會立即在供應鏈、工廠車間以及產品設計上催生變化。然而這種想法似乎還很遙遠,到目前為止,幾乎所有機器人和AI領域所取得的創(chuàng)新,要真正開始廣泛部署,所耗費的時間都要比人們想象的長得多。
 
 
更多>相關資訊
0相關評論

推薦圖文
推薦資訊
點擊排行