導讀: 縱觀歷史,人類改造也適應過很多新技術(shù)。這篇報告提出人工智能技術(shù)開發(fā)和應用的推進需要循序漸進——不是單靠技術(shù)本身的瞬間意外的跳躍發(fā)展——而且我們會以當下現(xiàn)有的技術(shù)與環(huán)境為基礎,讓整個適應過程更容易一些。
人工智能應用的目標必須是對社會有價值。我們的政策建議也會遵循這個目標,而且即便這個報告主要關注的是 2030 年的北美城市,建議依然廣泛適用于其他城市,同時不受時間限制。一些提升解讀和人工智能系統(tǒng)能力并參與其使用的策略可以幫助建立信任,同時防止重大失敗。
在增強和提升人類能力和互動時需要小心,還有避免對不同社會階層的歧視。要強調(diào)多做鼓勵這個方向以及溝通公共政策探討的研究。鑒于美國目前的產(chǎn)業(yè)監(jiān)管,需要新的或重組的法律和政策來應對人工智能可能帶來的廣泛影響。
政策不需要更多也不要更嚴,而是應該鼓勵有用的創(chuàng)新,生成并轉(zhuǎn)化專業(yè)知識,并廣泛促進企業(yè)與公民對解決這些技術(shù)帶來的關鍵社會問題的責任感。長期來看,人工智能將會帶來新財富,整個社會也要探討如何分配人工智能技術(shù)帶來的經(jīng)濟成果的分配問題。
如今以及未來的人工智能政策
縱觀歷史,人類改造也適應過很多新技術(shù)。這篇報告提出人工智能技術(shù)開發(fā)和應用的推進需要循序漸進——不是單靠技術(shù)本身的瞬間意外的跳躍發(fā)展——而且我們會以當下現(xiàn)有的技術(shù)與環(huán)境為基礎,讓整個適應過程更容易一些。
另一方面,技術(shù)、計算機能力或者數(shù)據(jù)可用性上的小提升也可能會偶爾帶來全新的、革新規(guī)則的應用。人工智能應用成功與否要看它能為人類生活創(chuàng)造多少價值。未來,是否能輕松地使用和適應人工智能應用,也很大程度地決定了人工智能的成功與否。
相反,由于人工智能應用容易出錯和失敗,所以其成功與否的標志也包括用戶如何感知和容忍這些應用的缺陷。隨著人工智能逐漸滲入日常生活并應用到越來越多的重要任務中,系統(tǒng)錯誤可能會導致用戶的反彈,并帶來信任問題。
例如,即便自動駕駛汽車造成的事故要比人類少很多,但總是會吸引更多的關注。在提升人類理解人工智能系統(tǒng)和決策(諸如明確解釋那些決定)和促進人們使用應用上需要策略,這些策略有助于建立信任并防止重大失敗。
同樣的,開發(fā)者應該幫助維護人們對人工智能應用的期望,這會影響他們使用的幸福感和滿意度。如果一個系統(tǒng)承諾的某些功能沒能實現(xiàn),會減少人們對系統(tǒng)的信任度,并降低他們未來使用該系統(tǒng)的意愿。
另一個重要的考慮是接管重要任務的人工智能系統(tǒng)會如何影響人類的交際和各方面的能力。由于機器在某些任務上的表現(xiàn)相當于超人,人類的這些能力可能會逐漸消逝。比如,計算器引入課堂后,孩子們的基本算術(shù)運算能力降低了。所以,人類和人工智能系統(tǒng)的能力應該是互補的。人類專注于機器做不好的任務,包括復雜的推理和創(chuàng)造性的表達。
然而,孩子們與人工智能應用接觸的越來越多,比如與智能手機上的個人助理互動,跟主題公園里的虛擬動畫人物玩耍。較早地接觸會促進孩子們與人工智能應用的互動,這也會成他們?nèi)粘I钪凶匀坏囊徊糠?。但是,這也會造成年輕一代與上一代人在感知人工智能對社會的影響時產(chǎn)生代溝。
如果人工智能技術(shù)(包括驅(qū)動這些技術(shù)的高性能計算和大規(guī)模數(shù)據(jù))無法讓社會各階層間都平等受用,那么同樣能加劇現(xiàn)有的機會不平等。接觸到這些技術(shù)的人在效率和能力上都會有提升。一個人如果有了精確的機器翻譯技術(shù),那么他就能更好的使用不同語言的學習資源。類似的還有,如果語音翻譯技術(shù)只能用在英語中,那么不懂英語的人就會處于劣勢。
進一步,人工智能應用及其依賴的數(shù)據(jù)也許會反應出設計者和使用者的偏見,因為數(shù)據(jù)是他們決定的。這些偏見會加深現(xiàn)有的社會偏見,并無法讓各個社會亞群體平等的受益人工智能帶來的好處。
例如,一些語音識別技術(shù)不能很好的適用于女性和帶有口音的人。隨著人工智能逐漸滲入到重要的應用中,這些偏見會讓社會各團體間的不平等問題浮出水面。另一方面,與記錄在案的人類決策偏見相比,基于人工智能的決策工具有望能極大減少重要決策中的偏見,比如對借錢的人或進過監(jiān)獄的人的偏見。
私人也越來越擔心帶有人工智能功能的監(jiān)控,尤其是在監(jiān)控設施普及的城市。Sousveillance,一種通過便攜設備記錄人參與活動的監(jiān)控也越來越多。
既然對偏見和隱私的看法是基于個人與社會的道德和價值判斷,所以關解決這些問題的爭論也會多起來,爭論一多,解決方案短時間內(nèi)也就出不來了。由于人工智能正在產(chǎn)生巨大的價值,關于如何分享人工智能經(jīng)濟成果的爭議也會多起來——尤其是驅(qū)動應用的人工智能專業(yè)知識和基礎數(shù)據(jù)集集中在一小批大公司手上。
為了幫助解決個人和社會對快速發(fā)展的人工智能技術(shù)產(chǎn)生的憂慮,該研究小組提供了三個一般性政策建議。
1. 在所有層級的政府內(nèi),制定一個積累人工智能技術(shù)專業(yè)知識的程序。有效的監(jiān)管需要更多的能理解并能分析人工智能技術(shù)、程序目標以及整體社會價值之間互動的專家。
缺少足夠的安全或其他指標方面的專業(yè)技術(shù)知識,國家或地方政府官員或許或拒絕批準一個非常有前途的應用?;蛘呷鄙僮銐蛴柧毜恼賳T可能只會簡單采納行業(yè)技術(shù)專家的說法,批準一個未經(jīng)充分審查的敏感的應用進入市場。不理解人工智能系統(tǒng)如何與人工行為和社會價值互動,官員們會從錯誤的角度來評估人工智能對項目目標的影響。
2. 為研究人工智能的平等、安全、隱私和對社會的影響掃清感知到的和實際的障礙。
在一些相關的聯(lián)邦法律中,如計算機欺詐和濫用法案(Computer Fraud and Abuse Act)和數(shù)字千年版權(quán)法的反規(guī)避條款(the anti-circumvention provision of the Digital Millennium Copyright Act),涉及專有的人工智能系統(tǒng)可能被如何逆向向工程以及被學者、記者和其他研究人員評價的內(nèi)容還很模糊。當人工智能系統(tǒng)帶來了一些實質(zhì)性后果需要被審查和追究責任時,這些法律的研究就非常重要了。
3. 為人工智能社會影響的跨學科研究提供公共和私人資金支持。
從整個社會來看,我們對人工智能技術(shù)的社會影響的研究投入不足。資金要投給那些能夠從多角度分析人工智能的跨學科團隊,研究范圍從智能的基礎研究到評估安全、隱私和其他人工智能影響的方法。一下是具體問題:
當一輛自動駕駛汽車或智能醫(yī)療設備出現(xiàn)失誤時,應該由誰來負責?如何防止人工智能應用產(chǎn)生非法歧視?誰來享有人工智能技術(shù)帶來的效率提升的成果,以及對于那些技能被淘汰的人應該采取什么樣的保護?
隨著人工智能被越來越廣泛和深入地整合到工業(yè)和消費產(chǎn)品中,一些領域中需要調(diào)整現(xiàn)有的建立監(jiān)管制度以適應人工智能創(chuàng)新,或者在某些情況下,根據(jù)廣泛接受的目標和原則,從根本上重新配置監(jiān)管制度。
在美國,已經(jīng)通過各種機構(gòu)將監(jiān)管具體到各個行業(yè)。在設備中使用人工智能實現(xiàn)醫(yī)療診斷和治療由食品藥品監(jiān)督管理局(FDA)監(jiān)管,包括定義產(chǎn)品類型和指定產(chǎn)生方法,還有軟件工程的標準。無人機在管制空域中的使用由美國聯(lián)邦航空局(FAA)監(jiān)管。面向消費者的人工智能系統(tǒng)將由聯(lián)邦貿(mào)易委員會(FTC)監(jiān)管。金融市場使用的人工智能技術(shù),如高頻交易,由證券交易委員會(SEC)監(jiān)管。
除了針對具體行業(yè)制定監(jiān)管的方法外,“重要基礎設施”中定義模糊和廣泛的監(jiān)管類別可能適用于人工智能應用。
奧巴馬政府的總統(tǒng)政策指令(PPD)將“重要基礎設施”廣泛地定義為“對美國至關重要的實體或虛擬的資產(chǎn)、系統(tǒng)和網(wǎng)絡,缺少或破壞這些設施將會對安保、國家經(jīng)濟安全、國家公共衛(wèi)生或安全或其任何組織都會禪城破壞性影響。”今天,一家企業(yè)僅通過廣泛定義的手段就可以完全不受聯(lián)邦的監(jiān)管。但是,聯(lián)邦政策的大趨勢是將監(jiān)管具體到涉及國民經(jīng)濟的 16 個行業(yè)。
涉及到人工智能,重要的基礎設施主要是由終端應用來定義的,而不是技術(shù)活實際生產(chǎn)人工智能軟件的環(huán)節(jié)來定義的。
像谷歌、Facebook 和亞馬遜這樣的軟件公司已經(jīng)在積極游說監(jiān)管機構(gòu),避免自家公司被認定為對國民經(jīng)濟關鍵的公司,聲稱這將打開監(jiān)管大門,將不可避免地導致他們?yōu)榧铀佼a(chǎn)品開發(fā)周期而妥協(xié)創(chuàng)新能力。無論如何,隨著公司在創(chuàng)建,運作,并維持重要設施中使用人工智能,他們會逐漸重視對軟件的監(jiān)管。
一些現(xiàn)有的軟件安全監(jiān)管制度 (例如,F(xiàn)DA 對幫助醫(yī)生診療疾病的軟件的管理 ) 要求特定軟件工程達到能實現(xiàn)開發(fā)者水平上的實踐。然而,組裝現(xiàn)代軟件系統(tǒng)的部件常常來自多家提供商,這些部件都有相對獨立的應用。讓所有這些開發(fā)者都遵循最重要的罕見應用的標準是不可行的或者不可取的。
允許在安全關鍵應用中不受管制地使用這些部件也是不可取的。從概念上和實踐上權(quán)衡促進創(chuàng)新和調(diào)節(jié)安全比較困難。最低限度是,監(jiān)管機構(gòu)需要更多的專業(yè)知識來了解標準的含義以及研究人員、政府和行業(yè)實施的措施。
政策和法律上的考慮
雖然綜合研究人工智能(AI)與法律互動方式超過了這篇報告最初的內(nèi)容范圍,似乎是很清楚的是,作為一種變革性的技術(shù),人工智能已具備挑戰(zhàn)任何數(shù)量的短期、中期和長期的法律假設。
正是法律和政策將如何適應人工智能的進步——人工智能將如何適應法律和政策所體現(xiàn)的價值觀——取決于各種社會、文化、經(jīng)濟和其他影響因素,并且根據(jù)不同的司法管轄權(quán),可能會有不同的變化。
美國法律是普通法、聯(lián)邦、州和地方法規(guī)和條例以及監(jiān)管法規(guī)的混合體,監(jiān)管法規(guī)也許與人工智能關系最大。在具體的實施中,人工智能可能牽涉到這些法律的每一個來源。例如,內(nèi)華達州通過了一項法律,廣泛允許自動駕駛汽車,并給出了內(nèi)華達州機動車輛的工藝要求。
同時,美國國家公路交通安全管理局(National Highway Transportation Safety Administration)規(guī)定,自動駕駛車的駕駛員是該車的系統(tǒng),而不是車里的人。一些汽車設計通過將自動模式設定為只有手在方向盤上(至少每一次都是這樣)來回避這個問題,讓人掌握對車最終的控制和責任。然而,特斯拉的采用這一策略并沒有防止 2016 年發(fā)生的第一起涉及自動駕駛汽車的交通事故。而且由于大多數(shù)人都是第一次體驗到實體的人工智能工具,自動交通會強烈影響公眾對人工智能的感知。
當然無人駕駛車只是人工智能在服務、產(chǎn)品和其他情境中應用的眾多例子之一。將人工智能技術(shù)引入稅務咨將人工智能技術(shù)引入稅務咨詢、股票市場的自動交易,或者自動生成醫(yī)療診斷中,其法律效力也會隨著監(jiān)管者和具體應用的不同而不同。當下非技術(shù)性領域,包括在預測警務,非歧視性貸款,醫(yī)療應用如老年護理和藥物輸送,以及兒童互動系統(tǒng)的設計(例如,自動教學系統(tǒng)設計中也對平衡處理進化 vs. 智能設計的方面制定了相關法規(guī))和互動娛樂方面也對對人工智能應用做出了規(guī)定。
鑒于目前美國行政法結(jié)構(gòu),短期內(nèi)制定出全面的人工智能政策法規(guī)似乎不太可能。但是,可以根據(jù)人工智能在各種情境中可能出現(xiàn)的法律和政策問題,廣泛列出多個類別。
隱私
個人的私密信息可能會被由人工智能做出的決策和預測泄露出來。雖然人工智能牽連到隱私的方式反映的是計算機和互聯(lián)網(wǎng)技術(shù),但其他問題或許是人工智能獨有的。例如,人工智能基于之前模式預測未來行為的潛力也提出一些具有挑戰(zhàn)的問題。一些公司已經(jīng)在使用機器學習預測信用風險。美國利用復雜算法根據(jù)罪犯的細節(jié)信息預測累犯的可能性,通過此舉來考慮假釋的可能性。在這些情況下,確保如種族和性取向這類因素不在人工智能做決策時被考慮進去是一個技術(shù)挑戰(zhàn)。即使當這些特征沒有直接提供給算法時,它們或許依然會與一些如郵政編碼這類看似無害的特征強烈的關聯(lián)起來。無論如何,只有經(jīng)過仔細的設計,測試,和部署,人工智能算法產(chǎn)生的偏見或許才能比一個典型的人少一些。
與人工智能關聯(lián)的擬人化界面也出現(xiàn)了隱私的問題。社會科學研究發(fā)現(xiàn)人們天生會把擬人化技術(shù)當成人類看待。在一項研究中,當計算機第一次說出自己何時被生產(chǎn)出來的時候,受試者也更可能回答出自己的出生日期。在另一個研究中,他們在面對一個擬人化的界面時會跳過敏感的問題?;緦用嫔系膯栴}是:當社會化的機器人“活在”我們的屋子、汽車、辦公室、醫(yī)院病房和手機中時,人類還會繼續(xù)享受孤獨嗎?
創(chuàng)新政策
早期關系到責任和話語的法律和政策決策幫助確?;ヂ?lián)網(wǎng)中的商業(yè)活力。相比之下,今天的軟件產(chǎn)業(yè)受到了從企業(yè)決策的影響,從開放和自由的軟件到更加積極追求知識產(chǎn)權(quán)保護,導致了專利叢生。在激勵人工智能創(chuàng)新并促進合作與保護第三方不受到傷害之間做出適當?shù)臋?quán)衡將是核心的挑戰(zhàn)。
責任(民事)
由于人工智能有組織地直接影響世界,甚至產(chǎn)生實質(zhì)性的影響,由人工智能造成的傷害會加倍凸顯。人工智能可能會做出設計者意料外的行為,這種情況給侵權(quán)法中的普遍假設帶來了挑戰(zhàn),法院只會判定補償可預見的傷害。甚至在以公平和效率為準則能更好的判定責任時,法院也許都將責任判給人類當事人?;蛘?,法院可能拒絕追究責任,因為被告在法庭前沒有,并且不能預見的人工智能傷害。責任將默認地落在無辜的受害者身上。當人類當事人對機器行為負的責任越來越少時,產(chǎn)品責任的角色作用——還有屬于生產(chǎn)這些產(chǎn)品的公司的責任——可能會增加。
責任(刑事)
如果侵權(quán)法認為傷害可以預見,那么刑法會可能會進一步認定這些傷害是蓄意的。美國法律尤其重視犯罪動機的概念——作案的想法。隨著人工智能應用參與到了原本是由人類完成的任務中,也就可能構(gòu)成犯罪,法院和其他法律行為人將不得不困惑:應該基于什么理論讓誰對所發(fā)生的事情負責?
代理
上面的問題帶來了這樣的問題:在哪種情況下,人工智能系統(tǒng)可以作為一個人或企業(yè)的代理進行運作?美國、加拿大等地方的監(jiān)管機構(gòu)將條件設置成當軟件可以進入有約束性的合同時。人工智能依法開展的突出活動越多,對法律下的代理原則的挑戰(zhàn)就越大。
認證
“人工智能”的概念正是意味著對人類技能和智慧的取代。而且在許多情況下(從駕駛到執(zhí)行手術(shù)到法律案件),一個人類必須在獲得一些證書或認證之后才能執(zhí)行一項特定的任務。因此,法律和政策將不得不——而且已經(jīng)——和如何確定人工智能系統(tǒng)的能力做斗爭。比如說,想象一家研發(fā)可以自動摘除闌尾的手術(shù)平臺的機器人公司,或者一家編寫可以提供法律咨詢應用的法律公司。今天,在法律方面,我們還不清楚人工智能系統(tǒng)應該通過怎樣的醫(yī)學或法律要求,更不要說它們應該再那里去獲得這樣的認證了。
勞動力
隨著人工智能對人類的替代,一些工作將會消失,一些工作又會被創(chuàng)造。其對工作的凈影響目前還是未知數(shù),但勞動力市場不太可能會給所有人都帶來均等的好處。對特定類型技能或能力的要求將很有可能大幅下降,從而給具備這些技能的人的就業(yè)和工資水平帶來極大的影響。盡管人工智能對收入的水平和收入分配帶來的最終影響是不可避免的,但它們極大地依賴于政府政策、企業(yè)所選擇的組織工作的方式、以及個人對學習新技能和尋找新類型的工作和收入機會的選擇。發(fā)現(xiàn)人工智能的發(fā)展導致了他們的工作被改變或被終結(jié)的人可能會訴諸立法機關和法院。這也許就是 Littler Mendelson 律師事務所(可能是世界上最大的就業(yè)法律公司)有一整個處理機器人和人工智能案子的團隊的原因。
稅務
聯(lián)邦、州和地方收入來源可能會受到影響。使用人工智能來完成任務可以更快更精確——并能避開就業(yè)稅。因此,人工智能可以會越來越多地從工資和收入的投資轉(zhuǎn)向資本支出。根據(jù)國家對工資和所得稅的依賴,這種轉(zhuǎn)變可能是不穩(wěn)定的。人工智能還可能表現(xiàn)出與人類不同的“習慣”,造成仍然更少的收入來源。由于自由駕駛汽車的程序使它們不能違法,許多市政當局依賴超速和停車罰款的情況將不得不尋找替代。因此,在人工智能的進步開始起效時,想要平衡預算的政府機構(gòu)可能會通過立法減緩或改變這項技術(shù)的進程。
政治
人工智能已經(jīng)被政治人物以 Bot 的形式用到了操縱和定向的“robocalls(機器人電話)”與社交媒體平臺上,以便影響選舉。他們能夠借此協(xié)調(diào)抗議或預測抗議,以及通過更精確地定位誰在何時說了什么來推進更大的透明。因此,思考人工智能的行政和監(jiān)管法律可以為促進更大的民主參與而進行設計,或者說,如果居心不良的話,也可以減少民主參與。
這個列表并不是詳盡的,主要集中于美國的國內(nèi)政策,而沒有涉及很多人工智能很有可能涉足的領域。一個可以得到的教訓涉及到人工智能以一種背景明確的方式被管理和人工智能技術(shù)在社會的多個行業(yè)和領域的更廣泛的思考之間沒有聯(lián)系??梢栽诙喾N背景中積累專業(yè)知識和設置人工智能標準可能很有誘惑力。本研究小組的共識是對廣義上“人工智能”的監(jiān)管嘗試可能會被誤導,因為目前還不存在對人工智能的明確定義(它不是任何東西),而其中的風險和所要考慮的問題在不同的領域也非常不同。相反,政策制定者應該認識到應該隨機應變,不同的時間不同的行業(yè)需要對使用人工智能構(gòu)建的或以某種方式整合了人工智能的軟件進行不同的明確的、合適的監(jiān)管。政府將需要專業(yè)知識來審議公共和私人行業(yè)開發(fā)的標準和技術(shù),以及起草必需的法規(guī)。
未來的指導原則
面對人工智能技術(shù)將帶來的深刻變化,要求“更多”和“更強硬”的監(jiān)管的壓力是不可避免的。對人工智能是什么和不是什么的誤解(尤其在這個恐慌易于散布的背景下)可能引發(fā)對有益于所有人的技術(shù)的反對。那將會是一個悲劇性的錯誤。扼殺創(chuàng)新或?qū)?chuàng)新轉(zhuǎn)移到它處的監(jiān)管方法同樣也只會適得其反。
幸運的是,引導當前數(shù)字技術(shù)的成功監(jiān)管原則可以給我們帶來指導。比如,一項最近公布的多年研究對比了歐洲四個國家和美國的隱私監(jiān)管,其結(jié)果卻很反直覺。西班牙和法國這樣的有嚴格的詳細法規(guī)的國家在企業(yè)內(nèi)部孕育出了一種“合規(guī)心態(tài)(compliance mentality)”,其影響是抑制創(chuàng)新和強大的隱私保護。
這些公司并不將隱私保護看作是內(nèi)部責任,也不會拿出專門的員工來促進其業(yè)務或制造流程中的隱私保護,也不會參與必需范圍之外的隱私倡議或?qū)W術(shù)研究;這些公司只是將隱私看作是一項要滿足規(guī)范的行為。他們關注的重點是避免罰款或懲罰,而非主動設計技術(shù)和采納實際技術(shù)來保護隱私。
相對地,美國和德國的監(jiān)管環(huán)境是模糊的目標和強硬的透明度要求和有意義的執(zhí)法的結(jié)合,從而在促進公司將隱私看作是他們的責任上做得更加成功。廣泛的法律授權(quán)鼓勵企業(yè)發(fā)展執(zhí)行隱私控制的專業(yè)人員和流程、參與到外部的利益相關者中并采用他們的做法以實現(xiàn)技術(shù)進步。對更大的透明度的要求使民間社會團隊和媒體可以變成法庭上和法庭外的公共輿論中的可靠執(zhí)法者,從而使得隱私問題在公司董事會上更加突出,這又能讓他們進一步投資隱私保護。
在人工智能領域也是一樣,監(jiān)管者可以強化涉及內(nèi)部和外部責任、透明度和專業(yè)化的良性循環(huán),而不是定義狹窄的法規(guī)。隨著人工智能與城市的整合,它將繼續(xù)挑戰(zhàn)對隱私和責任等價值的已有保護。和其它技術(shù)一樣,人工智能也可以被用于好的或惡意的目的。
這份報告試圖同時強調(diào)這兩方面的可能性。我們急切地需要一場重要的辯論:如何最好地引導人工智能以使之豐富我們的生活和社會,同時還能鼓勵這一領域的創(chuàng)新。應該對政策進行評估,看其是否能促進人工智能所帶來的益處的發(fā)展和平等共享,還是說會將力量和財富集中到少數(shù)權(quán)貴的手里。而因為我們并不能完美清晰地預測未來的人工智能技術(shù)及其所將帶來的影響,所以相關政策一定要根據(jù)出現(xiàn)的社會難題和線索不斷地重新評估。
截至本報告發(fā)布時,重要的人工智能相關的進展已經(jīng)在過去十五年內(nèi)給北美的城市造成了影響,而未來十五年還將有更大幅度的發(fā)展發(fā)生。最近的進展很大程度是由于互聯(lián)網(wǎng)所帶來的大型數(shù)據(jù)集的增長和分析、傳感技術(shù)的進步和最近的“深度學習”的應用。
未來幾年,隨著公眾在交通和醫(yī)療等領域內(nèi)與人工智能應用的遭遇,它們必須以一種能構(gòu)建信任和理解的方式引入,同時還要尊重人權(quán)和公民權(quán)利。在鼓勵創(chuàng)新的同時,政策和流程也應該解決得到、隱私和安全方面的影響,而且應該確保人工智能所帶來的好處能得到廣泛而公正的分配。如果人工智能研究及其應用將會給 2030 年及以后的北美城市生活帶來積極的影響,那么這樣做就是非常關鍵的。
附錄 I:人工智能簡史
本附錄主要基于尼爾森的著作撰寫而成,該著作從目前流行的角度介紹了數(shù)據(jù)密集型方法(data intensive methods)和大數(shù)據(jù)。然而重要的是,這本書并沒有證明書中能夠解決所有問題。要完整全面地展現(xiàn)該領域的歷史,這已經(jīng)超出了本文的范圍。
人工智能領域的研究正式誕生于 1956 年,在 John McCarthy 組織的達特茅斯暑期研究項目的研討會上提出。當時提出此概念的原因是為了探究機器可以在哪些方面模仿人類智能——這一核心思想一直推動著人工智能領域向前發(fā)展。
在與 Marvin Minsky, Nathaniel Rochester, 和 Claude Shannon 共同起草的研討會提議文件中,McCarthy 因為第一次使用術(shù)語“人工智能(artificial intelligence)”而聲名大噪。緊接著很多后來者也將自己的著名項目歸于人工智能的旗幟之下,這其中包括了 Arthur Samuel, Oliver Selfridge, Ray Solomonoff, Allen Newell, 和 Herbert Simon。
雖然達特茅斯探討會為這一領域開創(chuàng)了一個有統(tǒng)一身份的專門研究社區(qū),但很多具有人工智能特征的技術(shù)想法其實早已存在。在十八世紀,托馬斯·貝葉斯(Thomas Bayes)為推理事件的概率提供了一個計算框架。
在十九世紀,喬治·布爾(George Boole)證明邏輯推理——可以追溯到亞里士多德——可以像求解方程組那樣被系統(tǒng)地執(zhí)行。到 20 世紀之交,在實驗科學的進步導致了統(tǒng)計學的產(chǎn)生,這使得推斷可以嚴格的從數(shù)據(jù)中得出。
建造工程并讓機器執(zhí)行指令序列的想法,在一些先鋒如查爾斯·巴貝奇(Charles Babbage)的頭腦中形成,并于 20 世紀 50 年代成熟,最后導致了第一臺電子計算機的問世??梢愿兄妥灾餍袆拥牡谝淮鷻C器人,也是在那個時候建造的。
支撐計算機科學最具影響力的思想來自阿蘭·圖靈,他提出了通用計算機概念。圖靈的經(jīng)典論文“計算機和智能(Computing Machinery and Intelligence)”,設想建造計算機用于模擬人類智能的可能性,并探討了許多與現(xiàn)在人工智能有關的話題,包括怎樣測試人工智能以及機器怎樣自主學習。
雖然這些想法啟發(fā)了人工智能,圖靈卻沒有將他的想法轉(zhuǎn)化為行動所需的計算資源。在探索人工智能的道路上,幾個重點研究領域在 50 年代和 70 年代之間出現(xiàn)了。
Newell 和 Simon 率先進軍啟發(fā)式搜索領域(heuristic search),這是一種在大型組合空間尋求解決辦法的有效程序。特別的是,他們將這種思想應用于構(gòu)建數(shù)學定理的證明,方法是——先通過他們的邏輯理論家(Logic Theorist)程序,然后使用普遍問題解決方案(General Problem Solver)。
在計算機視覺的領域,Selfridge 和他的同事們做的早期的字符識別工作,為如面部識別等更復雜的應用奠定了基礎。到了六十年代后期,自然語言處理方面的工作也相繼展開。斯坦福國際研究院(SRI)建造的,一個叫“Shakey”的有輪機器人,標志著在移動機器人領域探索的開始。
Samuel 的跳棋游戲程序能夠通過自我對弈提高下棋水平,這是應用機器學習系統(tǒng)的早期實例之一。一個基于生物神經(jīng)元的計算模型——Rosenblatt 的感知器(Perceptron)成為人工神經(jīng)網(wǎng)絡領域的基礎。Feigenbaum 和其他人主張建立專家系統(tǒng),即為特定領域——例如化學和醫(yī)療診斷領域——量身定制的知識資料庫。
早期概念上的進步假定了存在一個符號體系(symbolic system),并可以在此基礎上推理和演化。但是到了 80 年代,盡管符號體系在發(fā)展不同人工智能領域方面充滿前途,它仍然沒有值得夸耀的顯著實際成就。理論與實踐之間的這種差距,部分源于人工智能社區(qū)對可直接獲取環(huán)境信號和數(shù)據(jù)的基礎物理系統(tǒng)的重視不足。
同時,過分強調(diào)布爾邏輯(真/假),以及忽視量化不確定性的需要,也是原因之一。在 80 年代中期,由于公眾對人工智能的興趣降低和研究經(jīng)費的短缺,這個領域被迫承認這些不足之處。Nilsson 將這個時期成為“人工智能的冬天”。
在九十年代,出現(xiàn)了一種被稱為“良好的老式人工智能(Good Old- Fashioned AI)”的思想復蘇,但是,這種急需的復古思潮作為一個端到端的方法來構(gòu)建智能化系統(tǒng)是不夠的。
相反,智能系統(tǒng)需要從頭開始構(gòu)建,在任何時候都可以解決手頭的任務,盡管熟練程度不同。技術(shù)進步也使得建立一個由真實世界數(shù)據(jù)驅(qū)動的系統(tǒng)的任務變的可行。更便宜、更可靠的硬件也使得具有傳感和驅(qū)動的機器人更容易被制造。
此外,互聯(lián)網(wǎng)具有收集海量數(shù)據(jù),以及計算、存儲并處理這些數(shù)據(jù)的能力,使人們能應用統(tǒng)計技術(shù)從數(shù)據(jù)中獲得解決方案。正如我們在第二部分詳細介紹的那樣,這些發(fā)展歷程使得人工智能能夠在過去的二十年中出現(xiàn),并如今對我們的日常生活產(chǎn)生了深遠的影響。
總之,下面列舉了人工智能的傳統(tǒng)子領域。正如在第二部分描述的那樣,他們中的一些因為各種原因比其他的要火熱。但是既不能忽視其他方面歷史重要性,也不能說他們在未來不可能成為熱門領域。
搜索與規(guī)劃處理目標導向行為的推斷。搜索扮演著關鍵角色,例如,在國際象棋程序中(比如深藍),決定了如何移動(行為)可以最后獲得勝利(目標)。
知識表征與推斷的領域需要將信息(往往是大量信息)處理成結(jié)構(gòu)化的形式,便于可靠高效地查詢。IBM 的 Waston 項目以一個可以組織、索引、以及獲取不同信源信息的有效方案,在 2011 年打敗了人類競爭者,贏得了 Jeopardy 挑戰(zhàn)賽。
機器學習是一個能使系統(tǒng)通過觀察相關數(shù)據(jù)自動改善其在一個任務中的表現(xiàn)的范式。機器學習在過去十年確實成為了人工智能浪潮中的關鍵貢獻者,從搜索和產(chǎn)品推薦引擎,到語音識別、欺詐檢測、圖像理解系統(tǒng)以及無數(shù)曾經(jīng)依賴于人類技巧與判斷的任務。這些任務的自動化擴大了電子商業(yè)這類服務行業(yè)的規(guī)模。
構(gòu)建越來越多的智能系統(tǒng)之后,就很自然地需要考慮這樣一個問題:這樣的系統(tǒng)如何和其他系統(tǒng)互動。多代理系統(tǒng)(Multi-Agent System)領域考慮了這個問題,它在網(wǎng)上市場和運輸系統(tǒng)中變得日益重要起來。
從早期開始,人工智能設計并構(gòu)建出能夠融入真實世界的系統(tǒng)。機器人領域研究感知和行動的基礎層面——特別是二者的整合,這些研究能使機器人做出有效的動作。自從機器人和其他計算機系統(tǒng)與人類分享真實世界以來,人機交互(Human Robot Interaction)專業(yè)也在最近幾十年變得重要起來。
機器感知總是在人工智能中扮演核心角色,部分用于開發(fā)機器人,但也作為一門完整獨立的研究領域。最普遍的感知方式研究是計算機視覺與自然語言處理,它們都有著龐大的、充滿生機的社區(qū)。
如今人工智能的其他幾個焦點領域是互聯(lián)網(wǎng)發(fā)展的結(jié)果。社交網(wǎng)絡分析研究鄰里關系影響個體與社群行為的效果。眾包是另一個解決問題的創(chuàng)新技巧,依靠人類(往往成千上萬的人)的智能解決困難的計算問題。
即使將人工智能劃分成幾個子領域,能使深度技術(shù)沿著幾條不同的方向前進,在任何合理尺度上合成智能還是需要整合許多不同的想法。例如,最近打敗人類圍棋冠軍的 AlphaGo 使用了多種機器學習的算法來訓練自己,同時也在下棋的過程使用復雜巧妙的搜索步驟。