下面這些問(wèn)題,可能在我們不久的將來(lái)(一年或者兩年?)就會(huì)出現(xiàn)在我們身邊——
目前人工智能正逐漸大規(guī)模地應(yīng)用于醫(yī)療行業(yè),許多疾病的診斷已經(jīng)可以通過(guò)機(jī)器學(xué)習(xí)的方法來(lái)完成。但是我們?cè)O(shè)想,如果人工智能診斷出現(xiàn)醫(yī)療誤判,最終導(dǎo)致醫(yī)療事故,那么誰(shuí)將來(lái)承擔(dān)事故責(zé)任呢?是提供技術(shù)的公司,還是醫(yī)院,或者醫(yī)生個(gè)人?
自動(dòng)駕駛正逐漸上路,據(jù)各方估計(jì)在2020年之前自動(dòng)駕駛汽車(chē)將進(jìn)入消費(fèi)市場(chǎng)。不可避免的,自動(dòng)駕駛汽車(chē)在不熟悉的環(huán)境中可能會(huì)導(dǎo)致交通事故(例如2016年的特斯拉自動(dòng)駕駛汽車(chē)事故),那么在這種情況下誰(shuí)將承擔(dān)法律責(zé)任呢?是車(chē)主,還是車(chē)輛生產(chǎn)方?
隨著人工智能系統(tǒng)以及機(jī)器人研究的發(fā)展,致命自主武裝系統(tǒng)逐漸應(yīng)用于軍事當(dāng)中。當(dāng)這些自主武裝系統(tǒng)在前線失控誤殺平民(甚至軍人)時(shí),誰(shuí)將承擔(dān)這些責(zé)任呢?
隨著人工智能的發(fā)展,技術(shù)的壟斷越來(lái)越嚴(yán)重,政府和大企業(yè)在逐漸壟斷著技術(shù)和數(shù)據(jù),他們一方面利用這些數(shù)據(jù)給我們的生活帶來(lái)便利,另一方面也在某種程度上控制著我們的生活。那么技術(shù)是否應(yīng)該開(kāi)源開(kāi)放呢?在什么樣的標(biāo)準(zhǔn)上我們的人權(quán)才能得以保障呢?
…………
隨著人工智能在人們生活中應(yīng)用越來(lái)越廣泛,也有越來(lái)越多的人對(duì)這些問(wèn)題開(kāi)始思考和制定規(guī)則。在過(guò)去的兩年時(shí)間里,有大量的AI研究人員開(kāi)啟對(duì)AI倫理的思索。大家熟知的有:
2016年9月,Amazon、Facebook、Google、DeepMind、Microsoft 和 IBM等幾家全球大公司共同成立了 Partnership on AI,來(lái)研究和制定人工智能技術(shù)的最佳實(shí)踐,促進(jìn)公眾對(duì)人工智能的理解,并作為一個(gè)開(kāi)放平臺(tái)來(lái)討論人工智能對(duì)人和社會(huì)的影響。
2016年12月,IEEE首家發(fā)布了第一版《合乎倫理的設(shè)計(jì):將人類福祉與人工智能和自主系統(tǒng)優(yōu)先考慮的愿景》,由全球100多名人工智能、倫理學(xué)及相關(guān)領(lǐng)域的思想領(lǐng)袖和專家共同制定。
2017年6月,ITU(國(guó)際電信聯(lián)盟)舉辦了“AI for Good”的全球峰會(huì)。今年五月將在日內(nèi)瓦再次舉辦同一主題的峰會(huì)。
2017年11月,蒙特利爾大學(xué)舉辦“人工智能的社會(huì)責(zé)任發(fā)展”論壇,隨后并發(fā)表了《人工智能負(fù)責(zé)任開(kāi)發(fā)宣言》
2017年,人類未來(lái)研究所發(fā)布的《阿西洛馬人工智能原則》(共23條)。有1273名人工智能 /機(jī)器人研究人員和其他2541人簽署并支持了這些原則。
此外,2016年聯(lián)合國(guó)在“特定常規(guī)武器公約”會(huì)議上啟動(dòng)了關(guān)于人工智能在軍事使用上的全球性辯論,其中大多數(shù)締約方贊同了所謂的“對(duì)致命自主武器系統(tǒng)進(jìn)行有意義的人類控制原則”, 這條原則提出“凡是無(wú)有意義的人類控制的致命自主武器系統(tǒng)都應(yīng)被禁止”。聯(lián)合國(guó)還在海牙建立了一個(gè)專門(mén)的研究機(jī)構(gòu)(犯罪和司法研究所),主要用來(lái)研究機(jī)器人和人工智能治理的問(wèn)題。
但是上述的這些倫理思考,一方面并沒(méi)有經(jīng)過(guò)嚴(yán)格地思考和準(zhǔn)確地定義;另一方面,在國(guó)家層次上關(guān)于AI的規(guī)則制定并不平衡,有的國(guó)家已經(jīng)優(yōu)先制定了機(jī)器人和人工智能的規(guī)則,甚至還通過(guò)立法來(lái)管理自動(dòng)駕駛汽車(chē);但大多數(shù)國(guó)家還沒(méi)有著手這樣的事情。
雷鋒網(wǎng)(公眾號(hào):雷鋒網(wǎng))了解到,為了解決這樣的問(wèn)題,近期歐盟的“歐洲科學(xué)和新技術(shù)倫理小組”(European Group on Ethics in Science and New Technologies,EGE)發(fā)布了一份聲明,希望各國(guó)能夠合作起來(lái)共同制定標(biāo)準(zhǔn)和規(guī)則,并呼吁對(duì)AI、機(jī)器人以及自主技術(shù)的倫理學(xué)進(jìn)行廣泛和系統(tǒng)地討論。
在24頁(yè)的聲明中,EGE介紹了AI倫理的背景、面臨的問(wèn)題以及重要的思考因素。它認(rèn)為我們應(yīng)當(dāng)跳出狹義的倫理框架思考。例如,到底是什么使我們陷入前文中提到的倫理困境?什么才算“人類控制”?人們是否應(yīng)當(dāng)有權(quán)知道某個(gè)系統(tǒng)是自主系統(tǒng)還是人工系統(tǒng)?……
為了制定一套可作為建立全球標(biāo)準(zhǔn)和立法行動(dòng)基礎(chǔ)的道德準(zhǔn)則,作為第一步,EGE提出了一套基于《歐盟條約》和《歐盟基本權(quán)利憲章》的基本原則和民主先決條件。
基本原則和民主先決條件
a)人類尊嚴(yán)
人類尊嚴(yán)的原則,即尊重個(gè)人的生命和人格,不被人工智能技術(shù)所侵犯。舉例來(lái)說(shuō),當(dāng)人與一個(gè)系統(tǒng)進(jìn)行交互時(shí),我們應(yīng)該明確被告知與我們交流的是機(jī)器,而不是真人。也即我們應(yīng)當(dāng)有知情權(quán),知道我們是否以及什么時(shí)候在與機(jī)器(或另一個(gè)人類)交流。
b)自主
自主原則意味著人的自由。對(duì)人工智能系統(tǒng)的控制和了解應(yīng)當(dāng)成為人的責(zé)任,智能系統(tǒng)不得損害人類自由,不得設(shè)定自己的標(biāo)準(zhǔn)和規(guī)范。所有的智能技術(shù)必須尊重人類選擇是否、何時(shí)以及如何將決策和行動(dòng)委托給它們。
c)責(zé)任
責(zé)任原則必須成為人工智能研究和應(yīng)用的基礎(chǔ)。智能系統(tǒng)的開(kāi)發(fā)和應(yīng)用必須為全球社會(huì)和環(huán)境的利益服務(wù),因此它們的設(shè)計(jì)應(yīng)該與人類的價(jià)值觀和權(quán)利相一致。由于智能系統(tǒng)的潛在濫用可能會(huì)對(duì)人類整體構(gòu)成重大的威脅,因此風(fēng)險(xiǎn)意識(shí)和預(yù)防措施至關(guān)重要。
d)正義、平等和團(tuán)結(jié)
應(yīng)當(dāng)利用人工智能的優(yōu)勢(shì)為全球正義、平等做貢獻(xiàn)。應(yīng)盡早預(yù)防、檢測(cè)、報(bào)告和消除用于訓(xùn)練人工智能系統(tǒng)的數(shù)據(jù)集中的歧視性偏差。我們需要協(xié)調(diào)一致的全球努力,實(shí)現(xiàn)平等獲得智能系統(tǒng)技術(shù),在社會(huì)內(nèi)部公平分配利益和機(jī)會(huì)。
e)民主
關(guān)于人工智能發(fā)展和應(yīng)用管理的關(guān)鍵決定應(yīng)通過(guò)民主辯論和公眾參與來(lái)決定。在這些問(wèn)題上進(jìn)行全球合作和公共對(duì)話,將確保這些問(wèn)題以包容、知情和遠(yuǎn)見(jiàn)的方式被采納。接受教育或獲取有關(guān)技術(shù)信息的權(quán)利將有助于每個(gè)人都了解風(fēng)險(xiǎn)和機(jī)遇,并有權(quán)參與決策過(guò)程。
f)法治和問(wèn)責(zé)制
健全人工智能時(shí)代的法律,確保降低可能侵犯人權(quán)的智能系統(tǒng)產(chǎn)生的風(fēng)險(xiǎn)(如安全和隱私)。應(yīng)盡快投入開(kāi)發(fā)有效的解決方案,以提供公平、明確的責(zé)任分配和有約束力的法律機(jī)制,解決該領(lǐng)域出現(xiàn)的所有法律挑戰(zhàn)。
在這方面,各國(guó)政府和國(guó)際組織應(yīng)加大力度,明確智能系統(tǒng)的不良行為所造成的損失該由誰(shuí)來(lái)承擔(dān)責(zé)任。
g)安全保障、身心完整
智能系統(tǒng)的安全保障體現(xiàn)為三種形式:(1)其環(huán)境和用戶的外部安全;(2)可靠性以及內(nèi)部穩(wěn)健性,例如抗黑客攻擊能力;(3)人機(jī)交互方面的情感安全。AI開(kāi)發(fā)人員必須考慮到安全性的所有方面,并在發(fā)布之前進(jìn)行嚴(yán)格測(cè)試,以確保智能系統(tǒng)不會(huì)侵犯身心完整(bodily and mental integrity)和安全保障(safety and security)的人權(quán),尤其需要注意處于弱勢(shì)地位的人。
h)數(shù)據(jù)保護(hù)和隱私
在數(shù)字通信技術(shù)無(wú)處不在,且能夠大量收集數(shù)據(jù)的時(shí)代,保護(hù)個(gè)人信息和尊重隱私權(quán)的權(quán)力受到了嚴(yán)重的挑戰(zhàn)。作為物聯(lián)網(wǎng)一部分的AI機(jī)器人,以及通過(guò)互聯(lián)網(wǎng)運(yùn)行的AI軟件必須遵守?cái)?shù)據(jù)保護(hù)條例,而不是收集和傳播數(shù)據(jù),或運(yùn)行沒(méi)有給予同意的數(shù)據(jù)集。
智能系統(tǒng)不得干涉私人生活權(quán),其中包括免受技術(shù)影響個(gè)人發(fā)展和發(fā)表意見(jiàn)的權(quán)利,建立和發(fā)展與他人關(guān)系的權(quán)利,以及免于監(jiān)視的權(quán)利。
鑒于智能系統(tǒng)對(duì)私人生活和隱私的影響,可考慮引入兩項(xiàng)新的權(quán)利:有意義的人與人之間的接觸權(quán),以及不被推薦、測(cè)量、分析、指導(dǎo)和干擾的權(quán)利。
i)可持續(xù)發(fā)展
人工智能技術(shù)必須符合人類的責(zé)任,以確保我們星球上生命的基本先決條件,持續(xù)促進(jìn)人類的繁衍以及為后代保持良好的環(huán)境。為了防止未來(lái)技術(shù)對(duì)人類生命和自然造成不利影響,制定的策略應(yīng)基于環(huán)境保護(hù)和可持續(xù)發(fā)展為優(yōu)先的策略。
雷鋒網(wǎng)結(jié)語(yǔ):
相較于歐美國(guó)家在人工智能安全和倫理方面熱鬧的場(chǎng)面,國(guó)內(nèi)在此方面似乎稍顯冷淡一些。是我們不關(guān)心 AI 的安全和倫理嗎?是因?yàn)闆](méi)有利益驅(qū)動(dòng)嗎?
私下與眾多學(xué)者的交流中,可以看出許多研究人員對(duì)人工智能的安全和倫理都有著莫大的興趣和關(guān)注。但我們知道,這樣的工作往往不是一個(gè)群體所能帶動(dòng)和完成的,它需要政府(政策)、學(xué)者(學(xué)識(shí))、企業(yè)(資金)、媒體(宣傳)和公眾(支持)共同推動(dòng)。而引起政、學(xué)、產(chǎn)、媒、眾關(guān)注和推動(dòng)的第一步,可能就是——舉辦一場(chǎng) AI 安全和倫理的會(huì)議?
期待在這個(gè)為 AI 制定標(biāo)準(zhǔn)的時(shí)刻,我們中國(guó)能貢獻(xiàn)力量。