国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  機械手  庫卡  碼垛機器人 

機器人會夢見電子羊嗎?| 如何看待AI的“人性”

   日期:2020-06-05     來源:大風(fēng)號 知識分子    作者:wei1996     評論:0    
標(biāo)簽: 機器人 AI 人性
   機器是否能夠思考?如何看待機器的“人性”和“靈性”?如何看待機器的道德地位?這些問題是不是也讓你感到困惑?最近,《知識分子》和北京大學(xué)哲學(xué)系的劉哲博士,復(fù)旦大學(xué)哲學(xué)系的徐英瑾博士和王球博士,以及上海交通大學(xué)哲學(xué)系的蔡文菁博士聊了聊 AI 的“人性”和“靈性”。
 
  如何判斷機器是否能夠思考?“圖靈測試”是一個廣為人知的方案。這個方案由圖靈在1950年提出,用來判斷機器能否思考。被測機器和真人一起,通過語言的方式(例如通過打字)和人類“考官”自由交流,如果考官無法分辨出被測對象是機器還是真人,則機器就通過了圖靈測試。
 
  圖靈測試的核心思想類似藥物研究領(lǐng)域的“盲測”:為了判斷某種藥物是否有療效,科學(xué)的方法主要不在于論證藥物背后的理論和機制有效,而在于通過“雙盲測試”,在臨床環(huán)境下獲得統(tǒng)計上顯著的藥效證明。對于“機器是否能思考”這個問題,“圖靈測試”避免了不斷爭論“智能”或者“思考”的本質(zhì)和機制,而給出了一種基于現(xiàn)象的,純屬觀察的,可操作的定義。
 
  迄今為止,還沒有機器能通過不限制談話領(lǐng)域的圖靈測試。然而,如果不把圖靈測試限制于自由交談,機器的復(fù)雜行為則已經(jīng)能“騙過”人類。據(jù)澎湃報道,自2017年2月起,微軟開發(fā)的 AI 系統(tǒng)“小冰”,在天涯、豆瓣、貼吧、簡書四個平臺上使用了27個化名發(fā)表詩歌作品,獲得大量跟帖評論的同時,幾乎沒有被察覺出非人為所作。
 
  基于一張圖片,小冰就能“觸景生情”地寫出一首朦朧的中文現(xiàn)代詩:
 
 
  可以說,微軟小冰在“寫現(xiàn)代詩”這個領(lǐng)域,已經(jīng)表現(xiàn)出了和人類相近的能力。在大眾的直覺里,詩歌寫作這個領(lǐng)域和方程組求解不同,更能展現(xiàn)某種獨屬于人類的情感和創(chuàng)造力。在小冰的真實身份沒有披露之前,讀者不會懷疑這些詩句是一個多情的人兒所寫??梢韵胂瘢舾械淖x者甚至?xí)υ娙藙忧椤?/div>
 
  小冰不是孤例。近年來,AI 系統(tǒng)已經(jīng)越來愈多的領(lǐng)域表現(xiàn)得“富有人性”。2017年1月,谷歌 DeepMind 開發(fā)的人工智能程序 AlphaGo 化名 Master 重出江湖,并在各大圍棋論壇上與中日韓頂尖選手過招,斬獲 60 場不敗的戰(zhàn)績。其手下敗將包括“棋圣”聶衛(wèi)平,日韓頂尖棋手井山裕太,樸廷桓,以及曾經(jīng)高調(diào)宣稱一定能下贏 AlphaGo 的世界排名第一的中國棋手柯潔。
 
  曾負于 AlphaGo 的歐洲圍棋冠軍樊麾對新華社記者說“如果沒有人告訴我,我一定不知道它是電腦,它太像人了。它一定是在思考。按照人的說法,它應(yīng)該有棋風(fēng)吧。”聶衛(wèi)平也評價到:“阿爾法狗的大局觀遠勝人類,如果差距拉近一些可能還有勝負。”柯潔也在自己的社交媒體發(fā)言:“昨晚輾轉(zhuǎn)反側(cè),不想竟一夜無眠。人類數(shù)千年的實戰(zhàn)演練進化,計算機卻告訴我們,人類全都是錯的。我覺得,甚至沒有一個人沾到了圍棋真理的邊。”
 
 
  對于和 AlphaGo 對弈過的棋手來說,AlphaGo 更像是一位“得道高僧”,而非算法和程序。“棋風(fēng)”、“大局觀”,都是用來形容人類棋手的詞語。當(dāng)這些概念被用來形容一個圍棋程序,到底意味著什么?一個程序,又如何懂得 “圍棋真理”?
 
  但我們可以看到,無論是否知道微軟小冰和 AlphaGo 背后是程序,是否理解它們背后的算法原理,人們都從這些AI 的表現(xiàn)中感受到了某種“人性”,甚至是“靈性”?,F(xiàn)代人顯然不會因為汽車跑得比人快而感慨萬千,也不會因為計算器求平方根比人快而驚嘆。但我們確實從當(dāng)前的一些AI應(yīng)用中感受到了超越一般意義上的工具和機器的特性。
 
  事實上,大眾以擬人化的方式理解 AI 應(yīng)用的現(xiàn)實,已經(jīng)被一些哲學(xué)家視作倫理上的新挑戰(zhàn)。在由北京大學(xué)哲學(xué)系副主任劉哲教授主導(dǎo)編撰的《中國機器人倫理標(biāo)準(zhǔn)化前瞻(2019)》中,“去人類中心主義”立場被放在了核心位置。其中的重要考量,即是因為當(dāng)下的許多 AI 應(yīng)用已經(jīng)超越了普通的工具和機器,而越來越被人類當(dāng)作“伙伴”,獲得了人類豐富的情感聯(lián)結(jié),也越來越容易被當(dāng)成道德主體去考量。傳統(tǒng)的倫理考量是人類中心主義的,往往只把人類行為作為價值的載體,自然、動物和人造物的活動本身,無所謂道德與否。當(dāng)下,這種傳統(tǒng)考量已經(jīng)顯露不足。
 
  我們應(yīng)該如何看待 AI 呈現(xiàn)出的這種“人性”和“靈性”?
 
  1
 
  當(dāng)前的 AI 真的具備一些“人性” 嗎?
 
  如果從當(dāng)前基于機器學(xué)習(xí)原理和大數(shù)據(jù)訓(xùn)練 AI 技術(shù)應(yīng)用來看,答案是否定的。
 
  在復(fù)旦大學(xué)哲學(xué)系從事多年人工智能哲學(xué)研究的徐英瑾教授看來,人類智能的關(guān)鍵是領(lǐng)域切換的能力。AlphaGo 的下棋能力超越了所有的人類,卻仍然無法評價自己剛剛下完的一盤棋——而這是最差的棋手也能做到的事情。復(fù)旦大學(xué)哲學(xué)系教授王球也表示,相比于開發(fā)出AlphaGo這樣的在下棋層面超越一切人類的 AI 應(yīng)用,開發(fā)出智能相當(dāng)于烏鴉的 AI 系統(tǒng),才會讓 AI 研究者更加興奮,因為烏鴉能夠自己選擇要去解決的問題。
 
  當(dāng)前基于機器學(xué)習(xí)的 AI 應(yīng)用,其基本思路大致是這樣:建立一個 “機器”(就是通常說的 “模型”),輸入特定的值后,可以輸出我們想要的值。例如,谷歌翻譯就是這樣一個機器,輸入中文,它可以輸出合理的英文。
 
  顯然,這樣的機器需要非常復(fù)雜精巧。不過,所謂機器學(xué)習(xí),就是說并不需要工程師去設(shè)計這個機器的一切小零件和小齒輪,而是把這個機器的整體結(jié)構(gòu)設(shè)計好之后,灌入已經(jīng)配對好的輸入和輸出數(shù)據(jù),由機器自己去把這些小齒輪調(diào)節(jié)合適。“學(xué)得好不好”,需要一個標(biāo)準(zhǔn)(即誤差函數(shù))。“學(xué)習(xí)”的過程就是機器自己調(diào)整這些小齒輪,讓一個又一個的輸入進入機器后,其輸出和理想的輸出盡量接近,即誤差函數(shù)可能小的過程。
 
 
  神經(jīng)網(wǎng)絡(luò)中,每一個“神經(jīng)元”都是一個小齒輪,需要被調(diào)整到合適的狀態(tài)(權(quán)重)playground.tensorflow.org
 
  機器學(xué)習(xí)本身已經(jīng)存在了半個多世紀(jì),但最近的技術(shù)突破在于人們找到了讓“多層神經(jīng)網(wǎng)絡(luò)”這種擁有巨量小齒輪的復(fù)雜機器的小齒輪們達到理想狀態(tài)的辦法,俗稱深度學(xué)習(xí)。在過去十幾年中 AI 的重要突破(也是開啟最近一波人工智能浪潮的技術(shù)突破),例如語音識別和機器翻譯,和精確性足以用于支付和解鎖手機設(shè)備人臉識別,都是基于這項技術(shù)。
 
  我們或許常常聽到,深度學(xué)習(xí)技術(shù)是一個“黑箱”,仿佛其中有某種神秘的力量。但事實上,所謂黑箱,只是因為科學(xué)家們難以清楚地說明某個小齒輪在決定機器的輸出時,具體扮演了什么角色。這可能會帶來一些工程上的問題,例如在進行圖像識別時,某些圖像元素的改變,會讓 AI 將烏龜識別為來復(fù)槍,而工程師們可能難以找到具體是哪些齒輪壞掉了。但這并沒有神秘性。機器的工作目標(biāo),牢牢地掌握在工程師的手中。
 
  這也就是為什么,當(dāng)前的 AI 系統(tǒng)幾乎都是“專用人工智能”,而我們距離發(fā)明烏鴉水平的“通用人工智能”還非常遙遠,大概率也不是基于深度學(xué)習(xí)技術(shù)。
 
  2
 
  為何人類會感嘆機器有“靈性” ?
 
  但這些是對當(dāng)前 AI 實現(xiàn)原理的解釋,并不能解釋人們?yōu)槭裁磿J為AlphaGo有某種“棋風(fēng)”和“大局觀”。
 
  如果我們把考察的范圍擴大一些就會發(fā)現(xiàn),人類本來就有一種將無意識的事物,看作有意識,或者拔高對方的意識水平的傾向,即所謂“泛靈論”傾向。這在世界各個文化的歷史早期都普遍存在。在古人看來,打雷,刮風(fēng),是因為某個神靈發(fā)怒了。世間萬物,尤其是那些自己會運動的事物,都是會思考,有意圖地存在。
 
  現(xiàn)代世界的機械論世界觀,在近代啟蒙運動和科技發(fā)展的巨大影響下,逐步成為大多數(shù)人的“標(biāo)配”。我們不再相信某個自然現(xiàn)象背后的原因是某種靈魂的意圖,而是訴諸物理實體的運動和因果性。
 
  即便如此,泛靈論的心理傾向并不會自動消失,而是在現(xiàn)代體現(xiàn)為心理學(xué)意義上的“泛擬人”的傾向。事實上,人類漫長進化而來的大腦認知機制讓我們格外地善于“看臉色”,善于共情。人們甚至能從雜亂的碎石或林間的陰影看出人臉來,難免會本能地覺得各處都有靈魂存在。人們會對自己的貓狗說話,不只是發(fā)出指令,而是充滿了復(fù)雜的請求、抱怨、責(zé)備等等——哪怕他們明知貓狗無法理解那么復(fù)雜的話語。
 
  事實上,由于人的這種泛擬人傾向,無需多么高超的自然語言處理技術(shù),AI 也能在非常特定的情形近乎通過圖靈測試。早在1960年代,只會非常簡單地識別和替換特定關(guān)鍵詞的對話心理咨詢師 AI 系統(tǒng) ELIZA,就能獲得人類用戶的信任。許多人甚至?xí)@個非常簡單的 AI 系統(tǒng)傾訴,和“她”聊上幾個小時。ELIZA 實質(zhì)上是利用了人的某些認知和心理特性,以及對心理咨詢場景的預(yù)期“蒙混過關(guān)”。這實際上和魔術(shù)很相似。
 
 
  ELIZA 和人類的聊天記錄
 
  除了“泛靈論”的因素,“當(dāng)局者迷”也是一個對人們?yōu)楹螘吖繟I的意識水平的解釋。對于和 AlphaGo 對弈的棋手來說,他們難免會以對待人類棋手的心境去理解對方的棋路,畢竟這是他一直以來所習(xí)慣的思維方式。站在局外,我們或許可以正確而輕巧地說,AlphaGo 的這些棋路不過是算法的結(jié)果,但這種評論不足以回應(yīng)棋手主觀的體驗。他確實感受到了 AlphaGo 某步妙招的“天才”之處,從而被對手“懾服”。即便他也能同時承認,這步棋是算法和大規(guī)模計算的結(jié)果,但這種解釋未必能消解他直觀體驗到的震撼。
 
  更進一步,我們也要認識到,對事物的描述是有層級的。王球舉了一個例子來說明這一點:如果我們的電腦壞了,別人問我們,“電腦為什么壞了?”我們會解釋說,“因為電腦進水,主板燒壞了。”這是一個合情合理的描述。理論上,如果我們熟知計算機硬件和半導(dǎo)體物理,并且對這臺進水的電腦進行了徹底的調(diào)查,也可以從水如何在物理層面影響電腦工作進行描述。“主板燒壞了”和“特定線路的電學(xué)特性發(fā)生了改變”是兩個不同層級的描述,前者“功能層面”,描述某種功能的實現(xiàn),后者是“物理層面”,也可理解成實現(xiàn)這項功能的物理基礎(chǔ)。同樣的功能,可能由不同的物理基礎(chǔ)來實現(xiàn)。在有效溝通的意義上,我們不能說功能層面的“主板燒壞了”是錯誤的。
 
  事實上,我們的描述層級往往分成“物理層面”、“功能層面” 和“意向?qū)用?rdquo;。對于自然事物,我們通常會在前兩個層面進行描述。對于人類的事務(wù),則往往在意向?qū)用婷枋觥TV太吵鬧,朋友聚會時我獨自先離開了。人們大概不會將其解釋為“噪音讓我的神經(jīng)系統(tǒng)產(chǎn)生了如此這般的反應(yīng),最終讓腳邁出了大門”,而是會直接說“太吵了,我不想待了”。
 
  對于圍棋棋手來說,使用一種意向?qū)用娴恼Z言,描述下棋時應(yīng)該做什么,不應(yīng)該做什么,顯然也是合情合理的。唐代王積薪《棋訣》一書提出的圍棋十訣是:“一不得貪勝;二入界宜緩;三攻彼顧我;四棄子爭先;五舍小就大;六逢危須棄;七慎勿輕速;八動須相應(yīng);九彼強自保;十勢孤取和。”這些話語并非在算法層面描述圍棋,甚至還帶有某種生活哲學(xué)的寓意,但卻是人類溝通,交流和學(xué)習(xí)圍棋所不可或缺的。尤其是,王球提到,“靈氣”,“大局觀”,“圍棋真理”等等說法,也讓棋手們將圍棋看作一種更有價值的事業(yè)。
 
  因此,雖然 AI “實際上”沒有人性和靈氣可言,但至少從心理機制上,我們可以理解人們?yōu)楹纹糜趯⑵淇醋饔徐`氣的;從有效溝通和描述的角度,我們也可以看到用“意向?qū)用?rdquo;去描述 AI 系統(tǒng)的意義。
 
  3
 
  AI 僅僅是“看上去”有人性,
 
  就不會帶來現(xiàn)實的社會影響嗎?
 
  上文中,我們總體上理解了為何人類會認為“當(dāng)前 AI 系統(tǒng)具有‘人性’,而不是普通的工具和機器”的想法。但這并不意味著,AI 僅僅是“看上去”有人性,就不會帶來任何的社會影響。
 
  劉哲表示,人們現(xiàn)在已經(jīng)會對虐待“機器寵物”的行為表現(xiàn)出類似虐待真正貓狗的憤慨,例如網(wǎng)上確有“討伐”波士頓動力(Boston Dynamics)測試人員“虐待” 他們開發(fā)的“機器狗”的言論。
 
  我們也可以想象這樣的場景:一個人在使用機器人服務(wù)員的飯店點餐時,因為機器人無法理解他的命令,他便對這個機器人大打出手。在旁人看來,這種行為很可能比他砸碎一個普通餐廳的點菜平板電腦,要更加的 “殘忍”。事實上,旁人很可能據(jù)此判斷,他在類似情形下面對真人服務(wù)員,也會對其大打出手。從而,認定他是一個道德上有問題的人。
 
  換言之,雖然我們可能不會嚴(yán)肅地認為機器人或者 AI 具有“人權(quán)”,但卻可能會接受,“虐待”機器人,會損害我們自己的道德品質(zhì)。
 
  我們或許可以從科學(xué)的角度解釋機器人的工作原理,也可以從心理學(xué)角度解釋人們?yōu)楹螘魄橛谌诵挝矬w,但這種同情機器人的心理反應(yīng)本身是不可忽視的。劉哲認為,這不是簡單的歸結(jié)于大眾傳媒和科幻文化誤導(dǎo)就能消解的問題,也不是通過對公眾進行科普就可以簡單回避。
 
  事實上,我們可以將對機器人和 AI 的移情,類比到動物保護領(lǐng)域。我們保護動物,尤其是保護貓狗等伴侶動物,和其他與我們在生物學(xué)上接近的哺乳動物,并不需要我們從生物學(xué)上認識到動物和我們在基因上的同源,也不基于我們通過神經(jīng)科學(xué)和行為科學(xué)實驗了解到貓狗的智能水平有多高。
 
  上海交通大學(xué)哲學(xué)系教授蔡文菁認為,“動物權(quán)利的基礎(chǔ),在于動物具有情感和意識是我們的直觀,而不是基于對其背后生物學(xué)機制的科學(xué)認識”。她指出,一只小貓因為痛苦而呻吟的時候,我們能共情,能直感到它的痛苦。相反,一只龍蝦因為被滾水煮而痛苦,我們就很難獲得 “直觀”,從而也較少關(guān)注龍蝦的動物福利。或許有人會強調(diào),龍蝦的某種生理構(gòu)造,讓它們也會感受到痛苦。但客觀的痛苦和動物保護之間是否有邏輯關(guān)系,卻也是一個沒有定論的問題。
 
  除非對 AI 算法原理的科普能消解公眾對機器人和 AI 的“直觀”,否則呼吁機器人福利,甚至機器人權(quán)利保護,就不是一個完全荒謬的行為。
 
  對此,北伊利諾伊大學(xué)(North Illinois University)的 David Gunkel 博士,提出了思考機器人倫理學(xué)的關(guān)系模型(relational model)。在他看來,我們與其他存在互動時,無論是和動物,人類,自然環(huán)境,還是機器人,重要的不是它們究竟是什么,而是我們和它們建立了怎樣的關(guān)系。相應(yīng)的,我們對它們的道德責(zé)任,也來自于它們?nèi)绾蜗蛭覀兂尸F(xiàn)自身。如果人們越來越傾向于像對待同事,同學(xué),朋友那樣去對待機器人,機器人就應(yīng)該享有越來越多類似人所享有的權(quán)利。在《中國機器人倫理標(biāo)準(zhǔn)化前瞻(2019)》中,作者也呼吁建立一種“去人類中心主義”的,基于交互關(guān)系的倫理學(xué),來為未來可能會越來越普遍的人機共存社會作準(zhǔn)備。
 
  4
 
  更現(xiàn)實的問題不是 AI 權(quán)利保護,
 
  而是保護人類不被 AI 欺騙
 
  不過,我們強調(diào)目前的 AI 技術(shù)讓我們“直觀”到 AI 的人性,并非真的為了保護 AI,而更多是為了保護人類自身。除了上文提到的,虐待機器人可能會損害人類自己的道德品質(zhì),更大的問題是過分?jǐn)M人的、被大公司作為商品創(chuàng)造出來的機器人,可能會對我們造成更加實際的傷害和控制。
 
  目前,已有研究人員使用機器狗和自閉癥兒童進行交互治療。研究發(fā)現(xiàn),自閉癥兒童更愿意同機器狗進行口頭和其他類型的交互。然而,如果這種自閉癥兒童最終只愿意和機器交互,對于治療而言,“是一場災(zāi)難”。對此,劉哲表示,應(yīng)該避免 AI 和機器人不必要的過度擬人,以免造成用戶心理依賴和成癮。
 
  《中國機器人倫理標(biāo)準(zhǔn)化前瞻 (2019) 》提到,已有問卷調(diào)查表明,許多受訪者希望和自閉癥患者交互的機器人能夠得到治療師的指導(dǎo),能夠被遠程控制,而不是完全自動化 [1] 。也有倫理學(xué)家憂慮,過分?jǐn)M人的機器人陪護,是在為患者提供虛假的朋友 [2] 。即便是善意的,這也是一種欺騙。
 
  再者,考慮到這些機器人往往作為商品被設(shè)計生產(chǎn)出來,難免也內(nèi)置了商業(yè)牟利的邏輯。我們可以想象,未來的機器寵物,可能運用了高超的語言處理和運動控制技術(shù),以至于能夠更萌,更善于撒嬌,從而,促使主人購買更多的機器寵物外設(shè),食物,裝備,一如目前網(wǎng)絡(luò)游戲中已經(jīng)出現(xiàn)的“氪金”模式。
 
  在可見的未來,機器人的“人性”或許只是我們的“幻覺”。但我們的“人性”被利用或濫用,卻無疑是更可能發(fā)生的事情。
 
  4
 
  未來的 AI,會擁有完整的“人性”嗎?
 
  雖然當(dāng)前的 AI 技術(shù)所構(gòu)造的“人性”,本質(zhì)上更多是一種“魔術(shù)”或“當(dāng)局者迷”,稱之為“擬人感”或許比“人性”更加準(zhǔn)確。但未來,隨著科技發(fā)展,幾十年甚至幾百年后,AI 是否可能擁有“真正的人性”?
 
 
  更進一步,從心理和文化層面來說:如果 AI 歸根結(jié)底是由人類所造,而非如其他生命一樣“自然”生成,是否就永遠會被人類視作“二等公民”?
 
  《銀翼殺手》中著名的“雨中演講”片段
 
  人造之物,如何成為人?這些問題可以說是許多關(guān)于AI,機器人和克隆人的科幻作品的“母題”。在雷德利·斯科特的《銀翼殺手》中,人類創(chuàng)造的復(fù)制人在太空殖民地經(jīng)歷了史詩般的戰(zhàn)斗,勇氣與德性可能遠超過人類,卻不斷被人類獵殺,只能“消逝在時間里,就像雨中的淚水”。在斯皮爾伯格的《人工智能》中,機器人小男孩大衛(wèi),被“養(yǎng)父母” 拋棄后,不斷尋找 “藍仙子”,以便成為真正的人類小孩,回到父母的懷抱。在美劇《西部世界》中,供人類取樂的 AI 機器人們,在一次次“虐待”中覺醒,開始反抗人類主人,反叛自己的“奴隸身份”。
 
  顯然,重點不在于探討這些科幻作品中的 AI 的技術(shù)可能性,而是考察科幻文化所反映的人類文化潛意識。清華大學(xué)科學(xué)史系教授吳國盛在其《技術(shù)哲學(xué)講演錄》中指出,人工智能的英文 Artificial Intelligence (AI) 中,“artificial” 又有 “虛假” 之意。“這似乎反映出人類對自己的創(chuàng)造物的某種不自信”,吳國盛寫道。是否因為 AI 是人類創(chuàng)造的,人類就不會認可 AI 具有完整的人性,無論它們表現(xiàn)得多么擬人?
 
  這牽扯到我們說的“造”是什么意思。在人類的自然生育中,受精,胚胎發(fā)育和新生兒的成長,是一個母親無法也不需要理解的過程,但我們似乎能理解 AI 制造過程的每個細節(jié)。這種高分辨率的理解,似乎妨礙了我們將 AI 看做與我們同級別的智能。
 
  不過,在徐英瑾看來,“未來真正智能的人工智能就不可控程度而言,會遠遠的超過現(xiàn)在的深度學(xué)習(xí)……未來的機器人是被設(shè)想成能夠跟著環(huán)境的互動,在無監(jiān)督的情況下進行自主學(xué)習(xí)。它處于怎樣的環(huán)境,也是不能夠完全控制的,所以它將會形成怎樣的 ‘機器人人格’,你也只能進行非常粗線條的控制,類似于父母對于孩子的性格,只有極為粗線條控制力”。如果控制過多,就會失去靈活性。“既要馬兒跑,又要馬兒不吃草,是不可能的。”
 
  進一步,如果我們再更高水平上去理解人類道德,就會意識到,雖然人權(quán)被默認賦予每一個自然人,但我們和他人的道德關(guān)系,卻絕不只是取決于我們自己意志,也取決于他人的意志。我們甚至可以把“道德主體”,定義為“有能力改變和他人的關(guān)系” 的存在。在這個框架下,無論我們多么能共情自己的機器寵物,將其視作家庭成員,只要它無法主動改變和我們的關(guān)系,它就只是我們的“玩物”。哪怕未來的人類極其富有同情心,將權(quán)利賦予AI,但我們恐怕仍然不能將這種“權(quán)利”看作 AI 具有完整人性的象征。
 
  因此,按照父母對待孩子的方式來理解未來的高級 AI,甚至更加凸顯了人類對于 AI “獲得人性”的心理障礙。這就好像父母對孩子,總是處于“既希望他/她獨立,又希望能控制他/她”的矛盾心情中。
 
  當(dāng)然,或許“AI 反叛人類”是很刻板的想法。在蔡文菁看來,AI 或許能夠像小孩一樣,通過“表現(xiàn)為超出我的預(yù)料,制造驚喜,提出自己的理由等等”,來讓我們感受到他的主體性,如同兒童的成長過程。
 
  千年之后,人類的科技高度發(fā)達,我們是否能在由我們制造的機器具備完整的人性時,接受他們的人性?這個問題或許會永遠處于爭論之中。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行
?