国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

人工智能來了 法律是否該未雨綢繆

   日期:2017-02-15     來源:法制日報——法制網(wǎng)    作者:lx     評論:0    
標簽:
   人工智能、自主系統(tǒng)的出現(xiàn),不但挑戰(zhàn)了人類對自然的認識,也挑戰(zhàn)了人類對自己的認識,其中就包括各種不可想象變?yōu)楝F(xiàn)實后的法律風(fēng)險。人工智能離我們的生活有多遠?人工智能時代,我們將面臨哪些風(fēng)險?又該如何防范?圍繞這些話題,記者與業(yè)內(nèi)研究人士展開了對話。
 
  對話人:騰訊研究院研究員 曹建峰 《法制日報》記者 張昊
 
  人工智能是什么
 
  記者:對于人工智能,很多人的了解還停留在科幻電影、阿爾法狗。從概念上說,人工智能是一種怎樣的存在?
 
  曹建峰:通俗地理解,人工智能就是機器能完成人類需要智力才能完成的任務(wù)。
 
  以往,我們認為地球上只有人類才有智能,人類的智能包括理性思維、語言能力、邏輯推理和情感,可以解決問題,有自己的目標,可以執(zhí)行行動。當然,“智能”這個詞的邊界尚有很多爭議,也在不斷變化。目前對“人工智能”(AI)和“自主系統(tǒng)”(AS)中的人工智能概念在科學(xué)界還沒有達成一個共識。
 
  美國“人工智能教科書”以人類為參考,對人工智能有一個通常的定義,即像人一樣思考,像人一樣行動,理性思考和理性行動。對人工智能還有一些其他的定義,例如能自己設(shè)立目標,然后制定一系列的計劃執(zhí)行出來。
 
  人工智能內(nèi)在的技術(shù)或核心用到了一些深度算法,例如神經(jīng)網(wǎng)絡(luò)算法,模擬人的大腦結(jié)構(gòu),從而模擬人類思維、決策的過程。還有深度學(xué)習(xí)、基因算法、進化論等,深度算法技術(shù)支持著機器人進行某種決策。
 
  人工智能和以往的計算機程序的區(qū)別,就是它具有自主性,只需要給它一些最原始的數(shù)據(jù),它自己可以推出一個結(jié)論,做出自己的決策和判斷,它有學(xué)習(xí)的能力,這就是自主性。
 
  記者:我們接觸比較早也比較多的人工智能,應(yīng)該算是聊天機器人軟件。它會通過所有用戶的使用過程進行語言學(xué)習(xí),“進化”自己,逐漸進行更豐富的對話。當然,聊天機器人軟件也會學(xué)到臟話,用戶在對話中告訴它“你說的是臟話”,它還會糾正自己。除了這種聊天機器人軟件,目前的日常生活里,我們還會遇到哪些人工智能應(yīng)用?
 
  曹建峰:國外大軟件公司都在推出自己的聊天機器人,目前這種應(yīng)用還是比較初步的。此外,例如自動駕駛汽車或輔助駕駛,駕駛員不需要按著方向盤,可以自主完成停車、變道、轉(zhuǎn)彎。人工智能應(yīng)用還有酒店服務(wù)機器人、救援機器人,個性化推薦等。
 
  法律風(fēng)險有哪些
 
  記者:在影視劇中,我們會看到很多探討人工智能與人類倫理法律的問題。隨著人工智能技術(shù)的發(fā)展,我們在現(xiàn)實生活里是否也會遇到這些問題?
 
  曹建峰:AI系統(tǒng)應(yīng)用日益廣泛,進入了社會生活的很多方面。首先是安全問題,從法律角度看,就可以轉(zhuǎn)化為責任問題。例如無人駕駛會不會對我們的財產(chǎn)、人身安全造成傷害?司機坐在上面不需要自己開車,更像是一個乘客的角色。如果無人駕駛車輛出現(xiàn)故障,導(dǎo)致司機致人損害,司機是否能夠獲得賠償?在混合駕駛模式下,司機和車需要配合,發(fā)生了車禍,廠商是否需要擔責?司機和廠商的責任分配問題目前還比較模糊。
 
  再比如,如何保證人工智能遵守社會規(guī)范和社會價值,它面對風(fēng)險的時候怎么像人一樣決策。例如救援機器人,在老者和弱者之間怎么選擇,先救誰后救誰,這些都需要提前考慮。
 
  還有隱私的問題。人工智能發(fā)展迅速,它做出決策需要大量的個人數(shù)據(jù)存在人工智能系統(tǒng)中。人工智能系統(tǒng)對我們進行“畫像”,形成一個“感官的印象”。我們自己可能都無法知道我們被這些軟件或系統(tǒng)進行了畫像,更無從知曉這些畫像是否真實?;蛘哒f,系統(tǒng)給我們打一些標簽,我們可能不知道它給我們打的是什么樣的標簽,這些標簽是不是錯誤或者有一些問題,這些標簽轉(zhuǎn)移到其他場合的時候,會對我們的權(quán)利產(chǎn)生影響,比如可能影響我們申請貸款、找工作等。我們自己意識不到這個問題,因為它使用的信息是不公開不透明的。
 
  記者:也就是說,人工智能系統(tǒng)搜集的可能是片面的信息,在將來會對人的權(quán)利產(chǎn)生影響。
 
  曹建峰:人工智能系統(tǒng)收集什么信息、這個信息做怎樣的決策,我們自己是無法控制的,更多時候也是不知情的。
 
  比如,國外一些公司在招聘時會用AI對應(yīng)聘者進行人格測試,如果系統(tǒng)認為應(yīng)聘者未來會患上某種疾病或懷孕,可能會造成應(yīng)聘者被拒,會違反禁止歧視的法律規(guī)定。
 
  還有一個問題是算法歧視,這是一個比較迫切的問題。以前有很多工作都是人來完成的,現(xiàn)在被人工智能系統(tǒng)代替,例如個性化推薦。

  風(fēng)險該怎樣防控
 
  記者:關(guān)于人工智能可能產(chǎn)生的法律問題,我們是否應(yīng)提前做好應(yīng)對?
 
  曹建峰:現(xiàn)在討論有些問題可能還太早,比如人工智能的智力是否會超越人類、脫離人類控制等問題,目前來看還比較遠。
 
  不過,一些比較具體的問題還是需要提前關(guān)注。比如無人駕駛汽車、混合駕駛汽車,很快就會進入我們的生活,其中涉及的法律問題需要提前考慮。
 
  記者:在剛才所提到的一些問題中,還包括財產(chǎn)和安全的威脅、責任、遵守人類的法則、算法歧視等,這些是否也都應(yīng)成為法律關(guān)注點?
 
  曹建峰:對,很多方面都是法律問題,可以用法律解決。事前的監(jiān)管主要是研發(fā)環(huán)節(jié),如果不考慮人類社會的道德規(guī)范和價值規(guī)范,人工智能應(yīng)用投入市場之后,在面對危險和事故時,可能做出一些有違人類期待的決策。
 
  世界各國業(yè)界都很關(guān)心人工智能的研發(fā)環(huán)節(jié),也就是說設(shè)計開發(fā)過程是否應(yīng)該有一些倫理守則,包括遵守人類的道德規(guī)范和價值規(guī)范、確保安全、公眾如何信任研發(fā)的AI系統(tǒng)。
 
  首先,成文的法律是必須要遵守的,成文的法律寫入代碼需要一些方法論。還有面對危機的時候,人工智能應(yīng)該遵守哪些善惡、是非的選擇,這些共識性的道德規(guī)則、社會和一些團體共同的價值觀要寫入代碼。
 
  在研發(fā)過程中,程序員寫出來的程序可能在技術(shù)上沒有瑕疵,但可能存在社會領(lǐng)域的漏洞,一旦應(yīng)用可能產(chǎn)生歧視或安全隱患,這就需要建立倫理委員會的審查機制,從社會規(guī)范和價值的角度審查算法、邏輯是否與人類規(guī)范、價值是一致的,并從專業(yè)角度給予建議。
 
  記者:通過剛才的對話可以看出,公開透明原則非常重要,但這一點該如何解決?
 
  曹建峰:信息透明這個問題有幾種解決方式,一是人工智能開源運動。開源軟件,顧名思義大家都可以共享源代碼,可以對軟件進行審查,可以及時發(fā)現(xiàn)一些問題。另一種方式是,人工智能系統(tǒng)可能不需要向每個人公開,但需要向?qū)徟谋O(jiān)管部門公開源代碼和其他的材料。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行