国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

機(jī)器人的崛起:忘了邪惡的AI吧 真正的危險其實(shí)更加隱蔽

   日期:2016-09-12     來源:人工智能學(xué)家    作者:zy     評論:0    
標(biāo)簽:
   導(dǎo)讀: AI帶來的真正危險——至少在近期內(nèi)——是更為隱蔽的。相比機(jī)器人獲得自主意識而主動反抗人類的命令并崛起,更有可能發(fā)生的情況是,它們在執(zhí)行人類的命令時無意地傷害了人類或者帶來麻煩。正因?yàn)檎J(rèn)識到了這一點(diǎn),加州大學(xué)伯克利分校本周成立了一個研究中心,專門研究如何建立對人類友好的AI。
 
  “相比機(jī)器人主動反抗人類的命令,更有可能發(fā)生的情況是,它們在執(zhí)行人類的命令時無意地傷害了人類或者帶來麻煩。”
 
  我們看到人工智能的崛起時,很容易進(jìn)入反烏托邦主義的情節(jié)之中,認(rèn)為有意識的機(jī)器會起來反抗創(chuàng)造了它們的人類??苹米髌分谐霈F(xiàn)的反面角色,如《終結(jié)者》里的 “天網(wǎng)”和《2001:太空漫游》中的哈爾,要對人類的這種情節(jié)負(fù)責(zé)。
 
  但是,AI帶來的真正危險——至少在近期內(nèi)——是更為隱蔽的。相比機(jī)器人獲得自主意識而主動反抗人類的命令并崛起,更有可能發(fā)生的情況是,它們在執(zhí)行人類的命令時無意地傷害了人類或者帶來麻煩。正因?yàn)檎J(rèn)識到了這一點(diǎn),加州大學(xué)伯克利分校本周成立了一個研究中心,專門研究如何建立對人類友好的AI。
 
  本周新成立人類友好型AI研究中心,由開放慈善項(xiàng)目贊助550萬美元作為啟動資金,由計算機(jī)科學(xué)教授、人工智能先驅(qū)Stuart Russell領(lǐng)導(dǎo)。他迅速澄清了研究方向與科幻小說所描述的威脅之間“無理的、聳人聽聞的”關(guān)聯(lián)。
 
  “危險不會來自于機(jī)器突然發(fā)展出的惡意的自主意識,”他說,“重要的是你要知道,我們不是要阻止這樣的事,因?yàn)槲覀儗τ谝庾R本身是什么還一無所知。”
 
  Russell在人工智能領(lǐng)域聲名遠(yuǎn)揚(yáng),他在2015年發(fā)表了一份公開信,號召研究者超越增強(qiáng)AI能力的研究目標(biāo),并考慮如何讓AI在社會上發(fā)揮有益的影響。這份公開信已經(jīng)有超過8000位科學(xué)家和企業(yè)家在上面簽名,其中包括物理學(xué)家史蒂芬·霍金、企業(yè)家埃隆·馬斯克和蘋果公司合伙人史蒂夫·沃茲尼克。
 
  “(AI研究)可能帶來的好處是巨大的,因?yàn)槿祟愇拿靼l(fā)展的終極產(chǎn)品是人類的智能;我們無法預(yù)測我們通過AI提供的工具來放大我們的智慧能夠達(dá)到什么樣的成就,但起碼消除貧困和疾病是不難想象的。”公開信中這樣寫道。
 
  “由于AI具有極大的潛力,因此重要的是研究如何從它身上獲得幫助,同時還要避免可能出現(xiàn)的隱患。”
 
  正是這樣的想法,促成了這個新成立的研究中心。
 
  到現(xiàn)在為止,AI主要被應(yīng)用于非常有限的環(huán)境中,如下國際象棋和圍棋、識別圖片中的物體,在這些應(yīng)用環(huán)境中AI能夠造成的破壞和傷害是非常有限的。如果AI開始在現(xiàn)實(shí)世界中做出關(guān)于我們切身利益的決定,這種風(fēng)險就會高得多。
 
  “一旦你把AI放到真實(shí)世界中,放到無人駕駛汽車、數(shù)字助理等應(yīng)用中……當(dāng)AI開始幫你購買對你利益有影響的物品、幫你取消約會時,它們的價值觀立場必須保證和人類一致。”Russell說。
 
  他舉自動駕駛汽車為例,說明他們研究中心試圖解決的問題。假設(shè)一個人在設(shè)計自動駕駛汽車系統(tǒng)時,設(shè)定了不允許闖紅燈的規(guī)則,但這個智能系統(tǒng)可能會黑進(jìn)交通燈的控制系統(tǒng),讓所有交通能變綠。這樣的話,這個無人駕駛汽車的智能系統(tǒng)雖然按照規(guī)則行事,但顯然不是人類希望的結(jié)果。類似地,為一個套利基金設(shè)計的人工智能,被設(shè)置為讓其投資組合的價值最大化,可能會被短期消費(fèi)型股票刺激,而長期持有國防類股票,然后引起戰(zhàn)爭——如 WernerHerzog最新的紀(jì)錄片中埃隆·馬斯克表達(dá)的那樣。
 

 
  “甚至當(dāng)你認(rèn)為已經(jīng)通過防御系統(tǒng)限制了你的AI系統(tǒng)能做的事時,它還可能會在其中找到漏洞,就像人們總會找到法律的漏洞進(jìn)行偷稅漏稅一樣。你會希望AI系統(tǒng)不要主動尋找規(guī)則的漏洞。”Russell說。
 
  “問題不在于意識,而在于權(quán)限。我們賦予機(jī)器很大的權(quán)限,希望它來完成某個目標(biāo),但它在完成目標(biāo)的過程中可能會引起災(zāi)難。”
 
  為了應(yīng)對這些問題,Russell和研究中心的同事打算讓AI系統(tǒng)觀察人類的行為,并嘗試?yán)斫馊祟惖恼嬲康氖鞘裁?,然后根?jù)人類的目的來行事,并且從失誤中吸取經(jīng)驗(yàn)。摒棄了為機(jī)器提供一長串需要遵守的規(guī)則的做法,他們只告訴機(jī)器主要的目標(biāo)就是做人類想讓他們做的事。
 
  這聽起來很簡單,但這是過去的50年來工程師從未嘗試過的建立系統(tǒng)的方式。
 
  不過如果AI系統(tǒng)被設(shè)計為用這種方式學(xué)習(xí)人類的目標(biāo),就能夠保證它們一直處于人類的控制之下,即使它們的能力已經(jīng)超過人類。
 
  除了通過攝像頭等感應(yīng)器直接觀察人類,機(jī)器人還能通過閱讀歷史文獻(xiàn)、法律檔案、小說、報紙,甚至觀看視頻電影等方式來了解人類。它們能夠從中建立起對人類價值觀的理解。
 
  這對機(jī)器來說不是容易的事。“人類是非理性的、不連續(xù)的、意志不堅(jiān)定的、計算能力有限的、混雜的并且有時候是十分邪惡的。”Russell說。
 
  “一些人是素食主義者,另一些人卻愛吃多汁的牛排。我們的表現(xiàn)從來不能接近完美,這個事實(shí)是我們研究中的一個難點(diǎn)。”
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點(diǎn)擊排行