国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

同事是個機器人 怎么樣?

   日期:2015-06-17     來源:哈佛《商業(yè)評論》    作者:OCY     評論:0    
標簽:
   在2013年的一次機器人大會上,麻省理工學院的研究員凱特·達令(KateDarling)做了一個小測試,她邀請與會者和體形與吉娃娃相當?shù)碾娮涌铸埻媾家黄鹜嫠?。這些玩偶名為帕雷歐(Pleo),但與它們互動的人可以為自己的機器恐龍另外取名。這些人很快發(fā)現(xiàn)帕雷歐可以和他們溝通:小恐龍們通過姿勢和面部表情清楚地表示它們喜歡被輕撫,不喜歡被拎著尾巴拽起來。一小時后,達令讓大家休息一下;等游戲再開始時,達令拿出小刀和斧頭,讓參與者折磨、肢解他們的小恐龍。
 
  達令預(yù)計自己會遭到一些抵制,所以她早有準備,但當所有參與者一致拒絕傷害自己的機器恐龍時,她感到頗為驚訝。有些參與者為防止帕雷歐被人傷害,甚至用身體擋住它們。“我們回應(yīng)這些仿生機器恐龍發(fā)出的社交信息,”她在2013年的演講中總結(jié)道,“即使我們知道它們不是真的生命。”
 
  這一洞見將引領(lǐng)下一波自動化風潮。埃里克·布林約爾松(Erik Brynjol fsson)和安德魯·麥卡菲(Andrew McAfee)在合著的《第二個機器時代》(The Second Machine Age)一書中提到,從在生產(chǎn)車間迅速學會新技能的自主機器人到能評估求職者或推薦企業(yè)戰(zhàn)略的軟件,這些“會思考的機器”正在進入工作場所,而且為企業(yè)和社會創(chuàng)造巨大價值。然而,盡管技術(shù)瓶頸正被一一攻破,但社會制約因素還在。你如何勸說你的團隊信任人工智能,或讓他們將機器人視為自己團隊中的一員,甚至領(lǐng)導,并接納它們?如果你換掉那個機器人,員工的士氣會低落嗎?但是當這些機器從工具轉(zhuǎn)變成我們的隊友時,有一點越來越明確:接納機器人意味著我們不能僅僅把它們當成一種新的技術(shù)應(yīng)用。
 
  信任算法還是判斷?
 
  與會思考的機器協(xié)同工作時,我們遇到的第一個挑戰(zhàn)就是承認機器知道的比我們多。請參考2014年的一項研究:沃頓商學院的研究者進行了一系列實驗;受試者既可以運用某個算法,也可以根據(jù)自己的判斷做預(yù)測,而預(yù)測較準的受試者會得到獎金。多數(shù)人傾向憑直覺預(yù)測,而非運用某個算法。
 
  這一現(xiàn)象被稱作“回避算法”(Algorithm Avoidance),在多個研究中都有記錄。人們在診斷疾病或預(yù)測政治結(jié)果時都選擇摒棄算法,而是相信自己或他人的判斷,但結(jié)果往往是這種人類憑直覺做出的決定更糟糕。因此,管理者應(yīng)得到啟示:幫助人們信任會思考的機器很有必要。
 
  但僅僅告訴人們算法有多精準并不能說服他們信任算法。人們會因算法出錯而對其抱有偏見,卻對犯錯的人類則更包容。研究者伯克利·戴特沃斯特(Berkeley Dietvorst)認為,這是因為我們相信人類的判斷力會提升,卻錯誤地以為算法無法演進。我們在做比數(shù)字計算更復(fù)雜或感性的工作時,回避算法的傾向更明顯。哈佛商學院的麥克·諾頓(Michael Norton)總結(jié)說:“思考近乎于做數(shù)學題。機器人可以做數(shù)學題。但它們不可以感受事物,因為那樣它們就太像人類了。”
 
  諾頓認為,只要把任務(wù)描述成分析類的工作,就有助于消除人們對算法的疑慮。在另一實驗中,他和凱洛格商學院的亞當·韋茲(Adam Waytz)一起發(fā)現(xiàn),如果受試者得知數(shù)學老師教學生各種各樣的公式和運算法則時,要用到很多分析技能,他們會比較容易接受機器人可以當數(shù)學教師的觀點。但如果受試者被告知這份工作需要“與年輕人相處的能力”,他們就不太會贊同讓機器人任數(shù)學老師一職。
 
  戴特沃斯特和沃頓的同事另辟蹊徑。如果人們更信任自己的判斷,而非算法,那為何不將前者融入后者呢?于是他們在一次實驗中允許受試者稍稍調(diào)整算法的結(jié)果。他們要求受試者根據(jù)多個數(shù)據(jù)點預(yù)測某高中生的一次標準化數(shù)學測驗成績,但沒有強迫受試者在自己的判斷和算法中選其一,所以受試者可以將算法得出的成績調(diào)高或調(diào)低幾個百分點,之后將結(jié)果作為最終預(yù)測成績上交。研究者發(fā)現(xiàn),得到選擇權(quán)的受試者更傾向信任算法。戴特沃斯特認為,這是因為他們不再感到自己正在放棄控制預(yù)測的權(quán)力。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行