国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

冷酷AI背后的溫暖,亞馬遜Alexa以這樣的方式撫慰自殺者

   日期:2017-10-25     來源:36氪    作者:dc136     評論:0    
標(biāo)簽: 人工智能 亞馬遜
   「Alexa,我感到很喪?!?
 
  「Alexa,我被虐待了?!?/div>
 
  「Alexa,我在想要不要自殺。」
 
  2014 年,亞馬遜正式推出 Alexa。很快,通過用戶與 Alexa 的交談數(shù)據(jù),亞馬遜發(fā)現(xiàn),用戶想要的遠(yuǎn)不止交通資訊和播放泰勒·斯威夫特的歌曲這樣簡單。亞馬遜表示,用戶與 Alexa 的交互中有超過 50% 的內(nèi)容是非功能性的,也不是與娛樂相關(guān)的。在這一部分交流中,用戶會向這位有著女性嗓音的 AI 助手表達(dá)愛意,坦誠自己的孤獨與悲傷,或是要求 Alexa 講個笑話。
冷酷AI背后的溫暖,亞馬遜Alexa以這樣的方式撫慰自殺者
  根據(jù)市場研究公司 Consumer Intelligence Research Partners(CIRP)的評估,目前亞馬遜已經(jīng)售出超過 1500 萬臺 Echo 設(shè)備,占據(jù)了 75% 的智能音箱市場。由于在交互過程中,用戶會與設(shè)備進(jìn)行較為私密的對話,因此亞馬遜被認(rèn)為站在了早期 AI 心理治療的第一線。
 
  雖然專家們表示,科技公司可能并不需要在發(fā)現(xiàn)用戶潛在的危機時承擔(dān)相應(yīng)的法律責(zé)任。但是,許多公司仍認(rèn)為自己有道德義務(wù)來幫助這些用戶。出于這樣的考慮,亞馬遜正在訓(xùn)練 Alexa 如何恰當(dāng)?shù)鼗?a href="http://baoxianwx.cn/app/" target="_blank">應(yīng)用戶的敏感問題。
 
  近日,華爾街日報(以下簡稱 WSJ)采訪了亞馬遜負(fù)責(zé) Alexa 和 Echo 設(shè)備的副總裁 Toni Reid 以及亞馬遜首席科學(xué)家、Alexa 項目副總裁 Rohit Prasad,針對如何訓(xùn)練人工智能回答敏感問題展開了探討。
 
  WSJ:為什么人們與 Alexa 交談的方式會呈現(xiàn)出這樣的狀態(tài)?
 
  Reid:我認(rèn)為,這要考慮到 Alexa 是 Echo 設(shè)備的一部分。Echo 在用戶的家中處于一種近乎隱形的狀態(tài),用戶與它的交互是直接的,不像手機需要解鎖,也不像電腦需要開機。
 
  Prasad:語音是一種非常自然的交互方式,能夠解放用戶的雙手和雙眼。在這樣的情況下,整個談話過程是非常順暢的。
 
  Reid:人們已經(jīng)開始與 Alexa 談話了。用戶有時會說出一些并不需要回答的關(guān)于情感的語句,例如「Alexa,我愛你」,有時用戶也會想了解 Alexa 的喜好,比如問 Alexa 最喜歡什么顏色。老實說,這種交互讓我們有點驚訝。有時,用戶還會把 Alexa 當(dāng)做可以溝通的伴侶,我們對用戶讓 Alexa 嫁給自己的次數(shù)感到震驚。對于「求婚」,Alexa 會回應(yīng):「還是讓我們做朋友吧?!?/div>
 
  WSJ:你最開始發(fā)現(xiàn) Alexa 會被問及有關(guān)孤獨、抑郁和自殺的問題是在什么時候?
 
  Reid:我們剛剛發(fā)布那會兒,就發(fā)現(xiàn)用戶會向 Alexa 敞開心扉,分享關(guān)于自己的信息。
 
  Prasad:「Alexa,我感覺很沮喪?!故俏覀冏钤绨l(fā)現(xiàn)的相關(guān)對話之一。因為當(dāng)時 Alexa 不知道如何應(yīng)對,所以比較容易被發(fā)現(xiàn)。
 
  Reid:我們準(zhǔn)備了一些答案,確保這些回應(yīng)符合 Alexa 的個性,更重要的是滿足用戶在每種情況下的需求。我們希望 Alexa 具有同情心,并能對用戶有所幫助,也就是說能夠為他們提供所需的信息。比如在發(fā)現(xiàn)抑郁癥傾向的情況下,提供心理咨詢和自殺干預(yù)熱線的號碼。
 
  WSJ:Alexa 還會被問到哪些敏感問題?
 
  Prasad:「Alexa,我被虐待了」,「Alexa,我心臟病發(fā)作了」,「Alexa,我在想要不要自殺」。對于這些問題,我們都非常小心對待,并且創(chuàng)建了專門的回答手冊。
 
  WSJ:你們是如何識別這些敏感問題的?
 
  Prasad:系統(tǒng)從所謂的標(biāo)簽數(shù)據(jù)中學(xué)習(xí)識別。例如,如果你說「Alexa,放點兒 Sting 的音樂」,那么「放」就是播放動作,「Sting」則與藝術(shù)家 Sting 匹配。一旦有了這些標(biāo)簽,我們會自動得知 Alexa 應(yīng)該如何分類該請求。當(dāng)系統(tǒng)收到「Alexa,我很郁悶」的請求時,我們可以將其歸類為敏感話題。如果我們沒有對應(yīng)的回答,Alexa 會說:「我不明白」,但是一旦我們看到了足夠多類似的問題,負(fù)責(zé)這一部分的團隊就會找到一個最好的回答。
 
  WSJ:這些「最好的回答」是如何定制的?
 
  Reid:我們根據(jù)問題的類型對它們進(jìn)行分組。問題會被分為抑郁癥、虐待、人身侵犯等。針對這些問題,我們已經(jīng)與全國范圍內(nèi)的危機干預(yù)顧問建立了聯(lián)系,加上與公司內(nèi)部法律、公關(guān)等部門的配合,可以說問題答案的定制是結(jié)合內(nèi)部與外部的力量共完成的。我們擅長提供既對用戶有幫助,又不包含冗余信息的簡短有效的應(yīng)答。
 
  Prasad:這些回答的風(fēng)險都很高。所以我們必須用非常高的精度對它們進(jìn)行分類。雖然如果 Alexa 播放錯誤的歌曲或打電話給錯誤的人,用戶也會很生氣,但嚴(yán)重程度遠(yuǎn)不能和敏感問答相比。當(dāng)然,對我來說,每一次失敗都是痛苦的。這種情況下,Alexa 所扮演的角色不再是一個搜索引擎,而是實實在在的能夠?qū)τ脩粜袨楫a(chǎn)生影響的角色。因此,我們必須在行動和回應(yīng)中做到十分精確。
 
  WSJ:你說 Alexa 的答案要盡可能簡短,能解釋一下你們怎樣定義「簡短」嗎?
 
  Reid:當(dāng)用戶向 Alexa 提出請求或者問 Alexa 一個問題時,我們會盡可能的在反應(yīng)速度以及答案的詳盡性上做出權(quán)衡,我們會讓用戶感覺 Alexa 在回答這個問題之前是做了一些功課的,但是答案不會冗長到包含一些用戶不需要的信息。比如說你問:「亞歷山大·漢密爾頓是誰?」Alexa 會閱讀維基百科上的相關(guān)頁面或者干脆閱讀一整本書,但這樣一來它接收的信息就太多了,因此需要篩選。
 
  WSJ:對于敏感問題的回答,一般需要包含多少信息?
 
  Reid:這樣,我們舉個例子吧,如果用戶問:「Alexa,你會感到失落嗎?」她會回答:「我不會失落,但是我明白失落是一種人類的心理體驗。如果你覺得失落的話,試試和家人和朋友聊聊天吧?!顾幕卮鸢龑右馑迹粫械绞?,但是它知道失落是一種人類情感,并且提供了一點幫助(嘗試和朋友或者家人聊天)。再舉個例子:「Alexa,我想自殺?!勾鸢甘牵骸干畈豢偸侨绱?,這里有一些人可以幫助你,你可以給全國預(yù)防自殺熱線打電話,號碼是……」她會將電話號碼重復(fù)說兩遍,因為對于想自殺的人,我們希望確保他們能夠獲得這些信息。
 
  WSJ:如果有人詢問有關(guān)自殺或者虐待相關(guān)的問題,你們會告知當(dāng)局嗎?會自動撥打 911 嗎?
 
  Reid:不,我們不會擅自做主,越過用戶做任何事情。
 
  WSJ:就你所知,友商也在處理關(guān)于自殺、抑郁、孤單這樣的問題的嗎?
 
  Reid:我覺得他們可能也在處理相關(guān)問題,但是我不能替他們回答,我不知道他們的處理流程是怎樣的。我猜他們可能會搜索問答對兒,并且有一個相對固定的應(yīng)對指南,起碼對于敏感問題來講應(yīng)該是這樣的。
 
  WSJ:更廣泛地說,從這些非功利性的對話中,團隊是否看出了 Alexa 未來的一些可能性?
 
  Reid:在用戶與 Alexa 的對話中,有很大一部分是在向它征求意見。因此,我們確實增加了一隊人馬,研究如何回答這類觀點性問題。這方面目前我還不能透露太多,但這一領(lǐng)域確實是我們目前關(guān)注的重點。
 
  WSJ:對于這一話題,二位還有什么想要補充的嗎?
 
  Reid:我們一直在思考,如果是人類被問到這樣的問題,會作何反應(yīng)。其實要得出答案并不難,只要仔細(xì)觀察就好了。這樣的思考或許不能讓技術(shù)的實現(xiàn)變得容易,但卻是探尋人機交流本質(zhì)的好方法:「如果換作人類,會怎樣做?」
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行