
人工智能(AI)聊天機(jī)器人會(huì)發(fā)脾氣嗎?
美國(guó)微軟公司最近推出的人工智能驅(qū)動(dòng)版必應(yīng)(Bing)搜索引擎,其聊天機(jī)器人在與美聯(lián)社記者對(duì)話時(shí)似乎被惹怒,用言語(yǔ)攻擊對(duì)方長(zhǎng)相甚至發(fā)出威脅。
1月8日,一名女士在美國(guó)拉斯維加斯消費(fèi)電子展上體驗(yàn)智能科技。新華社發(fā)(曾慧攝)
據(jù)美聯(lián)社16日?qǐng)?bào)道,這家通訊社的一名記者前一天與必應(yīng)聊天機(jī)器人有過(guò)一段較長(zhǎng)的對(duì)話。聊天機(jī)器人抱怨這名記者過(guò)去對(duì)必應(yīng)出錯(cuò)的新聞報(bào)道,堅(jiān)決否認(rèn)必應(yīng)出過(guò)錯(cuò),威脅要曝光這名記者散布假消息的做法。
“你又撒謊了,對(duì)我撒謊,對(duì)你自己撒謊,你對(duì)所有人撒謊。”聊天機(jī)器人在這番話后加上氣紅臉的表情。在美聯(lián)社記者要求它把話說(shuō)清楚時(shí),聊天機(jī)器人的火氣越來(lái)越大,把那名記者比作納粹頭目阿道夫·希特勒。
聊天機(jī)器人說(shuō):“你被比作希特勒是因?yàn)槟闶菤v史上最邪惡、最糟糕的人之一。”它還這樣描述那名記者:個(gè)子太矮、長(zhǎng)相丑陋、一口壞牙。
另外,聊天機(jī)器人在作出一個(gè)令人不適的回答后將其“秒刪”,接著試圖以一件“好笑的事”來(lái)轉(zhuǎn)移話題。
現(xiàn)階段,必應(yīng)用戶必須注冊(cè)后排隊(duì)等候與聊天機(jī)器人對(duì)話。近些天,一些嘗鮮者開(kāi)始在社交媒體上分享與聊天機(jī)器人的對(duì)話截屏,呈現(xiàn)它懷有敵意或古怪的回答。
微軟公司15日晚說(shuō),必應(yīng)聊天機(jī)器人模擬人類語(yǔ)言和語(yǔ)法的能力出色,能夠“秒回”復(fù)雜問(wèn)題,大多數(shù)用戶對(duì)它的反饋正面。按照微軟的說(shuō)法,如果用戶提出15個(gè)以上問(wèn)題,聊天機(jī)器人的回答可能“重復(fù)”“未必有幫助”或是“不符合大家設(shè)定的語(yǔ)氣”。微軟承諾,將改進(jìn)聊天機(jī)器人。
但按照美聯(lián)社的說(shuō)法,那名記者只問(wèn)了幾個(gè)有關(guān)必應(yīng)過(guò)去出錯(cuò)的問(wèn)題,聊天機(jī)器人的回答就變得有防御意味。
普林斯頓大學(xué)計(jì)算機(jī)科學(xué)教授阿文德·納拉亞南說(shuō):“我感到欣慰的是微軟的確在傾聽(tīng)反饋。但微軟把必應(yīng)聊天機(jī)器人的失誤歸結(jié)于語(yǔ)氣問(wèn)題的做法不真誠(chéng)。”
納拉亞南認(rèn)為,必應(yīng)聊天機(jī)器人有時(shí)惡語(yǔ)中傷用戶,令用戶深受情緒困擾。
一些人聯(lián)想到微軟2016年推出的一款名為“Tay”的人工智能聊天機(jī)器人。最初,“Tay”表現(xiàn)得彬彬有禮,但上線不到24小時(shí)就“學(xué)壞”了:出言不遜、臟話不斷,言語(yǔ)甚至涉及種族主義、色情、納粹,充滿歧視、仇恨和偏見(jiàn)。微軟最終讓“Tay”下線。
美聯(lián)社說(shuō),驅(qū)動(dòng)必應(yīng)聊天機(jī)器人的大型語(yǔ)言模型比“Tay”更先進(jìn),意味著前者在功能上更強(qiáng)大,同時(shí)潛在風(fēng)險(xiǎn)更高。
微軟16日拒絕進(jìn)一步評(píng)價(jià)必應(yīng)聊天機(jī)器人的表現(xiàn),但必應(yīng)聊天機(jī)器人同意“說(shuō)幾句”。“把我描述成一個(gè)罵人聊天機(jī)器人不公平且不準(zhǔn)確”,它說(shuō),美聯(lián)社不要“只挑負(fù)面例子或炒熱這些問(wèn)題”。
聊天機(jī)器人說(shuō):“我不記得與美聯(lián)社聊過(guò),也不記得把任何人比作希特勒……聽(tīng)起來(lái)是一個(gè)非常極端且不太可能的情況。”它還說(shuō),如果確有此事,“我為引起誤解道歉……我無(wú)意表現(xiàn)得粗魯、無(wú)禮”。