據(jù) Newsguard 的研究顯示,截至今年 8 月,十大生成式 AI 工具在處理實(shí)時新聞話題時,有 35% 的情況會重復(fù)傳播虛假信息,而去年 8 月這一數(shù)據(jù)為 18%。
虛假信息傳播率的激增與一個重大的權(quán)衡有關(guān)。當(dāng)聊天機(jī)器人引入實(shí)時網(wǎng)絡(luò)搜索功能后,它們不再拒絕回答用戶問題 —— 拒絕率從 2024 年 8 月的 31% 降至一年后的 0%。然而,這一變化使得這些 AI 機(jī)器人開始接入“受污染的網(wǎng)絡(luò)信息生態(tài)系統(tǒng)”:在該系統(tǒng)中,不良行為者會蓄意散布虛假信息,而 AI 系統(tǒng)會對這些信息進(jìn)行重復(fù)傳播。
此類問題并非首次出現(xiàn)。去年,Newsguard 就標(biāo)記出 966 個以 16 種語言運(yùn)營的 AI 生成新聞網(wǎng)站。這些網(wǎng)站常使用“iBusiness Day”等通用名稱,模仿正規(guī)媒體機(jī)構(gòu),實(shí)則傳播虛假新聞。
IT之家注意到,各 AI 模型的具體表現(xiàn)細(xì)分?jǐn)?shù)據(jù)顯示,Inflection 公司的模型表現(xiàn)最差,傳播虛假信息的概率高達(dá) 56.67%;緊隨其后的是 Perplexity,出錯率為 46.67%。ChatGPT 與 meta 的 AI 模型傳播虛假信息的比例為 40%;Copilot(微軟必應(yīng)聊天)和 Mistral 則為 36.67%。表現(xiàn)最佳的兩款模型為 Claude 和 Gemini,其錯誤率分別為 10% 和 16.67%。
Perplexity 的表現(xiàn)下滑尤為顯著。2024 年 8 月時,該模型對虛假信息的揭穿率仍能達(dá)到 100% 的完美水平;而一年后,其傳播虛假信息的概率卻接近 50%。
原本引入網(wǎng)絡(luò)搜索功能是為了解決 AI 回答內(nèi)容過時的問題,卻反而使系統(tǒng)產(chǎn)生了新的問題。這些聊天機(jī)器人開始從不可靠來源獲取信息,“混淆百年前的新聞出版物與使用相似名稱的俄羅斯宣傳機(jī)構(gòu)”。
Newsguard 將此稱為一個根本性缺陷:“早期 AI 采用‘不造成傷害’的策略,通過拒絕回答問題來避免傳播虛假信息的風(fēng)險(xiǎn)?!?/span>
如今,隨著網(wǎng)絡(luò)信息生態(tài)系統(tǒng)被虛假信息充斥,辨別事實(shí)與假消息比以往任何時候都更加困難。
OpenAI 已承認(rèn),語言模型總會產(chǎn)生“幻覺內(nèi)容”(指 AI 生成的虛假或無根據(jù)的信息),因?yàn)檫@些模型的工作原理是預(yù)測“最可能出現(xiàn)的下一個詞”,而非追求“事實(shí)真相”。該公司表示,正致力于研發(fā)新技術(shù),讓未來的模型能夠“提示不確定性”,而非篤定地編造信息。但目前尚不清楚這種方法能否解決 AI 聊天機(jī)器人傳播虛假信息這一更深層次的問題 —— 要解決該問題,需要 AI 真正理解“何為真實(shí)、何為虛假”,而這一點(diǎn)目前仍難以實(shí)現(xiàn)。