8月3日消息,據國外媒體報道,本周TechWeb編譯的一篇《Facebook關閉“失控”AI系統(tǒng) 因其發(fā)展出人類無法理解的語言》一文中,外媒報道稱因為聊天機器人開始用人類無法理解的語言說話,Facebook關閉了“失控”的人工智能系統(tǒng)。這番報道隨即引來人工智能威脅論者的一陣恐慌。

不過,隨著更多的調查浮出水面,事實是媒體過于恐慌了,Facebook并沒有關閉這個系統(tǒng),而是重新設定了正確的激勵。
基本上,人工智能代理確實開發(fā)了他們自己的語言(一種速記),然而,他們總是致力于解決分配給他們的人類問題。
Snopes與來自喬治亞理工學院的訪問研究科學家Dhruv Batra進行了交談,他說,他們在編程上犯了一個錯誤。
他還補充說:“像人類一樣說話的AI代理沒有被提供任何獎勵,所以他們開始產生分歧,并最終將清晰的詞匯重新排列成看似荒謬的句子,代理將脫離可以理解的語言,并為自己發(fā)明密語。”

?。ǘ嗉彝饷綀蟮繤acbeook關閉這個自創(chuàng)語言的聊天機器人)

(隨后,最新調查報道稱,AI聊天機器人是無辜的,并沒有被關閉)
AI聊天機器人創(chuàng)造了自己的速記,就像人類一樣,所以Facebook關閉了程序的說法是錯誤的,他們只是改變了實驗的參數,這和關閉東西不一樣。
該研究的首席作者Michael Lewis告訴Snopes:“沒有恐慌,項目也沒有關閉,我們的目標是建立可以與人交流的機器人。在一些實驗中,我們發(fā)現他們沒有像人們那樣使用英語單詞,所以我們停止了這些實驗,并使用了一些額外的技術來讓機器人按照我們的意愿工作。分析獎勵功能和改變實驗的參數不等同于‘拔掉’或‘關閉AI’。如果是這樣的話,每個AI研究員每次在機器上停止工作時都會‘關閉’AI。”
在Facebook的實驗室里發(fā)生的這件事,更接近于一個線索,說明人工智能并不完美,而這件事也不是機器主宰世界的初步跡象。