国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

目前,人類為 AI 制定的道德框架很失敗

   日期:2017-11-08     來源:36氪    作者:dc136     評論:0    
標簽: 人工智能
   前不久,一個名為AI Now的新研究機構發(fā)布了報告呼吁,要進一步提高人工智能對社會影響的關注度。在這個報告發(fā)布之后,Wired記者Scott Rosenberg對該研究機構的創(chuàng)始人之一Kate Crawford進行了訪談。進一步挖掘了該報告背后傳遞的想法。Kate Crawford認為,在人工智能成為一種災難之前,必須要將其安放好。
目前,人類為 AI 制定的道德框架很失敗
  Kate Crawford,AI Now創(chuàng)始人之一。
 
  關于人工智能的道德問題,并不乏報道。但大多數(shù)都是輕量級的——充滿了關于“公私合作”、關于把人放在第一位之類的陳詞濫調。他們不承認人工智能創(chuàng)造出的社會困境有多棘手,也不承認解開這些難題有多么困難。但AI Now研究所(一家位于紐約大學的新研究機構)的新報告并非如此。報告指出,科技行業(yè)正以一種不容置疑的態(tài)勢,競相使用人工智能來重塑社會,這并不會帶來任何可靠和公平的結果。
 
  兩周前發(fā)布的這份報告是由Kate Crawford和Meredith Whittaker完成,他們是AI Now的聯(lián)合創(chuàng)始人。Crawford、Whittaker和他們的合作者在一個密集但易于獲得的35頁報告中列出了研究議程和政策路線圖。他們的結論并不是胡說八道:他們說,到目前為止,我們將人工智能保持在道德標準上的努力是失敗的。
 
  他們寫道:“人工智能的新倫理框架需要超越個人責任,在設計和使用人工智能的過程中,讓強大的工業(yè)、政府和軍事利益承擔責任。”當科技巨頭開發(fā)人工智能產品時,“用戶同意、隱私和透明度往往被忽視,而只專注于聚合數(shù)據(jù),為利潤驅動的商業(yè)模式服務……”與此同時,在警務、教育、醫(yī)療和其他環(huán)境中引入人工智能系統(tǒng),在這些環(huán)境中,算法的失誤可能會毀掉一個人的生活。有什么我們可以做的嗎?本周,Crawford與我們一起討論了為什么人工智能的道德規(guī)范仍然一團糟,以及采取什么樣的實際步驟可能改變這一局面。
 
  Scott Rosenberg(下文略):在新報告的最后,你直截了地方說,“當前為人工智能的道德規(guī)范制定的框架正在失敗。”這聽起來很可怕。
 
  Kate Crawford(下文略):很多人都在談論我們是如何提出這個領域的道德規(guī)范的。但仍然沒有一個能夠落地的。包括IEEE,Asilomar,以及其他一些組織都帶頭做了很多的工作。我們現(xiàn)在看到的是高層次原則之間的鴻溝,和大規(guī)模機器學習系統(tǒng)日常開發(fā)的實際情況。這顯然是非常重要且真實存在的。
 
  我們閱讀了過去兩年出版的所有關于人工智能和算法系統(tǒng)的道德準則。然后我們研究了理想和實際情況之間的區(qū)別?,F(xiàn)在最迫切需要的是,這些道德準則伴隨著非常強大的問責機制。我們可以說,我們希望人工智能系統(tǒng)遵循最高的道德原則,但我們必須確保有某種利害關系。通常,當我們談論道德規(guī)范時,我們會忘記談論權力。人們往往會有最好的意圖。但我們看到的是,人們缺乏對真正的權力不對稱如何影響著不同群體的思考。
 
  這份報告透露出來的基礎信息似乎是,我們可能發(fā)展得太快了,以至于我們沒有花時間來做這件事。
 
  我可能會用不同的方式來表達。時間是一個因素,但優(yōu)先級也是一個因素。如果我們花很多的錢,聘請了許多人去思考和研究這些體系帶來的廣泛的社會和經(jīng)濟影響,那么我們就會有一個更強大的基礎。實際上,誰在創(chuàng)造行業(yè)標準說,好,這是你需要經(jīng)過的基本的預發(fā)布試驗系統(tǒng);這是你應該如何公開展示你怎樣在不同類型的人群中測試你的系統(tǒng);這些是你應該如何準備在你的系統(tǒng)或產品背后建立的信心界限?這些都是我們在藥物測試和其他關鍵任務系統(tǒng)中所使用的東西,即使是在城市的水安全問題上也是如此。
 
  但只有當我們看到它們失敗時,例如在像弗林特、密歇根這樣的地方,我們才意識到我們對這些基礎設施的依賴程度,對所有人來說都是安全的。就人工智能而言,我們還沒有這些系統(tǒng)。我們需要訓練人們去測試人工智能系統(tǒng),并創(chuàng)造出這些安全與公平的機制。這是我們現(xiàn)在可以做的事情。在將這些系統(tǒng)部署到人類身上之前,我們需要在安全與公平的優(yōu)先次序上增加一些緊迫感。
 
  在人工智能成為災難之前,你想要把它安放好。
 
  我認為我們必須這樣做。
 
  目前科技行業(yè)的格局是由幾家大公司主導的。為什么會這樣?
 
  這是核心問題。作為這個領域的研究人員,我會去了解我所知道的工具。實際上,我們可以通過提高研究的水平和嚴謹程度來做大量的工作。我們認為,我們可以做出改變:在這些系統(tǒng)的設計中,誰能獲得一席之地?目前,它是由工程和計算機科學專家推動的,他們設計的系統(tǒng)涉及從刑事司法、醫(yī)療保健到教育等方方面面。但是,就像我們不希望聯(lián)邦法官優(yōu)化神經(jīng)網(wǎng)絡一樣,我們也不應該指望一個工程師能理解刑事司法系統(tǒng)的運行機制。
 
  因此,我們有一個非常強烈的建議,即人工智能行業(yè)應該從計算機科學和工程以外的領域聘請專家,并確保這些人擁有決策權。如果你已經(jīng)設計了一個系統(tǒng),而你已經(jīng)準備好部署它,那么僅僅在最后引入咨詢顧問是遠遠不夠的。如果你不通過刑事司法體系或預見性監(jiān)管的方式來考慮系統(tǒng)偏見的傳播,那么很有可能的是,你正在設計一個基于歷史數(shù)據(jù)的系統(tǒng),將會使這些偏見延續(xù)下去。
 
  解決這一問題不僅僅是技術上的問題。這不是僅僅通過調整數(shù)字來試圖消除系統(tǒng)的不平等和偏見的問題。
 
  這是一種“內部重組”的計劃。但是現(xiàn)在,情況看起來更像是研究人員坐在外面,他們得到了一些數(shù)據(jù),然后他們得出了這些爆炸性的研究結果表明事情有多糟糕。這可能會引起公眾的關注,并贏得媒體的報道,但你是如何從內部改變事物的呢?
 
  當然,當我們思考人工智能行業(yè)的數(shù)據(jù)能力和來源時,這并不難。我們應該把這看作是一個底線安全問題。你會影響一個人獲得工作,擺脫監(jiān)獄,進入大學等方面的能力。至少,我們應該對這些制度如何變得更公平、以及這些決策對人們生活的重要性有深入的了解。
 
  我不認為這是個很大的要求。我認為,這些系統(tǒng)中最負責任的生產商確實希望它們能很好地工作。這是一個開始用強有力的研究和強有力的安全門檻來支持這些良好意愿的問題。這并不超出我們的能力范圍。如果人工智能將以如此快的速度進入我們的核心社會機構,我認為這是絕對必要的。
 
  你是微軟研究院的成員,而Meredith Whittaker則隸屬于谷歌。你難道不能走到合適的會議上說,“我們?yōu)槭裁床蛔鲞@個?”
 
  毫無疑問,我和Meredith在公司都有一席之地,這就是我們會提出這些建議的一部分原因。我們知道這些系統(tǒng)是如何建立起來的,我們可以明白一些積極的步驟,可以讓它們變得更安全、更公平。這也是為什么我們認為在一個獨立的環(huán)境中工作是非常重要的,我們也可以在科技公司之外做研究,幫助這些系統(tǒng)盡可能地感受到它們將要進入的復雜的社會領域。
 
  我們的報告花了六個月的時間,這不僅僅是一群人說,嘿,這是我們的想法和建議。它來自于與頂級研究者的深入討論。這些建議是可以實現(xiàn)的,但并不容易。這也不是像人們扔煙霧彈,說:“一切都很好,我們已經(jīng)處理好了。”我們認為,干預是必要的,而且是緊急的。
 
  在過去的18個月里,我們看到人們對這些圍繞著偏見和機器學習的問題興趣激增,但人們通常只把它當作純粹的技術問題來理解。而不是認為,要理解這一點,我們需要拓寬視野。想想我們是如何理解這些系統(tǒng)偏見的,以及如果我們沒有意識到這一點,這將會一直延續(xù)下去。
 
  五年前,有一種說法認為,數(shù)據(jù)是中立的。但事實證明,情況并非如此。但現(xiàn)在有了新的說法——數(shù)據(jù)可以中立化。這兩個說法都不正確。數(shù)據(jù)將永遠銘記歷史的印記。在這些數(shù)據(jù)集里,記載著人類的歷史。因此,如果我們想要用它來訓練一個系統(tǒng)、提出建議或自主做出決定,我們需要深刻地意識到歷史是如何運作的。這比純粹的技術問題要大得多。
 
  說到歷史,在奧巴馬執(zhí)政的末期,這種研究得到了政府的大量支持。既然特朗普政府似乎不感興趣,你現(xiàn)在對這個項目有多樂觀?
 
  政府絕對應該密切關注這些問題,然而,這不僅僅是美國的問題。目前歐洲正在發(fā)生的事情至關重要——印度和中國也一樣。歐盟嚴格的新數(shù)據(jù)隱私規(guī)定將于明年5月開始實施。我們將繼續(xù)做我們認為會對未來指導政策產生影響的研究。只要我們的決定什么時候、在什么地方被采納,這遠高于我們的付出。但我們現(xiàn)在能做的是盡最大的努力,這樣當人們做出關于系統(tǒng)安全、權利和自由,或者勞動和自動化的決定時,他們就可以基于強有力的實證研究來制定政策。
 
  你還需呼吁在創(chuàng)造人工智能的團隊中有更大的多樣性,而不僅僅是在專業(yè)領域。
 
  它遠比招聘更重要——我們必須談論職場文化,我們必須談談這些關于包容性的問題現(xiàn)在是多么困難。尤其是在James Damore的備忘錄之后,我們需要做多少工作,從來都不是那么明顯。如果你的辦公室都是同質的,他們都有相同的生活經(jīng)歷和教育背景,而且他們都很富有,他們對世界的看法將會反映他們已經(jīng)知道的事情。當我們在制造能夠影響如此眾多不同人群的系統(tǒng)時,這可能是危險的。因此,我們認為,多樣性和包容性至關重要,而且這也不僅僅是一組在合適的時間被拿出來說和調用的詞匯。
 
 
更多>相關資訊
0相關評論

推薦圖文
推薦資訊
點擊排行