国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

很遺憾,AI還不能審查出兒童性侵錄像:沙漠也被當(dāng)成小黃片

   日期:2017-12-20     來源:量子位    作者:dc136     評論:0    
標(biāo)簽: 人工智能
   倫敦大都市警方希望兩到三年內(nèi),能有AI算法可以識別錄像中孩子是否被性侵,以及審查錄像是否為兒童色情作品。不過目前來說,這套系統(tǒng)還不能判斷裸露的身體和光禿禿的沙漠之間的區(qū)別。
 
很遺憾,AI還不能審查出兒童性侵錄像:沙漠也被當(dāng)成小黃片
  警方現(xiàn)在已經(jīng)開始使用圖像識別算法,從電子監(jiān)控錄像中,甄別出犯罪行為,或與犯罪相關(guān)的物品,比如毒品、強(qiáng)制和大量成捆的現(xiàn)金。但對于裸體來說,現(xiàn)有的AI算法的判斷結(jié)果還不夠可靠。
 
  “有些時(shí)候,給系統(tǒng)看沙漠組圖,系統(tǒng)會認(rèn)為是小黃片。”數(shù)字法醫(yī)部部門主任Mark Stokes對電訊報(bào)說。“由于某種原因,很多人會用沙漠做屏保,然后我們的系統(tǒng)就以為這些人在看片。因?yàn)樯衬推つw的顏色太相近了。”
 
  從手機(jī)或電腦上排查兒童色情作品工作量很大,做內(nèi)容審查的人只能人工地看一個又一個的錄像,工作內(nèi)容特別乏味,精神上非常容易崩潰。
 
很遺憾,AI還不能審查出兒童性侵錄像:沙漠也被當(dāng)成小黃片
  所以警方為了減輕人類的工作負(fù)擔(dān),想讓沒有情緒困擾的機(jī)器去做這方面工作。不過現(xiàn)階段系統(tǒng)暫時(shí)靠不住,依靠系統(tǒng)標(biāo)注和儲存這部分敏感信息會讓民眾感到很不安心。
 
  Stoke告訴電訊報(bào),現(xiàn)在警方配合硅谷的工程師一起訓(xùn)練AI識別這些性侵兒童的圖像資料。不過我們發(fā)現(xiàn),即使是世界上最頂尖的科學(xué)家,訓(xùn)練所得的算法不僅不能保證每次都不出錯,還會推薦會引發(fā)危險(xiǎn)的錯誤信息,比如教唆種族歧視,兩性方面的內(nèi)容。
 
  前一段時(shí)間有出過一款軟件Nude,可以自動標(biāo)記你相冊里面的不可描述的照片,并放在一個加密的文件夾里,從iCloud上或者相冊里出看不到的,這樣可以保護(hù)手機(jī)用戶的隱私。不過經(jīng)過Gizmodo測試,這個App的算法還是會分不太清楚哪些照片才是不可描述的。
 
很遺憾,AI還不能審查出兒童性侵錄像:沙漠也被當(dāng)成小黃片
  所以當(dāng)人類去看系統(tǒng)處理的結(jié)果時(shí),覺得不盡如人意。
 
  比如說去年,臉書上有一張獲得了普利策獎的照片,一個裸奔的小女孩從越南戰(zhàn)場上逃離汽油襲擊。
 
很遺憾,AI還不能審查出兒童性侵錄像:沙漠也被當(dāng)成小黃片
  臉書的檢測算法就自動把所有臉書上傳播的相關(guān)照片都刪掉了。后來官方恢復(fù)了這些照片,并承認(rèn)了這些并不屬于兒童色情作品。
 
  計(jì)算機(jī)始終無法真正理解人類對裸體的定義。警方的軟件也沒有辦法區(qū)分胴體和裸露的山丘。就像臉書的檢測算法無法理解照片的背景內(nèi)容。
 
很遺憾,AI還不能審查出兒童性侵錄像:沙漠也被當(dāng)成小黃片
  △ 嗯,分不出來也不能怪算法
 
  即使區(qū)分出來了,這些錄像也很難找到安全系數(shù)足夠高的數(shù)據(jù)中心存放。根據(jù)Stokes的說法,比起他們本地的數(shù)據(jù)中心來說,還是會考慮把標(biāo)記好的錄像放在亞馬遜、谷歌、微軟提供的云數(shù)據(jù)中心上。否則,審查不通過的內(nèi)容一旦泄露,后果非常嚴(yán)重。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點(diǎn)擊排行