長(zhǎng)按識(shí)別二維碼,,收看2018《麻省理工科技評(píng)論》區(qū)塊鏈技術(shù)峰會(huì) 使用深度學(xué)習(xí)將一個(gè)人的臉真實(shí)地疊加到另一個(gè)人的身體上,這個(gè)點(diǎn)子聽(tīng)起來(lái)還算有趣,。不幸的是,,它也有邪惡的一面,比如說(shuō),,由各色名人主演的“深度偽造”的色情片,。另外,虛假新聞以及尖端技術(shù)可以輕易地被用于欺騙也引起了人們的廣泛擔(dān)憂,。
然而,,來(lái)自德國(guó)慕尼黑技術(shù)大學(xué)的研究人員想要解決這一問(wèn)題 —— 他們開發(fā)了一種名為 “XceptionNet” 的算法,它能快速發(fā)現(xiàn)發(fā)布在網(wǎng)上的偽造視頻,。具體而言,,它可以用來(lái)識(shí)別互聯(lián)網(wǎng)上的誤導(dǎo)性視頻,以便在必要時(shí)將其刪除,,或者,,至少向視頻中涉及的人員透露他們被“偽造”了。 圖丨偽造了蓋爾·加朵的視頻
“理想情況下,,我們的目標(biāo)是將人工智能算法集成到瀏覽器或社交媒體插件中,,本質(zhì)上,該算法將在后臺(tái)運(yùn)行,如果它識(shí)別出被操縱的圖像或視頻,,它將給用戶發(fā)布警告信息,。”該校視覺(jué)計(jì)算小組的教授 Matthias Niessner 透露。
研究小組首先訓(xùn)練了一個(gè)由 1000 多個(gè)視頻和 50 萬(wàn)張圖片組成的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),。通過(guò)向計(jì)算機(jī)顯示修改過(guò)的和未修改過(guò)的圖像,,即使在人類很難識(shí)別的情況下,機(jī)器學(xué)習(xí)工具也能夠找出兩者之間的區(qū)別,。
Niessner 說(shuō):“對(duì)于壓縮過(guò)的視頻,,我們的用戶研究參與者無(wú)法區(qū)分假數(shù)據(jù)和真實(shí)數(shù)據(jù)”。但人工智能能夠很容易地區(qū)分這兩者,。 在 50% 的情況下人類可以正確區(qū)分的,,但這其實(shí)是隨機(jī)猜測(cè),而卷積神經(jīng)網(wǎng)絡(luò)可以在 87 %到 98 %的情況下正確區(qū)分壓縮視頻,。這個(gè)表現(xiàn)尤其令人驚嘆,,因?yàn)閴嚎s圖像和視頻比未壓縮的圖片更難區(qū)分。
與其他欺騙性的圖像檢測(cè)算法相比,,XceptionNet 遠(yuǎn)遠(yuǎn)走在了前面,。這其實(shí)也證明了人工智能的力量。
-End- 編輯:LXQ 校審:黃珊 參考: https://www./cool-tech/face-swap-recognition-algorithm/amp/ |
|
來(lái)自: 長(zhǎng)沙7喜 > 《智能技術(shù)》