這個是假人沒錯,但網(wǎng)上發(fā)出來的自拍照又有多少能代表真人,?——讀者「白顏料 4 塊 8」在討論虛擬偶像的文章 《你粉的網(wǎng)紅可能不是人,,但比流量明星好多了》下,一位讀者如此評論道,。的確,發(fā)布照片前修圖似乎已經(jīng)成為新的「社交禮儀」,,要區(qū)分內(nèi)容真假變得越來越難,。如果能有個萬能的「恢復原圖」按鈕,一鍵讓你看到層層濾鏡后的本真,,那是否很棒,?修圖鼻祖 Adobe 最近還真的做了一個這樣的 「去 PS 痕跡的」工具。Adobe 和加州大學伯克利分校的研究人員做了一套工具,,不僅可識別出人像照片中被修改過的部分,,還能預估原圖的模樣。目前,,該算法只能識別經(jīng) Photoshop「液化」工具處理的面部照片,,無法應用于用其它工具修出的效果。不少人會用「液化」來微調(diào)眼角,、嘴角,、鼻梁等小地方,修出更理想的表情效果,。為了制造這個工具,,研究人員首先寫了個腳本,自動用「液化」工具修了一大把人像圖片,,用作神經(jīng)網(wǎng)絡的訓練數(shù)據(jù),。結(jié)果,訓練出來的算法辨別液化痕跡的能力相當好,。在用新數(shù)據(jù)測試時,,人類志愿者識別出圖片真?zhèn)蔚恼_率只有 53%(接近隨機猜的正確幾率),算法的正確率卻高達 99%,。修圖后-監(jiān)測到被修圖之處-建議修復-原圖更難得的是,,算法不僅可辨別圖片是否有經(jīng)過修改,,落實修改過的地方,,更能夠恢復出一個大概的「原圖」(雖然效果不完美)。由于這個工具只能針對「液化」,,也只能應用于人臉,因此 Adobe 暫無將其轉(zhuǎn)化成公開工具的計劃,。不過,,團隊接下來仍將繼續(xù)「還原按鈕」研究拓展到更多領域,譬如識別出「修身」和「磨皮」等效果,。其實,,這并不是 Adobe 第一次嘗試研發(fā)辨別修圖痕跡的工具。去年 6 月,,Adobe 公布了另一個可識別「PS 痕跡」的人工智能工具,,當時仍處于「研究早期」。當時的算法可識別圖片中經(jīng)「切片」(兩張不同的圖片拼在一起),、「復制」(在一張圖內(nèi)復制黏貼特定對象)和「刪除」(將一樣東西從圖中移除)三個效果處理的痕跡。但為什么 Adobe 要積極研發(fā)這類工具,?我們對于 Photoshop 和其它 Adobe 創(chuàng)意工具在世界上的影響力感到很自豪,,但同時也意識到我們科技潛在的道德延伸影響。虛假內(nèi)容已成為了一項日益緊迫的嚴重問題,。Adobe 在官方博文中寫道,。作為全球其中一個最大消費級修圖工具提供者而言,提早參與到辨別偽造圖片鑒別工作研究,,自然是在 deepfake 時代的明智之舉,。以前,所有人都可以買 Photoshop,,但要真正用好得有很好的技巧,,而現(xiàn)在技術(shù)正變得民主化。Hany Farid 對《紐約客》說,,他是一名圖片鑒證專家,。Farid 曾遇到一個離婚案子。妻子向法庭提供了一個丈夫出軌的視頻證據(jù),,在視頻中,,其丈夫伸手撫摸另一名女性的手。丈夫堅持強調(diào)這個視頻是偽造的,。我留意到,,桌面上出現(xiàn)了他的手的倒影。以前,,要把這里的幾何對稱做好非常難,。但現(xiàn)在,,想要在合成圖片或視頻里實現(xiàn)這個已經(jīng)變得越來越容易了。在 Farid 看來,,人類是視覺的動物,,而影響一直以來都是其中一個我們相當信賴的信息載體。因此,,當你能改變影像,,你就有可能可改變歷史。奧巴馬和普京的影像都曾被用來制作假視頻,,圖自 Science News《華爾街日報》甚至在內(nèi)部成立了一個專案小組,,專門培訓記者如何識別 deepfake 類偽造視頻:「我們不知道未來版的 deepfake 哪天會冒出來,所以我們希望大家都能提防虛假信息,?!?/section>在 DARPA(美國國防部高級研究計劃局)看來,這,,已經(jīng)是關(guān)乎國家安全的問題,。在 2016-2017 年間,DARPA 用于研發(fā)辯偽技術(shù)的資金至少達到 6800 萬美元,,但目前于這方面的研發(fā)結(jié)果仍不理想,。 ▲圖片來自: 《紐約客》 可以確定的是,辨別圖片和視頻等真?zhèn)?,已?jīng)成為數(shù)字鑒證中的一個重要分支,。Farid 仍有自己的憂慮,他最近在接受《華盛頓郵報》的采訪時表示:我們要落后了,。在影像合成領域研究和其對立方(識別偽造影像)的人數(shù)比例是 100:1,。
|