科技前沿:以假亂真的AI換臉技術,真的毫無破綻嗎?
來源:科普中國
發布時間:2021-06-01
瀏覽次數:1901
科技前沿:以假亂真的AI換臉技術,真的毫無破綻嗎?

出品:科普中國

製作:之遙科普

監製:中國科學院計算機網絡信息中心

從(cong) 在圍棋界戰無不勝的“阿爾法狗”,到鋪天蓋地的“人臉識別”,機器學習(xi) 給人們(men) 的生活帶來了翻天覆地的改變。但隨著AI技術的不斷發展,以“智能換臉”為(wei) 主要展現結果的Deepfake技術,卻給大家的生活帶來了更多困擾。

2018年,加蓬總統Ali Bongo因中風在公共視野中消失了數月。政府為(wei) 了安撫民心,在新年時公開了一段總統錄製的新年致辭。這段新年致辭使用了Deepfake技術進行生成,但這個(ge) 視頻非但沒有起到安撫民心的作用,反而讓軍(jun) 方的資深大佬發現異常,最終導致了兵變。在這個(ge) 事件中,“AI換臉”技術成為(wei) 幹擾政治選舉(ju) ,降低政府公信力的一大推手。

在很多人的印象中,Deepfake技術除了能讓有需求的人看到AI換臉的色情小視頻外,似乎都走在社會(hui) 的陰影裏。

以假亂真的AI換臉技術,真的毫無破綻嗎?

圖1 deepfake圖片(圖片來源:https://zkres1.myzaker.com/)

對普通人而言,Deepfake技術可謂是以假亂(luan) 真,毫無破綻。那麵對網上流傳(chuan) 的真假不一的視頻,我們(men) 真的無法分辨嗎?

不用擔心,正所謂“魔高一尺,道高一丈”。在專(zhuan) 業(ye) 人士手中,通過細致的計算機分析,可以辨別出照片、視頻的真假,讓Deepfake技術處理過的內(nei) 容“現出原形”。

Deepfake技術的原理就是學習學習再學習

要了解Deepfake技術如何被識破,首先就要了解什麽(me) 是Deepfake技術。Deepfake是使用深度機器學習(xi) (deep machine learning)和假照片(fake photo)組合而成的一個(ge) 詞,可以理解為(wei) 機器進行深度學習(xi) 而製造的假照片、假視頻等虛假產(chan) 物。其中最常見的應用就是“AI換臉”,也就是將一個(ge) 人的臉部移植到另一個(ge) 人臉上。

在進行換臉時,機器首先需要識別出人臉的位置。人臉的識別與(yu) 校準在自動駕駛等領域也有著廣泛的應用,目前的發展已經非常成熟,識別率在98%以上。

換臉用的素材,與(yu) 待換臉的視頻中的人臉,他們(men) 的麵部朝向、麵部表情往往不同。因此,識別出人臉位置之後,機器要進一步對人臉進行校準。通過尋找麵部具有鮮明特征的區域,機器可以確定每一幀中人臉的朝向、表情,進而將待換臉視頻中需要插入的人臉與(yu) 素材匹配起來。

匹配完成之後,換臉技術也不是簡單地就把換臉素材貼在了待換臉的人臉上。簡單地貼圖,可以輕鬆地被肉眼識別,難以達到“以假亂(luan) 真”的效果。Deepfake技術進一步地學習(xi) 原理可以用人的行為(wei) 來類比。

如果你盯A臉看上100小時,接著去看B臉的照片;接下來讓你憑記憶畫出B的臉,那不管你的技術水平多高,最終都會(hui) 畫的跟A臉很像。所以,當我們(men) 訓練機器,讓機器學習(xi) 用A臉的元素畫出B臉時,就可以將A臉逼真地“畫到”B臉上。

以假亂真的AI換臉技術,真的毫無破綻嗎?

圖2 看B畫A(圖片來源:原創)

逼真的Deepfake技術也有小破綻

機器學習(xi) 出的換臉視頻、照片那麽(me) 逼真,那Deepfake技術的破綻何在呢?

中國有句古話叫做“若想人不知,除非己莫為(wei) ”。換臉技術的破綻,就出在人臉素材的細節上。Deepfake技術使用A臉的元素來畫出B臉,這一過程是對A臉元素的精巧拚接。而這一拚接的過程,勢必不能完美地符合真實情況。

紐約州布法羅-布法羅大學的計算機科學家,就從(cong) “眼睛”——這一人臉上最精致的元素入手,實現了對Deepfake技術的甄別。

這一技術的核心原理基於(yu) 眼球的反射。當外界環境的光照射到眼睛上時,就會(hui) 產(chan) 生反射,在角膜上生成圖像。在真正的照片中,兩(liang) 隻眼睛看同一物體(ti) ,會(hui) 具有非常相似的反射模式。但在Deepfake合成的照片中,兩(liang) 隻眼睛的反射內(nei) 容往往並不協調。很可能出現左眼“看見”一隻小狗,右眼“看見”一輛卡車的情況。檢測機器首先提取兩(liang) 隻眼睛反射的內(nei) 容,然後檢測左右眼的反射內(nei) 容、反射光強度等參數是否協調統一,就可以識別出照片、視頻是否經過了合成。這一方法已被證明具有94%的實驗有效性。

除此之外,常見的檢測方法還包括:

(1)根據視頻的2D圖像估計三維姿勢。使用Deepfake技術合成的視頻,三維姿勢可能會(hui) 突然發生較大的突變。比如視頻中的人,如果在上一幀胸口還是鼓起正在吸氣的狀態,下一幀就迅速變成胸口下沉吐氣的狀態,那就說明這個(ge) 視頻鐵定是合成出來的。

(2)捕捉Deepfake技術在處理視頻時對圖像進行扭曲而在環境中產(chan) 生的“偽(wei) 影”。

(3)捕捉左右虹膜異色、光照與(yu) 陰影不協調、幾何建模錯誤等瑕疵。

(4)針對名人的行為(wei) 習(xi) 慣,檢測視頻中是否有對應的特有行為(wei) 特點(例如摸鼻子、歪嘴等)。

以假亂真的AI換臉技術,真的毫無破綻嗎?

圖3 deepfake視頻中的虹膜異色(圖片來源:知乎)

Deepfake檢測中的“貓鼠遊戲”

在不斷發展的過程中,Deepfake的檢測技術仍然會(hui) 麵對不少挑戰。

第一點是有的技術本身需要一定的信息量。例如前述的眼球反射檢測技術,如果視頻裏沒有同時存在兩(liang) 隻眼睛,就無法應用。針對虹膜顏色的檢測,在視頻畫質較低時使用起來也較為(wei) 困難。

第二點是,檢測技術和換臉技術是一個(ge) “不斷發展,彼此競爭(zheng) ”的過程。例如前述的捕捉光照與(yu) 陰影不協調的問題,換臉者可以在換臉時使用更多的資源進行光照模擬、渲染,從(cong) 而保證陰影的生成質量。從(cong) 這個(ge) 角度講,檢測和換臉技術就像一場“貓鼠遊戲”,二者不斷迭代,你追我趕。今天檢測技術提出了用眼球的反射光進行檢測,明天換臉技術就可以把眼球的反射光模擬也放在學習(xi) 內(nei) 容之中。檢測技術必須不斷更新,才能跟上Deepfake技術發展的步伐。

第三點是,檢測技術距自動化還有一定距離。現有的檢測技術耗費的時間都比較長,難以做到在用戶上傳(chuan) 視頻的同時,短時間內(nei) 自動完成檢測和審核。距實用的自動Deepfake檢測軟件,還有一段路要走。

第四點是,目前針對Deepfake技術還沒有完善的法規。各個(ge) 視頻平台對於(yu) 什麽(me) 樣的Deepfake視頻是惡意的、違規的,有著自己的界定規則。同時,目前也沒有關(guan) 於(yu) Deepfake技術的相關(guan) 法律。這就給針對Deepfake視頻的檢測、管控工作帶來了很多困難。

雖然Deepfake檢測技術仍有諸多挑戰,但是我們(men) 要相信,隨著AI技術的不斷發展,相關(guan) 法規會(hui) 逐漸完善,針對Deepfake的檢測技術也會(hui) 變得越來越準確、高效。終有一天,虛假的視頻會(hui) 在檢測技術的“火眼金睛”下統統現出原形。鑽技術的漏洞,濫用Deepfake技術,遲早會(hui) 受到懲罰。

參考文獻

  1. ( Hu S , Li Y , Lyu S . Exposing GAN-generated Faces Using Inconsistent Corneal Specular Highlights[J]. 2020.)

關注【深圳科普】微信公眾號,在對話框:
回複【最新活動】,了解近期科普活動
回複【科普行】,了解最新深圳科普行活動
回複【研學營】,了解最新科普研學營
回複【科普課堂】,了解最新科普課堂
回複【科普書籍】,了解最新科普書籍
回複【團體定製】,了解最新團體定製活動
回複【科普基地】,了解深圳科普基地詳情
回複【觀鳥星空体育官网入口网站】,學習觀鳥相關科普星空体育官网入口网站
回複【博物學院】,了解更多博物學院活動詳情

 
聽說,打賞我的人最後都找到了真愛。
做科普,我們是認真的!
掃描關注深i科普公眾號
加入科普活動群
  • 參加最新科普活動
  • 認識科普小朋友
  • 成為科學小記者