'IEEE董晶:可通過反向利用AI技術識別真偽信息'

"

記者 | 彭新

編輯 |

應用程序“ZAO”火遍社交網絡,但其引發的隱私、信息安全問題待解。隨著機器學習技術不斷髮展以及AI的加持,虛假信息正逐漸影響公共生活。

近日,在IEEE(電氣電子工程師學會)的年度媒體交流會上,中科院自動化研究所副研究員、 中國人工智能學會理事董晶博士認為,打破虛假信息面具,“以AI對抗AI”將會是解決方案。

“蓄意與便利的圖像篡改,為互聯網數據的真實性帶來巨大傷害,眼見再不為實。”董晶表示,以換臉APP“ZAO”為例,雖然開發方並未透露其技術細節, 沒有明確表示其“換臉” 技術源自開源的“Deepfakes”,但有著強烈的相似性。

據董晶介紹,“Deepfakes”使用了一種名為生成式對抗網絡(GAN) 框架,利用神經網絡學習所用數據源的統計特徵,其中一個網絡模塊負責生成偽圖,另一個負責鑑別生成圖片的質量,通過對抗博弈的方式不斷進化,達到以假亂真的水平。

相對於傳統“換臉”技術,生成式對抗網絡以機器人視覺(CV)為基礎,技術門檻降低,算法上也有公開的源代碼可循,數據庫、訓練模型均可方便獲得,其訓練結果與機器學習時間長短、訓練模型有關。同時,模型依賴數據自動學習、自動生成,無需人工干預。體現在“Deepfakes”上,其流程包括對數據的提取、訓練和轉換。

近兩年,AI最顯著的應用是在圖像領域,如人臉識別、醫療影像識別等,原因是深度學習在圖像領域首先取得了成功,識別的準確率甚至超過了人眼,使其完全達到了可以產業化的水平。

不過,若採用機器深度學習的造假技術日益遭到濫用,預計將造成重大後果。“由於這些技術都利用了生物信息,而生物信息本身具有不可撤銷性,因此它們一旦被洩露或被濫用,都會給用戶帶來嚴峻且永久的後果,甚至會對司法調查、保險鑑定等這些嚴肅、敏感的地帶造成嚴重衝擊。” 董晶說。

以取證為例,董晶總結,目前在圖像、視頻領域的證據造假呈現兩大趨勢:從內容編輯轉向內容生成,從圖像篡改轉向視頻篡改。為信息安全帶來巨大挑戰。

不過,技術推動了新造假方式的產生,同時也提供了打假的新方法。在學界,其中一種驗證方式是要求錄製的內容必須提供元數據,元數據能顯示錄製的內容是何時何地以及何種方式被收集的。瞭解了這些信息,如果發現視頻、圖片的某個細節與實際情況不符,就可以據此判斷虛假信息加以剔除。

董晶通過反向利用AI技術,從偽造圖片的蛛絲馬跡中辨別真偽信息: “我們首先需要確定人類視覺系統和計算機視覺系統在識別特定信息的認知特性、機理與計算方法,進而從人類視覺系統與計算機視覺系統的認知差異性出發,通過借鑑兩類視覺系統之間的認知以及計算的差異性和關聯性來鑑別圖像真偽。”

目前,董晶研究通過利用AI從視頻中遠程讀取心率、呼吸頻率等生理特徵, 進而辨別視頻中的人像是真人還是假人。在AI的幫助下,原本肉眼無法看到的心跳、脈搏、呼吸率,也能以數據的形式具象化,突破人眼視覺的盲區, 從而達到深度鑑別的目的。

“要實現有效利用人類與計算機二者視覺系統認知的差異性及關聯性,關鍵難點就是偽造特徵的獲取與表達。” 董晶說。

董晶強調,是否能將偽造特徵在視覺內容中有效地檢測與識別,往往決定了真偽鑑定技術的可靠性。然而,偽造特徵作為一種“微弱信號”,很多時候不易被察覺。同時,由於偽造特徵長期處於不斷變化當中,沒有統一的模型,這些特性都給微弱信號的捕捉與識別工作增加了難度。

"