'ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了'

"

上週末,一款名為ZAO的換臉軟件在朋友圈迅速走紅,藉助一款App,用戶便可無門檻的將自己的臉替換到各個電影場景中去。但在新鮮過後,也引發了用戶對於自己隱私安全的進一步擔憂,也有用戶表示,上傳頭像後無法進行刪除,不知道未來會被用來幹什麼。

"

上週末,一款名為ZAO的換臉軟件在朋友圈迅速走紅,藉助一款App,用戶便可無門檻的將自己的臉替換到各個電影場景中去。但在新鮮過後,也引發了用戶對於自己隱私安全的進一步擔憂,也有用戶表示,上傳頭像後無法進行刪除,不知道未來會被用來幹什麼。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

在這個刷臉支付的時代裡,臉部信息成為了繼指紋之後的又一大支付方式,ZAO的出現,讓用戶隱私和安全遭到了前所未有的威脅。支付寶對此也進行了快速回應,並稱刷臉支付採用的是3D人臉識別技術,在識別時會通過軟硬件結合方式來判斷採集到的人臉是否由照片、視頻或軟件模擬生成。

"

上週末,一款名為ZAO的換臉軟件在朋友圈迅速走紅,藉助一款App,用戶便可無門檻的將自己的臉替換到各個電影場景中去。但在新鮮過後,也引發了用戶對於自己隱私安全的進一步擔憂,也有用戶表示,上傳頭像後無法進行刪除,不知道未來會被用來幹什麼。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

在這個刷臉支付的時代裡,臉部信息成為了繼指紋之後的又一大支付方式,ZAO的出現,讓用戶隱私和安全遭到了前所未有的威脅。支付寶對此也進行了快速回應,並稱刷臉支付採用的是3D人臉識別技術,在識別時會通過軟硬件結合方式來判斷採集到的人臉是否由照片、視頻或軟件模擬生成。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

雖然支付寶得以倖免,但要知道,市面上依舊存在著採用2D人臉識別技術的企業,也就意味著,這些用戶信息很可能會在其他地方被用來身份冒用,更會被視頻黑產所盯上。

DeepFake類再掀風波

當然,相似事件此前也曾發生過。2017年時,一位名叫Deepfakes的用戶在Reddit社區發佈了一個名人換臉後的不雅視頻,在這個視頻中,名人的臉被一幀一幀地插入到現有的影片中,效果真到令人瞠目結舌。而之所以這些名人會首當其衝受到Deepfake的危害,主要原因便是在網絡上充斥著他們大量的圖像信息,這些公共圖像被用來訓練Deepfake算法,最終成為了孕育這些視頻的“溫床”。

"

上週末,一款名為ZAO的換臉軟件在朋友圈迅速走紅,藉助一款App,用戶便可無門檻的將自己的臉替換到各個電影場景中去。但在新鮮過後,也引發了用戶對於自己隱私安全的進一步擔憂,也有用戶表示,上傳頭像後無法進行刪除,不知道未來會被用來幹什麼。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

在這個刷臉支付的時代裡,臉部信息成為了繼指紋之後的又一大支付方式,ZAO的出現,讓用戶隱私和安全遭到了前所未有的威脅。支付寶對此也進行了快速回應,並稱刷臉支付採用的是3D人臉識別技術,在識別時會通過軟硬件結合方式來判斷採集到的人臉是否由照片、視頻或軟件模擬生成。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

雖然支付寶得以倖免,但要知道,市面上依舊存在著採用2D人臉識別技術的企業,也就意味著,這些用戶信息很可能會在其他地方被用來身份冒用,更會被視頻黑產所盯上。

DeepFake類再掀風波

當然,相似事件此前也曾發生過。2017年時,一位名叫Deepfakes的用戶在Reddit社區發佈了一個名人換臉後的不雅視頻,在這個視頻中,名人的臉被一幀一幀地插入到現有的影片中,效果真到令人瞠目結舌。而之所以這些名人會首當其衝受到Deepfake的危害,主要原因便是在網絡上充斥著他們大量的圖像信息,這些公共圖像被用來訓練Deepfake算法,最終成為了孕育這些視頻的“溫床”。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

但這一風波顯然沒讓Deepfakes“消停”下來,不久前的DeepNude便是最好的代表,只要上傳一張女性圖片,就可輕鬆生成逼真的不雅照片。

"

上週末,一款名為ZAO的換臉軟件在朋友圈迅速走紅,藉助一款App,用戶便可無門檻的將自己的臉替換到各個電影場景中去。但在新鮮過後,也引發了用戶對於自己隱私安全的進一步擔憂,也有用戶表示,上傳頭像後無法進行刪除,不知道未來會被用來幹什麼。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

在這個刷臉支付的時代裡,臉部信息成為了繼指紋之後的又一大支付方式,ZAO的出現,讓用戶隱私和安全遭到了前所未有的威脅。支付寶對此也進行了快速回應,並稱刷臉支付採用的是3D人臉識別技術,在識別時會通過軟硬件結合方式來判斷採集到的人臉是否由照片、視頻或軟件模擬生成。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

雖然支付寶得以倖免,但要知道,市面上依舊存在著採用2D人臉識別技術的企業,也就意味著,這些用戶信息很可能會在其他地方被用來身份冒用,更會被視頻黑產所盯上。

DeepFake類再掀風波

當然,相似事件此前也曾發生過。2017年時,一位名叫Deepfakes的用戶在Reddit社區發佈了一個名人換臉後的不雅視頻,在這個視頻中,名人的臉被一幀一幀地插入到現有的影片中,效果真到令人瞠目結舌。而之所以這些名人會首當其衝受到Deepfake的危害,主要原因便是在網絡上充斥著他們大量的圖像信息,這些公共圖像被用來訓練Deepfake算法,最終成為了孕育這些視頻的“溫床”。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

但這一風波顯然沒讓Deepfakes“消停”下來,不久前的DeepNude便是最好的代表,只要上傳一張女性圖片,就可輕鬆生成逼真的不雅照片。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

同是DeepFake類的應用,相比於早期的不雅視頻,顯然DeepNude對於大眾的危害更高。此前,若想使用DeepFake去進行視頻造假,需極度專業的知識作為支撐,一般用戶是望塵莫及的,但DeepNude卻將技術無門檻的帶給了大眾。美國反色情報復組織 Badass 的負責人也曾評論稱:現今人人都可能成為色情報復的受害者,這樣的技術根本不應該向公眾開放。

最終,這個應用終於被永久下架,DeepNude官方也表示不會再發布其他版本,也不會授權任何人使用。

"

上週末,一款名為ZAO的換臉軟件在朋友圈迅速走紅,藉助一款App,用戶便可無門檻的將自己的臉替換到各個電影場景中去。但在新鮮過後,也引發了用戶對於自己隱私安全的進一步擔憂,也有用戶表示,上傳頭像後無法進行刪除,不知道未來會被用來幹什麼。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

在這個刷臉支付的時代裡,臉部信息成為了繼指紋之後的又一大支付方式,ZAO的出現,讓用戶隱私和安全遭到了前所未有的威脅。支付寶對此也進行了快速回應,並稱刷臉支付採用的是3D人臉識別技術,在識別時會通過軟硬件結合方式來判斷採集到的人臉是否由照片、視頻或軟件模擬生成。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

雖然支付寶得以倖免,但要知道,市面上依舊存在著採用2D人臉識別技術的企業,也就意味著,這些用戶信息很可能會在其他地方被用來身份冒用,更會被視頻黑產所盯上。

DeepFake類再掀風波

當然,相似事件此前也曾發生過。2017年時,一位名叫Deepfakes的用戶在Reddit社區發佈了一個名人換臉後的不雅視頻,在這個視頻中,名人的臉被一幀一幀地插入到現有的影片中,效果真到令人瞠目結舌。而之所以這些名人會首當其衝受到Deepfake的危害,主要原因便是在網絡上充斥著他們大量的圖像信息,這些公共圖像被用來訓練Deepfake算法,最終成為了孕育這些視頻的“溫床”。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

但這一風波顯然沒讓Deepfakes“消停”下來,不久前的DeepNude便是最好的代表,只要上傳一張女性圖片,就可輕鬆生成逼真的不雅照片。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

同是DeepFake類的應用,相比於早期的不雅視頻,顯然DeepNude對於大眾的危害更高。此前,若想使用DeepFake去進行視頻造假,需極度專業的知識作為支撐,一般用戶是望塵莫及的,但DeepNude卻將技術無門檻的帶給了大眾。美國反色情報復組織 Badass 的負責人也曾評論稱:現今人人都可能成為色情報復的受害者,這樣的技術根本不應該向公眾開放。

最終,這個應用終於被永久下架,DeepNude官方也表示不會再發布其他版本,也不會授權任何人使用。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

與DeepNude相比,ZAO的出發點雖然不同,但相似之處是均使用了DeepFake等GAN(生成對抗網絡)工具,並將這些極度專業的技術無門檻的提供給了使用者。

那麼問題來了,究竟什麼是DeepFake?這個技術是否有存在的價值?我們還要先從其技術原理開始談起。

DeepFake背後靠的是什麼技術?

在GitHub上,DeepFake的描述是“一種利用深度學習技術識別和交換圖片、視頻中人物臉部圖像的工具”。只要你素材足夠充足、硬件(GPU)跟得上,Deepfake便可建立匹配模型。

Deepfake視頻是通過使用兩個競爭AI系統創建的,一個稱為生成模型,另一個稱為判別模型。生成模型負責創建圖像,判別模型負責確定剪輯視頻是真的還是假的,當判別模型準確將視頻片段識別為假時,它就為生成模型提供了創建下一個片段時不應該生成什麼的依據,直至判別模型認為生成為真時,以假亂真視頻的第一步就賣出了。而生成模型和判別模型組合起來,便是業界知名的生成對抗網絡,也就是GAN。

"

上週末,一款名為ZAO的換臉軟件在朋友圈迅速走紅,藉助一款App,用戶便可無門檻的將自己的臉替換到各個電影場景中去。但在新鮮過後,也引發了用戶對於自己隱私安全的進一步擔憂,也有用戶表示,上傳頭像後無法進行刪除,不知道未來會被用來幹什麼。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

在這個刷臉支付的時代裡,臉部信息成為了繼指紋之後的又一大支付方式,ZAO的出現,讓用戶隱私和安全遭到了前所未有的威脅。支付寶對此也進行了快速回應,並稱刷臉支付採用的是3D人臉識別技術,在識別時會通過軟硬件結合方式來判斷採集到的人臉是否由照片、視頻或軟件模擬生成。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

雖然支付寶得以倖免,但要知道,市面上依舊存在著採用2D人臉識別技術的企業,也就意味著,這些用戶信息很可能會在其他地方被用來身份冒用,更會被視頻黑產所盯上。

DeepFake類再掀風波

當然,相似事件此前也曾發生過。2017年時,一位名叫Deepfakes的用戶在Reddit社區發佈了一個名人換臉後的不雅視頻,在這個視頻中,名人的臉被一幀一幀地插入到現有的影片中,效果真到令人瞠目結舌。而之所以這些名人會首當其衝受到Deepfake的危害,主要原因便是在網絡上充斥著他們大量的圖像信息,這些公共圖像被用來訓練Deepfake算法,最終成為了孕育這些視頻的“溫床”。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

但這一風波顯然沒讓Deepfakes“消停”下來,不久前的DeepNude便是最好的代表,只要上傳一張女性圖片,就可輕鬆生成逼真的不雅照片。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

同是DeepFake類的應用,相比於早期的不雅視頻,顯然DeepNude對於大眾的危害更高。此前,若想使用DeepFake去進行視頻造假,需極度專業的知識作為支撐,一般用戶是望塵莫及的,但DeepNude卻將技術無門檻的帶給了大眾。美國反色情報復組織 Badass 的負責人也曾評論稱:現今人人都可能成為色情報復的受害者,這樣的技術根本不應該向公眾開放。

最終,這個應用終於被永久下架,DeepNude官方也表示不會再發布其他版本,也不會授權任何人使用。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

與DeepNude相比,ZAO的出發點雖然不同,但相似之處是均使用了DeepFake等GAN(生成對抗網絡)工具,並將這些極度專業的技術無門檻的提供給了使用者。

那麼問題來了,究竟什麼是DeepFake?這個技術是否有存在的價值?我們還要先從其技術原理開始談起。

DeepFake背後靠的是什麼技術?

在GitHub上,DeepFake的描述是“一種利用深度學習技術識別和交換圖片、視頻中人物臉部圖像的工具”。只要你素材足夠充足、硬件(GPU)跟得上,Deepfake便可建立匹配模型。

Deepfake視頻是通過使用兩個競爭AI系統創建的,一個稱為生成模型,另一個稱為判別模型。生成模型負責創建圖像,判別模型負責確定剪輯視頻是真的還是假的,當判別模型準確將視頻片段識別為假時,它就為生成模型提供了創建下一個片段時不應該生成什麼的依據,直至判別模型認為生成為真時,以假亂真視頻的第一步就賣出了。而生成模型和判別模型組合起來,便是業界知名的生成對抗網絡,也就是GAN。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

最早Deepfake正是藉助生成對抗網絡,通過上萬張照片,來替換視頻每秒中存在的30個畫面,最終通過GPU訓練完成了“移花接木”。也就是說,其原理大致分為三步,選擇需要換臉的對象、進行覆蓋的對象、以及AI自動生成替換。

但隨著GAN的不斷演進,當下僅憑一張照片便可自動將面部表情生成動畫,比如三星在5月時展示的一項全新技術,AI只需基於一張肖像照片或一張畫像,就能讓蒙娜麗莎、愛因斯坦等名人開口說話,且效果栩栩如生。

這也是ZAO背後技術的由來,雖然在前端將技術使用門檻將至了最低,但在背後,卻有著大量前期工程。再以三星的技術為例,當時研究人員從視頻網站上收集了7000張名人照片,並將其標誌性面部特徵進行提取用來進行機器學習,之後AI便能將這些學到的內容應用於單張照片上。

"

上週末,一款名為ZAO的換臉軟件在朋友圈迅速走紅,藉助一款App,用戶便可無門檻的將自己的臉替換到各個電影場景中去。但在新鮮過後,也引發了用戶對於自己隱私安全的進一步擔憂,也有用戶表示,上傳頭像後無法進行刪除,不知道未來會被用來幹什麼。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

在這個刷臉支付的時代裡,臉部信息成為了繼指紋之後的又一大支付方式,ZAO的出現,讓用戶隱私和安全遭到了前所未有的威脅。支付寶對此也進行了快速回應,並稱刷臉支付採用的是3D人臉識別技術,在識別時會通過軟硬件結合方式來判斷採集到的人臉是否由照片、視頻或軟件模擬生成。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

雖然支付寶得以倖免,但要知道,市面上依舊存在著採用2D人臉識別技術的企業,也就意味著,這些用戶信息很可能會在其他地方被用來身份冒用,更會被視頻黑產所盯上。

DeepFake類再掀風波

當然,相似事件此前也曾發生過。2017年時,一位名叫Deepfakes的用戶在Reddit社區發佈了一個名人換臉後的不雅視頻,在這個視頻中,名人的臉被一幀一幀地插入到現有的影片中,效果真到令人瞠目結舌。而之所以這些名人會首當其衝受到Deepfake的危害,主要原因便是在網絡上充斥著他們大量的圖像信息,這些公共圖像被用來訓練Deepfake算法,最終成為了孕育這些視頻的“溫床”。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

但這一風波顯然沒讓Deepfakes“消停”下來,不久前的DeepNude便是最好的代表,只要上傳一張女性圖片,就可輕鬆生成逼真的不雅照片。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

同是DeepFake類的應用,相比於早期的不雅視頻,顯然DeepNude對於大眾的危害更高。此前,若想使用DeepFake去進行視頻造假,需極度專業的知識作為支撐,一般用戶是望塵莫及的,但DeepNude卻將技術無門檻的帶給了大眾。美國反色情報復組織 Badass 的負責人也曾評論稱:現今人人都可能成為色情報復的受害者,這樣的技術根本不應該向公眾開放。

最終,這個應用終於被永久下架,DeepNude官方也表示不會再發布其他版本,也不會授權任何人使用。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

與DeepNude相比,ZAO的出發點雖然不同,但相似之處是均使用了DeepFake等GAN(生成對抗網絡)工具,並將這些極度專業的技術無門檻的提供給了使用者。

那麼問題來了,究竟什麼是DeepFake?這個技術是否有存在的價值?我們還要先從其技術原理開始談起。

DeepFake背後靠的是什麼技術?

在GitHub上,DeepFake的描述是“一種利用深度學習技術識別和交換圖片、視頻中人物臉部圖像的工具”。只要你素材足夠充足、硬件(GPU)跟得上,Deepfake便可建立匹配模型。

Deepfake視頻是通過使用兩個競爭AI系統創建的,一個稱為生成模型,另一個稱為判別模型。生成模型負責創建圖像,判別模型負責確定剪輯視頻是真的還是假的,當判別模型準確將視頻片段識別為假時,它就為生成模型提供了創建下一個片段時不應該生成什麼的依據,直至判別模型認為生成為真時,以假亂真視頻的第一步就賣出了。而生成模型和判別模型組合起來,便是業界知名的生成對抗網絡,也就是GAN。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

最早Deepfake正是藉助生成對抗網絡,通過上萬張照片,來替換視頻每秒中存在的30個畫面,最終通過GPU訓練完成了“移花接木”。也就是說,其原理大致分為三步,選擇需要換臉的對象、進行覆蓋的對象、以及AI自動生成替換。

但隨著GAN的不斷演進,當下僅憑一張照片便可自動將面部表情生成動畫,比如三星在5月時展示的一項全新技術,AI只需基於一張肖像照片或一張畫像,就能讓蒙娜麗莎、愛因斯坦等名人開口說話,且效果栩栩如生。

這也是ZAO背後技術的由來,雖然在前端將技術使用門檻將至了最低,但在背後,卻有著大量前期工程。再以三星的技術為例,當時研究人員從視頻網站上收集了7000張名人照片,並將其標誌性面部特徵進行提取用來進行機器學習,之後AI便能將這些學到的內容應用於單張照片上。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

顯然,在這些換臉技術的背後,GAN所起到的支撐是不容忽視的。然而對於大眾而言,我們只是接觸到了DeepNude與ZAO這類的應用,實際上GAN目前已被普遍應用於圖像生成、超分辨率任務及語義分割等任務上。

例如在識別病灶方面,以糖尿病視網膜病變為例,增強型半監督GAN的作用便是用來對原始數據做到更好的學習,更充分利用少量帶標註的數據和大量未帶標註的數據,從而提高識別的準確率。

因此我們可以說,GAN的出現,是又一個考驗“科技己向善”的技術,善用可以成為治療疾病的重要參考,反之也可用來創建不雅視頻或照片。

換臉技術是否真的還有存在的必要?

但技術始終是中立的,即便是換臉,只要應用的妥當依然能夠發揮出它的最大價值。要知道,在Deepfake誕生之前,換臉技術便已應用在電影拍攝中。在《星球大戰》中,計算機圖像生成技術便根據一名女演員的臉塑造了年輕時期的Carrie Fisher的形象。再比如保羅·沃克在《速度與激情7》中的謝幕,用的都是此類換臉技術。

"

上週末,一款名為ZAO的換臉軟件在朋友圈迅速走紅,藉助一款App,用戶便可無門檻的將自己的臉替換到各個電影場景中去。但在新鮮過後,也引發了用戶對於自己隱私安全的進一步擔憂,也有用戶表示,上傳頭像後無法進行刪除,不知道未來會被用來幹什麼。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

在這個刷臉支付的時代裡,臉部信息成為了繼指紋之後的又一大支付方式,ZAO的出現,讓用戶隱私和安全遭到了前所未有的威脅。支付寶對此也進行了快速回應,並稱刷臉支付採用的是3D人臉識別技術,在識別時會通過軟硬件結合方式來判斷採集到的人臉是否由照片、視頻或軟件模擬生成。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

雖然支付寶得以倖免,但要知道,市面上依舊存在著採用2D人臉識別技術的企業,也就意味著,這些用戶信息很可能會在其他地方被用來身份冒用,更會被視頻黑產所盯上。

DeepFake類再掀風波

當然,相似事件此前也曾發生過。2017年時,一位名叫Deepfakes的用戶在Reddit社區發佈了一個名人換臉後的不雅視頻,在這個視頻中,名人的臉被一幀一幀地插入到現有的影片中,效果真到令人瞠目結舌。而之所以這些名人會首當其衝受到Deepfake的危害,主要原因便是在網絡上充斥著他們大量的圖像信息,這些公共圖像被用來訓練Deepfake算法,最終成為了孕育這些視頻的“溫床”。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

但這一風波顯然沒讓Deepfakes“消停”下來,不久前的DeepNude便是最好的代表,只要上傳一張女性圖片,就可輕鬆生成逼真的不雅照片。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

同是DeepFake類的應用,相比於早期的不雅視頻,顯然DeepNude對於大眾的危害更高。此前,若想使用DeepFake去進行視頻造假,需極度專業的知識作為支撐,一般用戶是望塵莫及的,但DeepNude卻將技術無門檻的帶給了大眾。美國反色情報復組織 Badass 的負責人也曾評論稱:現今人人都可能成為色情報復的受害者,這樣的技術根本不應該向公眾開放。

最終,這個應用終於被永久下架,DeepNude官方也表示不會再發布其他版本,也不會授權任何人使用。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

與DeepNude相比,ZAO的出發點雖然不同,但相似之處是均使用了DeepFake等GAN(生成對抗網絡)工具,並將這些極度專業的技術無門檻的提供給了使用者。

那麼問題來了,究竟什麼是DeepFake?這個技術是否有存在的價值?我們還要先從其技術原理開始談起。

DeepFake背後靠的是什麼技術?

在GitHub上,DeepFake的描述是“一種利用深度學習技術識別和交換圖片、視頻中人物臉部圖像的工具”。只要你素材足夠充足、硬件(GPU)跟得上,Deepfake便可建立匹配模型。

Deepfake視頻是通過使用兩個競爭AI系統創建的,一個稱為生成模型,另一個稱為判別模型。生成模型負責創建圖像,判別模型負責確定剪輯視頻是真的還是假的,當判別模型準確將視頻片段識別為假時,它就為生成模型提供了創建下一個片段時不應該生成什麼的依據,直至判別模型認為生成為真時,以假亂真視頻的第一步就賣出了。而生成模型和判別模型組合起來,便是業界知名的生成對抗網絡,也就是GAN。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

最早Deepfake正是藉助生成對抗網絡,通過上萬張照片,來替換視頻每秒中存在的30個畫面,最終通過GPU訓練完成了“移花接木”。也就是說,其原理大致分為三步,選擇需要換臉的對象、進行覆蓋的對象、以及AI自動生成替換。

但隨著GAN的不斷演進,當下僅憑一張照片便可自動將面部表情生成動畫,比如三星在5月時展示的一項全新技術,AI只需基於一張肖像照片或一張畫像,就能讓蒙娜麗莎、愛因斯坦等名人開口說話,且效果栩栩如生。

這也是ZAO背後技術的由來,雖然在前端將技術使用門檻將至了最低,但在背後,卻有著大量前期工程。再以三星的技術為例,當時研究人員從視頻網站上收集了7000張名人照片,並將其標誌性面部特徵進行提取用來進行機器學習,之後AI便能將這些學到的內容應用於單張照片上。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

顯然,在這些換臉技術的背後,GAN所起到的支撐是不容忽視的。然而對於大眾而言,我們只是接觸到了DeepNude與ZAO這類的應用,實際上GAN目前已被普遍應用於圖像生成、超分辨率任務及語義分割等任務上。

例如在識別病灶方面,以糖尿病視網膜病變為例,增強型半監督GAN的作用便是用來對原始數據做到更好的學習,更充分利用少量帶標註的數據和大量未帶標註的數據,從而提高識別的準確率。

因此我們可以說,GAN的出現,是又一個考驗“科技己向善”的技術,善用可以成為治療疾病的重要參考,反之也可用來創建不雅視頻或照片。

換臉技術是否真的還有存在的必要?

但技術始終是中立的,即便是換臉,只要應用的妥當依然能夠發揮出它的最大價值。要知道,在Deepfake誕生之前,換臉技術便已應用在電影拍攝中。在《星球大戰》中,計算機圖像生成技術便根據一名女演員的臉塑造了年輕時期的Carrie Fisher的形象。再比如保羅·沃克在《速度與激情7》中的謝幕,用的都是此類換臉技術。

ZAO將是下一個DeepNude 是時候談談他們背後的DeepFake技術了

只不過此前,需要相對較高的技術和資金投入,但Deepfake出現後,卻能夠很好解決這些難題。同理,在一些運動類遊戲中,Deepfake也能夠將遊戲人物刻畫的更加栩栩如生。

而ZAO,錯就錯在,在用戶協議中寫上了:同意授予ZAO及其相關公司以及ZAO用戶全球範圍內完全免費、不可撤銷、永久、可轉授權和可再利用的權利。相當於一旦出了事,全部責任都將由用戶自行承擔。

雖然,ZAO快速做出了迴應並修改了用戶協議,保證除非獲得用戶再次同意,不會以任何其他形式使用上述內容。且當用戶刪除上傳內容後,ZAO也會在服務器端進行刪除。但即便這樣,ZAO依舊無法避免自己的內憂外患,內有濫用的風險,外又存在大量安全隱患。

現今這款App雖然依舊能在應用商店進行下載,但一些社交類軟件已經屏蔽了其分享鏈接。顯然,ZAO已經引來了外界源源不斷批評聲,這與DeepNude最初時的情況相差無幾,至於其結局,換臉技術是把雙刃劍或許會給ZAO一次同樣的“審判”。正如DeepNude開發者所說,世界還沒為換臉技術做好準備。

"

相關推薦

推薦中...