'“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡'

"

前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。


"

前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。


"

前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


▲國內用戶製作並上傳的“朱茵換臉楊冪”

伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。

“深度偽造”技術的前世今生

Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。


"

前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


▲國內用戶製作並上傳的“朱茵換臉楊冪”

伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。

“深度偽造”技術的前世今生

Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。

在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。


"

前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


▲國內用戶製作並上傳的“朱茵換臉楊冪”

伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。

“深度偽造”技術的前世今生

Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。

在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。

論“深度偽造”視頻在詐騙領域的應用前景

專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:

一種是敲詐勒索

藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。


"

前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


▲國內用戶製作並上傳的“朱茵換臉楊冪”

伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。

“深度偽造”技術的前世今生

Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。

在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。

論“深度偽造”視頻在詐騙領域的應用前景

專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:

一種是敲詐勒索

藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


所謂“身正不怕影子斜”,但如果你真的存在一些不軌行為,那保不齊就會上當。再加上如果詐騙分子做足了事前調查,此類詐騙的成功率將會大大提高。

另一種是場景恐嚇

在這種場景下,騙子可能會利用你親友子女的臉部照片來合成一些車禍現場視頻、突發疾病視頻,然後冒充你子女的老師將視頻發送給你,進而誘騙你轉賬。


"

前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


▲國內用戶製作並上傳的“朱茵換臉楊冪”

伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。

“深度偽造”技術的前世今生

Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。

在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。

論“深度偽造”視頻在詐騙領域的應用前景

專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:

一種是敲詐勒索

藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


所謂“身正不怕影子斜”,但如果你真的存在一些不軌行為,那保不齊就會上當。再加上如果詐騙分子做足了事前調查,此類詐騙的成功率將會大大提高。

另一種是場景恐嚇

在這種場景下,騙子可能會利用你親友子女的臉部照片來合成一些車禍現場視頻、突發疾病視頻,然後冒充你子女的老師將視頻發送給你,進而誘騙你轉賬。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


遇到此類詐騙,首先要做的就是保持冷靜,然後就是一定要和學校、老師聯繫,多方確認情況的真偽後再行動。

利用“深度偽造”語音實施詐騙更加容易

除了能夠偽造視頻,利用“深度偽造”技術,我們還可以偽造語音,並且比偽造視頻更加容易。

2018年,三名蒙特利爾大學的博士就創辦了一家名為“Lyrebird(琴鳥)”的公司。

該公司開發出了一種“語音合成”技術,只要對目標人物的聲音進行1分鐘以上的錄音,就能通過“琴鳥”得到一個特別的密鑰,利用這個密鑰可以用目標人物的聲音,生成任何想說的話。

▲“語音合成”技術可模擬任何人的聲音

在2018年5月份,網絡安全公司Pindrop曾對美、英、德、法四國共500家企業進行了網上調查。

結果顯示,從2013年到2017年,語音欺詐案件的數量增加了350%,每638個欺詐電話中就有1個是人工合成的聲音。


"

前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


▲國內用戶製作並上傳的“朱茵換臉楊冪”

伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。

“深度偽造”技術的前世今生

Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。

在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。

論“深度偽造”視頻在詐騙領域的應用前景

專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:

一種是敲詐勒索

藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


所謂“身正不怕影子斜”,但如果你真的存在一些不軌行為,那保不齊就會上當。再加上如果詐騙分子做足了事前調查,此類詐騙的成功率將會大大提高。

另一種是場景恐嚇

在這種場景下,騙子可能會利用你親友子女的臉部照片來合成一些車禍現場視頻、突發疾病視頻,然後冒充你子女的老師將視頻發送給你,進而誘騙你轉賬。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


遇到此類詐騙,首先要做的就是保持冷靜,然後就是一定要和學校、老師聯繫,多方確認情況的真偽後再行動。

利用“深度偽造”語音實施詐騙更加容易

除了能夠偽造視頻,利用“深度偽造”技術,我們還可以偽造語音,並且比偽造視頻更加容易。

2018年,三名蒙特利爾大學的博士就創辦了一家名為“Lyrebird(琴鳥)”的公司。

該公司開發出了一種“語音合成”技術,只要對目標人物的聲音進行1分鐘以上的錄音,就能通過“琴鳥”得到一個特別的密鑰,利用這個密鑰可以用目標人物的聲音,生成任何想說的話。

▲“語音合成”技術可模擬任何人的聲音

在2018年5月份,網絡安全公司Pindrop曾對美、英、德、法四國共500家企業進行了網上調查。

結果顯示,從2013年到2017年,語音欺詐案件的數量增加了350%,每638個欺詐電話中就有1個是人工合成的聲音。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


視頻+語音,“深度偽造”技術成詐騙犯福音?

有了成熟的聲音造假技術,再配上偽造的圖像,要做出一條以假亂真、別有用心的視頻來,似乎真的不難了!

2018年4月份,一段美國前總統巴拉克·奧巴馬惡語攻擊其繼任者唐納德·特朗普的視頻就曾在美國政界引起了一場轟動,甚至被指可能會影響到2020年的美國總統大選。

▲偽造的奧巴馬發言視頻


最終的調查結果證實,這段視頻實際上是由喜劇演員兼導演喬丹·皮勒模仿奧巴馬的聲音製作的“深度偽造”內容,聲音和畫面都是通過軟件合成的。

在當時,跨大西洋選舉誠信委員會成員、前美國駐聯合國人權理事會大使艾琳·多納霍在接受CNBC採訪時表示,“我們認為,Deepfake將是下一代的虛假信息。”


"

前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


▲國內用戶製作並上傳的“朱茵換臉楊冪”

伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。

“深度偽造”技術的前世今生

Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。

在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。

論“深度偽造”視頻在詐騙領域的應用前景

專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:

一種是敲詐勒索

藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


所謂“身正不怕影子斜”,但如果你真的存在一些不軌行為,那保不齊就會上當。再加上如果詐騙分子做足了事前調查,此類詐騙的成功率將會大大提高。

另一種是場景恐嚇

在這種場景下,騙子可能會利用你親友子女的臉部照片來合成一些車禍現場視頻、突發疾病視頻,然後冒充你子女的老師將視頻發送給你,進而誘騙你轉賬。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


遇到此類詐騙,首先要做的就是保持冷靜,然後就是一定要和學校、老師聯繫,多方確認情況的真偽後再行動。

利用“深度偽造”語音實施詐騙更加容易

除了能夠偽造視頻,利用“深度偽造”技術,我們還可以偽造語音,並且比偽造視頻更加容易。

2018年,三名蒙特利爾大學的博士就創辦了一家名為“Lyrebird(琴鳥)”的公司。

該公司開發出了一種“語音合成”技術,只要對目標人物的聲音進行1分鐘以上的錄音,就能通過“琴鳥”得到一個特別的密鑰,利用這個密鑰可以用目標人物的聲音,生成任何想說的話。

▲“語音合成”技術可模擬任何人的聲音

在2018年5月份,網絡安全公司Pindrop曾對美、英、德、法四國共500家企業進行了網上調查。

結果顯示,從2013年到2017年,語音欺詐案件的數量增加了350%,每638個欺詐電話中就有1個是人工合成的聲音。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


視頻+語音,“深度偽造”技術成詐騙犯福音?

有了成熟的聲音造假技術,再配上偽造的圖像,要做出一條以假亂真、別有用心的視頻來,似乎真的不難了!

2018年4月份,一段美國前總統巴拉克·奧巴馬惡語攻擊其繼任者唐納德·特朗普的視頻就曾在美國政界引起了一場轟動,甚至被指可能會影響到2020年的美國總統大選。

▲偽造的奧巴馬發言視頻


最終的調查結果證實,這段視頻實際上是由喜劇演員兼導演喬丹·皮勒模仿奧巴馬的聲音製作的“深度偽造”內容,聲音和畫面都是通過軟件合成的。

在當時,跨大西洋選舉誠信委員會成員、前美國駐聯合國人權理事會大使艾琳·多納霍在接受CNBC採訪時表示,“我們認為,Deepfake將是下一代的虛假信息。”


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


“眼見未必為實,耳聽未必為真”,我們又該怎麼辦?

兩年前,美國發布《人工智能與國家安全》報告,明確將人工智能偽造技術列為威脅國家安全的重點技術。


"

前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


▲國內用戶製作並上傳的“朱茵換臉楊冪”

伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。

“深度偽造”技術的前世今生

Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。

在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。

論“深度偽造”視頻在詐騙領域的應用前景

專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:

一種是敲詐勒索

藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


所謂“身正不怕影子斜”,但如果你真的存在一些不軌行為,那保不齊就會上當。再加上如果詐騙分子做足了事前調查,此類詐騙的成功率將會大大提高。

另一種是場景恐嚇

在這種場景下,騙子可能會利用你親友子女的臉部照片來合成一些車禍現場視頻、突發疾病視頻,然後冒充你子女的老師將視頻發送給你,進而誘騙你轉賬。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


遇到此類詐騙,首先要做的就是保持冷靜,然後就是一定要和學校、老師聯繫,多方確認情況的真偽後再行動。

利用“深度偽造”語音實施詐騙更加容易

除了能夠偽造視頻,利用“深度偽造”技術,我們還可以偽造語音,並且比偽造視頻更加容易。

2018年,三名蒙特利爾大學的博士就創辦了一家名為“Lyrebird(琴鳥)”的公司。

該公司開發出了一種“語音合成”技術,只要對目標人物的聲音進行1分鐘以上的錄音,就能通過“琴鳥”得到一個特別的密鑰,利用這個密鑰可以用目標人物的聲音,生成任何想說的話。

▲“語音合成”技術可模擬任何人的聲音

在2018年5月份,網絡安全公司Pindrop曾對美、英、德、法四國共500家企業進行了網上調查。

結果顯示,從2013年到2017年,語音欺詐案件的數量增加了350%,每638個欺詐電話中就有1個是人工合成的聲音。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


視頻+語音,“深度偽造”技術成詐騙犯福音?

有了成熟的聲音造假技術,再配上偽造的圖像,要做出一條以假亂真、別有用心的視頻來,似乎真的不難了!

2018年4月份,一段美國前總統巴拉克·奧巴馬惡語攻擊其繼任者唐納德·特朗普的視頻就曾在美國政界引起了一場轟動,甚至被指可能會影響到2020年的美國總統大選。

▲偽造的奧巴馬發言視頻


最終的調查結果證實,這段視頻實際上是由喜劇演員兼導演喬丹·皮勒模仿奧巴馬的聲音製作的“深度偽造”內容,聲音和畫面都是通過軟件合成的。

在當時,跨大西洋選舉誠信委員會成員、前美國駐聯合國人權理事會大使艾琳·多納霍在接受CNBC採訪時表示,“我們認為,Deepfake將是下一代的虛假信息。”


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


“眼見未必為實,耳聽未必為真”,我們又該怎麼辦?

兩年前,美國發布《人工智能與國家安全》報告,明確將人工智能偽造技術列為威脅國家安全的重點技術。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


2019年6月13日,美國眾議院情報委員會召開了關於人工智能深度偽造的聽證會,公開談論了“深度偽造”技術給國家、社會和個人帶來的風險,以及該採取的防範和應對措施。

近日,臉書、微軟等科技公司和眾多學術機構聯合發起一場“揪出深度偽造影像挑戰賽”,希望改善現有工具,加強對深度偽造圖片、聲音和視頻的檢測能力。


"

前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


▲國內用戶製作並上傳的“朱茵換臉楊冪”

伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。

“深度偽造”技術的前世今生

Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。

在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。

論“深度偽造”視頻在詐騙領域的應用前景

專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:

一種是敲詐勒索

藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


所謂“身正不怕影子斜”,但如果你真的存在一些不軌行為,那保不齊就會上當。再加上如果詐騙分子做足了事前調查,此類詐騙的成功率將會大大提高。

另一種是場景恐嚇

在這種場景下,騙子可能會利用你親友子女的臉部照片來合成一些車禍現場視頻、突發疾病視頻,然後冒充你子女的老師將視頻發送給你,進而誘騙你轉賬。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


遇到此類詐騙,首先要做的就是保持冷靜,然後就是一定要和學校、老師聯繫,多方確認情況的真偽後再行動。

利用“深度偽造”語音實施詐騙更加容易

除了能夠偽造視頻,利用“深度偽造”技術,我們還可以偽造語音,並且比偽造視頻更加容易。

2018年,三名蒙特利爾大學的博士就創辦了一家名為“Lyrebird(琴鳥)”的公司。

該公司開發出了一種“語音合成”技術,只要對目標人物的聲音進行1分鐘以上的錄音,就能通過“琴鳥”得到一個特別的密鑰,利用這個密鑰可以用目標人物的聲音,生成任何想說的話。

▲“語音合成”技術可模擬任何人的聲音

在2018年5月份,網絡安全公司Pindrop曾對美、英、德、法四國共500家企業進行了網上調查。

結果顯示,從2013年到2017年,語音欺詐案件的數量增加了350%,每638個欺詐電話中就有1個是人工合成的聲音。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


視頻+語音,“深度偽造”技術成詐騙犯福音?

有了成熟的聲音造假技術,再配上偽造的圖像,要做出一條以假亂真、別有用心的視頻來,似乎真的不難了!

2018年4月份,一段美國前總統巴拉克·奧巴馬惡語攻擊其繼任者唐納德·特朗普的視頻就曾在美國政界引起了一場轟動,甚至被指可能會影響到2020年的美國總統大選。

▲偽造的奧巴馬發言視頻


最終的調查結果證實,這段視頻實際上是由喜劇演員兼導演喬丹·皮勒模仿奧巴馬的聲音製作的“深度偽造”內容,聲音和畫面都是通過軟件合成的。

在當時,跨大西洋選舉誠信委員會成員、前美國駐聯合國人權理事會大使艾琳·多納霍在接受CNBC採訪時表示,“我們認為,Deepfake將是下一代的虛假信息。”


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


“眼見未必為實,耳聽未必為真”,我們又該怎麼辦?

兩年前,美國發布《人工智能與國家安全》報告,明確將人工智能偽造技術列為威脅國家安全的重點技術。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


2019年6月13日,美國眾議院情報委員會召開了關於人工智能深度偽造的聽證會,公開談論了“深度偽造”技術給國家、社會和個人帶來的風險,以及該採取的防範和應對措施。

近日,臉書、微軟等科技公司和眾多學術機構聯合發起一場“揪出深度偽造影像挑戰賽”,希望改善現有工具,加強對深度偽造圖片、聲音和視頻的檢測能力。


“深度偽造(Deepfake)”的背後,或許是詐騙犯的狂歡


此外,據稱美國五角大樓的一個研究團隊(又稱“美國國防高級研究計劃局”)也在一直研究如何抵抗“深度偽造”的威脅。

報道稱,作為人工智能發展大國,中國也已經在加強政策和技術方面的監管,應對人工智能新技術可能帶來的安全風險。

就像許多專業人士所說的那樣,我們不應該去阻止創新,相關部門應該思考的是如何去有效合理的監管,釋放創新活力,緊跟時代發展的步伐。

本文由反欺詐雲綜合網絡整理,主要目的在於普法,部分圖片及素材來源於網絡。如有侵權,請聯繫本號及時刪除。

"

相關推薦

推薦中...