前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。
前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。
用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。
前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。
用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。
▲國內用戶製作並上傳的“朱茵換臉楊冪”
伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。
“深度偽造”技術的前世今生
Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。
前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。
用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。
▲國內用戶製作並上傳的“朱茵換臉楊冪”
伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。
“深度偽造”技術的前世今生
Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。
據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。
在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。
前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。
用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。
▲國內用戶製作並上傳的“朱茵換臉楊冪”
伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。
“深度偽造”技術的前世今生
Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。
據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。
在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。
也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。
論“深度偽造”視頻在詐騙領域的應用前景
專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:
一種是敲詐勒索。
藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。
前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。
用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。
▲國內用戶製作並上傳的“朱茵換臉楊冪”
伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。
“深度偽造”技術的前世今生
Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。
據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。
在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。
也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。
論“深度偽造”視頻在詐騙領域的應用前景
專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:
一種是敲詐勒索。
藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。
所謂“身正不怕影子斜”,但如果你真的存在一些不軌行為,那保不齊就會上當。再加上如果詐騙分子做足了事前調查,此類詐騙的成功率將會大大提高。
另一種是場景恐嚇。
在這種場景下,騙子可能會利用你親友子女的臉部照片來合成一些車禍現場視頻、突發疾病視頻,然後冒充你子女的老師將視頻發送給你,進而誘騙你轉賬。
前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。
用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。
▲國內用戶製作並上傳的“朱茵換臉楊冪”
伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。
“深度偽造”技術的前世今生
Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。
據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。
在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。
也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。
論“深度偽造”視頻在詐騙領域的應用前景
專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:
一種是敲詐勒索。
藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。
所謂“身正不怕影子斜”,但如果你真的存在一些不軌行為,那保不齊就會上當。再加上如果詐騙分子做足了事前調查,此類詐騙的成功率將會大大提高。
另一種是場景恐嚇。
在這種場景下,騙子可能會利用你親友子女的臉部照片來合成一些車禍現場視頻、突發疾病視頻,然後冒充你子女的老師將視頻發送給你,進而誘騙你轉賬。
遇到此類詐騙,首先要做的就是保持冷靜,然後就是一定要和學校、老師聯繫,多方確認情況的真偽後再行動。
利用“深度偽造”語音實施詐騙更加容易
除了能夠偽造視頻,利用“深度偽造”技術,我們還可以偽造語音,並且比偽造視頻更加容易。
2018年,三名蒙特利爾大學的博士就創辦了一家名為“Lyrebird(琴鳥)”的公司。
該公司開發出了一種“語音合成”技術,只要對目標人物的聲音進行1分鐘以上的錄音,就能通過“琴鳥”得到一個特別的密鑰,利用這個密鑰可以用目標人物的聲音,生成任何想說的話。
▲“語音合成”技術可模擬任何人的聲音
在2018年5月份,網絡安全公司Pindrop曾對美、英、德、法四國共500家企業進行了網上調查。
結果顯示,從2013年到2017年,語音欺詐案件的數量增加了350%,每638個欺詐電話中就有1個是人工合成的聲音。
前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。
用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。
▲國內用戶製作並上傳的“朱茵換臉楊冪”
伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。
“深度偽造”技術的前世今生
Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。
據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。
在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。
也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。
論“深度偽造”視頻在詐騙領域的應用前景
專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:
一種是敲詐勒索。
藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。
所謂“身正不怕影子斜”,但如果你真的存在一些不軌行為,那保不齊就會上當。再加上如果詐騙分子做足了事前調查,此類詐騙的成功率將會大大提高。
另一種是場景恐嚇。
在這種場景下,騙子可能會利用你親友子女的臉部照片來合成一些車禍現場視頻、突發疾病視頻,然後冒充你子女的老師將視頻發送給你,進而誘騙你轉賬。
遇到此類詐騙,首先要做的就是保持冷靜,然後就是一定要和學校、老師聯繫,多方確認情況的真偽後再行動。
利用“深度偽造”語音實施詐騙更加容易
除了能夠偽造視頻,利用“深度偽造”技術,我們還可以偽造語音,並且比偽造視頻更加容易。
2018年,三名蒙特利爾大學的博士就創辦了一家名為“Lyrebird(琴鳥)”的公司。
該公司開發出了一種“語音合成”技術,只要對目標人物的聲音進行1分鐘以上的錄音,就能通過“琴鳥”得到一個特別的密鑰,利用這個密鑰可以用目標人物的聲音,生成任何想說的話。
▲“語音合成”技術可模擬任何人的聲音
在2018年5月份,網絡安全公司Pindrop曾對美、英、德、法四國共500家企業進行了網上調查。
結果顯示,從2013年到2017年,語音欺詐案件的數量增加了350%,每638個欺詐電話中就有1個是人工合成的聲音。
視頻+語音,“深度偽造”技術成詐騙犯福音?
有了成熟的聲音造假技術,再配上偽造的圖像,要做出一條以假亂真、別有用心的視頻來,似乎真的不難了!
2018年4月份,一段美國前總統巴拉克·奧巴馬惡語攻擊其繼任者唐納德·特朗普的視頻就曾在美國政界引起了一場轟動,甚至被指可能會影響到2020年的美國總統大選。
▲偽造的奧巴馬發言視頻
最終的調查結果證實,這段視頻實際上是由喜劇演員兼導演喬丹·皮勒模仿奧巴馬的聲音製作的“深度偽造”內容,聲音和畫面都是通過軟件合成的。
在當時,跨大西洋選舉誠信委員會成員、前美國駐聯合國人權理事會大使艾琳·多納霍在接受CNBC採訪時表示,“我們認為,Deepfake將是下一代的虛假信息。”
前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。
用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。
▲國內用戶製作並上傳的“朱茵換臉楊冪”
伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。
“深度偽造”技術的前世今生
Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。
據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。
在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。
也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。
論“深度偽造”視頻在詐騙領域的應用前景
專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:
一種是敲詐勒索。
藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。
所謂“身正不怕影子斜”,但如果你真的存在一些不軌行為,那保不齊就會上當。再加上如果詐騙分子做足了事前調查,此類詐騙的成功率將會大大提高。
另一種是場景恐嚇。
在這種場景下,騙子可能會利用你親友子女的臉部照片來合成一些車禍現場視頻、突發疾病視頻,然後冒充你子女的老師將視頻發送給你,進而誘騙你轉賬。
遇到此類詐騙,首先要做的就是保持冷靜,然後就是一定要和學校、老師聯繫,多方確認情況的真偽後再行動。
利用“深度偽造”語音實施詐騙更加容易
除了能夠偽造視頻,利用“深度偽造”技術,我們還可以偽造語音,並且比偽造視頻更加容易。
2018年,三名蒙特利爾大學的博士就創辦了一家名為“Lyrebird(琴鳥)”的公司。
該公司開發出了一種“語音合成”技術,只要對目標人物的聲音進行1分鐘以上的錄音,就能通過“琴鳥”得到一個特別的密鑰,利用這個密鑰可以用目標人物的聲音,生成任何想說的話。
▲“語音合成”技術可模擬任何人的聲音
在2018年5月份,網絡安全公司Pindrop曾對美、英、德、法四國共500家企業進行了網上調查。
結果顯示,從2013年到2017年,語音欺詐案件的數量增加了350%,每638個欺詐電話中就有1個是人工合成的聲音。
視頻+語音,“深度偽造”技術成詐騙犯福音?
有了成熟的聲音造假技術,再配上偽造的圖像,要做出一條以假亂真、別有用心的視頻來,似乎真的不難了!
2018年4月份,一段美國前總統巴拉克·奧巴馬惡語攻擊其繼任者唐納德·特朗普的視頻就曾在美國政界引起了一場轟動,甚至被指可能會影響到2020年的美國總統大選。
▲偽造的奧巴馬發言視頻
最終的調查結果證實,這段視頻實際上是由喜劇演員兼導演喬丹·皮勒模仿奧巴馬的聲音製作的“深度偽造”內容,聲音和畫面都是通過軟件合成的。
在當時,跨大西洋選舉誠信委員會成員、前美國駐聯合國人權理事會大使艾琳·多納霍在接受CNBC採訪時表示,“我們認為,Deepfake將是下一代的虛假信息。”
“眼見未必為實,耳聽未必為真”,我們又該怎麼辦?
兩年前,美國發布《人工智能與國家安全》報告,明確將人工智能偽造技術列為威脅國家安全的重點技術。
前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。
用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。
▲國內用戶製作並上傳的“朱茵換臉楊冪”
伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。
“深度偽造”技術的前世今生
Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。
據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。
在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。
也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。
論“深度偽造”視頻在詐騙領域的應用前景
專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:
一種是敲詐勒索。
藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。
所謂“身正不怕影子斜”,但如果你真的存在一些不軌行為,那保不齊就會上當。再加上如果詐騙分子做足了事前調查,此類詐騙的成功率將會大大提高。
另一種是場景恐嚇。
在這種場景下,騙子可能會利用你親友子女的臉部照片來合成一些車禍現場視頻、突發疾病視頻,然後冒充你子女的老師將視頻發送給你,進而誘騙你轉賬。
遇到此類詐騙,首先要做的就是保持冷靜,然後就是一定要和學校、老師聯繫,多方確認情況的真偽後再行動。
利用“深度偽造”語音實施詐騙更加容易
除了能夠偽造視頻,利用“深度偽造”技術,我們還可以偽造語音,並且比偽造視頻更加容易。
2018年,三名蒙特利爾大學的博士就創辦了一家名為“Lyrebird(琴鳥)”的公司。
該公司開發出了一種“語音合成”技術,只要對目標人物的聲音進行1分鐘以上的錄音,就能通過“琴鳥”得到一個特別的密鑰,利用這個密鑰可以用目標人物的聲音,生成任何想說的話。
▲“語音合成”技術可模擬任何人的聲音
在2018年5月份,網絡安全公司Pindrop曾對美、英、德、法四國共500家企業進行了網上調查。
結果顯示,從2013年到2017年,語音欺詐案件的數量增加了350%,每638個欺詐電話中就有1個是人工合成的聲音。
視頻+語音,“深度偽造”技術成詐騙犯福音?
有了成熟的聲音造假技術,再配上偽造的圖像,要做出一條以假亂真、別有用心的視頻來,似乎真的不難了!
2018年4月份,一段美國前總統巴拉克·奧巴馬惡語攻擊其繼任者唐納德·特朗普的視頻就曾在美國政界引起了一場轟動,甚至被指可能會影響到2020年的美國總統大選。
▲偽造的奧巴馬發言視頻
最終的調查結果證實,這段視頻實際上是由喜劇演員兼導演喬丹·皮勒模仿奧巴馬的聲音製作的“深度偽造”內容,聲音和畫面都是通過軟件合成的。
在當時,跨大西洋選舉誠信委員會成員、前美國駐聯合國人權理事會大使艾琳·多納霍在接受CNBC採訪時表示,“我們認為,Deepfake將是下一代的虛假信息。”
“眼見未必為實,耳聽未必為真”,我們又該怎麼辦?
兩年前,美國發布《人工智能與國家安全》報告,明確將人工智能偽造技術列為威脅國家安全的重點技術。
2019年6月13日,美國眾議院情報委員會召開了關於人工智能深度偽造的聽證會,公開談論了“深度偽造”技術給國家、社會和個人帶來的風險,以及該採取的防範和應對措施。
近日,臉書、微軟等科技公司和眾多學術機構聯合發起一場“揪出深度偽造影像挑戰賽”,希望改善現有工具,加強對深度偽造圖片、聲音和視頻的檢測能力。
前幾天,雲哥在《騙子的未來?AI人工智能!黑科技!》一文中談到了一款名為“ZAO”的AI換臉軟件。
用戶只需要拍攝並上傳幾張自己的臉部照片,就可以用它們來替換電影、電視劇或者小視頻中人物的臉,從而生成以自己為主角的視頻片段。
▲國內用戶製作並上傳的“朱茵換臉楊冪”
伴隨“ZAO”換臉APP刷爆朋友圈及其母公司“陌陌”負責人被工信部約見,一項名為“Deepfake(深度偽造)”的AI技術開始被人們所關注。
“深度偽造”技術的前世今生
Deepfake,是一個由“Deeplearning(深度學習)”和“Fake(偽造)”結合而成的新單詞。
據說,“深度偽造”技術最早在網絡上引起轟動是在2017年12月。
在當時,一位網名為“deepfakes”的用戶先是在國外知名社交網站Reddit上分享了多部好萊塢女星和情色電影女主角換臉的視頻,隨後更是直接公開了這項AI換臉技術的源代碼。
也就是說,“深度偽造”技術實際上早在2017年就已經非常成熟了,而“ZAO”APP的開發商只是站出來做了一次“以身試險”而已。
論“深度偽造”視頻在詐騙領域的應用前景
專業人士表示,“深度偽造”視頻的詐騙應用場景主要可以分為兩種:
一種是敲詐勒索。
藉助“深度偽造”技術,詐騙分子完全能夠利用你的臉部照片來合成一些婚內出軌、貪汙受賄、違法亂紀等虛假視頻,然後對你進行敲詐勒索。
所謂“身正不怕影子斜”,但如果你真的存在一些不軌行為,那保不齊就會上當。再加上如果詐騙分子做足了事前調查,此類詐騙的成功率將會大大提高。
另一種是場景恐嚇。
在這種場景下,騙子可能會利用你親友子女的臉部照片來合成一些車禍現場視頻、突發疾病視頻,然後冒充你子女的老師將視頻發送給你,進而誘騙你轉賬。
遇到此類詐騙,首先要做的就是保持冷靜,然後就是一定要和學校、老師聯繫,多方確認情況的真偽後再行動。
利用“深度偽造”語音實施詐騙更加容易
除了能夠偽造視頻,利用“深度偽造”技術,我們還可以偽造語音,並且比偽造視頻更加容易。
2018年,三名蒙特利爾大學的博士就創辦了一家名為“Lyrebird(琴鳥)”的公司。
該公司開發出了一種“語音合成”技術,只要對目標人物的聲音進行1分鐘以上的錄音,就能通過“琴鳥”得到一個特別的密鑰,利用這個密鑰可以用目標人物的聲音,生成任何想說的話。
▲“語音合成”技術可模擬任何人的聲音
在2018年5月份,網絡安全公司Pindrop曾對美、英、德、法四國共500家企業進行了網上調查。
結果顯示,從2013年到2017年,語音欺詐案件的數量增加了350%,每638個欺詐電話中就有1個是人工合成的聲音。
視頻+語音,“深度偽造”技術成詐騙犯福音?
有了成熟的聲音造假技術,再配上偽造的圖像,要做出一條以假亂真、別有用心的視頻來,似乎真的不難了!
2018年4月份,一段美國前總統巴拉克·奧巴馬惡語攻擊其繼任者唐納德·特朗普的視頻就曾在美國政界引起了一場轟動,甚至被指可能會影響到2020年的美國總統大選。
▲偽造的奧巴馬發言視頻
最終的調查結果證實,這段視頻實際上是由喜劇演員兼導演喬丹·皮勒模仿奧巴馬的聲音製作的“深度偽造”內容,聲音和畫面都是通過軟件合成的。
在當時,跨大西洋選舉誠信委員會成員、前美國駐聯合國人權理事會大使艾琳·多納霍在接受CNBC採訪時表示,“我們認為,Deepfake將是下一代的虛假信息。”
“眼見未必為實,耳聽未必為真”,我們又該怎麼辦?
兩年前,美國發布《人工智能與國家安全》報告,明確將人工智能偽造技術列為威脅國家安全的重點技術。
2019年6月13日,美國眾議院情報委員會召開了關於人工智能深度偽造的聽證會,公開談論了“深度偽造”技術給國家、社會和個人帶來的風險,以及該採取的防範和應對措施。
近日,臉書、微軟等科技公司和眾多學術機構聯合發起一場“揪出深度偽造影像挑戰賽”,希望改善現有工具,加強對深度偽造圖片、聲音和視頻的檢測能力。
此外,據稱美國五角大樓的一個研究團隊(又稱“美國國防高級研究計劃局”)也在一直研究如何抵抗“深度偽造”的威脅。
報道稱,作為人工智能發展大國,中國也已經在加強政策和技術方面的監管,應對人工智能新技術可能帶來的安全風險。
就像許多專業人士所說的那樣,我們不應該去阻止創新,相關部門應該思考的是如何去有效合理的監管,釋放創新活力,緊跟時代發展的步伐。
本文由反欺詐雲綜合網絡整理,主要目的在於普法,部分圖片及素材來源於網絡。如有侵權,請聯繫本號及時刪除。