'噓!我看到了你 60 歲的樣子'

""噓!我看到了你 60 歲的樣子"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

噓!我看到了你 60 歲的樣子

後來N廠又提出了PIX2PIXHD技術(GitHub傳送門),PIX2PIXHD把之前由PIX2PIX生成的圖像分辨率提高了很多。

可以說PIX2PIX是後面這些AI換臉、一鍵“脫"衣等技術的理論基礎,正是憑藉AI強大的聯想及腦補能力使以上應用成為了可能。

"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

噓!我看到了你 60 歲的樣子

後來N廠又提出了PIX2PIXHD技術(GitHub傳送門),PIX2PIXHD把之前由PIX2PIX生成的圖像分辨率提高了很多。

可以說PIX2PIX是後面這些AI換臉、一鍵“脫"衣等技術的理論基礎,正是憑藉AI強大的聯想及腦補能力使以上應用成為了可能。

噓!我看到了你 60 歲的樣子

CycleGAN:指鹿為馬的AI

2017年伯克利提出了CycleGAN的理念,CycleGAN論文地址、CycleGAN的Github傳送門,CycleGAN使用循環一致性損失函數來實現訓練,從而完成將圖片中一個域到另一個域的無縫轉換。

具體什麼是循環一致性損失函數咱們可以找時間詳解,簡單來說CycleGAN能將圖像的主題風格或者某一域主體完美進行切換,具體效果如下:

"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

噓!我看到了你 60 歲的樣子

後來N廠又提出了PIX2PIXHD技術(GitHub傳送門),PIX2PIXHD把之前由PIX2PIX生成的圖像分辨率提高了很多。

可以說PIX2PIX是後面這些AI換臉、一鍵“脫"衣等技術的理論基礎,正是憑藉AI強大的聯想及腦補能力使以上應用成為了可能。

噓!我看到了你 60 歲的樣子

CycleGAN:指鹿為馬的AI

2017年伯克利提出了CycleGAN的理念,CycleGAN論文地址、CycleGAN的Github傳送門,CycleGAN使用循環一致性損失函數來實現訓練,從而完成將圖片中一個域到另一個域的無縫轉換。

具體什麼是循環一致性損失函數咱們可以找時間詳解,簡單來說CycleGAN能將圖像的主題風格或者某一域主體完美進行切換,具體效果如下:

噓!我看到了你 60 歲的樣子

斑馬與馬的互轉

"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

噓!我看到了你 60 歲的樣子

後來N廠又提出了PIX2PIXHD技術(GitHub傳送門),PIX2PIXHD把之前由PIX2PIX生成的圖像分辨率提高了很多。

可以說PIX2PIX是後面這些AI換臉、一鍵“脫"衣等技術的理論基礎,正是憑藉AI強大的聯想及腦補能力使以上應用成為了可能。

噓!我看到了你 60 歲的樣子

CycleGAN:指鹿為馬的AI

2017年伯克利提出了CycleGAN的理念,CycleGAN論文地址、CycleGAN的Github傳送門,CycleGAN使用循環一致性損失函數來實現訓練,從而完成將圖片中一個域到另一個域的無縫轉換。

具體什麼是循環一致性損失函數咱們可以找時間詳解,簡單來說CycleGAN能將圖像的主題風格或者某一域主體完美進行切換,具體效果如下:

噓!我看到了你 60 歲的樣子

斑馬與馬的互轉

噓!我看到了你 60 歲的樣子

冬與夏的風格切換

後來NCSOFT又提出了UGATIT,一種加強版的CycleGAN,UGATIT論文地址、Github傳送門,其效果更好,具體如下:

"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

噓!我看到了你 60 歲的樣子

後來N廠又提出了PIX2PIXHD技術(GitHub傳送門),PIX2PIXHD把之前由PIX2PIX生成的圖像分辨率提高了很多。

可以說PIX2PIX是後面這些AI換臉、一鍵“脫"衣等技術的理論基礎,正是憑藉AI強大的聯想及腦補能力使以上應用成為了可能。

噓!我看到了你 60 歲的樣子

CycleGAN:指鹿為馬的AI

2017年伯克利提出了CycleGAN的理念,CycleGAN論文地址、CycleGAN的Github傳送門,CycleGAN使用循環一致性損失函數來實現訓練,從而完成將圖片中一個域到另一個域的無縫轉換。

具體什麼是循環一致性損失函數咱們可以找時間詳解,簡單來說CycleGAN能將圖像的主題風格或者某一域主體完美進行切換,具體效果如下:

噓!我看到了你 60 歲的樣子

斑馬與馬的互轉

噓!我看到了你 60 歲的樣子

冬與夏的風格切換

後來NCSOFT又提出了UGATIT,一種加強版的CycleGAN,UGATIT論文地址、Github傳送門,其效果更好,具體如下:

噓!我看到了你 60 歲的樣子

CycleGAN出現之後,圖像主題無縫切換將圖像偽造技術提升了一個高度,在換臉之餘還能把原背景主題進行切換,給鑑定帶來來大麻煩。

"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

噓!我看到了你 60 歲的樣子

後來N廠又提出了PIX2PIXHD技術(GitHub傳送門),PIX2PIXHD把之前由PIX2PIX生成的圖像分辨率提高了很多。

可以說PIX2PIX是後面這些AI換臉、一鍵“脫"衣等技術的理論基礎,正是憑藉AI強大的聯想及腦補能力使以上應用成為了可能。

噓!我看到了你 60 歲的樣子

CycleGAN:指鹿為馬的AI

2017年伯克利提出了CycleGAN的理念,CycleGAN論文地址、CycleGAN的Github傳送門,CycleGAN使用循環一致性損失函數來實現訓練,從而完成將圖片中一個域到另一個域的無縫轉換。

具體什麼是循環一致性損失函數咱們可以找時間詳解,簡單來說CycleGAN能將圖像的主題風格或者某一域主體完美進行切換,具體效果如下:

噓!我看到了你 60 歲的樣子

斑馬與馬的互轉

噓!我看到了你 60 歲的樣子

冬與夏的風格切換

後來NCSOFT又提出了UGATIT,一種加強版的CycleGAN,UGATIT論文地址、Github傳送門,其效果更好,具體如下:

噓!我看到了你 60 歲的樣子

CycleGAN出現之後,圖像主題無縫切換將圖像偽造技術提升了一個高度,在換臉之餘還能把原背景主題進行切換,給鑑定帶來來大麻煩。

噓!我看到了你 60 歲的樣子

StyleGAN:能算孩子未來長相的AI

目前好像非常流行組CP,那麼N廠提出的StyleGAN就是用來計算Picure A+ Picture B結果的AI,StyleGAN論文地址、StyleGAN的Github傳送門,而且他還支持多種結合模式,具體見下表

Style 等級

Picture A

Picture B

高等級(粗略)

所有顏色(眼睛,頭髮,光線)和細節面部特徵來自Picture A

繼承Picture B高級的面部特徵,如姿勢、一般的髮型、臉部形狀和眼鏡

中等級

姿勢、一般的面部形狀和眼睛來自Picture A

繼承Picture B中級的面部特徵 ,如髮型,張開/閉著的眼睛

高等級(細微)

主要面部內容來自Picture A

繼承Picture B高級面部特徵,如顏色方案和微觀結構

其兩張圖像按照三種Style結合的效果如下圖:

"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

噓!我看到了你 60 歲的樣子

後來N廠又提出了PIX2PIXHD技術(GitHub傳送門),PIX2PIXHD把之前由PIX2PIX生成的圖像分辨率提高了很多。

可以說PIX2PIX是後面這些AI換臉、一鍵“脫"衣等技術的理論基礎,正是憑藉AI強大的聯想及腦補能力使以上應用成為了可能。

噓!我看到了你 60 歲的樣子

CycleGAN:指鹿為馬的AI

2017年伯克利提出了CycleGAN的理念,CycleGAN論文地址、CycleGAN的Github傳送門,CycleGAN使用循環一致性損失函數來實現訓練,從而完成將圖片中一個域到另一個域的無縫轉換。

具體什麼是循環一致性損失函數咱們可以找時間詳解,簡單來說CycleGAN能將圖像的主題風格或者某一域主體完美進行切換,具體效果如下:

噓!我看到了你 60 歲的樣子

斑馬與馬的互轉

噓!我看到了你 60 歲的樣子

冬與夏的風格切換

後來NCSOFT又提出了UGATIT,一種加強版的CycleGAN,UGATIT論文地址、Github傳送門,其效果更好,具體如下:

噓!我看到了你 60 歲的樣子

CycleGAN出現之後,圖像主題無縫切換將圖像偽造技術提升了一個高度,在換臉之餘還能把原背景主題進行切換,給鑑定帶來來大麻煩。

噓!我看到了你 60 歲的樣子

StyleGAN:能算孩子未來長相的AI

目前好像非常流行組CP,那麼N廠提出的StyleGAN就是用來計算Picure A+ Picture B結果的AI,StyleGAN論文地址、StyleGAN的Github傳送門,而且他還支持多種結合模式,具體見下表

Style 等級

Picture A

Picture B

高等級(粗略)

所有顏色(眼睛,頭髮,光線)和細節面部特徵來自Picture A

繼承Picture B高級的面部特徵,如姿勢、一般的髮型、臉部形狀和眼鏡

中等級

姿勢、一般的面部形狀和眼睛來自Picture A

繼承Picture B中級的面部特徵 ,如髮型,張開/閉著的眼睛

高等級(細微)

主要面部內容來自Picture A

繼承Picture B高級面部特徵,如顏色方案和微觀結構

其兩張圖像按照三種Style結合的效果如下圖:

噓!我看到了你 60 歲的樣子"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

噓!我看到了你 60 歲的樣子

後來N廠又提出了PIX2PIXHD技術(GitHub傳送門),PIX2PIXHD把之前由PIX2PIX生成的圖像分辨率提高了很多。

可以說PIX2PIX是後面這些AI換臉、一鍵“脫"衣等技術的理論基礎,正是憑藉AI強大的聯想及腦補能力使以上應用成為了可能。

噓!我看到了你 60 歲的樣子

CycleGAN:指鹿為馬的AI

2017年伯克利提出了CycleGAN的理念,CycleGAN論文地址、CycleGAN的Github傳送門,CycleGAN使用循環一致性損失函數來實現訓練,從而完成將圖片中一個域到另一個域的無縫轉換。

具體什麼是循環一致性損失函數咱們可以找時間詳解,簡單來說CycleGAN能將圖像的主題風格或者某一域主體完美進行切換,具體效果如下:

噓!我看到了你 60 歲的樣子

斑馬與馬的互轉

噓!我看到了你 60 歲的樣子

冬與夏的風格切換

後來NCSOFT又提出了UGATIT,一種加強版的CycleGAN,UGATIT論文地址、Github傳送門,其效果更好,具體如下:

噓!我看到了你 60 歲的樣子

CycleGAN出現之後,圖像主題無縫切換將圖像偽造技術提升了一個高度,在換臉之餘還能把原背景主題進行切換,給鑑定帶來來大麻煩。

噓!我看到了你 60 歲的樣子

StyleGAN:能算孩子未來長相的AI

目前好像非常流行組CP,那麼N廠提出的StyleGAN就是用來計算Picure A+ Picture B結果的AI,StyleGAN論文地址、StyleGAN的Github傳送門,而且他還支持多種結合模式,具體見下表

Style 等級

Picture A

Picture B

高等級(粗略)

所有顏色(眼睛,頭髮,光線)和細節面部特徵來自Picture A

繼承Picture B高級的面部特徵,如姿勢、一般的髮型、臉部形狀和眼鏡

中等級

姿勢、一般的面部形狀和眼睛來自Picture A

繼承Picture B中級的面部特徵 ,如髮型,張開/閉著的眼睛

高等級(細微)

主要面部內容來自Picture A

繼承Picture B高級面部特徵,如顏色方案和微觀結構

其兩張圖像按照三種Style結合的效果如下圖:

噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

Partialconv:馬賽克終結者

Partialconv又是N廠提出的,Partialconv的論文地址、Partialconv的Github傳送門,Partialconv其實是PIX2PIX的2.0版本。

即使圖像丟失了大面積的像素他也能通過AI將損失進行修復。所謂的一鍵”去“衣、一鍵”去“碼其實背後都是Partialconv,其效果圖如下:

"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

噓!我看到了你 60 歲的樣子

後來N廠又提出了PIX2PIXHD技術(GitHub傳送門),PIX2PIXHD把之前由PIX2PIX生成的圖像分辨率提高了很多。

可以說PIX2PIX是後面這些AI換臉、一鍵“脫"衣等技術的理論基礎,正是憑藉AI強大的聯想及腦補能力使以上應用成為了可能。

噓!我看到了你 60 歲的樣子

CycleGAN:指鹿為馬的AI

2017年伯克利提出了CycleGAN的理念,CycleGAN論文地址、CycleGAN的Github傳送門,CycleGAN使用循環一致性損失函數來實現訓練,從而完成將圖片中一個域到另一個域的無縫轉換。

具體什麼是循環一致性損失函數咱們可以找時間詳解,簡單來說CycleGAN能將圖像的主題風格或者某一域主體完美進行切換,具體效果如下:

噓!我看到了你 60 歲的樣子

斑馬與馬的互轉

噓!我看到了你 60 歲的樣子

冬與夏的風格切換

後來NCSOFT又提出了UGATIT,一種加強版的CycleGAN,UGATIT論文地址、Github傳送門,其效果更好,具體如下:

噓!我看到了你 60 歲的樣子

CycleGAN出現之後,圖像主題無縫切換將圖像偽造技術提升了一個高度,在換臉之餘還能把原背景主題進行切換,給鑑定帶來來大麻煩。

噓!我看到了你 60 歲的樣子

StyleGAN:能算孩子未來長相的AI

目前好像非常流行組CP,那麼N廠提出的StyleGAN就是用來計算Picure A+ Picture B結果的AI,StyleGAN論文地址、StyleGAN的Github傳送門,而且他還支持多種結合模式,具體見下表

Style 等級

Picture A

Picture B

高等級(粗略)

所有顏色(眼睛,頭髮,光線)和細節面部特徵來自Picture A

繼承Picture B高級的面部特徵,如姿勢、一般的髮型、臉部形狀和眼鏡

中等級

姿勢、一般的面部形狀和眼睛來自Picture A

繼承Picture B中級的面部特徵 ,如髮型,張開/閉著的眼睛

高等級(細微)

主要面部內容來自Picture A

繼承Picture B高級面部特徵,如顏色方案和微觀結構

其兩張圖像按照三種Style結合的效果如下圖:

噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

Partialconv:馬賽克終結者

Partialconv又是N廠提出的,Partialconv的論文地址、Partialconv的Github傳送門,Partialconv其實是PIX2PIX的2.0版本。

即使圖像丟失了大面積的像素他也能通過AI將損失進行修復。所謂的一鍵”去“衣、一鍵”去“碼其實背後都是Partialconv,其效果圖如下:

噓!我看到了你 60 歲的樣子

這種修復效果,真的非常驚人。

"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

噓!我看到了你 60 歲的樣子

後來N廠又提出了PIX2PIXHD技術(GitHub傳送門),PIX2PIXHD把之前由PIX2PIX生成的圖像分辨率提高了很多。

可以說PIX2PIX是後面這些AI換臉、一鍵“脫"衣等技術的理論基礎,正是憑藉AI強大的聯想及腦補能力使以上應用成為了可能。

噓!我看到了你 60 歲的樣子

CycleGAN:指鹿為馬的AI

2017年伯克利提出了CycleGAN的理念,CycleGAN論文地址、CycleGAN的Github傳送門,CycleGAN使用循環一致性損失函數來實現訓練,從而完成將圖片中一個域到另一個域的無縫轉換。

具體什麼是循環一致性損失函數咱們可以找時間詳解,簡單來說CycleGAN能將圖像的主題風格或者某一域主體完美進行切換,具體效果如下:

噓!我看到了你 60 歲的樣子

斑馬與馬的互轉

噓!我看到了你 60 歲的樣子

冬與夏的風格切換

後來NCSOFT又提出了UGATIT,一種加強版的CycleGAN,UGATIT論文地址、Github傳送門,其效果更好,具體如下:

噓!我看到了你 60 歲的樣子

CycleGAN出現之後,圖像主題無縫切換將圖像偽造技術提升了一個高度,在換臉之餘還能把原背景主題進行切換,給鑑定帶來來大麻煩。

噓!我看到了你 60 歲的樣子

StyleGAN:能算孩子未來長相的AI

目前好像非常流行組CP,那麼N廠提出的StyleGAN就是用來計算Picure A+ Picture B結果的AI,StyleGAN論文地址、StyleGAN的Github傳送門,而且他還支持多種結合模式,具體見下表

Style 等級

Picture A

Picture B

高等級(粗略)

所有顏色(眼睛,頭髮,光線)和細節面部特徵來自Picture A

繼承Picture B高級的面部特徵,如姿勢、一般的髮型、臉部形狀和眼鏡

中等級

姿勢、一般的面部形狀和眼睛來自Picture A

繼承Picture B中級的面部特徵 ,如髮型,張開/閉著的眼睛

高等級(細微)

主要面部內容來自Picture A

繼承Picture B高級面部特徵,如顏色方案和微觀結構

其兩張圖像按照三種Style結合的效果如下圖:

噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

Partialconv:馬賽克終結者

Partialconv又是N廠提出的,Partialconv的論文地址、Partialconv的Github傳送門,Partialconv其實是PIX2PIX的2.0版本。

即使圖像丟失了大面積的像素他也能通過AI將損失進行修復。所謂的一鍵”去“衣、一鍵”去“碼其實背後都是Partialconv,其效果圖如下:

噓!我看到了你 60 歲的樣子

這種修復效果,真的非常驚人。

噓!我看到了你 60 歲的樣子

Speech-Driven Facial Animation:合成視頻的創始人

Speech-Driven Facial Animation是一個由三星提出的使用照片加音頻合成視頻的模型,SDFA論文地址、SDFA的Github鏈接,SDA能夠僅使用人的靜止圖像和包含語音的音頻剪輯來產生動畫面部。

其生成的視頻不僅可以產生與音頻同步的脣部動作,還可以呈現特有的面部表情,例如眨眼,眉毛等,同時能夠捕捉說話者的情緒並將其反映在面部表情中。

原圖如下:

"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

噓!我看到了你 60 歲的樣子

後來N廠又提出了PIX2PIXHD技術(GitHub傳送門),PIX2PIXHD把之前由PIX2PIX生成的圖像分辨率提高了很多。

可以說PIX2PIX是後面這些AI換臉、一鍵“脫"衣等技術的理論基礎,正是憑藉AI強大的聯想及腦補能力使以上應用成為了可能。

噓!我看到了你 60 歲的樣子

CycleGAN:指鹿為馬的AI

2017年伯克利提出了CycleGAN的理念,CycleGAN論文地址、CycleGAN的Github傳送門,CycleGAN使用循環一致性損失函數來實現訓練,從而完成將圖片中一個域到另一個域的無縫轉換。

具體什麼是循環一致性損失函數咱們可以找時間詳解,簡單來說CycleGAN能將圖像的主題風格或者某一域主體完美進行切換,具體效果如下:

噓!我看到了你 60 歲的樣子

斑馬與馬的互轉

噓!我看到了你 60 歲的樣子

冬與夏的風格切換

後來NCSOFT又提出了UGATIT,一種加強版的CycleGAN,UGATIT論文地址、Github傳送門,其效果更好,具體如下:

噓!我看到了你 60 歲的樣子

CycleGAN出現之後,圖像主題無縫切換將圖像偽造技術提升了一個高度,在換臉之餘還能把原背景主題進行切換,給鑑定帶來來大麻煩。

噓!我看到了你 60 歲的樣子

StyleGAN:能算孩子未來長相的AI

目前好像非常流行組CP,那麼N廠提出的StyleGAN就是用來計算Picure A+ Picture B結果的AI,StyleGAN論文地址、StyleGAN的Github傳送門,而且他還支持多種結合模式,具體見下表

Style 等級

Picture A

Picture B

高等級(粗略)

所有顏色(眼睛,頭髮,光線)和細節面部特徵來自Picture A

繼承Picture B高級的面部特徵,如姿勢、一般的髮型、臉部形狀和眼鏡

中等級

姿勢、一般的面部形狀和眼睛來自Picture A

繼承Picture B中級的面部特徵 ,如髮型,張開/閉著的眼睛

高等級(細微)

主要面部內容來自Picture A

繼承Picture B高級面部特徵,如顏色方案和微觀結構

其兩張圖像按照三種Style結合的效果如下圖:

噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

Partialconv:馬賽克終結者

Partialconv又是N廠提出的,Partialconv的論文地址、Partialconv的Github傳送門,Partialconv其實是PIX2PIX的2.0版本。

即使圖像丟失了大面積的像素他也能通過AI將損失進行修復。所謂的一鍵”去“衣、一鍵”去“碼其實背後都是Partialconv,其效果圖如下:

噓!我看到了你 60 歲的樣子

這種修復效果,真的非常驚人。

噓!我看到了你 60 歲的樣子

Speech-Driven Facial Animation:合成視頻的創始人

Speech-Driven Facial Animation是一個由三星提出的使用照片加音頻合成視頻的模型,SDFA論文地址、SDFA的Github鏈接,SDA能夠僅使用人的靜止圖像和包含語音的音頻剪輯來產生動畫面部。

其生成的視頻不僅可以產生與音頻同步的脣部動作,還可以呈現特有的面部表情,例如眨眼,眉毛等,同時能夠捕捉說話者的情緒並將其反映在面部表情中。

原圖如下:

噓!我看到了你 60 歲的樣子

SDA處理之後生成的圖像,靜止圖像立刻活靈活現起來。

"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

噓!我看到了你 60 歲的樣子

後來N廠又提出了PIX2PIXHD技術(GitHub傳送門),PIX2PIXHD把之前由PIX2PIX生成的圖像分辨率提高了很多。

可以說PIX2PIX是後面這些AI換臉、一鍵“脫"衣等技術的理論基礎,正是憑藉AI強大的聯想及腦補能力使以上應用成為了可能。

噓!我看到了你 60 歲的樣子

CycleGAN:指鹿為馬的AI

2017年伯克利提出了CycleGAN的理念,CycleGAN論文地址、CycleGAN的Github傳送門,CycleGAN使用循環一致性損失函數來實現訓練,從而完成將圖片中一個域到另一個域的無縫轉換。

具體什麼是循環一致性損失函數咱們可以找時間詳解,簡單來說CycleGAN能將圖像的主題風格或者某一域主體完美進行切換,具體效果如下:

噓!我看到了你 60 歲的樣子

斑馬與馬的互轉

噓!我看到了你 60 歲的樣子

冬與夏的風格切換

後來NCSOFT又提出了UGATIT,一種加強版的CycleGAN,UGATIT論文地址、Github傳送門,其效果更好,具體如下:

噓!我看到了你 60 歲的樣子

CycleGAN出現之後,圖像主題無縫切換將圖像偽造技術提升了一個高度,在換臉之餘還能把原背景主題進行切換,給鑑定帶來來大麻煩。

噓!我看到了你 60 歲的樣子

StyleGAN:能算孩子未來長相的AI

目前好像非常流行組CP,那麼N廠提出的StyleGAN就是用來計算Picure A+ Picture B結果的AI,StyleGAN論文地址、StyleGAN的Github傳送門,而且他還支持多種結合模式,具體見下表

Style 等級

Picture A

Picture B

高等級(粗略)

所有顏色(眼睛,頭髮,光線)和細節面部特徵來自Picture A

繼承Picture B高級的面部特徵,如姿勢、一般的髮型、臉部形狀和眼鏡

中等級

姿勢、一般的面部形狀和眼睛來自Picture A

繼承Picture B中級的面部特徵 ,如髮型,張開/閉著的眼睛

高等級(細微)

主要面部內容來自Picture A

繼承Picture B高級面部特徵,如顏色方案和微觀結構

其兩張圖像按照三種Style結合的效果如下圖:

噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

Partialconv:馬賽克終結者

Partialconv又是N廠提出的,Partialconv的論文地址、Partialconv的Github傳送門,Partialconv其實是PIX2PIX的2.0版本。

即使圖像丟失了大面積的像素他也能通過AI將損失進行修復。所謂的一鍵”去“衣、一鍵”去“碼其實背後都是Partialconv,其效果圖如下:

噓!我看到了你 60 歲的樣子

這種修復效果,真的非常驚人。

噓!我看到了你 60 歲的樣子

Speech-Driven Facial Animation:合成視頻的創始人

Speech-Driven Facial Animation是一個由三星提出的使用照片加音頻合成視頻的模型,SDFA論文地址、SDFA的Github鏈接,SDA能夠僅使用人的靜止圖像和包含語音的音頻剪輯來產生動畫面部。

其生成的視頻不僅可以產生與音頻同步的脣部動作,還可以呈現特有的面部表情,例如眨眼,眉毛等,同時能夠捕捉說話者的情緒並將其反映在面部表情中。

原圖如下:

噓!我看到了你 60 歲的樣子

SDA處理之後生成的圖像,靜止圖像立刻活靈活現起來。

噓!我看到了你 60 歲的樣子"噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

作者 | 馬超

責編 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

近日,筆者在CSDN博客,發佈了一篇有關AI換臉的教程,不過令筆者始料未及的是一石激起千層浪,竟然有不少網友留言求所謂一鍵“脫”衣的教程。

噓!我看到了你 60 歲的樣子

雖然筆者對於技術的濫用深惡痛絕,但技術本身是中性的,並無好壞之分,從而且從上篇博文中也能看到“AI換臉”的門檻越來越低,目前其應用已經發展到任何人都能操作的地步了。

所以想阻止這些濫用的技術,單靠封殺是不起了什麼作用的,所以本文就回歸到技術本身,帶大家盤點一下那些被濫用的AI模型。

也爭取能夠拋磚引玉幫助大家提供思路,來檢測這些被偽造過的視頻。

噓!我看到了你 60 歲的樣子

PIX2PIX:AI腦補的先河

魯迅先生曾說“一見短袖子,立刻想到白臂膊,立刻想到全裸體......中國人的想像惟在這一層能夠如此躍進。”不過和AI比起來國人的聯想能力根本就是小巫見大巫。

筆者之前的博文AI能讓楊超越跳舞,背後原理大揭祕就曾經介紹過PIX2PIX技術,PIX2PIX論文鏈接,PIX2PIXGithub地址,PIX2PIX是基於對抗神經網絡GAN的模型,其目標是由圖像的輪廓,還原回真實圖像。

目前讀者可以到https://affinelayer.com/pixsrv/這個網站來感受一下如何從一個簡筆畫出的輪廓轉換成真實的圖像。

噓!我看到了你 60 歲的樣子

後來N廠又提出了PIX2PIXHD技術(GitHub傳送門),PIX2PIXHD把之前由PIX2PIX生成的圖像分辨率提高了很多。

可以說PIX2PIX是後面這些AI換臉、一鍵“脫"衣等技術的理論基礎,正是憑藉AI強大的聯想及腦補能力使以上應用成為了可能。

噓!我看到了你 60 歲的樣子

CycleGAN:指鹿為馬的AI

2017年伯克利提出了CycleGAN的理念,CycleGAN論文地址、CycleGAN的Github傳送門,CycleGAN使用循環一致性損失函數來實現訓練,從而完成將圖片中一個域到另一個域的無縫轉換。

具體什麼是循環一致性損失函數咱們可以找時間詳解,簡單來說CycleGAN能將圖像的主題風格或者某一域主體完美進行切換,具體效果如下:

噓!我看到了你 60 歲的樣子

斑馬與馬的互轉

噓!我看到了你 60 歲的樣子

冬與夏的風格切換

後來NCSOFT又提出了UGATIT,一種加強版的CycleGAN,UGATIT論文地址、Github傳送門,其效果更好,具體如下:

噓!我看到了你 60 歲的樣子

CycleGAN出現之後,圖像主題無縫切換將圖像偽造技術提升了一個高度,在換臉之餘還能把原背景主題進行切換,給鑑定帶來來大麻煩。

噓!我看到了你 60 歲的樣子

StyleGAN:能算孩子未來長相的AI

目前好像非常流行組CP,那麼N廠提出的StyleGAN就是用來計算Picure A+ Picture B結果的AI,StyleGAN論文地址、StyleGAN的Github傳送門,而且他還支持多種結合模式,具體見下表

Style 等級

Picture A

Picture B

高等級(粗略)

所有顏色(眼睛,頭髮,光線)和細節面部特徵來自Picture A

繼承Picture B高級的面部特徵,如姿勢、一般的髮型、臉部形狀和眼鏡

中等級

姿勢、一般的面部形狀和眼睛來自Picture A

繼承Picture B中級的面部特徵 ,如髮型,張開/閉著的眼睛

高等級(細微)

主要面部內容來自Picture A

繼承Picture B高級面部特徵,如顏色方案和微觀結構

其兩張圖像按照三種Style結合的效果如下圖:

噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

Partialconv:馬賽克終結者

Partialconv又是N廠提出的,Partialconv的論文地址、Partialconv的Github傳送門,Partialconv其實是PIX2PIX的2.0版本。

即使圖像丟失了大面積的像素他也能通過AI將損失進行修復。所謂的一鍵”去“衣、一鍵”去“碼其實背後都是Partialconv,其效果圖如下:

噓!我看到了你 60 歲的樣子

這種修復效果,真的非常驚人。

噓!我看到了你 60 歲的樣子

Speech-Driven Facial Animation:合成視頻的創始人

Speech-Driven Facial Animation是一個由三星提出的使用照片加音頻合成視頻的模型,SDFA論文地址、SDFA的Github鏈接,SDA能夠僅使用人的靜止圖像和包含語音的音頻剪輯來產生動畫面部。

其生成的視頻不僅可以產生與音頻同步的脣部動作,還可以呈現特有的面部表情,例如眨眼,眉毛等,同時能夠捕捉說話者的情緒並將其反映在面部表情中。

原圖如下:

噓!我看到了你 60 歲的樣子

SDA處理之後生成的圖像,靜止圖像立刻活靈活現起來。

噓!我看到了你 60 歲的樣子噓!我看到了你 60 歲的樣子

寫在最後

上個月筆者在《銀行家雜誌》的發文,傳統銀行如何引領開放銀行時代潮流,就曾指出AI換臉等技術的興起將會我們未來的身份識別及認證造成很大的麻煩。

可以說一旦將人臉面部信息與具體的人聯繫起來,那麼人臉信息就可能被濫用,而且考慮到目前尚沒有可靠的技術能夠鑑定視頻的真偽。

所以筆者這裡也以此文號召大家共同關注由臉書、微軟聯合MIT等科研機構共同發起了”Deepfake挑戰賽“,找到以AI破解AI的方法,在而此之前筆者也呼籲各行業按照《GB/T 25724-2017公共安全視頻監控數字視音頻編解碼技術要求》進行安全加固,以防止仿造視頻的危害。

作者簡介:馬超,CSDN博客專家,金融科技從業者。

【END】

"

相關推薦

推薦中...