'人工智能解放鑑黃師,但AI審核真的就萬事大吉了?'

"
全文共2877字,預計學習時長6分鐘


"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


好在,人工智能的出現讓他們鬆了一口氣。但AI審核能否萬事大吉呢?


"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


好在,人工智能的出現讓他們鬆了一口氣。但AI審核能否萬事大吉呢?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

AI審核,沒那麼簡單


這是最好的時代,信息和知識從來沒有像今天一樣唾手可得,但這也是最壞的時代,因為信息從來沒有像今天這樣鋪天蓋地,氾濫無章。

自人工智能浪潮興起,自動化內容審核一直在發展,該服務確實可以對陌生人發送的信息進行自動篩選,隱藏圖像和嵌入的推文(除非收件人選擇查看),但該系統的廣泛適用性也限制了其實用性。


"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


好在,人工智能的出現讓他們鬆了一口氣。但AI審核能否萬事大吉呢?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

AI審核,沒那麼簡單


這是最好的時代,信息和知識從來沒有像今天一樣唾手可得,但這也是最壞的時代,因為信息從來沒有像今天這樣鋪天蓋地,氾濫無章。

自人工智能浪潮興起,自動化內容審核一直在發展,該服務確實可以對陌生人發送的信息進行自動篩選,隱藏圖像和嵌入的推文(除非收件人選擇查看),但該系統的廣泛適用性也限制了其實用性。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:人民網


一張小貓的照片和一張陰莖的照片一樣會被掃描;收到的色情推文,也只有點擊了才知道區別。更加好笑的是,英國警察曾想用人工智能技術發現和識別互聯網上的色情內容,但是卻總是把沙漠照片誤認為是裸體。

人走茶涼的Tumblr在AI監測之路上也走的跌跌撞撞,用戶的大量流失,AI鑑黃技術困難重重。Tumblr CEO Jeff D’Onofrio曾在聲明中表示,Tumblr的AI鑑黃計劃並不是指要禁止裸體政治抗議或大衛雕像這類內容,而是希望AI具備極強的成人內容識別能力,同時也依靠人類幫助訓練和控制系統。

"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


好在,人工智能的出現讓他們鬆了一口氣。但AI審核能否萬事大吉呢?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

AI審核,沒那麼簡單


這是最好的時代,信息和知識從來沒有像今天一樣唾手可得,但這也是最壞的時代,因為信息從來沒有像今天這樣鋪天蓋地,氾濫無章。

自人工智能浪潮興起,自動化內容審核一直在發展,該服務確實可以對陌生人發送的信息進行自動篩選,隱藏圖像和嵌入的推文(除非收件人選擇查看),但該系統的廣泛適用性也限制了其實用性。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:人民網


一張小貓的照片和一張陰莖的照片一樣會被掃描;收到的色情推文,也只有點擊了才知道區別。更加好笑的是,英國警察曾想用人工智能技術發現和識別互聯網上的色情內容,但是卻總是把沙漠照片誤認為是裸體。

人走茶涼的Tumblr在AI監測之路上也走的跌跌撞撞,用戶的大量流失,AI鑑黃技術困難重重。Tumblr CEO Jeff D’Onofrio曾在聲明中表示,Tumblr的AI鑑黃計劃並不是指要禁止裸體政治抗議或大衛雕像這類內容,而是希望AI具備極強的成人內容識別能力,同時也依靠人類幫助訓練和控制系統。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

簡單來說,Tumblr希望打造一個可以識別女性裸體但同時又不會將裸體女性塑像誤認為是成人內容的人工智能系統。儘管這對人來說是一件再簡單不過的事,但對於AI來說其難度則是與“雞蛋裡挑骨頭”無異。所以,當該系統開始運用時,就錯誤的識別了4554億個博客和1628億個無辜帖子,包括“花瓶”、“女巫”、“魚”等等。

Facebook的AI審核也漏洞百出。例如1973年榮獲普利策獎的《火從天降》一圖,全身赤裸的小女孩在越南戰爭中逃離汽油彈襲擊的照片被AI算法標記出來,被認為是兒童色情,遭到Facebook管理員刪除。雖然事後Facebook方面馬上恢復了照片並作出澄清,但我們依舊可以看出機器與人的區別。儘管小女孩全身裸露,但沒有人會覺得這張反映戰爭殘酷的照片有一絲絲色情的味道,而機器雖智能,卻仍舊缺乏理解人類細微差別的能力。


"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


好在,人工智能的出現讓他們鬆了一口氣。但AI審核能否萬事大吉呢?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

AI審核,沒那麼簡單


這是最好的時代,信息和知識從來沒有像今天一樣唾手可得,但這也是最壞的時代,因為信息從來沒有像今天這樣鋪天蓋地,氾濫無章。

自人工智能浪潮興起,自動化內容審核一直在發展,該服務確實可以對陌生人發送的信息進行自動篩選,隱藏圖像和嵌入的推文(除非收件人選擇查看),但該系統的廣泛適用性也限制了其實用性。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:人民網


一張小貓的照片和一張陰莖的照片一樣會被掃描;收到的色情推文,也只有點擊了才知道區別。更加好笑的是,英國警察曾想用人工智能技術發現和識別互聯網上的色情內容,但是卻總是把沙漠照片誤認為是裸體。

人走茶涼的Tumblr在AI監測之路上也走的跌跌撞撞,用戶的大量流失,AI鑑黃技術困難重重。Tumblr CEO Jeff D’Onofrio曾在聲明中表示,Tumblr的AI鑑黃計劃並不是指要禁止裸體政治抗議或大衛雕像這類內容,而是希望AI具備極強的成人內容識別能力,同時也依靠人類幫助訓練和控制系統。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

簡單來說,Tumblr希望打造一個可以識別女性裸體但同時又不會將裸體女性塑像誤認為是成人內容的人工智能系統。儘管這對人來說是一件再簡單不過的事,但對於AI來說其難度則是與“雞蛋裡挑骨頭”無異。所以,當該系統開始運用時,就錯誤的識別了4554億個博客和1628億個無辜帖子,包括“花瓶”、“女巫”、“魚”等等。

Facebook的AI審核也漏洞百出。例如1973年榮獲普利策獎的《火從天降》一圖,全身赤裸的小女孩在越南戰爭中逃離汽油彈襲擊的照片被AI算法標記出來,被認為是兒童色情,遭到Facebook管理員刪除。雖然事後Facebook方面馬上恢復了照片並作出澄清,但我們依舊可以看出機器與人的區別。儘管小女孩全身裸露,但沒有人會覺得這張反映戰爭殘酷的照片有一絲絲色情的味道,而機器雖智能,卻仍舊缺乏理解人類細微差別的能力。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


種種現象表明,AI技術雖然已經對毒品、槍支和錢幣等物品實現了有效的識別,但是面對裸露圖片時,它依然不夠可靠。

"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


好在,人工智能的出現讓他們鬆了一口氣。但AI審核能否萬事大吉呢?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

AI審核,沒那麼簡單


這是最好的時代,信息和知識從來沒有像今天一樣唾手可得,但這也是最壞的時代,因為信息從來沒有像今天這樣鋪天蓋地,氾濫無章。

自人工智能浪潮興起,自動化內容審核一直在發展,該服務確實可以對陌生人發送的信息進行自動篩選,隱藏圖像和嵌入的推文(除非收件人選擇查看),但該系統的廣泛適用性也限制了其實用性。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:人民網


一張小貓的照片和一張陰莖的照片一樣會被掃描;收到的色情推文,也只有點擊了才知道區別。更加好笑的是,英國警察曾想用人工智能技術發現和識別互聯網上的色情內容,但是卻總是把沙漠照片誤認為是裸體。

人走茶涼的Tumblr在AI監測之路上也走的跌跌撞撞,用戶的大量流失,AI鑑黃技術困難重重。Tumblr CEO Jeff D’Onofrio曾在聲明中表示,Tumblr的AI鑑黃計劃並不是指要禁止裸體政治抗議或大衛雕像這類內容,而是希望AI具備極強的成人內容識別能力,同時也依靠人類幫助訓練和控制系統。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

簡單來說,Tumblr希望打造一個可以識別女性裸體但同時又不會將裸體女性塑像誤認為是成人內容的人工智能系統。儘管這對人來說是一件再簡單不過的事,但對於AI來說其難度則是與“雞蛋裡挑骨頭”無異。所以,當該系統開始運用時,就錯誤的識別了4554億個博客和1628億個無辜帖子,包括“花瓶”、“女巫”、“魚”等等。

Facebook的AI審核也漏洞百出。例如1973年榮獲普利策獎的《火從天降》一圖,全身赤裸的小女孩在越南戰爭中逃離汽油彈襲擊的照片被AI算法標記出來,被認為是兒童色情,遭到Facebook管理員刪除。雖然事後Facebook方面馬上恢復了照片並作出澄清,但我們依舊可以看出機器與人的區別。儘管小女孩全身裸露,但沒有人會覺得這張反映戰爭殘酷的照片有一絲絲色情的味道,而機器雖智能,卻仍舊缺乏理解人類細微差別的能力。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


種種現象表明,AI技術雖然已經對毒品、槍支和錢幣等物品實現了有效的識別,但是面對裸露圖片時,它依然不夠可靠。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情:當你凝視他時就知道,但AI知道嗎?


考慮到現代人工智能和機器學習的進步,過濾器自動區分一種公雞和另一種完全不同種類的公雞的圖片似乎是不費吹灰之力的。的確,卡內基·梅隆大學人機交互研究所的傑森·洪(Jason Hong)教授表示,機器學習對解決這類問題非常有用,他指出,這將是“目前最先進的方法。在很多方面,它類似於電子郵件的垃圾郵件過濾器。”

但與垃圾郵件過濾器不同的是,垃圾郵件過濾器可以通過嵌入文本中的關鍵詞來識別有問題的內容而陰莖圖片過濾器需要處理照片,這比前者要複雜得多。為了創建一個能夠準確識別冒犯性內容的程序,需要提供大量的材料用於訓練一個深度學習分類器來識別陰莖的圖片,並考慮到照片的大小、形狀、顏色或角度等方面。

"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


好在,人工智能的出現讓他們鬆了一口氣。但AI審核能否萬事大吉呢?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

AI審核,沒那麼簡單


這是最好的時代,信息和知識從來沒有像今天一樣唾手可得,但這也是最壞的時代,因為信息從來沒有像今天這樣鋪天蓋地,氾濫無章。

自人工智能浪潮興起,自動化內容審核一直在發展,該服務確實可以對陌生人發送的信息進行自動篩選,隱藏圖像和嵌入的推文(除非收件人選擇查看),但該系統的廣泛適用性也限制了其實用性。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:人民網


一張小貓的照片和一張陰莖的照片一樣會被掃描;收到的色情推文,也只有點擊了才知道區別。更加好笑的是,英國警察曾想用人工智能技術發現和識別互聯網上的色情內容,但是卻總是把沙漠照片誤認為是裸體。

人走茶涼的Tumblr在AI監測之路上也走的跌跌撞撞,用戶的大量流失,AI鑑黃技術困難重重。Tumblr CEO Jeff D’Onofrio曾在聲明中表示,Tumblr的AI鑑黃計劃並不是指要禁止裸體政治抗議或大衛雕像這類內容,而是希望AI具備極強的成人內容識別能力,同時也依靠人類幫助訓練和控制系統。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

簡單來說,Tumblr希望打造一個可以識別女性裸體但同時又不會將裸體女性塑像誤認為是成人內容的人工智能系統。儘管這對人來說是一件再簡單不過的事,但對於AI來說其難度則是與“雞蛋裡挑骨頭”無異。所以,當該系統開始運用時,就錯誤的識別了4554億個博客和1628億個無辜帖子,包括“花瓶”、“女巫”、“魚”等等。

Facebook的AI審核也漏洞百出。例如1973年榮獲普利策獎的《火從天降》一圖,全身赤裸的小女孩在越南戰爭中逃離汽油彈襲擊的照片被AI算法標記出來,被認為是兒童色情,遭到Facebook管理員刪除。雖然事後Facebook方面馬上恢復了照片並作出澄清,但我們依舊可以看出機器與人的區別。儘管小女孩全身裸露,但沒有人會覺得這張反映戰爭殘酷的照片有一絲絲色情的味道,而機器雖智能,卻仍舊缺乏理解人類細微差別的能力。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


種種現象表明,AI技術雖然已經對毒品、槍支和錢幣等物品實現了有效的識別,但是面對裸露圖片時,它依然不夠可靠。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情:當你凝視他時就知道,但AI知道嗎?


考慮到現代人工智能和機器學習的進步,過濾器自動區分一種公雞和另一種完全不同種類的公雞的圖片似乎是不費吹灰之力的。的確,卡內基·梅隆大學人機交互研究所的傑森·洪(Jason Hong)教授表示,機器學習對解決這類問題非常有用,他指出,這將是“目前最先進的方法。在很多方面,它類似於電子郵件的垃圾郵件過濾器。”

但與垃圾郵件過濾器不同的是,垃圾郵件過濾器可以通過嵌入文本中的關鍵詞來識別有問題的內容而陰莖圖片過濾器需要處理照片,這比前者要複雜得多。為了創建一個能夠準確識別冒犯性內容的程序,需要提供大量的材料用於訓練一個深度學習分類器來識別陰莖的圖片,並考慮到照片的大小、形狀、顏色或角度等方面。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

洪教授指出,這個訓練過程可以與現有的舉報方法相配合,即根據社群用戶舉報的冒犯性內容,比如說筆者舉報某用戶發送了一張陰莖圖片,該圖片將被用作一個數據點輸入算法來訓練算法,使其適應社群需求。

但這種收集數據的方法可能需要一些時間。相反,程序員可以自己簡單地編譯一個訓練數據庫,但他們必須弄清楚什麼才是真正的違規內容。

訓練程序識別勃起的人類陰莖是一回事,但其他可能被用來騷擾用戶的成人內容,像同性戀色情片要怎麼處理呢?一張圖片的重口味要達到何種程度才會被認定為具有冒犯性?它必須包含陰莖的圖片,還是說同性戀色情也會被認為是一種冒犯?把網撒得太窄,程序就會失效;把網撒得太廣,用戶可能會抱怨他們的數據庫管理系統(DMs)受到侵略性的審查,就像Instagram最近首次推出成人內容過濾器之後發生的那樣。

"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


好在,人工智能的出現讓他們鬆了一口氣。但AI審核能否萬事大吉呢?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

AI審核,沒那麼簡單


這是最好的時代,信息和知識從來沒有像今天一樣唾手可得,但這也是最壞的時代,因為信息從來沒有像今天這樣鋪天蓋地,氾濫無章。

自人工智能浪潮興起,自動化內容審核一直在發展,該服務確實可以對陌生人發送的信息進行自動篩選,隱藏圖像和嵌入的推文(除非收件人選擇查看),但該系統的廣泛適用性也限制了其實用性。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:人民網


一張小貓的照片和一張陰莖的照片一樣會被掃描;收到的色情推文,也只有點擊了才知道區別。更加好笑的是,英國警察曾想用人工智能技術發現和識別互聯網上的色情內容,但是卻總是把沙漠照片誤認為是裸體。

人走茶涼的Tumblr在AI監測之路上也走的跌跌撞撞,用戶的大量流失,AI鑑黃技術困難重重。Tumblr CEO Jeff D’Onofrio曾在聲明中表示,Tumblr的AI鑑黃計劃並不是指要禁止裸體政治抗議或大衛雕像這類內容,而是希望AI具備極強的成人內容識別能力,同時也依靠人類幫助訓練和控制系統。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

簡單來說,Tumblr希望打造一個可以識別女性裸體但同時又不會將裸體女性塑像誤認為是成人內容的人工智能系統。儘管這對人來說是一件再簡單不過的事,但對於AI來說其難度則是與“雞蛋裡挑骨頭”無異。所以,當該系統開始運用時,就錯誤的識別了4554億個博客和1628億個無辜帖子,包括“花瓶”、“女巫”、“魚”等等。

Facebook的AI審核也漏洞百出。例如1973年榮獲普利策獎的《火從天降》一圖,全身赤裸的小女孩在越南戰爭中逃離汽油彈襲擊的照片被AI算法標記出來,被認為是兒童色情,遭到Facebook管理員刪除。雖然事後Facebook方面馬上恢復了照片並作出澄清,但我們依舊可以看出機器與人的區別。儘管小女孩全身裸露,但沒有人會覺得這張反映戰爭殘酷的照片有一絲絲色情的味道,而機器雖智能,卻仍舊缺乏理解人類細微差別的能力。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


種種現象表明,AI技術雖然已經對毒品、槍支和錢幣等物品實現了有效的識別,但是面對裸露圖片時,它依然不夠可靠。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情:當你凝視他時就知道,但AI知道嗎?


考慮到現代人工智能和機器學習的進步,過濾器自動區分一種公雞和另一種完全不同種類的公雞的圖片似乎是不費吹灰之力的。的確,卡內基·梅隆大學人機交互研究所的傑森·洪(Jason Hong)教授表示,機器學習對解決這類問題非常有用,他指出,這將是“目前最先進的方法。在很多方面,它類似於電子郵件的垃圾郵件過濾器。”

但與垃圾郵件過濾器不同的是,垃圾郵件過濾器可以通過嵌入文本中的關鍵詞來識別有問題的內容而陰莖圖片過濾器需要處理照片,這比前者要複雜得多。為了創建一個能夠準確識別冒犯性內容的程序,需要提供大量的材料用於訓練一個深度學習分類器來識別陰莖的圖片,並考慮到照片的大小、形狀、顏色或角度等方面。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

洪教授指出,這個訓練過程可以與現有的舉報方法相配合,即根據社群用戶舉報的冒犯性內容,比如說筆者舉報某用戶發送了一張陰莖圖片,該圖片將被用作一個數據點輸入算法來訓練算法,使其適應社群需求。

但這種收集數據的方法可能需要一些時間。相反,程序員可以自己簡單地編譯一個訓練數據庫,但他們必須弄清楚什麼才是真正的違規內容。

訓練程序識別勃起的人類陰莖是一回事,但其他可能被用來騷擾用戶的成人內容,像同性戀色情片要怎麼處理呢?一張圖片的重口味要達到何種程度才會被認定為具有冒犯性?它必須包含陰莖的圖片,還是說同性戀色情也會被認為是一種冒犯?把網撒得太窄,程序就會失效;把網撒得太廣,用戶可能會抱怨他們的數據庫管理系統(DMs)受到侵略性的審查,就像Instagram最近首次推出成人內容過濾器之後發生的那樣。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情有多難被定義呢?

這個問題可以追溯到1896年左右,當時美國最高法院法官波特·斯圖爾特(Potter Stewart)在審理著名的“雅各貝利斯訴俄亥俄州”一案時,就如何界定“色情”大撓其頭,最後也只能絕望的說:“這些材料就是赤裸裸的色情,可我也不想再勞神費力地去給他們下什麼定義了,我這輩子恐怕也很難做到這一點。不過,只要我看見了,我就知道是不是色情。”

AI鑑黃,路漫漫其修遠兮。


"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


好在,人工智能的出現讓他們鬆了一口氣。但AI審核能否萬事大吉呢?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

AI審核,沒那麼簡單


這是最好的時代,信息和知識從來沒有像今天一樣唾手可得,但這也是最壞的時代,因為信息從來沒有像今天這樣鋪天蓋地,氾濫無章。

自人工智能浪潮興起,自動化內容審核一直在發展,該服務確實可以對陌生人發送的信息進行自動篩選,隱藏圖像和嵌入的推文(除非收件人選擇查看),但該系統的廣泛適用性也限制了其實用性。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:人民網


一張小貓的照片和一張陰莖的照片一樣會被掃描;收到的色情推文,也只有點擊了才知道區別。更加好笑的是,英國警察曾想用人工智能技術發現和識別互聯網上的色情內容,但是卻總是把沙漠照片誤認為是裸體。

人走茶涼的Tumblr在AI監測之路上也走的跌跌撞撞,用戶的大量流失,AI鑑黃技術困難重重。Tumblr CEO Jeff D’Onofrio曾在聲明中表示,Tumblr的AI鑑黃計劃並不是指要禁止裸體政治抗議或大衛雕像這類內容,而是希望AI具備極強的成人內容識別能力,同時也依靠人類幫助訓練和控制系統。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

簡單來說,Tumblr希望打造一個可以識別女性裸體但同時又不會將裸體女性塑像誤認為是成人內容的人工智能系統。儘管這對人來說是一件再簡單不過的事,但對於AI來說其難度則是與“雞蛋裡挑骨頭”無異。所以,當該系統開始運用時,就錯誤的識別了4554億個博客和1628億個無辜帖子,包括“花瓶”、“女巫”、“魚”等等。

Facebook的AI審核也漏洞百出。例如1973年榮獲普利策獎的《火從天降》一圖,全身赤裸的小女孩在越南戰爭中逃離汽油彈襲擊的照片被AI算法標記出來,被認為是兒童色情,遭到Facebook管理員刪除。雖然事後Facebook方面馬上恢復了照片並作出澄清,但我們依舊可以看出機器與人的區別。儘管小女孩全身裸露,但沒有人會覺得這張反映戰爭殘酷的照片有一絲絲色情的味道,而機器雖智能,卻仍舊缺乏理解人類細微差別的能力。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


種種現象表明,AI技術雖然已經對毒品、槍支和錢幣等物品實現了有效的識別,但是面對裸露圖片時,它依然不夠可靠。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情:當你凝視他時就知道,但AI知道嗎?


考慮到現代人工智能和機器學習的進步,過濾器自動區分一種公雞和另一種完全不同種類的公雞的圖片似乎是不費吹灰之力的。的確,卡內基·梅隆大學人機交互研究所的傑森·洪(Jason Hong)教授表示,機器學習對解決這類問題非常有用,他指出,這將是“目前最先進的方法。在很多方面,它類似於電子郵件的垃圾郵件過濾器。”

但與垃圾郵件過濾器不同的是,垃圾郵件過濾器可以通過嵌入文本中的關鍵詞來識別有問題的內容而陰莖圖片過濾器需要處理照片,這比前者要複雜得多。為了創建一個能夠準確識別冒犯性內容的程序,需要提供大量的材料用於訓練一個深度學習分類器來識別陰莖的圖片,並考慮到照片的大小、形狀、顏色或角度等方面。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

洪教授指出,這個訓練過程可以與現有的舉報方法相配合,即根據社群用戶舉報的冒犯性內容,比如說筆者舉報某用戶發送了一張陰莖圖片,該圖片將被用作一個數據點輸入算法來訓練算法,使其適應社群需求。

但這種收集數據的方法可能需要一些時間。相反,程序員可以自己簡單地編譯一個訓練數據庫,但他們必須弄清楚什麼才是真正的違規內容。

訓練程序識別勃起的人類陰莖是一回事,但其他可能被用來騷擾用戶的成人內容,像同性戀色情片要怎麼處理呢?一張圖片的重口味要達到何種程度才會被認定為具有冒犯性?它必須包含陰莖的圖片,還是說同性戀色情也會被認為是一種冒犯?把網撒得太窄,程序就會失效;把網撒得太廣,用戶可能會抱怨他們的數據庫管理系統(DMs)受到侵略性的審查,就像Instagram最近首次推出成人內容過濾器之後發生的那樣。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情有多難被定義呢?

這個問題可以追溯到1896年左右,當時美國最高法院法官波特·斯圖爾特(Potter Stewart)在審理著名的“雅各貝利斯訴俄亥俄州”一案時,就如何界定“色情”大撓其頭,最後也只能絕望的說:“這些材料就是赤裸裸的色情,可我也不想再勞神費力地去給他們下什麼定義了,我這輩子恐怕也很難做到這一點。不過,只要我看見了,我就知道是不是色情。”

AI鑑黃,路漫漫其修遠兮。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

Bumble私人檢測,或許是目前最佳選擇

即使我們給人工智能餵食了大量色情作品,教會他們如何識別色情,但是一切選擇最後仍舊依賴於人。


"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


好在,人工智能的出現讓他們鬆了一口氣。但AI審核能否萬事大吉呢?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

AI審核,沒那麼簡單


這是最好的時代,信息和知識從來沒有像今天一樣唾手可得,但這也是最壞的時代,因為信息從來沒有像今天這樣鋪天蓋地,氾濫無章。

自人工智能浪潮興起,自動化內容審核一直在發展,該服務確實可以對陌生人發送的信息進行自動篩選,隱藏圖像和嵌入的推文(除非收件人選擇查看),但該系統的廣泛適用性也限制了其實用性。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:人民網


一張小貓的照片和一張陰莖的照片一樣會被掃描;收到的色情推文,也只有點擊了才知道區別。更加好笑的是,英國警察曾想用人工智能技術發現和識別互聯網上的色情內容,但是卻總是把沙漠照片誤認為是裸體。

人走茶涼的Tumblr在AI監測之路上也走的跌跌撞撞,用戶的大量流失,AI鑑黃技術困難重重。Tumblr CEO Jeff D’Onofrio曾在聲明中表示,Tumblr的AI鑑黃計劃並不是指要禁止裸體政治抗議或大衛雕像這類內容,而是希望AI具備極強的成人內容識別能力,同時也依靠人類幫助訓練和控制系統。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

簡單來說,Tumblr希望打造一個可以識別女性裸體但同時又不會將裸體女性塑像誤認為是成人內容的人工智能系統。儘管這對人來說是一件再簡單不過的事,但對於AI來說其難度則是與“雞蛋裡挑骨頭”無異。所以,當該系統開始運用時,就錯誤的識別了4554億個博客和1628億個無辜帖子,包括“花瓶”、“女巫”、“魚”等等。

Facebook的AI審核也漏洞百出。例如1973年榮獲普利策獎的《火從天降》一圖,全身赤裸的小女孩在越南戰爭中逃離汽油彈襲擊的照片被AI算法標記出來,被認為是兒童色情,遭到Facebook管理員刪除。雖然事後Facebook方面馬上恢復了照片並作出澄清,但我們依舊可以看出機器與人的區別。儘管小女孩全身裸露,但沒有人會覺得這張反映戰爭殘酷的照片有一絲絲色情的味道,而機器雖智能,卻仍舊缺乏理解人類細微差別的能力。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


種種現象表明,AI技術雖然已經對毒品、槍支和錢幣等物品實現了有效的識別,但是面對裸露圖片時,它依然不夠可靠。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情:當你凝視他時就知道,但AI知道嗎?


考慮到現代人工智能和機器學習的進步,過濾器自動區分一種公雞和另一種完全不同種類的公雞的圖片似乎是不費吹灰之力的。的確,卡內基·梅隆大學人機交互研究所的傑森·洪(Jason Hong)教授表示,機器學習對解決這類問題非常有用,他指出,這將是“目前最先進的方法。在很多方面,它類似於電子郵件的垃圾郵件過濾器。”

但與垃圾郵件過濾器不同的是,垃圾郵件過濾器可以通過嵌入文本中的關鍵詞來識別有問題的內容而陰莖圖片過濾器需要處理照片,這比前者要複雜得多。為了創建一個能夠準確識別冒犯性內容的程序,需要提供大量的材料用於訓練一個深度學習分類器來識別陰莖的圖片,並考慮到照片的大小、形狀、顏色或角度等方面。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

洪教授指出,這個訓練過程可以與現有的舉報方法相配合,即根據社群用戶舉報的冒犯性內容,比如說筆者舉報某用戶發送了一張陰莖圖片,該圖片將被用作一個數據點輸入算法來訓練算法,使其適應社群需求。

但這種收集數據的方法可能需要一些時間。相反,程序員可以自己簡單地編譯一個訓練數據庫,但他們必須弄清楚什麼才是真正的違規內容。

訓練程序識別勃起的人類陰莖是一回事,但其他可能被用來騷擾用戶的成人內容,像同性戀色情片要怎麼處理呢?一張圖片的重口味要達到何種程度才會被認定為具有冒犯性?它必須包含陰莖的圖片,還是說同性戀色情也會被認為是一種冒犯?把網撒得太窄,程序就會失效;把網撒得太廣,用戶可能會抱怨他們的數據庫管理系統(DMs)受到侵略性的審查,就像Instagram最近首次推出成人內容過濾器之後發生的那樣。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情有多難被定義呢?

這個問題可以追溯到1896年左右,當時美國最高法院法官波特·斯圖爾特(Potter Stewart)在審理著名的“雅各貝利斯訴俄亥俄州”一案時,就如何界定“色情”大撓其頭,最後也只能絕望的說:“這些材料就是赤裸裸的色情,可我也不想再勞神費力地去給他們下什麼定義了,我這輩子恐怕也很難做到這一點。不過,只要我看見了,我就知道是不是色情。”

AI鑑黃,路漫漫其修遠兮。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

Bumble私人檢測,或許是目前最佳選擇

即使我們給人工智能餵食了大量色情作品,教會他們如何識別色情,但是一切選擇最後仍舊依賴於人。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


並不是所有的生殖器圖片都是有問題的,雖然這些圖片是一種騷擾,但是也有一些用戶同意接受他們,一些場合需要他們,例如性教育。所以,一個自動將這些圖片標記為違規的系統,或者在不考慮語境的情況下阻止它們被接收,是不能滿足所有用戶需求的。


"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


好在,人工智能的出現讓他們鬆了一口氣。但AI審核能否萬事大吉呢?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

AI審核,沒那麼簡單


這是最好的時代,信息和知識從來沒有像今天一樣唾手可得,但這也是最壞的時代,因為信息從來沒有像今天這樣鋪天蓋地,氾濫無章。

自人工智能浪潮興起,自動化內容審核一直在發展,該服務確實可以對陌生人發送的信息進行自動篩選,隱藏圖像和嵌入的推文(除非收件人選擇查看),但該系統的廣泛適用性也限制了其實用性。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:人民網


一張小貓的照片和一張陰莖的照片一樣會被掃描;收到的色情推文,也只有點擊了才知道區別。更加好笑的是,英國警察曾想用人工智能技術發現和識別互聯網上的色情內容,但是卻總是把沙漠照片誤認為是裸體。

人走茶涼的Tumblr在AI監測之路上也走的跌跌撞撞,用戶的大量流失,AI鑑黃技術困難重重。Tumblr CEO Jeff D’Onofrio曾在聲明中表示,Tumblr的AI鑑黃計劃並不是指要禁止裸體政治抗議或大衛雕像這類內容,而是希望AI具備極強的成人內容識別能力,同時也依靠人類幫助訓練和控制系統。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

簡單來說,Tumblr希望打造一個可以識別女性裸體但同時又不會將裸體女性塑像誤認為是成人內容的人工智能系統。儘管這對人來說是一件再簡單不過的事,但對於AI來說其難度則是與“雞蛋裡挑骨頭”無異。所以,當該系統開始運用時,就錯誤的識別了4554億個博客和1628億個無辜帖子,包括“花瓶”、“女巫”、“魚”等等。

Facebook的AI審核也漏洞百出。例如1973年榮獲普利策獎的《火從天降》一圖,全身赤裸的小女孩在越南戰爭中逃離汽油彈襲擊的照片被AI算法標記出來,被認為是兒童色情,遭到Facebook管理員刪除。雖然事後Facebook方面馬上恢復了照片並作出澄清,但我們依舊可以看出機器與人的區別。儘管小女孩全身裸露,但沒有人會覺得這張反映戰爭殘酷的照片有一絲絲色情的味道,而機器雖智能,卻仍舊缺乏理解人類細微差別的能力。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


種種現象表明,AI技術雖然已經對毒品、槍支和錢幣等物品實現了有效的識別,但是面對裸露圖片時,它依然不夠可靠。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情:當你凝視他時就知道,但AI知道嗎?


考慮到現代人工智能和機器學習的進步,過濾器自動區分一種公雞和另一種完全不同種類的公雞的圖片似乎是不費吹灰之力的。的確,卡內基·梅隆大學人機交互研究所的傑森·洪(Jason Hong)教授表示,機器學習對解決這類問題非常有用,他指出,這將是“目前最先進的方法。在很多方面,它類似於電子郵件的垃圾郵件過濾器。”

但與垃圾郵件過濾器不同的是,垃圾郵件過濾器可以通過嵌入文本中的關鍵詞來識別有問題的內容而陰莖圖片過濾器需要處理照片,這比前者要複雜得多。為了創建一個能夠準確識別冒犯性內容的程序,需要提供大量的材料用於訓練一個深度學習分類器來識別陰莖的圖片,並考慮到照片的大小、形狀、顏色或角度等方面。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

洪教授指出,這個訓練過程可以與現有的舉報方法相配合,即根據社群用戶舉報的冒犯性內容,比如說筆者舉報某用戶發送了一張陰莖圖片,該圖片將被用作一個數據點輸入算法來訓練算法,使其適應社群需求。

但這種收集數據的方法可能需要一些時間。相反,程序員可以自己簡單地編譯一個訓練數據庫,但他們必須弄清楚什麼才是真正的違規內容。

訓練程序識別勃起的人類陰莖是一回事,但其他可能被用來騷擾用戶的成人內容,像同性戀色情片要怎麼處理呢?一張圖片的重口味要達到何種程度才會被認定為具有冒犯性?它必須包含陰莖的圖片,還是說同性戀色情也會被認為是一種冒犯?把網撒得太窄,程序就會失效;把網撒得太廣,用戶可能會抱怨他們的數據庫管理系統(DMs)受到侵略性的審查,就像Instagram最近首次推出成人內容過濾器之後發生的那樣。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情有多難被定義呢?

這個問題可以追溯到1896年左右,當時美國最高法院法官波特·斯圖爾特(Potter Stewart)在審理著名的“雅各貝利斯訴俄亥俄州”一案時,就如何界定“色情”大撓其頭,最後也只能絕望的說:“這些材料就是赤裸裸的色情,可我也不想再勞神費力地去給他們下什麼定義了,我這輩子恐怕也很難做到這一點。不過,只要我看見了,我就知道是不是色情。”

AI鑑黃,路漫漫其修遠兮。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

Bumble私人檢測,或許是目前最佳選擇

即使我們給人工智能餵食了大量色情作品,教會他們如何識別色情,但是一切選擇最後仍舊依賴於人。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


並不是所有的生殖器圖片都是有問題的,雖然這些圖片是一種騷擾,但是也有一些用戶同意接受他們,一些場合需要他們,例如性教育。所以,一個自動將這些圖片標記為違規的系統,或者在不考慮語境的情況下阻止它們被接收,是不能滿足所有用戶需求的。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


對此,Bumble(一個在線約會網站)最近推出的私人檢測功能也許是目前能期待的最好的系統。該功能聲稱能夠通過人工智能來識別成人內容,從而改善用戶體驗。Bumble團隊稱私人檢測器識別違規圖像的準確率能夠達到98%,它並不會給所有圖片打上馬賽克,而是讓用戶自己決定是否願意承擔看到陰莖圖片的風險,只會給確認包含成人內容的圖像打上馬賽克,但用戶仍然能夠自主選擇查看此類圖片。

這可能不是一種天衣無縫的算法,不能在人們打開收件箱之前自動擦除不想被看到的生殖器照片,但這是一個最有可能滿足最廣泛群眾需求的系統,在儘可能預防更多的騷擾的同時,為用戶提供選擇的能力,以防用戶實際上需要該圖片的情況。

在未能停止人們發送不適宜的成人內容之前,這可能是目前擁有的最佳選擇。


"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


好在,人工智能的出現讓他們鬆了一口氣。但AI審核能否萬事大吉呢?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

AI審核,沒那麼簡單


這是最好的時代,信息和知識從來沒有像今天一樣唾手可得,但這也是最壞的時代,因為信息從來沒有像今天這樣鋪天蓋地,氾濫無章。

自人工智能浪潮興起,自動化內容審核一直在發展,該服務確實可以對陌生人發送的信息進行自動篩選,隱藏圖像和嵌入的推文(除非收件人選擇查看),但該系統的廣泛適用性也限制了其實用性。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:人民網


一張小貓的照片和一張陰莖的照片一樣會被掃描;收到的色情推文,也只有點擊了才知道區別。更加好笑的是,英國警察曾想用人工智能技術發現和識別互聯網上的色情內容,但是卻總是把沙漠照片誤認為是裸體。

人走茶涼的Tumblr在AI監測之路上也走的跌跌撞撞,用戶的大量流失,AI鑑黃技術困難重重。Tumblr CEO Jeff D’Onofrio曾在聲明中表示,Tumblr的AI鑑黃計劃並不是指要禁止裸體政治抗議或大衛雕像這類內容,而是希望AI具備極強的成人內容識別能力,同時也依靠人類幫助訓練和控制系統。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

簡單來說,Tumblr希望打造一個可以識別女性裸體但同時又不會將裸體女性塑像誤認為是成人內容的人工智能系統。儘管這對人來說是一件再簡單不過的事,但對於AI來說其難度則是與“雞蛋裡挑骨頭”無異。所以,當該系統開始運用時,就錯誤的識別了4554億個博客和1628億個無辜帖子,包括“花瓶”、“女巫”、“魚”等等。

Facebook的AI審核也漏洞百出。例如1973年榮獲普利策獎的《火從天降》一圖,全身赤裸的小女孩在越南戰爭中逃離汽油彈襲擊的照片被AI算法標記出來,被認為是兒童色情,遭到Facebook管理員刪除。雖然事後Facebook方面馬上恢復了照片並作出澄清,但我們依舊可以看出機器與人的區別。儘管小女孩全身裸露,但沒有人會覺得這張反映戰爭殘酷的照片有一絲絲色情的味道,而機器雖智能,卻仍舊缺乏理解人類細微差別的能力。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


種種現象表明,AI技術雖然已經對毒品、槍支和錢幣等物品實現了有效的識別,但是面對裸露圖片時,它依然不夠可靠。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情:當你凝視他時就知道,但AI知道嗎?


考慮到現代人工智能和機器學習的進步,過濾器自動區分一種公雞和另一種完全不同種類的公雞的圖片似乎是不費吹灰之力的。的確,卡內基·梅隆大學人機交互研究所的傑森·洪(Jason Hong)教授表示,機器學習對解決這類問題非常有用,他指出,這將是“目前最先進的方法。在很多方面,它類似於電子郵件的垃圾郵件過濾器。”

但與垃圾郵件過濾器不同的是,垃圾郵件過濾器可以通過嵌入文本中的關鍵詞來識別有問題的內容而陰莖圖片過濾器需要處理照片,這比前者要複雜得多。為了創建一個能夠準確識別冒犯性內容的程序,需要提供大量的材料用於訓練一個深度學習分類器來識別陰莖的圖片,並考慮到照片的大小、形狀、顏色或角度等方面。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

洪教授指出,這個訓練過程可以與現有的舉報方法相配合,即根據社群用戶舉報的冒犯性內容,比如說筆者舉報某用戶發送了一張陰莖圖片,該圖片將被用作一個數據點輸入算法來訓練算法,使其適應社群需求。

但這種收集數據的方法可能需要一些時間。相反,程序員可以自己簡單地編譯一個訓練數據庫,但他們必須弄清楚什麼才是真正的違規內容。

訓練程序識別勃起的人類陰莖是一回事,但其他可能被用來騷擾用戶的成人內容,像同性戀色情片要怎麼處理呢?一張圖片的重口味要達到何種程度才會被認定為具有冒犯性?它必須包含陰莖的圖片,還是說同性戀色情也會被認為是一種冒犯?把網撒得太窄,程序就會失效;把網撒得太廣,用戶可能會抱怨他們的數據庫管理系統(DMs)受到侵略性的審查,就像Instagram最近首次推出成人內容過濾器之後發生的那樣。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情有多難被定義呢?

這個問題可以追溯到1896年左右,當時美國最高法院法官波特·斯圖爾特(Potter Stewart)在審理著名的“雅各貝利斯訴俄亥俄州”一案時,就如何界定“色情”大撓其頭,最後也只能絕望的說:“這些材料就是赤裸裸的色情,可我也不想再勞神費力地去給他們下什麼定義了,我這輩子恐怕也很難做到這一點。不過,只要我看見了,我就知道是不是色情。”

AI鑑黃,路漫漫其修遠兮。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

Bumble私人檢測,或許是目前最佳選擇

即使我們給人工智能餵食了大量色情作品,教會他們如何識別色情,但是一切選擇最後仍舊依賴於人。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


並不是所有的生殖器圖片都是有問題的,雖然這些圖片是一種騷擾,但是也有一些用戶同意接受他們,一些場合需要他們,例如性教育。所以,一個自動將這些圖片標記為違規的系統,或者在不考慮語境的情況下阻止它們被接收,是不能滿足所有用戶需求的。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


對此,Bumble(一個在線約會網站)最近推出的私人檢測功能也許是目前能期待的最好的系統。該功能聲稱能夠通過人工智能來識別成人內容,從而改善用戶體驗。Bumble團隊稱私人檢測器識別違規圖像的準確率能夠達到98%,它並不會給所有圖片打上馬賽克,而是讓用戶自己決定是否願意承擔看到陰莖圖片的風險,只會給確認包含成人內容的圖像打上馬賽克,但用戶仍然能夠自主選擇查看此類圖片。

這可能不是一種天衣無縫的算法,不能在人們打開收件箱之前自動擦除不想被看到的生殖器照片,但這是一個最有可能滿足最廣泛群眾需求的系統,在儘可能預防更多的騷擾的同時,為用戶提供選擇的能力,以防用戶實際上需要該圖片的情況。

在未能停止人們發送不適宜的成人內容之前,這可能是目前擁有的最佳選擇。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


"
全文共2877字,預計學習時長6分鐘


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:pixabay

前幾日,“B站宅舞區脫衣裸露視頻過審”的新聞曝光。雖然事後,B站發表聲明表示,大尺度違規視頻源於海外網站,B站過審的是“和諧刪減版”,沒有違規沒有涉黃,並刪除了相關視頻。但還是難擋吃瓜群眾的八卦之心,各個平臺上熱議紛紛。

不僅有人找到了最初未被“閹割”的小視頻,甚者還有網友“人肉”出了跳舞妹子的詳細資料,事件的前因後果和陸續發展。大家都異常踴躍。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

談性色變的時代,凡是這種帶點顏色的消息總能博得眾人眼球,越來越多的人打著大量的“擦邊球”、在“涉黃”邊緣試探,“網絡鑑黃師”的工作越來越難……

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

“鑑黃”不易,且行且珍惜

一個Tumblr倒下了,千千萬萬個Twitter站起來。

2018年12月17日,全球最大的輕博客網站Tumblr禁止了色情內容,這讓眾多無處安放的靈魂躁動不已。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


這時候,有一部分人發現Twitter可以繼續他們日常生理需求。換湯不換藥,Twitter成了新的網黃聚集地。

某位從事互聯網工作的女性表示,在Twitter平臺上,她的“好友請求”收件箱裡到處都是“嗨”一類的消息和一些過於私人的問題;有時,一些更加大膽的男人會直接給她發送陰莖圖片。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

在Twitter上,很多女性都表示曾收到過類似圖片。儘管很多人對於什麼是網絡騷擾及其細節會有不同意見,但有一點大家都一致認同:在未經同意的情況下給某人發送一張陰莖照片,即使對於當事人不能算是一種完全虐待的行為,也是一大失禮和噁心的事。

但若男性不在乎失禮,這種騷擾又該如何應對呢?

網絡“鑑黃師”作為社交媒體的“清道夫”, 為億萬網絡用戶的網絡淨土而負重前行,將最骯髒、最噁心的信息阻截在世界之外。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


但是他們真的扛得住嗎?

如今的Facebook用戶已經達到了23.2億,Twitter的日活也已經穩定在1.34億左右,隨著社交媒體的興起和發展,互聯網上對暴力、衝突、色情的加速作用變得越來越激烈,血腥自殘,幼童虐待,恐怖暴亂,淫穢色情,網絡“鑑黃師”成為了這個時代最悲傷的職業。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


好在,人工智能的出現讓他們鬆了一口氣。但AI審核能否萬事大吉呢?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

AI審核,沒那麼簡單


這是最好的時代,信息和知識從來沒有像今天一樣唾手可得,但這也是最壞的時代,因為信息從來沒有像今天這樣鋪天蓋地,氾濫無章。

自人工智能浪潮興起,自動化內容審核一直在發展,該服務確實可以對陌生人發送的信息進行自動篩選,隱藏圖像和嵌入的推文(除非收件人選擇查看),但該系統的廣泛適用性也限制了其實用性。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

圖源:人民網


一張小貓的照片和一張陰莖的照片一樣會被掃描;收到的色情推文,也只有點擊了才知道區別。更加好笑的是,英國警察曾想用人工智能技術發現和識別互聯網上的色情內容,但是卻總是把沙漠照片誤認為是裸體。

人走茶涼的Tumblr在AI監測之路上也走的跌跌撞撞,用戶的大量流失,AI鑑黃技術困難重重。Tumblr CEO Jeff D’Onofrio曾在聲明中表示,Tumblr的AI鑑黃計劃並不是指要禁止裸體政治抗議或大衛雕像這類內容,而是希望AI具備極強的成人內容識別能力,同時也依靠人類幫助訓練和控制系統。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

簡單來說,Tumblr希望打造一個可以識別女性裸體但同時又不會將裸體女性塑像誤認為是成人內容的人工智能系統。儘管這對人來說是一件再簡單不過的事,但對於AI來說其難度則是與“雞蛋裡挑骨頭”無異。所以,當該系統開始運用時,就錯誤的識別了4554億個博客和1628億個無辜帖子,包括“花瓶”、“女巫”、“魚”等等。

Facebook的AI審核也漏洞百出。例如1973年榮獲普利策獎的《火從天降》一圖,全身赤裸的小女孩在越南戰爭中逃離汽油彈襲擊的照片被AI算法標記出來,被認為是兒童色情,遭到Facebook管理員刪除。雖然事後Facebook方面馬上恢復了照片並作出澄清,但我們依舊可以看出機器與人的區別。儘管小女孩全身裸露,但沒有人會覺得這張反映戰爭殘酷的照片有一絲絲色情的味道,而機器雖智能,卻仍舊缺乏理解人類細微差別的能力。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


種種現象表明,AI技術雖然已經對毒品、槍支和錢幣等物品實現了有效的識別,但是面對裸露圖片時,它依然不夠可靠。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情:當你凝視他時就知道,但AI知道嗎?


考慮到現代人工智能和機器學習的進步,過濾器自動區分一種公雞和另一種完全不同種類的公雞的圖片似乎是不費吹灰之力的。的確,卡內基·梅隆大學人機交互研究所的傑森·洪(Jason Hong)教授表示,機器學習對解決這類問題非常有用,他指出,這將是“目前最先進的方法。在很多方面,它類似於電子郵件的垃圾郵件過濾器。”

但與垃圾郵件過濾器不同的是,垃圾郵件過濾器可以通過嵌入文本中的關鍵詞來識別有問題的內容而陰莖圖片過濾器需要處理照片,這比前者要複雜得多。為了創建一個能夠準確識別冒犯性內容的程序,需要提供大量的材料用於訓練一個深度學習分類器來識別陰莖的圖片,並考慮到照片的大小、形狀、顏色或角度等方面。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

洪教授指出,這個訓練過程可以與現有的舉報方法相配合,即根據社群用戶舉報的冒犯性內容,比如說筆者舉報某用戶發送了一張陰莖圖片,該圖片將被用作一個數據點輸入算法來訓練算法,使其適應社群需求。

但這種收集數據的方法可能需要一些時間。相反,程序員可以自己簡單地編譯一個訓練數據庫,但他們必須弄清楚什麼才是真正的違規內容。

訓練程序識別勃起的人類陰莖是一回事,但其他可能被用來騷擾用戶的成人內容,像同性戀色情片要怎麼處理呢?一張圖片的重口味要達到何種程度才會被認定為具有冒犯性?它必須包含陰莖的圖片,還是說同性戀色情也會被認為是一種冒犯?把網撒得太窄,程序就會失效;把網撒得太廣,用戶可能會抱怨他們的數據庫管理系統(DMs)受到侵略性的審查,就像Instagram最近首次推出成人內容過濾器之後發生的那樣。

人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

色情有多難被定義呢?

這個問題可以追溯到1896年左右,當時美國最高法院法官波特·斯圖爾特(Potter Stewart)在審理著名的“雅各貝利斯訴俄亥俄州”一案時,就如何界定“色情”大撓其頭,最後也只能絕望的說:“這些材料就是赤裸裸的色情,可我也不想再勞神費力地去給他們下什麼定義了,我這輩子恐怕也很難做到這一點。不過,只要我看見了,我就知道是不是色情。”

AI鑑黃,路漫漫其修遠兮。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

Bumble私人檢測,或許是目前最佳選擇

即使我們給人工智能餵食了大量色情作品,教會他們如何識別色情,但是一切選擇最後仍舊依賴於人。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


並不是所有的生殖器圖片都是有問題的,雖然這些圖片是一種騷擾,但是也有一些用戶同意接受他們,一些場合需要他們,例如性教育。所以,一個自動將這些圖片標記為違規的系統,或者在不考慮語境的情況下阻止它們被接收,是不能滿足所有用戶需求的。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


對此,Bumble(一個在線約會網站)最近推出的私人檢測功能也許是目前能期待的最好的系統。該功能聲稱能夠通過人工智能來識別成人內容,從而改善用戶體驗。Bumble團隊稱私人檢測器識別違規圖像的準確率能夠達到98%,它並不會給所有圖片打上馬賽克,而是讓用戶自己決定是否願意承擔看到陰莖圖片的風險,只會給確認包含成人內容的圖像打上馬賽克,但用戶仍然能夠自主選擇查看此類圖片。

這可能不是一種天衣無縫的算法,不能在人們打開收件箱之前自動擦除不想被看到的生殖器照片,但這是一個最有可能滿足最廣泛群眾需求的系統,在儘可能預防更多的騷擾的同時,為用戶提供選擇的能力,以防用戶實際上需要該圖片的情況。

在未能停止人們發送不適宜的成人內容之前,這可能是目前擁有的最佳選擇。


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?


人工智能解放鑑黃師,但AI審核真的就萬事大吉了?

留言 點贊 關注

我們一起分享AI學習與發展的乾貨

如需轉載,請後臺留言,遵守轉載規範

"

相關推薦

推薦中...