'AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮'

"

人類有時理性。

為了讓機器人學習技能,對它們進行千錘百煉、花式虐待,都是常有的事。

有時也很感性。

儘管我們也知道銅腔鐵臂的機器人並不會因為被擊打而感覺到疼痛,但依然希望能通過更溫和的方式來讓它們成長,科學家們想方設法試圖讓它們看看YouTube視頻就能學習,或是在模擬環境裡展開競技……

"

人類有時理性。

為了讓機器人學習技能,對它們進行千錘百煉、花式虐待,都是常有的事。

有時也很感性。

儘管我們也知道銅腔鐵臂的機器人並不會因為被擊打而感覺到疼痛,但依然希望能通過更溫和的方式來讓它們成長,科學家們想方設法試圖讓它們看看YouTube視頻就能學習,或是在模擬環境裡展開競技……

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

除了同理心作祟,還有點未雨綢繆的小機智在裡面。萬一哪天某天機器人覺醒了,發現這些被人類虐待的“黑歷史”,“黑化”了怎麼辦?電影裡的機器人革命不都是這麼來的嘛……

但,如果替人類反思的不是我們自己,而是AI呢?

當AI開始管理內容,它會違背規則、保護同類嗎?

8月21人,YouTube用戶Jamison Go最近收到了一封來自官方的通知,平臺自動刪除了他上傳的戰鬥機器人比賽視頻,原因是算法檢測到該內容對動物施以折磨或強迫動物對抗。當時,機器人喬普正在和另一個機器人作戰。

Jamison Go在自己的Facebook賬號上寫道:“今天是一個悲傷的日子。全世界的機器人愛好者都發出痛苦的哀鳴。”

"

人類有時理性。

為了讓機器人學習技能,對它們進行千錘百煉、花式虐待,都是常有的事。

有時也很感性。

儘管我們也知道銅腔鐵臂的機器人並不會因為被擊打而感覺到疼痛,但依然希望能通過更溫和的方式來讓它們成長,科學家們想方設法試圖讓它們看看YouTube視頻就能學習,或是在模擬環境裡展開競技……

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

除了同理心作祟,還有點未雨綢繆的小機智在裡面。萬一哪天某天機器人覺醒了,發現這些被人類虐待的“黑歷史”,“黑化”了怎麼辦?電影裡的機器人革命不都是這麼來的嘛……

但,如果替人類反思的不是我們自己,而是AI呢?

當AI開始管理內容,它會違背規則、保護同類嗎?

8月21人,YouTube用戶Jamison Go最近收到了一封來自官方的通知,平臺自動刪除了他上傳的戰鬥機器人比賽視頻,原因是算法檢測到該內容對動物施以折磨或強迫動物對抗。當時,機器人喬普正在和另一個機器人作戰。

Jamison Go在自己的Facebook賬號上寫道:“今天是一個悲傷的日子。全世界的機器人愛好者都發出痛苦的哀鳴。”

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

他並不是一個人。上一季戰鬥機器人比賽的參賽者莎拉·波霍雷基也在YouTube上受到了相同的打擊,這很快引發了全世界機器人相關內容頻道的關注。許多像BattleBots和RobotWars這樣的節目站出來,指責了YouTube這個將機器人戰鬥檢測為虐待動物的新算法。

之所以認為是AI在搗亂,是因為人類幾乎不可能在觀看這些視頻時將機器人認成動物,畫面中也並沒有出現人類和其他生物,被刪除的視頻並沒有在描述、標籤甚至標題裡提到機器人名字這樣容易被誤認為是生命體的文本。而且,YouTube自身對於機器人戰鬥視頻並沒有明確的禁令。這不,第二天就有人工團隊重新審查並恢復了大部分被誤刪的視頻。看來,將其錯誤標註並刪除的只能是算法自己乾的了。

事情雖然告一段落,但AI開始擅自停止以機器人同胞們為目標的暴力,這讓不少人陷入了“機器覺醒”的陰謀論裡。甚至有人開始猜想,YouTube是不是被AI接管了,讓算法做一切決定?所謂的“人工審核”到底是不是真實存在的?

又或者,你永遠不知道人工智能何時會找到另一種方法來保護它的機器人兄弟。

AI有情?真的是隻是一時眼花

那麼,從技術的角度講,錯誤刪除視頻到底是無意識地誤傷,還是AI們的自我保護呢?

目前來看,答案當然是前者。因為,在理解視頻這件事上,AI真的還沒有大家想象的那麼強。

2017年,谷歌推出了一款視頻智能(Video Intelligence)的API,可以自動識別視頻中的物體和內容。這在當時是里程碑式的應用,因為YouTube、Facebook、新浪微博、快手等等擁有視頻產品的平臺,無不深受不良內容的困擾。

一位泰國男子在Facebook上直播殺害親生女兒然後自殺的視頻,在網站上掛了將近24個小時,播放量超過25萬次,但其全球將近5000人的人工審核團隊依然無法在第一時間在浩如煙海的視頻流裡立即定位並刪除這些不良內容。

Facebook屢屢因擴散不良信息而受到政府審查的同時,YouTube也在為視頻審查帶來的業務危機而頭痛。因為早先YouTube的智能廣告推薦算法,就將沃爾瑪、百事可樂、電信運營商Verizon等廣告主的貼片廣告,分發到了一些宣揚仇恨和恐怖主義的視頻上……金主爸爸們很快用腳投票,這讓YouTube乃至整個Google的廣告網絡都感受到了壓力。

"

人類有時理性。

為了讓機器人學習技能,對它們進行千錘百煉、花式虐待,都是常有的事。

有時也很感性。

儘管我們也知道銅腔鐵臂的機器人並不會因為被擊打而感覺到疼痛,但依然希望能通過更溫和的方式來讓它們成長,科學家們想方設法試圖讓它們看看YouTube視頻就能學習,或是在模擬環境裡展開競技……

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

除了同理心作祟,還有點未雨綢繆的小機智在裡面。萬一哪天某天機器人覺醒了,發現這些被人類虐待的“黑歷史”,“黑化”了怎麼辦?電影裡的機器人革命不都是這麼來的嘛……

但,如果替人類反思的不是我們自己,而是AI呢?

當AI開始管理內容,它會違背規則、保護同類嗎?

8月21人,YouTube用戶Jamison Go最近收到了一封來自官方的通知,平臺自動刪除了他上傳的戰鬥機器人比賽視頻,原因是算法檢測到該內容對動物施以折磨或強迫動物對抗。當時,機器人喬普正在和另一個機器人作戰。

Jamison Go在自己的Facebook賬號上寫道:“今天是一個悲傷的日子。全世界的機器人愛好者都發出痛苦的哀鳴。”

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

他並不是一個人。上一季戰鬥機器人比賽的參賽者莎拉·波霍雷基也在YouTube上受到了相同的打擊,這很快引發了全世界機器人相關內容頻道的關注。許多像BattleBots和RobotWars這樣的節目站出來,指責了YouTube這個將機器人戰鬥檢測為虐待動物的新算法。

之所以認為是AI在搗亂,是因為人類幾乎不可能在觀看這些視頻時將機器人認成動物,畫面中也並沒有出現人類和其他生物,被刪除的視頻並沒有在描述、標籤甚至標題裡提到機器人名字這樣容易被誤認為是生命體的文本。而且,YouTube自身對於機器人戰鬥視頻並沒有明確的禁令。這不,第二天就有人工團隊重新審查並恢復了大部分被誤刪的視頻。看來,將其錯誤標註並刪除的只能是算法自己乾的了。

事情雖然告一段落,但AI開始擅自停止以機器人同胞們為目標的暴力,這讓不少人陷入了“機器覺醒”的陰謀論裡。甚至有人開始猜想,YouTube是不是被AI接管了,讓算法做一切決定?所謂的“人工審核”到底是不是真實存在的?

又或者,你永遠不知道人工智能何時會找到另一種方法來保護它的機器人兄弟。

AI有情?真的是隻是一時眼花

那麼,從技術的角度講,錯誤刪除視頻到底是無意識地誤傷,還是AI們的自我保護呢?

目前來看,答案當然是前者。因為,在理解視頻這件事上,AI真的還沒有大家想象的那麼強。

2017年,谷歌推出了一款視頻智能(Video Intelligence)的API,可以自動識別視頻中的物體和內容。這在當時是里程碑式的應用,因為YouTube、Facebook、新浪微博、快手等等擁有視頻產品的平臺,無不深受不良內容的困擾。

一位泰國男子在Facebook上直播殺害親生女兒然後自殺的視頻,在網站上掛了將近24個小時,播放量超過25萬次,但其全球將近5000人的人工審核團隊依然無法在第一時間在浩如煙海的視頻流裡立即定位並刪除這些不良內容。

Facebook屢屢因擴散不良信息而受到政府審查的同時,YouTube也在為視頻審查帶來的業務危機而頭痛。因為早先YouTube的智能廣告推薦算法,就將沃爾瑪、百事可樂、電信運營商Verizon等廣告主的貼片廣告,分發到了一些宣揚仇恨和恐怖主義的視頻上……金主爸爸們很快用腳投票,這讓YouTube乃至整個Google的廣告網絡都感受到了壓力。

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

雖然Google聲稱,這些問題隻影響到了“非常非常非常少”的視頻,但顯然唯有行動才能打消用戶與廣告商的顧慮。

所以,“視頻智能”技術發佈的時候,時任谷歌雲機器學習與人工智能首席科學家的李飛飛曾經這樣形容它——通過視頻識別技術,“我們將開始給數字星空中一個黑暗的物質照亮光芒。”

如今,兩年時間過去了,網絡內容的黑暗一角真的被AI照亮了嗎?成果當然是值得肯定的,比如隨著新算法模型的不斷突破,谷歌的BERT訓練方法可以將審查的人工勞動量從12,000小時減少到80小時。

但同樣的,各大內容平臺的人工審核團隊也在不斷擴張。顯然,機器方法的引入並沒有如預期中那樣幫助平臺提質增效。視頻理解,依舊是一朵未能從應用層面被摘下的高嶺之花,它具體難在何處呢?

首先是真實環境下的行為識別(Action Recognition)。

目前的視頻行為識別模型,都使用動作分割好的數據集進行訓練,像是 UCF101、ActivityNet、DeepMind 的 Kinetics、Google的AVA數據集等等。每個視頻片段包含一段明確的動作,並被打上了明確且唯一的分類標籤。但是真實環境中的視頻都沒有被預先切分,有時還會包含多人動作等複雜場景,或是包含複雜的情緒、意圖,這些問題的處理難度都比人臉識別等明確定義的難以下,所以實際應用時準確率就會下降。

"

人類有時理性。

為了讓機器人學習技能,對它們進行千錘百煉、花式虐待,都是常有的事。

有時也很感性。

儘管我們也知道銅腔鐵臂的機器人並不會因為被擊打而感覺到疼痛,但依然希望能通過更溫和的方式來讓它們成長,科學家們想方設法試圖讓它們看看YouTube視頻就能學習,或是在模擬環境裡展開競技……

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

除了同理心作祟,還有點未雨綢繆的小機智在裡面。萬一哪天某天機器人覺醒了,發現這些被人類虐待的“黑歷史”,“黑化”了怎麼辦?電影裡的機器人革命不都是這麼來的嘛……

但,如果替人類反思的不是我們自己,而是AI呢?

當AI開始管理內容,它會違背規則、保護同類嗎?

8月21人,YouTube用戶Jamison Go最近收到了一封來自官方的通知,平臺自動刪除了他上傳的戰鬥機器人比賽視頻,原因是算法檢測到該內容對動物施以折磨或強迫動物對抗。當時,機器人喬普正在和另一個機器人作戰。

Jamison Go在自己的Facebook賬號上寫道:“今天是一個悲傷的日子。全世界的機器人愛好者都發出痛苦的哀鳴。”

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

他並不是一個人。上一季戰鬥機器人比賽的參賽者莎拉·波霍雷基也在YouTube上受到了相同的打擊,這很快引發了全世界機器人相關內容頻道的關注。許多像BattleBots和RobotWars這樣的節目站出來,指責了YouTube這個將機器人戰鬥檢測為虐待動物的新算法。

之所以認為是AI在搗亂,是因為人類幾乎不可能在觀看這些視頻時將機器人認成動物,畫面中也並沒有出現人類和其他生物,被刪除的視頻並沒有在描述、標籤甚至標題裡提到機器人名字這樣容易被誤認為是生命體的文本。而且,YouTube自身對於機器人戰鬥視頻並沒有明確的禁令。這不,第二天就有人工團隊重新審查並恢復了大部分被誤刪的視頻。看來,將其錯誤標註並刪除的只能是算法自己乾的了。

事情雖然告一段落,但AI開始擅自停止以機器人同胞們為目標的暴力,這讓不少人陷入了“機器覺醒”的陰謀論裡。甚至有人開始猜想,YouTube是不是被AI接管了,讓算法做一切決定?所謂的“人工審核”到底是不是真實存在的?

又或者,你永遠不知道人工智能何時會找到另一種方法來保護它的機器人兄弟。

AI有情?真的是隻是一時眼花

那麼,從技術的角度講,錯誤刪除視頻到底是無意識地誤傷,還是AI們的自我保護呢?

目前來看,答案當然是前者。因為,在理解視頻這件事上,AI真的還沒有大家想象的那麼強。

2017年,谷歌推出了一款視頻智能(Video Intelligence)的API,可以自動識別視頻中的物體和內容。這在當時是里程碑式的應用,因為YouTube、Facebook、新浪微博、快手等等擁有視頻產品的平臺,無不深受不良內容的困擾。

一位泰國男子在Facebook上直播殺害親生女兒然後自殺的視頻,在網站上掛了將近24個小時,播放量超過25萬次,但其全球將近5000人的人工審核團隊依然無法在第一時間在浩如煙海的視頻流裡立即定位並刪除這些不良內容。

Facebook屢屢因擴散不良信息而受到政府審查的同時,YouTube也在為視頻審查帶來的業務危機而頭痛。因為早先YouTube的智能廣告推薦算法,就將沃爾瑪、百事可樂、電信運營商Verizon等廣告主的貼片廣告,分發到了一些宣揚仇恨和恐怖主義的視頻上……金主爸爸們很快用腳投票,這讓YouTube乃至整個Google的廣告網絡都感受到了壓力。

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

雖然Google聲稱,這些問題隻影響到了“非常非常非常少”的視頻,但顯然唯有行動才能打消用戶與廣告商的顧慮。

所以,“視頻智能”技術發佈的時候,時任谷歌雲機器學習與人工智能首席科學家的李飛飛曾經這樣形容它——通過視頻識別技術,“我們將開始給數字星空中一個黑暗的物質照亮光芒。”

如今,兩年時間過去了,網絡內容的黑暗一角真的被AI照亮了嗎?成果當然是值得肯定的,比如隨著新算法模型的不斷突破,谷歌的BERT訓練方法可以將審查的人工勞動量從12,000小時減少到80小時。

但同樣的,各大內容平臺的人工審核團隊也在不斷擴張。顯然,機器方法的引入並沒有如預期中那樣幫助平臺提質增效。視頻理解,依舊是一朵未能從應用層面被摘下的高嶺之花,它具體難在何處呢?

首先是真實環境下的行為識別(Action Recognition)。

目前的視頻行為識別模型,都使用動作分割好的數據集進行訓練,像是 UCF101、ActivityNet、DeepMind 的 Kinetics、Google的AVA數據集等等。每個視頻片段包含一段明確的動作,並被打上了明確且唯一的分類標籤。但是真實環境中的視頻都沒有被預先切分,有時還會包含多人動作等複雜場景,或是包含複雜的情緒、意圖,這些問題的處理難度都比人臉識別等明確定義的難以下,所以實際應用時準確率就會下降。

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

比如一隻狗張開嘴巴,和一個人打開門,都會用“打開”(open)這個動詞來標註,並被放進同一個分類中……從這個角度看,YouTube算法將機器人戰鬥當做動物虐待,好像也挺符合它目前的“智商”的。

對視頻中的行為進行分類就已經很難了,如果再加上時序,就更讓AI發愁了。

因為對於圖像中的物體,目前的技術已經能做到很容易地進行檢測和分割,然而生物行為的時序邊界往往是很不明確的,一個動作何時開始、何時結束,動作變化幅度太大等等,都很容易讓算法“眼花”。一方面,既要在大量連續幀之間解決時序冗餘的問題,提高檢測速度;又要提高“眼力”,在運動模糊、部分遮擋等情況下也能精準定位和識別,就在前不久Google又提出了新的基於Q-learning學習自適應交替策略,就是在速度與準確率之間尋求平衡。至少從這次“算法誤刪事件”看來,這條技術高山還需要工程師們持續向上攀爬。

"

人類有時理性。

為了讓機器人學習技能,對它們進行千錘百煉、花式虐待,都是常有的事。

有時也很感性。

儘管我們也知道銅腔鐵臂的機器人並不會因為被擊打而感覺到疼痛,但依然希望能通過更溫和的方式來讓它們成長,科學家們想方設法試圖讓它們看看YouTube視頻就能學習,或是在模擬環境裡展開競技……

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

除了同理心作祟,還有點未雨綢繆的小機智在裡面。萬一哪天某天機器人覺醒了,發現這些被人類虐待的“黑歷史”,“黑化”了怎麼辦?電影裡的機器人革命不都是這麼來的嘛……

但,如果替人類反思的不是我們自己,而是AI呢?

當AI開始管理內容,它會違背規則、保護同類嗎?

8月21人,YouTube用戶Jamison Go最近收到了一封來自官方的通知,平臺自動刪除了他上傳的戰鬥機器人比賽視頻,原因是算法檢測到該內容對動物施以折磨或強迫動物對抗。當時,機器人喬普正在和另一個機器人作戰。

Jamison Go在自己的Facebook賬號上寫道:“今天是一個悲傷的日子。全世界的機器人愛好者都發出痛苦的哀鳴。”

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

他並不是一個人。上一季戰鬥機器人比賽的參賽者莎拉·波霍雷基也在YouTube上受到了相同的打擊,這很快引發了全世界機器人相關內容頻道的關注。許多像BattleBots和RobotWars這樣的節目站出來,指責了YouTube這個將機器人戰鬥檢測為虐待動物的新算法。

之所以認為是AI在搗亂,是因為人類幾乎不可能在觀看這些視頻時將機器人認成動物,畫面中也並沒有出現人類和其他生物,被刪除的視頻並沒有在描述、標籤甚至標題裡提到機器人名字這樣容易被誤認為是生命體的文本。而且,YouTube自身對於機器人戰鬥視頻並沒有明確的禁令。這不,第二天就有人工團隊重新審查並恢復了大部分被誤刪的視頻。看來,將其錯誤標註並刪除的只能是算法自己乾的了。

事情雖然告一段落,但AI開始擅自停止以機器人同胞們為目標的暴力,這讓不少人陷入了“機器覺醒”的陰謀論裡。甚至有人開始猜想,YouTube是不是被AI接管了,讓算法做一切決定?所謂的“人工審核”到底是不是真實存在的?

又或者,你永遠不知道人工智能何時會找到另一種方法來保護它的機器人兄弟。

AI有情?真的是隻是一時眼花

那麼,從技術的角度講,錯誤刪除視頻到底是無意識地誤傷,還是AI們的自我保護呢?

目前來看,答案當然是前者。因為,在理解視頻這件事上,AI真的還沒有大家想象的那麼強。

2017年,谷歌推出了一款視頻智能(Video Intelligence)的API,可以自動識別視頻中的物體和內容。這在當時是里程碑式的應用,因為YouTube、Facebook、新浪微博、快手等等擁有視頻產品的平臺,無不深受不良內容的困擾。

一位泰國男子在Facebook上直播殺害親生女兒然後自殺的視頻,在網站上掛了將近24個小時,播放量超過25萬次,但其全球將近5000人的人工審核團隊依然無法在第一時間在浩如煙海的視頻流裡立即定位並刪除這些不良內容。

Facebook屢屢因擴散不良信息而受到政府審查的同時,YouTube也在為視頻審查帶來的業務危機而頭痛。因為早先YouTube的智能廣告推薦算法,就將沃爾瑪、百事可樂、電信運營商Verizon等廣告主的貼片廣告,分發到了一些宣揚仇恨和恐怖主義的視頻上……金主爸爸們很快用腳投票,這讓YouTube乃至整個Google的廣告網絡都感受到了壓力。

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

雖然Google聲稱,這些問題隻影響到了“非常非常非常少”的視頻,但顯然唯有行動才能打消用戶與廣告商的顧慮。

所以,“視頻智能”技術發佈的時候,時任谷歌雲機器學習與人工智能首席科學家的李飛飛曾經這樣形容它——通過視頻識別技術,“我們將開始給數字星空中一個黑暗的物質照亮光芒。”

如今,兩年時間過去了,網絡內容的黑暗一角真的被AI照亮了嗎?成果當然是值得肯定的,比如隨著新算法模型的不斷突破,谷歌的BERT訓練方法可以將審查的人工勞動量從12,000小時減少到80小時。

但同樣的,各大內容平臺的人工審核團隊也在不斷擴張。顯然,機器方法的引入並沒有如預期中那樣幫助平臺提質增效。視頻理解,依舊是一朵未能從應用層面被摘下的高嶺之花,它具體難在何處呢?

首先是真實環境下的行為識別(Action Recognition)。

目前的視頻行為識別模型,都使用動作分割好的數據集進行訓練,像是 UCF101、ActivityNet、DeepMind 的 Kinetics、Google的AVA數據集等等。每個視頻片段包含一段明確的動作,並被打上了明確且唯一的分類標籤。但是真實環境中的視頻都沒有被預先切分,有時還會包含多人動作等複雜場景,或是包含複雜的情緒、意圖,這些問題的處理難度都比人臉識別等明確定義的難以下,所以實際應用時準確率就會下降。

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

比如一隻狗張開嘴巴,和一個人打開門,都會用“打開”(open)這個動詞來標註,並被放進同一個分類中……從這個角度看,YouTube算法將機器人戰鬥當做動物虐待,好像也挺符合它目前的“智商”的。

對視頻中的行為進行分類就已經很難了,如果再加上時序,就更讓AI發愁了。

因為對於圖像中的物體,目前的技術已經能做到很容易地進行檢測和分割,然而生物行為的時序邊界往往是很不明確的,一個動作何時開始、何時結束,動作變化幅度太大等等,都很容易讓算法“眼花”。一方面,既要在大量連續幀之間解決時序冗餘的問題,提高檢測速度;又要提高“眼力”,在運動模糊、部分遮擋等情況下也能精準定位和識別,就在前不久Google又提出了新的基於Q-learning學習自適應交替策略,就是在速度與準確率之間尋求平衡。至少從這次“算法誤刪事件”看來,這條技術高山還需要工程師們持續向上攀爬。

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

另一個影響視頻理解技術進程的,就是成本困境。相比圖像,訓練視頻模型需要增加許多存儲、計算資源,對實時性的要求也更高,因此也比普通神經網絡更難訓練,目前賽道上的主力玩家就是Google、Facebook、百度、頭條等巨頭在角逐。想要讓更多開發者為技術進階貢獻腦力,如何減輕訓練負擔就成了不可忽視的工作。目前Google、百度都通過自家的開源平臺釋放了視頻理解算法模型和標註好的數據集,一些運算資源上的扶持政策也相繼露面,恨不得讓開發者們“拎包入住”……

所以從技術層面來看,視頻理解註定是無數人苦心科研的點滴心血累計,才能積累成撬動整個行業的能量,距離想象中的“AI機器人抱團”還有很長的路要走。

與智能機器共生,人類做好準備了嗎?

只要稍微想一想,就能明白算法只是無心之失,畢竟就算它未來真的可能向著自己機器人大兄弟,現在也不具備那個業務能力啊。這麼簡單的事兒,為什麼還能被“節奏大師”們引發一陣黑客帝國式恐慌呢?

原因之一,恐怕是大多數人對於《機器人打擂臺》這種格鬥節目或競技比賽還是不甚瞭解,並不知道機器是在通過自由對抗提升對複雜環境和意外的靈活應變能力,使它們在硬件和智能程度上不斷嚮應用進階。

對於普通人來說,就看到一群機器人刀劈斧砍,互相傾軋,跟斗獸場取樂似乎並無區別,這就很容易產生移情效應,將自己的同情心理釋放到算法上——“人看了都想打人,AI看了肯定更生氣”,研究人員也沒少因為對機器人拳打腳踢而登上頭條……所以這次因YouTube下架事件受到影響的Maker's Muse幕後製作人Angus Deveson,就在一個聲援視頻中公開宣傳:“戰鬥機器人節目是教育和展示工程學魅力的絕佳工具”,以期讓更多人改變對機器人節目的認知。

而另一個比較隱藏的憂慮,則是對於“AI導向”的社會焦慮。

今天哪怕是偏遠如非洲的人群,恐怕也無法否認,整個社會運轉不僅僅由人類組成,也有越來越多的機器參與進來,從Facebook上的一舉一動,到亞馬遜流域猿猴的生存環境,智能機器正在成為人類和人類、人類和社會之間必不可少的媒介。

"

人類有時理性。

為了讓機器人學習技能,對它們進行千錘百煉、花式虐待,都是常有的事。

有時也很感性。

儘管我們也知道銅腔鐵臂的機器人並不會因為被擊打而感覺到疼痛,但依然希望能通過更溫和的方式來讓它們成長,科學家們想方設法試圖讓它們看看YouTube視頻就能學習,或是在模擬環境裡展開競技……

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

除了同理心作祟,還有點未雨綢繆的小機智在裡面。萬一哪天某天機器人覺醒了,發現這些被人類虐待的“黑歷史”,“黑化”了怎麼辦?電影裡的機器人革命不都是這麼來的嘛……

但,如果替人類反思的不是我們自己,而是AI呢?

當AI開始管理內容,它會違背規則、保護同類嗎?

8月21人,YouTube用戶Jamison Go最近收到了一封來自官方的通知,平臺自動刪除了他上傳的戰鬥機器人比賽視頻,原因是算法檢測到該內容對動物施以折磨或強迫動物對抗。當時,機器人喬普正在和另一個機器人作戰。

Jamison Go在自己的Facebook賬號上寫道:“今天是一個悲傷的日子。全世界的機器人愛好者都發出痛苦的哀鳴。”

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

他並不是一個人。上一季戰鬥機器人比賽的參賽者莎拉·波霍雷基也在YouTube上受到了相同的打擊,這很快引發了全世界機器人相關內容頻道的關注。許多像BattleBots和RobotWars這樣的節目站出來,指責了YouTube這個將機器人戰鬥檢測為虐待動物的新算法。

之所以認為是AI在搗亂,是因為人類幾乎不可能在觀看這些視頻時將機器人認成動物,畫面中也並沒有出現人類和其他生物,被刪除的視頻並沒有在描述、標籤甚至標題裡提到機器人名字這樣容易被誤認為是生命體的文本。而且,YouTube自身對於機器人戰鬥視頻並沒有明確的禁令。這不,第二天就有人工團隊重新審查並恢復了大部分被誤刪的視頻。看來,將其錯誤標註並刪除的只能是算法自己乾的了。

事情雖然告一段落,但AI開始擅自停止以機器人同胞們為目標的暴力,這讓不少人陷入了“機器覺醒”的陰謀論裡。甚至有人開始猜想,YouTube是不是被AI接管了,讓算法做一切決定?所謂的“人工審核”到底是不是真實存在的?

又或者,你永遠不知道人工智能何時會找到另一種方法來保護它的機器人兄弟。

AI有情?真的是隻是一時眼花

那麼,從技術的角度講,錯誤刪除視頻到底是無意識地誤傷,還是AI們的自我保護呢?

目前來看,答案當然是前者。因為,在理解視頻這件事上,AI真的還沒有大家想象的那麼強。

2017年,谷歌推出了一款視頻智能(Video Intelligence)的API,可以自動識別視頻中的物體和內容。這在當時是里程碑式的應用,因為YouTube、Facebook、新浪微博、快手等等擁有視頻產品的平臺,無不深受不良內容的困擾。

一位泰國男子在Facebook上直播殺害親生女兒然後自殺的視頻,在網站上掛了將近24個小時,播放量超過25萬次,但其全球將近5000人的人工審核團隊依然無法在第一時間在浩如煙海的視頻流裡立即定位並刪除這些不良內容。

Facebook屢屢因擴散不良信息而受到政府審查的同時,YouTube也在為視頻審查帶來的業務危機而頭痛。因為早先YouTube的智能廣告推薦算法,就將沃爾瑪、百事可樂、電信運營商Verizon等廣告主的貼片廣告,分發到了一些宣揚仇恨和恐怖主義的視頻上……金主爸爸們很快用腳投票,這讓YouTube乃至整個Google的廣告網絡都感受到了壓力。

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

雖然Google聲稱,這些問題隻影響到了“非常非常非常少”的視頻,但顯然唯有行動才能打消用戶與廣告商的顧慮。

所以,“視頻智能”技術發佈的時候,時任谷歌雲機器學習與人工智能首席科學家的李飛飛曾經這樣形容它——通過視頻識別技術,“我們將開始給數字星空中一個黑暗的物質照亮光芒。”

如今,兩年時間過去了,網絡內容的黑暗一角真的被AI照亮了嗎?成果當然是值得肯定的,比如隨著新算法模型的不斷突破,谷歌的BERT訓練方法可以將審查的人工勞動量從12,000小時減少到80小時。

但同樣的,各大內容平臺的人工審核團隊也在不斷擴張。顯然,機器方法的引入並沒有如預期中那樣幫助平臺提質增效。視頻理解,依舊是一朵未能從應用層面被摘下的高嶺之花,它具體難在何處呢?

首先是真實環境下的行為識別(Action Recognition)。

目前的視頻行為識別模型,都使用動作分割好的數據集進行訓練,像是 UCF101、ActivityNet、DeepMind 的 Kinetics、Google的AVA數據集等等。每個視頻片段包含一段明確的動作,並被打上了明確且唯一的分類標籤。但是真實環境中的視頻都沒有被預先切分,有時還會包含多人動作等複雜場景,或是包含複雜的情緒、意圖,這些問題的處理難度都比人臉識別等明確定義的難以下,所以實際應用時準確率就會下降。

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

比如一隻狗張開嘴巴,和一個人打開門,都會用“打開”(open)這個動詞來標註,並被放進同一個分類中……從這個角度看,YouTube算法將機器人戰鬥當做動物虐待,好像也挺符合它目前的“智商”的。

對視頻中的行為進行分類就已經很難了,如果再加上時序,就更讓AI發愁了。

因為對於圖像中的物體,目前的技術已經能做到很容易地進行檢測和分割,然而生物行為的時序邊界往往是很不明確的,一個動作何時開始、何時結束,動作變化幅度太大等等,都很容易讓算法“眼花”。一方面,既要在大量連續幀之間解決時序冗餘的問題,提高檢測速度;又要提高“眼力”,在運動模糊、部分遮擋等情況下也能精準定位和識別,就在前不久Google又提出了新的基於Q-learning學習自適應交替策略,就是在速度與準確率之間尋求平衡。至少從這次“算法誤刪事件”看來,這條技術高山還需要工程師們持續向上攀爬。

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

另一個影響視頻理解技術進程的,就是成本困境。相比圖像,訓練視頻模型需要增加許多存儲、計算資源,對實時性的要求也更高,因此也比普通神經網絡更難訓練,目前賽道上的主力玩家就是Google、Facebook、百度、頭條等巨頭在角逐。想要讓更多開發者為技術進階貢獻腦力,如何減輕訓練負擔就成了不可忽視的工作。目前Google、百度都通過自家的開源平臺釋放了視頻理解算法模型和標註好的數據集,一些運算資源上的扶持政策也相繼露面,恨不得讓開發者們“拎包入住”……

所以從技術層面來看,視頻理解註定是無數人苦心科研的點滴心血累計,才能積累成撬動整個行業的能量,距離想象中的“AI機器人抱團”還有很長的路要走。

與智能機器共生,人類做好準備了嗎?

只要稍微想一想,就能明白算法只是無心之失,畢竟就算它未來真的可能向著自己機器人大兄弟,現在也不具備那個業務能力啊。這麼簡單的事兒,為什麼還能被“節奏大師”們引發一陣黑客帝國式恐慌呢?

原因之一,恐怕是大多數人對於《機器人打擂臺》這種格鬥節目或競技比賽還是不甚瞭解,並不知道機器是在通過自由對抗提升對複雜環境和意外的靈活應變能力,使它們在硬件和智能程度上不斷嚮應用進階。

對於普通人來說,就看到一群機器人刀劈斧砍,互相傾軋,跟斗獸場取樂似乎並無區別,這就很容易產生移情效應,將自己的同情心理釋放到算法上——“人看了都想打人,AI看了肯定更生氣”,研究人員也沒少因為對機器人拳打腳踢而登上頭條……所以這次因YouTube下架事件受到影響的Maker's Muse幕後製作人Angus Deveson,就在一個聲援視頻中公開宣傳:“戰鬥機器人節目是教育和展示工程學魅力的絕佳工具”,以期讓更多人改變對機器人節目的認知。

而另一個比較隱藏的憂慮,則是對於“AI導向”的社會焦慮。

今天哪怕是偏遠如非洲的人群,恐怕也無法否認,整個社會運轉不僅僅由人類組成,也有越來越多的機器參與進來,從Facebook上的一舉一動,到亞馬遜流域猿猴的生存環境,智能機器正在成為人類和人類、人類和社會之間必不可少的媒介。

AI錯刪YouTube機器人視頻,背後是人類難以消弭的身份焦慮

如今,人類很樂意交給AI的事情往往是那些自己不願去做或者效率低下的事情,比如審核涉黃涉爆的網絡內容。未來當所謂的“奇點”,也就是人工智能的智慧超過人類的智慧,真正來臨的時候,智能系統會幫助人類來擔當社會管理者的角色,那時,人類何以重新定位自身在社會中的位置,還能夠自主選擇嗎?這種身份焦慮並沒有一個清晰的解決方案。

許多研究者都告訴大眾“車到山前必有路”,坐在車裡矇眼向前的人只好像YouTube“AI主導”這樣的事故下時時驚惶。這裡,或許我們在追逐AI的時候,也需要早日開始求解兩個問題:

第一,AI上位如此迅速,大眾認知教育與倫理建設到位了嗎?

第二,如果沒有,當算法與用戶之間產生衝突(這幾乎是必然的),科技企業在變革中如何自處?

"

相關推薦

推薦中...