訓貓訓狗訓機器人,打開“莫怕”之門

機器人 人工智能 深度學習 圍棋 財經作家邱恆明 2017-06-05

訓貓訓狗訓機器人,打開“莫怕”之門

針對智能機器的不確定性和危險性,我們認為未來一定要發展可“家訓化”的機器人。

偉大的阿西莫夫創造了“機器人三定律”,以防機器人對人類反戈一擊。但是,人工智能已能戰勝最強人類圍棋高手的今天,誰也無法保證,人工智能會找到繞開三定律限制的後門,撕開一片我們從來未設想的天地。

機器人三大定律

第一、機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;

第二、在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;

第三、在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。

2016年3月,世人目睹了圍棋大師李世石與“阿爾法狗”的廝殺,李世石戰敗。 2017年6月,世界排名第一的中國圍棋九段高手柯潔迎戰阿爾法狗,0比3大敗。世界逐漸意識到,懂得“深度學習”的人工智能終有一日能接過人類目前從事的絕大部分工作。

然而,如果我們不希望自己在未來某一天被造反的機器人殺死在床上,那麼,你我就該想想如何控制機器人的辦法了。

多虧了科幻小說家,我們才意識到,人工智能覺醒後要做的第一件事,很可能就是毀滅自身的創造者。

在哈蘭·埃裡森(Harlan Ellison)1967年發表的小品《我沒有嘴,但我必須尖叫》中,人工智能“AM”幾乎殺死了所有人類,只留下5個活人作為玩偶。

實際上,會思考的機器遠非順從的勞動力,放任它們像不良少年般遊手好閒地逛蕩只會帶來麻煩。反之,如果我們照顧好它們,它們或許就不會莽撞地按下核武器的點火按鈕了。

針對智能機器人的不確定性和危險性,我們認為未來一定要發展可“家訓化”的機器人。這樣才符合阿西莫夫三定律的好機器人,才對人類有真正的幫助。

訓貓訓狗訓機器人,打開“莫怕”之門

要人工選擇,不要自然選擇

現如今那麼多機構投資機器人,投資人工智能,到底想幹什麼?根本上說,就是想培養出一批機器奴隸。

機器人給我們幹活,替代人類的工作,就算不是奴隸,也是我們的牛、馬或者小狗。發展機器人目的是怎樣利用機器人,但機器人有了意識之後,或許它們會想:人其實是挺沒用的。

“憑什麼人什麼都不用幹,而我就要幹一切”,機器人產生這類思想時是不是非常危險可怕?

怎麼辦?在人工智能發展之初,就應對機器人做好教育。我們認為,家馴化在這方面能走得更遠。

什麼叫家馴化?馴化就是人工選擇,不是自然選擇。家馴化的簡單比喻可以說是把狼養成訓練成狗。

馴狗和養狼的區別:狼不是你養的,是自然養的狼,就是放養狼。馴狗的概念是,把許多通人性的習慣強化給狗。比如忠誠、樂觀、堅毅,這些都是人性的東西,讓狗通人性,就是把這些東西注入到它的DNA和神經網絡結構裡。幾百年以來對狗的馴化,就是在狗的身上注入了人性。

狗會特別的勇敢,人遇到危險的時候,狗會犧牲自己的生命去保護人。這是非常奇怪的事。狗可能自己也不知道為什麼會挺身而出保護人類。

另外,不管人的狀態怎麼樣,狗都會不嫌不棄。狗天生會這樣,因為狗是馴化的結果。

狼沒有被人類馴化,所以狼不通人性。

人工智能現在到了一個分岔口,這個分岔口將影響深遠。一個分支叫有監督的深度學習,有監督的繼續學習。另一分支叫無監督的深度學習。二者之間的根本區別在於:一個在馴狗,一個是放養狼。

有監督的是鞏固式學習,我們先制定學習的目標,然後圍繞著學習目標去學習。無監督式學習就是拿數據,讓機器人自己學出概念和思想。有監督的深度學習,等於我們把想讓它學習的東西告訴它,讓機器人圍繞人類想要它學習的東西學習。

我們把人類的價值觀,像馴狗一樣,讓機器人去學習。無監督學習是讓機器人建設出自己的思想體系,並讓其抽象出自己想要抽象出來的東西。

簡單說,有監督的深度學習是人類完全知道機器人在想什麼,而無監督的深度學習,是我們不清楚它在想什麼,能得到什麼。

現今機器人的智慧和狀態還比較初級,還不會跟我們溝通,但是智慧發展到一定程度,它開始可以跟我們對話時,如果我們仍然不知道它在想什麼,那是挺可怕的。最可怕的是:機器人可能會欺騙人類,它不告訴我們它真正在想什麼。

馴化的狗卻非常簡單,狗的忠誠在它的基礎程序裡,一看就知道狗是怎麼想的,一看狗就會為你犧牲。這是兩個截然不同的區別。

無監督學習的可怕就在於它的未知性。如果機器人意識到人把它變成了奴隸,它會反過來覺得人挺沒用。

警惕“嗜血”之狗

機器人或會得出這個結論:人有什麼用,為什麼要我幹所有的活,人類卻不幹呢?

狗不會有這個想法,永遠不會。狗就覺得人挺好,它就喜歡人。因為這是狗馴化出來就得到了這樣的結果。

有些人或許會說,你訓練出來的,有監督的深度學習可能也會很糟糕。比如,有些人會馴出鬥牛,會朝人的脖子上咬一口的那種很凶猛的狗,也會訓練出殺人狗來。馴出這種惡狗,豈不是比狼還危險?

其實這並不可拍。只要是人馴出來的,我們都不怕,因為我們終究知道這種狗在想什麼。馴出傷人的狗也是人馴化的,其目的就是訓它去傷人。狼更可怕的是,你不知道它在想什麼。

狗如果被馴成殺人狗,你只要阻止訓練它的人,就可以阻止這些狗的出現。而狼是完全失控的。

這又引出了下一個討論話題:機器人戰士。

我們非常反對機器人去打仗,就算是家馴化的機器人,也不希望它們去打仗。

作戰的智能機器人是非常可怕的,機器人一旦嚐到了人類的血,它的程序就會發生變化。它會獲得快感和快樂,之後就會變得很可怕、很危險。

現今,美軍在使用大量機器人,這是非常危險的。機器人就不應該傷人,我認為人類社會應該阻止機器人進入戰鬥裝備。

不少人會反對說,這會非常困難,許多國家發展機器人就想讓它們去打仗,他們就是想研製出軍用機器人。機器人的非軍事化問題,目前已引起了較大關注,但目前很難在這一問題上達成統一意見。

目前,機器人的軍事化還不算很嚴重,真正軍用的機器人還都是遙控機器人。遙控說明它的智慧還在手握遙控器的人這邊,機器人還只能算一個遙控的軀殼,它還不知道殺人的概念。

智能機器人就不一樣了,智能機器人感知、識別、分析、學習、決策、執行,把這六個事情做完之後,智能機器人其實能意識到它在殺人,因為有自己的感覺了。

一旦機器人嗜血之後,就像讓一條狗開始咬人之後,它將變成非可控的了。

狗一旦咬人之後,這條狗就應被處死。嗜血的機器人一樣,它應該被終止。

(邱恆明,微信:qiuhengming。財經作家,北京糖葫蘆文化創始人,作品有《創業大浪潮》《創業第二課》《這個星球不配我死》《入埃及記》等,正在撰寫“工業互聯網”、“新物種人工智能”兩部作品)

相關推薦

推薦中...