機器到底是如何學習的?

機器學習 蚯蚓 人工智能 一個小時頭 2017-06-20

機器學習的一種方式,叫做人工神經網絡。我就講講這個神經網絡。

機器到底是如何學習的?

有一隻蚯蚓,它面前有一條路,路的左右兩側分別是兩堵牆,一堵是黑色的,一堵是白色的。白色的牆帶電,碰到就把蚯蚓電死了。

這隻蚯蚓的皮膚表面,有兩個光線傳感器,一左一右。這種傳感器,看到黑色,輸出0,看到白色,輸出1,看到灰色,輸出0.5。我們把左傳感器的輸出稱為SL,右傳感器的輸出稱為SR。

這隻蚯蚓腦子裡面有兩個可以修改的數字(變量),一個叫左神經元,一個叫右神經元,分別稱為GL和GR,取值範圍是-1到+1之間。

這隻蚯蚓在前進的過程中,可以向左偏或者向右偏,我們把這個稱為蚯蚓的決定,稱為D。決定的取值範圍是-1到+1,代表從左到右,取值為0就表示走中間。

我們現在定義:D = SL * GL + SR * GR

上式表示蚯蚓的決定,是通過將光線傳感器的輸出,分別乘以一個神經元變量,再加到一起得到的。

假設GL = -1,GR = +1,當SL = 1、SR = 0(左邊的牆白色,右邊的牆黑色)的時候,D = -1,表示往左走。顯然,蚯蚓就電死了。

假設GL = +1,GR = -1, 當SL = 1、SR = 0(左邊的牆白色,右邊的牆黑色)的時候,D= 1,表示往右走。蚯蚓就活了下來。

假設GL = +1,GR = -1, 當SL = 0、SR = 1(左邊的牆黑色,右邊的牆白色)的時候,D= -1,表示往左走。雖然調換了牆壁的亮度,但蚯蚓還是活了下來。

而且通過代入不同的亮度值我們還發現,即便某一邊的牆不是白色,但只要該邊的牆比另一邊的牆亮度更高,蚯蚓依然會偏向另一邊走,以增大存活機率。說明我們這個神經網絡還有普遍適應性,就算傳感器上有灰塵也能正常工作。

綜上所述,通過合理設定GL和GR的值,我們就可以讓一個有兩個神經元的神經網絡,通過簡單的四則運算,讓一條機器蚯蚓獲得了自動避開白色牆壁的能力。講到這裡,有的人問,這個值是你設定的,不是蚯蚓自己學習的呀!說的沒錯,有的複雜的系統,神經元可能有數十萬個,連接錯綜複雜,運算規則也可能各不相同,如果我不使用機器學習的方法,僅靠手動指定根本沒辦法確定每個神經元的取值。

機器到底是如何學習的?

下面我就來演示一種最簡單的學習方法。

我製造了1000條蚯蚓,每條蚯蚓的GL和GR都是從-1到+1之間的一個隨機數。然後我把這些蚯蚓,放到兩個牆壁之間,讓他們自己去走,最後肯定有一些蚯蚓電死了,有一些蚯蚓活下來;有一些蚯蚓迅速,有一些蚯蚓遲鈍。我就把那些迅速衝向一邊、而且沒被電死的蚯蚓,全抓出來,統計之後發現他們的神經元取值,都非常靠近(GL = +1, GR = -1)。這樣一來我就可以決定GL和GR的值了。這就是機器學習:GL和GR的取值是待解決的問題,1000條蚯蚓和他們的最終結局是訓練樣例,帶電的白牆是用來產生訓練樣例的現實過程。其中的魅力在於:我並不需要知道白牆和黑牆到底哪個帶電,一樣可以訓練出自動求生的蚯蚓!換言之,機器學習是通過經驗積累,而不是邏輯判斷的方式來解決問題。通過重複的操作實現經驗的積累,其實就是學習的本質;人工智能是這樣,人腦其實也是這樣的。如果我們能模擬人腦那麼多的神經元,並且將一個人幾十年的生活經驗作為訓練樣例,我們就能夠獲得一顆具有人類智慧的大腦。

講完這麼多,聰明的同學已經看出讓人工智能靠近人腦所面臨的幾大問題了。

1. 用計算機模擬10億個神經元的活動非常困難。(訓練困難)

2. 沒有辦法把一個人幾十年的生活過程記錄下來用做訓練樣例;即便記錄下來,產生的人工智能也僅僅具有這個人的思考能力而已。(優質樣例獲取困難)

實際上,人類今天所具有的各種求生本能,以及高級思考能力,是數十萬年來靠無數代的變異和自然選擇淘汰得到的。這個過程很像機器蚯蚓的訓練過程:不合格的蚯蚓只有死路一條,留下的自然是合格的。這意味著具有人類思考能力的人工智能,離我們還比較遙遠。不過幸運的是,在人工智能的應用過程中,往往並不需要人類的所有本能和所有思考能力,而往往只需要人類的非常小的某一部分神經所實現的能力(例如圖像辨識和語言組織能力)。也就是說,實用的人工智能,其能力介於傳統計算機和人類之間:既可以像人類那樣通過經驗解決一些規則和原理不明確的問題,同時又具有計算機的速度和準確度優勢。在未來的十五到三十年,這樣的人工智能會取代大量的知識性、經驗性但非創造性的工作,比如代替網友去淘寶刷好評,比如代替公安翻看視頻監控(這個已經實現了,現在可以自動識別套牌),比如代替作者和讀者交流文學作品(韓寒很需要)。

機器到底是如何學習的?

提高神經網絡的能力,可以分解成提高速度和提高容量。提高速度可以通過硬件性能上的提升、算法的優化實現;容量則分為兩個方面,一個是承載神經網絡的系統的容量(內存大小),一個是對網絡進行訓練的樣本容量。沒有足夠的樣本,難以得到好的訓練結果(一如沒有足夠的蚯蚓,難以積累求生的經驗)。當適用於機器學習的軟硬件平臺成熟普及之後,數據就成了追逐的對象,因為人工智能源於數據。

相關推薦

推薦中...