深入淺出之機器學習中的三個數據集

一般需要將樣本分成獨立的三部分訓練集(train set),驗證集(validation set)和測試集(test set)。其中訓練集用來估計模型,驗證集用來確定網絡結構或者控制模型複雜程度的參數,而測試集則檢驗最終選擇最優的模型的性能如何。一個典型的劃分是訓練集佔總樣本的50%,而其它各佔25%,三部分都是從樣本中隨機抽取。

一般需要將樣本分成獨立的三部分訓練集(train set),驗證集(validation set)和測試集(test set)。其中訓練集用來估計模型,驗證集用來確定網絡結構或者控制模型複雜程度的參數,而測試集則檢驗最終選擇最優的模型的性能如何。一個典型的劃分是訓練集佔總樣本的50%,而其它各佔25%,三部分都是從樣本中隨機抽取。

深入淺出之機器學習中的三個數據集

樣本少的時候,上面的劃分就不合適了。常用的是留少部分做測試集。然後對其餘N個樣本採用K折交叉驗證法。就是將樣本打亂,然後均勻分成K份,輪流選擇其中K-1份訓練,剩餘的一份做驗證,計算預測誤差平方和,最後把K次的預測誤差平方和再做平均作為選擇最優模型結構的依據。特別的K取N,就是留一法(leave one out)。

training set是用來訓練模型或確定模型參數的,如ANN中權值等; validation set是用來做模型選擇(model selection),即做模型的最終優化及確定的,如ANN的結構;而 test set則純粹是為了測試已經訓練好的模型的推廣能力。當然,test set這並不能保證模型的正確性,他只是說相似的數據用此模型會得出相似的結果。但實際應用中,一般只將數據集分成兩類,即training set 和test set,大多數文章並不涉及validation set。

train訓練集

訓練數據,擬合模型,用這部分數據來建立模型,是一些我們已經知道輸入和輸出的數據集訓練機器去學習,通過擬合去尋找模型的初始參數。例如在神經網絡(Neural Networks)中, 我們用訓練數據集和反向傳播算法(Backpropagation)去每個神經元找到最優的比重(Weights)。

validation驗證集

驗證數據,train建了一個模型,但是模型的效果僅體現了訓練數據,但不一定適合同類的其他數據,所以建模前數據分成兩部分,一部分為訓練數據,一部分為驗證數據(兩部分數據的比例大致為7:3,這取決於你驗證的方法)。另外,你也可能訓練多個模型,但不知哪個模型性能更佳,這時可以將驗證數據輸入不同模型進行比較。

是一些我們已經知道輸入和輸出的數據集,通過讓機器學習去優化調整模型的參數,在神經網絡中, 我們用驗證數據集去尋找最優的網絡深度(number of hidden layers),或者決定反向傳播算法的停止點;在普通的機器學習中常用的交叉驗證(Cross Validation) 就是把訓練數據集本身再細分成不同的驗證數據集去訓練模型。

test測試集

測試數據。跟前兩者的最大區別在於:train和validation數據均是同一對象的數據,但是測試,我們就需要用跨對象的數據來驗證模型的穩定性。

用戶測試模型表現的數據集,根據誤差(一般為預測輸出與實際輸出的不同)來判斷一個模型的好壞。

為什麼驗證數據集和測試數據集兩者都需要?

因為驗證數據集(Validation Set)用來調整模型參數從而選擇最優模型,模型本身已經同時知道了輸入和輸出,所以從驗證數據集上得出的誤差(Error)會有偏差(Bias)。

但是我們只用測試數據集(Test Set) 去評估模型的表現,並不會去調整優化模型。

在傳統的機器學習中,這三者一般的比例為training/validation/test = 50/25/25, 但是有些時候如果模型不需要很多調整隻要擬合就可時,或者training本身就是training+validation (比如cross validation)時,也可以training/test =7/3.

但是在深度學習中,由於數據量本身很大,而且訓練神經網絡需要的數據很多,可以把更多的數據分給training,而相應減少validation和test。

本文來自技術博主Wayne,關注基數智能公眾號jishu2017ai,一起加入人工智能技術大本營。

相關推薦

推薦中...