Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?

技術 人工智能 可視化技術 語音識別技術 AI科技大本營 2019-07-10


Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?

作者 | Rafael Müller , Simon Kornblith, Geoffrey Hinton譯者 | Rachel責編 | Jane出品 | AI科技大本營(ID: rgznai100)

【導讀】損失函數對神經網絡的訓練有顯著影響,也有很多學者人一直在探討並尋找可以和損失函數一樣使模型效果更好的函數。後來,Szegedy 等學者提出了標籤平滑方法,該方法通過計算數據集中 hard target 的加權平均以及平均分佈來計算交叉熵,有效提升了模型的準確率。近日,Hinton 團隊等人在新研究論文《When Does Label Smoothing Help?》中,就嘗試對標籤平滑技術對神經網絡的影響進行分析,並對相關網絡的特性進行了描述。

在開始今天的論文解讀之前,我們先快速瞭解研究中的主角和相關知識的概念:

  • 什麼是 soft target?計算方法是什麼?

使用 soft target,多分類神經網絡的泛化能力和學習速度往往能夠得到大幅度提高。文本中使用的soft target 是通過計算hard target 的加權平均和標籤的均勻分佈得到的,而這一步驟稱為標籤平滑。

  • 標籤平滑技術有什麼作用?

標籤平滑技術能夠有效防止模型過擬合,且在很多最新的模型中都得到了應用,比如圖片分類、機器翻譯和語音識別。

  • Hinton 的這個研究想說明什麼問題?

本文通過實驗證明,標籤平滑不僅能夠提升模型的泛化能力,還能夠提升模型的修正能力,並進一步提高模型的集束搜索能力。但在本文的實驗中還發現,如果在teacher model 中進行標籤平滑,對student model 的知識蒸餾效果會出現下降。

  • 研究中如何解釋發現的現象?

為了對這一現象進行解釋,本文對標籤平滑對網絡倒數第二層表示的影響進行了可視化,發現標籤平滑使同一類訓練實例表示傾向於聚合為緊密的分組。這導致了不同類的實例表示中相似性的信息丟失,但對模型的泛化能力和修正能力影響並不明顯。


Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?

1、介紹


損失函數對神經網絡的訓練有顯著影響。在 Rumelhart 等人提出使用平方損失函數進行反向傳播的方法後,很多學者都提出,通過使用梯度下降方法最小化交叉熵,能獲得更好的分類效果。但是學者對損失函數對討論從未停止,人們認為仍有其他的函數能夠代替交叉熵以取得更好的效果。隨後,Szegedy等學者提出了標籤平滑方法,該方法通過計算數據集中hard target 的加權平均以及平均分佈來計算交叉熵,有效提升了模型的準確率。

標籤平滑技術在圖片分類、語音識別、機器翻譯等多個領域的深度學習模型中都取得了很好的效果,如表1所示。在圖片分類中,標籤平滑最初被用於提升 ImageNet 數據集上Inception-v2 的效果,並在許多最新的研究中得到了應用。在語音識別中,一些學者通過標籤平滑技術降低了 WDJ 數據集上的單詞錯誤率。在機器翻譯中,標籤平滑幫助小幅度提升了 BLEU 分數。


Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?

表1 標籤平滑技術在三種監督學習任務中的應用


儘管標籤平滑技術已經得到了有效應用,但現有研究對其原理及應用場景的適用性討論較少。

Hinton 等人的這篇論文就嘗試對標籤平滑技術對神經網絡的影響進行分析,並對相關網絡的特性進行了描述。本文貢獻如下:

  • 基於對網絡倒數第二層激活情況的線性映射提出了一個全新的可視化方法;
  • 闡釋了標籤平滑對模型修正的影響,並指出網絡預測結果的可信度更多取決於模型的準確率;
  • 展示了標籤平滑對蒸餾的影響,並指出該影響會導致部分信息丟失。


1.1 預備知識

這一部分提供了標籤平滑的數學描述。假設將神經網絡的預測結果表示為倒數第二層的激活函數,公式如下:


Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?


其中 pk 表示模型分類結果為第 k 類的可能性,wk 表示網絡最末層的權重和偏置,x 是包括網絡倒數第二層激活函數的向量。在使用hard target 對網絡進行訓練時,我們使用真實的標籤 yk 和網絡的輸出 pk 最小化交叉熵,公式如下:


Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?


其中當分類為正確時, yk 值為1,否則為0。對於使用參數 a 進行標籤平滑後的網絡,則在訓練時使用調整後的標籤

Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?

和網絡的輸出 pk 計算並最小化交叉熵,其中,


Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?


2、倒數第二層的表示


對於使用參數 a 對網絡進行標籤平滑後的神經網絡,其正確和錯誤分類的 logit 值之間的差會增大,改變程度與 a 的值相關。在使用硬標籤對網絡進行訓練時,正確分類的 logit 值會遠大於錯誤分類,且不同錯誤分類的值之間差異也較大。一般而言,第 k 個類別的 logit 值可以看作網絡倒數第二層的激活函數 x 和標準 wk 之間的歐式距離的平方,表示如下:


Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?


因此,標籤平滑會使倒數第二層的激活函數與正確分類間的差值減小,並使其與正確和錯誤分類的距離等同。為了對標籤平滑的這一屬性進行觀察,本文依照以下步驟提出了一個新的可視化方式:(1)選擇三個類別;(2)找到這三個分類的一個標準正交平面,(3)把實例在倒數第二層的激活函數投射在該平面上。

圖 1 展示了本文在 CIFAR-10, CIFAR-100 和 ImageNet 三個數據集上進行圖片分類任務時,網絡倒數第二層的激活函數的情況,訓練使用的網絡架構包括 AlexNet, ResNet-56 和 Inception-v4 。其中,前兩列的模型未進行標籤平滑處理,後兩列使用了標籤平滑技術。表2展示了標籤平滑對模型準確率的影響。


Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?

圖 1 圖片分類任務可視化情況


Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?

表2 使用和未使用標籤平滑技術的模型的最高準確率


第一行可視化使用的數據集為 CIFAR-10 ,標籤平滑的參數值為 0.1 ,三個圖片分類分別為“airplane”,“automobil”和“bird”。這些模型的準確率基本相同。可以發現,在使用標籤平滑的網絡中,聚類更加緊湊。

第二行可視化使用的數據集為 CIFAR-100,模型為 ResNet-56 ,選擇的圖片分類為“beaver”,“dolphin”,“otter”。在這次實驗中,使用標籤平滑技術的網絡獲得了更高的準確率。

最後,本文使用 Inception-v4 在 ImageNet 數據集上進行了實驗,並使用具有和不具有語義相似性的分類分別進行了實驗。其中,第三行使用的分類不具有語義相似性,分別為“tench”,“meerkat”和“cleaver”。第四行使用了的兩個具有語義相似性的分類“toy poodle”和‘miniature poodle“以及另一個不同的分類“tench, in blue”。對於語義相似的類別而言,即使是在訓練集上都很難進行區分,但標籤平滑較好地解決了這一問題。

從上述實驗結果可以發現,標籤平滑技術對模型表示的影響與網絡結構、數據集和準確率無關。


3、隱式模型修正


標籤平滑能夠有效防止模型過擬合。在本部分,論文嘗試探討該技術是否能通過提升模型預測的準確性改善模型修正能力。為衡量模型的修正能力,本文計算了預期修正誤差(expected calibration error, ECE)。本文發現,標籤平滑技術能夠有效降低 ECE ,並可用於模型修正過程。

圖片分類


圖2左側展示了 ResNet-56 在 CIFAR-100 數據集上訓練後得到的一個可靠性圖表,其中虛線表示理想的模型修正情況。可以發現,使用硬標籤的模型出現了過擬合的情況。如果需要對模型進行調整,可以將 softmax 的 temperature 調至1.9,或者使用標籤平滑技術進行調整。如圖中綠線所示,當使用 a = 0.05 進行標籤平滑處理時,能夠得到相似的模型修正效果。這兩種方法都能夠有效降低 ECE 值。

本文在 ImageNet 上也進行了實驗,如圖2右側所示。使用硬標籤的模型仍然出現過擬合情況 ,ECE 高達0.071。通過使用溫度縮放技術(T = 1.4),可將 ECE 降低至0.022, 如藍線所示。當使用 a = 0.1 的標籤平滑時,能夠將 ECE 降低至0.035。


Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?

圖2 可信度圖表

機器翻譯


本部分對使用 Transformer 架構的網絡的調整進行了實驗,使用的評測任務為英譯徳。與圖片分類任務不同,在機器翻譯中,網絡的輸出會作為集束搜索算法的輸入,這意味著模型的調整將對準確率產生影響。

本文首先比較了使用硬標籤的模型和經過標籤平滑(a = 0.1)的模型的可信度,如圖3所示。可以發現,使用標籤平滑的網絡的調整情況優於使用硬標籤的網絡。


Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?

圖3 基於英譯徳任務訓練的Transformer 架構的可信度圖表


儘管標籤平滑能夠獲得更佳的模型調優和更高的 BLEU 值,其也會導致負對數似然函數(negative log-likelihoods, NLL)的值變差。圖4展示了標籤平滑技術對 BLEU 和 NLL 的影響,藍線代表 BLEU 值,紅線代表 NLL 值。其中,最左側的圖為使用硬標籤訓練的模型的情況,中間的圖為使用標籤平滑技術訓練的模型的情況,右側的圖則展示了兩種模型的 NLL 值變化情況。可以發現,標籤平滑在提高 BLEU 分數的同時,也導致了 NLL 的降低。

Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?

圖4 Transformer 網絡調優對 BLEU 和 NLL 的影響


4、知識蒸餾


本部分研究了在teacher model 對student model 的知識蒸餾中標籤平滑的影響。本文發現,儘管標籤平滑能夠提升teacher model 的準確性,但使用標籤平滑技術的teacher model 所產生的student model 相比於未使用標籤平滑技術的網絡效果較差。

本文在 CIFAR-10 數據集上進行了實驗。作者訓練了一個 ResNet-56 的teacher model ,並對於一個使用 AlexNet 結構的student model 進行了知識蒸餾。作者重點關注了4項內容:

  • teacher model 的準確度
  • student model 的基線準確度
  • 經過知識蒸餾後student model 的準確度,其中teacher model 使用硬標籤訓練,且用於蒸餾的標籤經過溫度縮放進行調整
  • 使用固定溫度進行蒸餾後的student model 的準確度,其中 T = 1.0 ,teacher model 訓練使用了標籤平滑技術


圖5展示了這一部分實驗的結果。作者首先比較了未進行蒸餾的teacher model 和student model 的效果,在實驗中,提高 a 的值能夠提升teacher model 的準確度,但會輕微降低student model 的效果。

Hinton等人最新研究:大幅提升模型準確率,標籤平滑技術怎麼用?

圖5 基於 CIFAR-10 數據集從 ResNet-56 向 AlexNet 進行蒸餾的效果

之後,作者使用硬標籤訓練了teacher model 並基於不同溫度進行蒸餾,且分別計算了不同溫度下的 y 值,用紅色虛線表示。實驗發現,所有未使用標籤平滑技術的模型效果都優於使用標籤平滑技術的模型效果。最後,作者將使用標籤平滑技術訓練的具有更高準確度的teacher model 的知識蒸餾入student model ,並用藍色虛線進行了表示。可以發現,模型效果並未得到顯著提升,甚至有所降低。


5、結論和未來展望


儘管很多最新技術都使用了標籤平滑方法,該方法的原理和使用情形並未得到充分討論。本文總結了解釋了在多個情形下標籤平滑的應用和表現,包括標籤平滑如何使得網絡倒數第二層激活函數的表示的聚類更加緊密等。為對此問題進行探究,本文提出了一個全新的低緯度可視化方法。

標籤平滑技術在提升模型效果的同時,也可能對知識蒸餾帶來負面的影響。本文認為造成該影響對原因是,標籤平滑導致了部分信息的丟失。這一現象可以通過計算模型輸入和輸出的互信息來進行觀察。基於此,本文提出了一個新的研究方向,即標籤平滑和信息瓶頸之間的關係。

最後,本文針對標籤平滑對模型修正的作用進行了實驗,提升了模型的可解釋性。

原文鏈接: https://arxiv.org/pdf/1906.02629.pdf


(*本文為 AI科技大本營編譯文章,轉載請聯繫 1092722531)

相關推薦

推薦中...