87頁博士筆記總結ICML 2019大會亮點及論文乾貨

【新智元導讀】ICML 2019共收到3424篇有效投稿論文,接收率為 22.6%。這篇87頁、由布朗大學博士四年級學生David Abel總結整理的ICML 2019參會Highlights筆記,提煉了演講和會談亮點,通篇乾貨!

6月9日至15日,ICML 2019(國際機器學習大會)於美國加州舉行。本屆大會共收到3424篇有效投稿論文,最終收錄774篇,接收率為 22.6%,低於去年接收率25%(ICML 2018共收到2473篇有效投稿論文,最終收錄論文621篇)。

87頁博士筆記總結ICML 2019大會亮點及論文乾貨

提交論文最多的子領域分別是:深度學習、通用機器學習、強化學習、優化等。

論文數量排名前五的公司分別是谷歌、谷歌大腦、微軟、DeepMind、Facebook,論文數量分別為:82、42、35、29、23。最終谷歌獨攬153篇,成為ICML論文收錄第一。

中國公司中騰訊被收入10篇,阿里被收錄5篇,百度1篇。

學校方面,排名前五的是:MIT 47篇、UCBerkeley 45篇、斯坦福大學40篇、CMU35篇、佐治亞理工學院24篇。

中國高校也有4所進入Top 50,分別是:清華大學15篇,北京大學11篇,南京大學8篇,香港中文大學7篇。

87頁博士筆記總結ICML 2019大會亮點及論文乾貨

接收論文列表:

https://icml.cc/Conferences/2019/AcceptedPapersInitial

那麼ICML 2019會場都有誰上臺演講了?他們都講了什麼?下面新智元為大家帶來一份87頁的ICML 2019會議的Highlights筆記,由布朗大學博士四年級學生David Abel總結整理,通篇乾貨。

87頁博士筆記總結ICML 2019大會亮點及論文乾貨

David個人主頁:

https://david-abel.github.io/

這份筆記共分為2個部分,首先簡單介紹了大會的亮點;接著介紹了大會每天的主會場和Workshop。

87頁博士筆記總結ICML 2019大會亮點及論文乾貨


87頁博士筆記總結ICML 2019大會亮點及論文乾貨


接下來新智元為大家介紹部分筆記內容,完整筆記內容鏈接在文末

ICML 2019亮點:探索和氣候變化成為熱門,急需標準化評估強化學習

  • 關於政策外評估和非政策學習的大量工作,這些問題設置非常重要,因為作者(和許多其他人)預計強化學習應用程序將伴隨來自次優策略的大量數據
  • 探索再次成為熱門話題,除了政策外評估(以及其他一些評估),這是強化學習的基本問題之一,現在處於有利地位,可能取得重大進展
  • 一些非常好的工作繼續闡明分佈式強化學習
  • 氣候變化研討會的人工智能非常出色,並且參加人數非常多。機器學習工具在目前的形式下可以非常有效的對氣候變化有所幫助
  • 作者認為需要標準化評估強化學習。並非只考慮一種方法實現這一目標,或者只需要一個域,不過目前評估協議的差異太大

最佳論文演講:挑戰無監督解耦表示中的常見假設

這是一篇大規模深入研究無監督解耦表示(Disentangled Representation)的論文,對近年來絕大多數的非監督解耦表示方法進行了探索、利用2.5GPU年的算力在7個數據集上訓練了12000多個模型。

87頁博士筆記總結ICML 2019大會亮點及論文乾貨

基於大規模的實驗結果,研究人員對這一領域的一些假設產生了質疑,併為解耦學習的未來發展方向給出了建議。

此外,研究人員還同時發佈了研究中所使用的代碼和上萬個預訓練模型,並封裝了 disentanglement_lib 供研究者進行實驗復現和更深入的探索。

最佳論文的作者作者:Francesco Locatello, Stefan Bauer, Mario Lucic, Gunnar Rätsch, Sylvain Gelly, Bernhard Schölkopf, Olivier Bachem等來自蘇黎世聯邦理工學院 (ETH Zurich)、MaxPlanck 智能系統研究所及谷歌大腦。

論文地址:

http://proceedings.mlr.press/v97/locatello19a/locatello19a.pdf

本場演講者是Francesco Locatello,和Olivier Bachem。

本論文從理論和實踐兩方面對這一領域中普遍存在的一些假設提出了挑戰。本研究的主要貢獻可概括如下:

  • 在理論上證明,如果沒有對所考慮的學習方法和數據集產生歸納偏置,那麼解耦表示的無監督學習基本上是不可能的
  • 在一項可重複的大規模實驗研究中研究了當前的方法及其歸納偏置,該研究採用了完善的無監督解耦學習實驗方案。實現了六種最新的無監督解耦學習方法以及六種從頭開始的解耦方法,並在七個數據集上訓練了超過12000個模型
  • 發佈了disentanglement_lib,這是一個用於訓練和評估解耦表示的新庫。由於複製結果需要大量的計算工作,還發布了超過10000個預訓練的模型,可以作為未來研究的基線
  • 分析實驗結果,並挑戰了無監督解耦學習中的一些共識

多任務和終身學習

使用解耦表示進行域不可知學習。演講者Xingchao Peng提出了一種新的方法“深層對抗解耦自動編碼器(DADA)”:

  • 類解開。解除與類不相關和域不變的特徵
  • 域解析。解密到域特定和域不變特徵

示例:

  • 域不變性。給出兩個圖像,一個來自一輛真正的汽車,一輛汽車的畫作→將兩者都傳遞到一些神經網絡中產生一些特徵。 原則上,這些特徵應該是域不變的,因為它們可以在這兩種汽車演繹中找到
  • 類不變性。看一下汽車的背景,這會產生類不變的特徵,因為它們識別不同的類

日誌PDF下載:

Github:https://david-abel.github.io/notes/icml_2019.pdf

相關推薦

推薦中...