紐約大學《機器學習入門》課程講義(附PDF下載)

機器學習 教育 量子位 量子位 2017-08-02

允中 編譯整理

量子位 出品 | 公眾號 QbitAI

今年春天,Kyunghyun Cho開始在紐約大學教授本科生《機器學習入門》課程。今天,他把這門課程的講義和相關資料整理髮布出來。

Kyunghyun Cho是紐約大學計算機和數據科學的助理教授,也曾經作為博士後在蒙特利爾大學接受Yoshua Bengio的指導。

紐約大學《機器學習入門》課程講義(附PDF下載)

以下是Kyunghyun Cho對這門課程的簡介:

之前這門課程由David Sontag教授,但現在他已經轉去了麻省理工。我考慮過繼續使用他的教材,相關資料可以在這裡看到:http://cs.nyu.edu/~dsontag/courses/ml16/ 。這些內容很棒,強烈推薦。

Sontag的課程覆蓋面很廣,但是我覺得可能不適合作為本科生的入門課程。所以我決定重新創建一個課程體系。對於本科生來說,最低限度的機器學習知識是什麼?1)至少掌握機器學習的高級觀點,2)畢業後可以在實踐中應用機器學習。

所以就像上一年的NLP課程一樣,我開始著手寫講義。

首先是分類。引入感知器和邏輯迴歸作為例子,展示傳統計算機科學與機器學習之間的區別。然後開始介紹(線性)支持向量機。不過由於時間限制,我並沒有教授Kernel SVM。接著使用softmax把邏輯迴歸泛化為多分類邏輯迴歸。

為了教授如何處理線性不可分的問題,我使用了一種非正統的方法。我從緊鄰算法分類器開始,最後將其擴展為自適應基函數網絡,我稱其為深度學習。講到這裡,大約有一半的學生已經不來上課了……

然後接著講迴歸。這裡我著重介紹概率機器學習。我介紹了貝葉斯線性迴歸等。

對於無監督學習,我再次使用了一個非常規的教授路徑。令人驚訝的是,學生們對無監督學習更感興趣,熱情超過監督學習,當我教授非線性分類器的時候,流失的學生們已經回來了。

課程的最後,我簡要介紹了梯度策略,也是用一個非常規的方式:把強化學習視作一個分類器序列。這方面的研究人員肯定會不開心,但我覺得這樣是一種更直觀的方法。另外,推薦Joelle Pineau寫的強化學習入門:http://videolectures.net/deeplearning2016_pineau_reinforcement_learning/ 。

安妮薇,我全部的講義都可以在此看到:

https://github.com/nyu-dl/Intro_to_ML_Lecture_Note/raw/master/lecture_note.pdf

有任何的建議可以訪問:

https://github.com/nyu-dl/Intro_to_ML_Lecture_Note

不過,就算我接納您的建議,也得等明年春天再修改講義了~

紐約大學《機器學習入門》課程講義(附PDF下載)

另外在授課過程中,我還推薦給學生們以下的資料:

  • Hans Rosling:這是你見過的最好數據(可視化的重要性)

    https://www.ted.com/talks/hans_rosling_shows_the_best_stats_you_ve_ever_seen

  • 李飛飛:如何讓電腦看懂圖片

    https://www.ted.com/talks/fei_fei_li_how_we_re_teaching_computers_to_understand_pictures

  • 專訪Hinton:生命的代碼

    https://www.youtube.com/watch?v=XG-dwZMc7Ng

  • Larry Jacke:貝爾實驗室的機器學習和神經網絡

    http://techtalks.tv/talks/machine-learning-and-neural-nets-at-bell-labs-holmdel/63005/

下載

下載上述講義的PDF版本,可以在量子位微信公眾號(QbitAI)對話界面,回覆:“cho”三個字母。

紐約大學《機器學習入門》課程講義(附PDF下載)

【完】

相關推薦

推薦中...