常見的機器學習算法都是怎麼回事?
原文 joydeep bhattacharjee
千平 編譯整理
量子位 出品 | 公眾號 QbitAI
原文 joydeep bhattacharjee
千平 編譯整理
量子位 出品 | 公眾號 QbitAI
所謂機器學習算法就是一個假設集合,用於找到最優模型。機器學習算法可以分為三大類。
監督學習:輸入特徵和輸出標籤都被定義
無監督學習:數據集未標註,目標是發現隱藏關係
強化學習:某種形式的反饋迴路,有些參數需要優化
這篇文章嘗試對一些常見和流行的機器學習算法,進行簡單的介紹。
普通最小二乘線性迴歸
原文 joydeep bhattacharjee
千平 編譯整理
量子位 出品 | 公眾號 QbitAI
所謂機器學習算法就是一個假設集合,用於找到最優模型。機器學習算法可以分為三大類。
監督學習:輸入特徵和輸出標籤都被定義
無監督學習:數據集未標註,目標是發現隱藏關係
強化學習:某種形式的反饋迴路,有些參數需要優化
這篇文章嘗試對一些常見和流行的機器學習算法,進行簡單的介紹。
普通最小二乘線性迴歸
線性迴歸的目標,是擬合一條線,穿過訓練集數據分佈的區域,並且與大多數點的距離最短
在簡單線性迴歸中,迴歸線最小化與各點距離的總和,即“殘差平方”的總和。因此,這種方法也被稱為“普通最小二乘”
在多維數據的情況下,也可以實現線性迴歸。不過在這種情況夏,“線”只是維度為N-1的高維平面,而N是數據集的維度
邏輯迴歸
原文 joydeep bhattacharjee
千平 編譯整理
量子位 出品 | 公眾號 QbitAI
所謂機器學習算法就是一個假設集合,用於找到最優模型。機器學習算法可以分為三大類。
監督學習:輸入特徵和輸出標籤都被定義
無監督學習:數據集未標註,目標是發現隱藏關係
強化學習:某種形式的反饋迴路,有些參數需要優化
這篇文章嘗試對一些常見和流行的機器學習算法,進行簡單的介紹。
普通最小二乘線性迴歸
線性迴歸的目標,是擬合一條線,穿過訓練集數據分佈的區域,並且與大多數點的距離最短
在簡單線性迴歸中,迴歸線最小化與各點距離的總和,即“殘差平方”的總和。因此,這種方法也被稱為“普通最小二乘”
在多維數據的情況下,也可以實現線性迴歸。不過在這種情況夏,“線”只是維度為N-1的高維平面,而N是數據集的維度
邏輯迴歸
邏輯迴歸雖然名為迴歸,但其實是一種分類技術
與線性迴歸相反,邏輯迴歸不假設自變量和因變量之間存在線性關係。不過假定了決策面是線性的
支持向量機
原文 joydeep bhattacharjee
千平 編譯整理
量子位 出品 | 公眾號 QbitAI
所謂機器學習算法就是一個假設集合,用於找到最優模型。機器學習算法可以分為三大類。
監督學習:輸入特徵和輸出標籤都被定義
無監督學習:數據集未標註,目標是發現隱藏關係
強化學習:某種形式的反饋迴路,有些參數需要優化
這篇文章嘗試對一些常見和流行的機器學習算法,進行簡單的介紹。
普通最小二乘線性迴歸
線性迴歸的目標,是擬合一條線,穿過訓練集數據分佈的區域,並且與大多數點的距離最短
在簡單線性迴歸中,迴歸線最小化與各點距離的總和,即“殘差平方”的總和。因此,這種方法也被稱為“普通最小二乘”
在多維數據的情況下,也可以實現線性迴歸。不過在這種情況夏,“線”只是維度為N-1的高維平面,而N是數據集的維度
邏輯迴歸
邏輯迴歸雖然名為迴歸,但其實是一種分類技術
與線性迴歸相反,邏輯迴歸不假設自變量和因變量之間存在線性關係。不過假定了決策面是線性的
支持向量機
支持向量機(SVM)是一種有監督的機器學習算法,既能解決分類問題,又能解決迴歸問題
在SVM中,我們將數據點繪製在N維空間中,其中N代表特徵數量;然後找到一個超平面來區分數據點
當數據的維度高於數據點數時,這是一個很好的算法
由於需要處理高維空間,這個算法計算代價高昂
K-means聚類
原文 joydeep bhattacharjee
千平 編譯整理
量子位 出品 | 公眾號 QbitAI
所謂機器學習算法就是一個假設集合,用於找到最優模型。機器學習算法可以分為三大類。
監督學習:輸入特徵和輸出標籤都被定義
無監督學習:數據集未標註,目標是發現隱藏關係
強化學習:某種形式的反饋迴路,有些參數需要優化
這篇文章嘗試對一些常見和流行的機器學習算法,進行簡單的介紹。
普通最小二乘線性迴歸
線性迴歸的目標,是擬合一條線,穿過訓練集數據分佈的區域,並且與大多數點的距離最短
在簡單線性迴歸中,迴歸線最小化與各點距離的總和,即“殘差平方”的總和。因此,這種方法也被稱為“普通最小二乘”
在多維數據的情況下,也可以實現線性迴歸。不過在這種情況夏,“線”只是維度為N-1的高維平面,而N是數據集的維度
邏輯迴歸
邏輯迴歸雖然名為迴歸,但其實是一種分類技術
與線性迴歸相反,邏輯迴歸不假設自變量和因變量之間存在線性關係。不過假定了決策面是線性的
支持向量機
支持向量機(SVM)是一種有監督的機器學習算法,既能解決分類問題,又能解決迴歸問題
在SVM中,我們將數據點繪製在N維空間中,其中N代表特徵數量;然後找到一個超平面來區分數據點
當數據的維度高於數據點數時,這是一個很好的算法
由於需要處理高維空間,這個算法計算代價高昂
K-means聚類
嘗試把數據分為圍繞K個質心的K個組
有點類似於“物以類聚,人以群分”
K-means聚類算法的實現非常簡單。
隨機挑選K個質心
然後將數據點分配給距離最近的質心
根據平均位置重新計算質心
迭代直到質心位置不再更改
用於預測時,只要找到距離最近的質心。
決策樹
原文 joydeep bhattacharjee
千平 編譯整理
量子位 出品 | 公眾號 QbitAI
所謂機器學習算法就是一個假設集合,用於找到最優模型。機器學習算法可以分為三大類。
監督學習:輸入特徵和輸出標籤都被定義
無監督學習:數據集未標註,目標是發現隱藏關係
強化學習:某種形式的反饋迴路,有些參數需要優化
這篇文章嘗試對一些常見和流行的機器學習算法,進行簡單的介紹。
普通最小二乘線性迴歸
線性迴歸的目標,是擬合一條線,穿過訓練集數據分佈的區域,並且與大多數點的距離最短
在簡單線性迴歸中,迴歸線最小化與各點距離的總和,即“殘差平方”的總和。因此,這種方法也被稱為“普通最小二乘”
在多維數據的情況下,也可以實現線性迴歸。不過在這種情況夏,“線”只是維度為N-1的高維平面,而N是數據集的維度
邏輯迴歸
邏輯迴歸雖然名為迴歸,但其實是一種分類技術
與線性迴歸相反,邏輯迴歸不假設自變量和因變量之間存在線性關係。不過假定了決策面是線性的
支持向量機
支持向量機(SVM)是一種有監督的機器學習算法,既能解決分類問題,又能解決迴歸問題
在SVM中,我們將數據點繪製在N維空間中,其中N代表特徵數量;然後找到一個超平面來區分數據點
當數據的維度高於數據點數時,這是一個很好的算法
由於需要處理高維空間,這個算法計算代價高昂
K-means聚類
嘗試把數據分為圍繞K個質心的K個組
有點類似於“物以類聚,人以群分”
K-means聚類算法的實現非常簡單。
隨機挑選K個質心
然後將數據點分配給距離最近的質心
根據平均位置重新計算質心
迭代直到質心位置不再更改
用於預測時,只要找到距離最近的質心。
決策樹
決策樹是一個樹形結構的分類器
決策樹對一個實例或示例的分類,從樹根開始直到抵達葉片節點,也就是目標價值
決策樹模仿了人類,所以這個模型很容易理解
小樹比大樹好,樹越大精度越低
這些就是一些關鍵的機器學習算法,這些算法就像刀叉一樣,各有利弊,適用於不同的場景。
如果你還有更多的疑問和興趣,可以跟作者郵件討論。他的Twitter地址是:https://twitter.com/alt227Joydeep
— 完 —
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回覆“招聘”兩個字。
量子位 QbitAI · 頭條號簽約作者
վ'ᴗ' ի 追蹤AI技術和產品新動態