你是合格的機器學習數據科學家嗎?來挑戰這40題吧!(附解答)

機器學習 深度學習 隨機森林 大學 機器之心 2017-05-03

選自 Analytics Vidhya

作者:ANKIT GUPTA

機器之心編譯

參與:機器之心編輯部

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!(附解答)

目前機器學習是最搶手的技能之一。如果你是一名數據科學家,那就需要對機器學習很擅長,而不只是三腳貓的功夫。作為 DataFest 2017 的一部分,Analytics Vidhya 組織了不同的技能測試,從而數據科學家可以就這些關鍵技能進行自我評估。測試包括機器學習、深度學習、時序問題以及概率。這篇文章將給出機器學習測試問題的解答。你可以通過鏈接獲得其他測試問題及解答。

  • 深度學習:https://www.analyticsvidhya.com/blog/2017/04/40-questions-test-data-scientist-deep-learning/

  • 時序問題:https://www.analyticsvidhya.com/blog/2017/04/40-questions-on-time-series-solution-skillpower-time-series-datafest-2017/

  • 概率:https://www.analyticsvidhya.com/blog/2017/04/40-questions-on-probability-for-all-aspiring-data-scientists/

在本文的機器學習測試中,超過 1350 人註冊參與其中。該測試可以檢驗你對機器學習概念知識的掌握,併為你步入業界做準備。如果錯過了實時測試,沒有關係,你可以回顧本文以自我提升。機器之心對這些試題及解答進行了編譯介紹。你能答對多少題呢?不妨與我們分享。

整體分數分佈

下面給出了測試得分的分佈,希望能幫助你瞭解一下自己的水平。成績單也可以看這裡:https://datahack.analyticsvidhya.com/contest/skillpower-machine-learning/lb

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!(附解答)

目前已有 210 人蔘與了這些試題的測試,最高分為 36。平均得分為 19.36,中位數為 21,最常出現的得分(Mode Score)為 27。

測試題與解答

假定特徵 F1 可以取特定值:A、B、C、D、E 和 F,其代表著學生在大學所獲得的評分。現在請答題:

1. 在下面說法中哪一項是正確的?

A. 特徵 F1 是名義變量(nominal variable)的一個實例。

B. 特徵 F1 是有序變量(ordinal variable)的一個實例。

C. 該特徵並不屬於以上的分類。

D. 以上說法都正確。

答案為(B):有序變量是一種在類別上有某些順序的變量。例如,等級 A 就要比等級 B 所代表的成績好一些。

2. 下面哪個選項中哪一項屬於確定性算法?

A.PCA

B.K-Means

C. 以上都不是

答案為(A):確定性算法表明在不同運行中,算法輸出並不會改變。如果我們再一次運行算法,PCA 會得出相同的結果,而 k-means 不會。

3. 兩個變量的 Pearson 相關性係數為零,但這兩個變量的值同樣可以相關。

A. 正確

B. 錯誤

答案為(A):Y=X2,請注意他們不僅僅相關聯,同時一個還是另一個的函數。儘管如此,他們的相關性係數還是為 0,因為這兩個變量的關聯是正交的,而相關性係數就是檢測這種關聯。詳情查看:https://en.wikipedia.org/wiki/Anscombe's_quartet

4. 下面哪一項對梯度下降(GD)和隨機梯度下降(SGD)的描述是正確的?

  1. 在 GD 和 SGD 中,每一次迭代中都是更新一組參數以最小化損失函數。

  2. 在 SGD 中,每一次迭代都需要遍歷訓練集中的所有樣本以更新一次參數。

  3. 在 GD 中,每一次迭代需要使用整個訓練集或子訓練集的數據更新一個參數。

A. 只有 1

B. 只有 2

C. 只有 3

D.1 和 2

E.2 和 3

F. 都正確

答案為(A):在隨機梯度下降中,每一次迭代選擇的批量是由數據集中的隨機樣本所組成,但在梯度下降,每一次迭代需要使用整個訓練數據集。

5. 下面哪個/些超參數的增加可能會造成隨機森林數據過擬合?

  1. 樹的數量

  2. 樹的深度

  3. 學習速率

A. 只有 1

B. 只有 2

C. 只有 3

D.1 和 2

E.2 和 3

F. 都正確

答案為(B):通常情況下,我們增加樹的深度有可能會造成模型過擬合。學習速率在隨機森林中並不是超參數。增加樹的數量可能會造成欠擬合。

6. 假如你在「Analytics Vidhya」工作,並且想開發一個能預測文章評論次數的機器學習算法。你的分析的特徵是基於如作者姓名、作者在 Analytics Vidhya 寫過的總文章數量等等。那麼在這樣一個算法中,你會選擇哪一個評價度量標準?

  1. 均方誤差

  2. 精確度

  3. F1 分數

A. 只有 1

B. 只有 2

C. 只有 3

D. 1 和 3

E. 2 和 3

F. 1 和 2

答案為(A):你可以把文章評論數看作連續型的目標變量,因此該問題可以劃分到迴歸問題。因此均方誤差就可以作為損失函數的度量標準。

7. 給定以下三個圖表(從上往下依次為1,2,3). 哪一個選項對以這三個圖表的描述是正確的?

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!(附解答)

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!(附解答)

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!(附解答)

A. 1 是 tanh,2 是 ReLU,3 是 SIGMOID 激活函數

B. 1 是 SIGMOID,2 是 ReLU,3 是 tanh 激活函數

C. 1 是 ReLU,2 是 tanh,3 是 SIGMOID 激活函數

D. 1 是 tanh,2 是 SIGMOID,3 是 ReLU 激活函數

答案為(D):因為 SIGMOID 函數的取值範圍是 [0,1],tanh 函數的取值範圍是 [-1,1],RELU 函數的取值範圍是 [0,infinity]。

8. 以下是目標變量在訓練集上的 8 個實際值 [0,0,0,1,1,1,1,1],目標變量的熵是所少?

A. -(5/8 log(5/8) + 3/8 log(3/8))

B. 5/8 log(5/8) + 3/8 log(3/8)

C. 3/8 log(5/8) + 5/8 log(3/8)

D. 5/8 log(3/8) – 3/8 log(5/8)

答案為(A):信息熵的公式為:

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!(附解答)

9. 假定你正在處理類屬特徵,並且沒有查看分類變量在測試集中的分佈。現在你想將 one hot encoding(OHE)應用到類屬特徵中。那麼在訓練集中將 OHE 應用到分類變量可能要面臨的困難是什麼?

A. 分類變量所有的類別沒有全部出現在測試集中

B. 類別的頻率分佈在訓練集和測試集是不同的

C. 訓練集和測試集通常會有一樣的分佈

D. A 和 B 都正確

E. 以上都不正確

答案為(D):A、B 項都正確,如果類別在測試集中出現,但沒有在訓練集中出現,OHE 將會不能進行編碼類別,這將是應用 OHE 的主要困難。選項 B 同樣也是正確的,在應用 OHE 時,如果訓練集和測試集的頻率分佈不相同,我們需要多加小心。

10.Skip gram 模型是在 Word2vec 算法中為詞嵌入而設計的最優模型。以下哪一項描繪了 Skip gram 模型?

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!(附解答)

A. A

B. B

C. A 和 B

D. 以上都不是

答案為(B):這兩個模型都是在 Word2vec 算法中所使用的。模型 A 代表著 CBOW,模型 B 代表著 Skip gram。

11. 假定你在神經網絡中的隱藏層中使用激活函數 X。在特定神經元給定任意輸入,你會得到輸出「-0.0001」。X 可能是以下哪一個激活函數?

A. ReLU

B. tanh

C. SIGMOID

D. 以上都不是

答案為(B):該激活函數可能是 tanh,因為該函數的取值範圍是 (-1,1)。

12. 對數損失度量函數可以取負值。

A. 對

B. 錯

答案為(B):對數損失函數不可能取負值。

13. 下面哪個/些對「類型 1(Type-1)」和「類型 2(Type-2)」錯誤的描述是正確的?

  1. 類型 1 通常稱之為假正類,類型 2 通常稱之為假負類。

  2. 類型 2 通常稱之為假正類,類型 1 通常稱之為假負類。

  3. 類型 1 錯誤通常在其是正確的情況下拒絕假設而出現。

A. 只有 1

B. 只有 2

C. 只有 3

D. 1 和 2

E. 1 和 3

F. 3 和 2

答案為(E):在統計學假設測試中,I 類錯誤即錯誤地拒絕了正確的假設(即假正類錯誤),II 類錯誤通常指錯誤地接受了錯誤的假設(即假負類錯誤)。

14. 下面在 NLP 項目中哪些是文本預處理的重要步驟?

  1. 詞幹提取(Stemming)

  2. 移去停止詞(Stop word removal)

  3. 目標標準化(Object Standardization)

A. 1 和 2

B. 1 和 3

C. 2 和 3

D. 1、2 和 3

答案為(D):詞幹提取是剝離後綴(「ing」,「ly」,「es」,「s」等)的基於規則的過程。停止詞是與語境不相關的詞(is/am/are)。目標標準化也是一種文本預處理的優良方法。

15. 假定你想將高維數據映射到低維數據中,那麼最出名的降維算法是 PAC 和 t-SNE。現在你將這兩個算法分別應用到數據「X」上,並得到數據集「X_projected_PCA」,「X_projected_tSNE」。下面哪一項對「X_projected_PCA」和「X_projected_tSNE」的描述是正確的?

A. X_projected_PCA 在最近鄰空間能得到解釋

B. X_projected_tSNE 在最近鄰空間能得到解釋

C. 兩個都在最近鄰空間能得到解釋

D. 兩個都不能在最近鄰空間得到解釋

答案為(B):t-SNE 算法考慮最近鄰點而減少數據維度。所以在使用 t-SNE 之後,所降的維可以在最近鄰空間得到解釋。但 PCA 不能。

16-17 題的背景:給定下面兩個特徵的三個散點圖(從左到右依次為圖 1、2、3)。

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!(附解答)

16. 在上面的圖像中,哪一個是多元共線(multi-collinear)特徵?

A. 圖 1 中的特徵

B. 圖 2 中的特徵

C. 圖 3 中的特徵

D. 圖 1、2 中的特徵

E. 圖 2、3 中的特徵

F. 圖 1、3 中的特徵

答案為(D):在圖 1 中,特徵之間有高度正相關,圖 2 中特徵有高度負相關。所以這兩個圖的特徵是多元共線特徵。

17. 在先前問題中,假定你已經鑑別了多元共線特徵。那麼下一步你可能的操作是什麼?

  1. 移除兩個共線變量

  2. 不移除兩個變量,而是移除一個

  3. 移除相關變量可能會導致信息損失。為了保留這些變量,我們可以使用帶罰項的迴歸模型(如 ridge 或 lasso regression)。

A. 只有 1

B. 只有 2

C. 只有 3

D. 1 或 3

E. 1 或 2

答案為(E):因為移除兩個變量會損失一切信息,所以我們只能移除一個特徵,或者也可以使用正則化算法(如 L1 和 L2)。

18. 給線性迴歸模型添加一個不重要的特徵可能會造成:

  1. 增加 R-square

  2. 減少 R-square

A. 只有 1 是對的

B. 只有 2 是對的

C. 1 或 2 是對的

D. 都不對

答案為(A):在給特徵空間添加了一個特徵後,不論特徵是重要還是不重要,R-square 通常會增加。

19. 假設給定三個變量 X,Y,Z。(X, Y)、(Y, Z) 和 (X, Z) 的 Pearson 相關性係數分別為 C1、C2 和 C3。現在 X 的所有值加 2(即 X+2),Y 的全部值減 2(即 Y-2),Z 保持不變。那麼運算之後的 (X, Y)、(Y, Z) 和 (X, Z) 相關性係數分別為 D1、D2 和 D3。現在試問 D1、D2、D3 和 C1、C2、C3 之間的關係是什麼?

A. D1= C1, D2 < C2, D3 > C3

B. D1 = C1, D2 > C2, D3 > C3

C. D1 = C1, D2 > C2, D3 < C3

D. D1 = C1, D2 < C2, D3 < C3

E. D1 = C1, D2 = C2, D3 = C3

F. 無法確定

答案為(E):特徵之間的相關性係數不會因為特徵加或減去一個數而改變。

20. 假定你現在解決一個有著非常不平衡類別的分類問題,即主要類別佔據了訓練數據的 99%。現在你的模型在測試集上表現為 99% 的準確度。那麼下面哪一項表述是正確的?

  1. 準確度並不適合於衡量不平衡類別問題

  2. 準確度適合於衡量不平衡類別問題

  3. 精確率和召回率適合於衡量不平衡類別問題

  4. 精確率和召回率不適合于衡量不平衡類別問題

A. 1 and 3

B. 1 and 4

C. 2 and 3

D. 2 and 4

答案為(A):參考問題 4 的解答。

21. 在集成學習中,模型集成了弱學習者的預測,所以這些模型的集成將比使用單個模型預測效果更好。下面哪個/些選項對集成學習模型中的弱學習者描述正確?

  1. 他們經常不會過擬合

  2. 他們通常帶有高偏差,所以其並不能解決複雜學習問題

  3. 他們通常會過擬合

A. 1 和 2

B. 1 和 3

C. 2 和 3

D. 只有 1

E. 只有 2

F. 以上都不對

答案為(A):弱學習者是問題的特定部分。所以他們通常不會過擬合,這也就意味著弱學習者通常擁有低方差和高偏差。

22. 下面哪個/些選項對 K 折交叉驗證的描述是正確的

  1. 增大 K 將導致交叉驗證結果時需要更多的時間

  2. 更大的 K 值相比於小 K 值將對交叉驗證結構有更高的信心

  3. 如果 K=N,那麼其稱為留一交叉驗證,其中 N 為驗證集中的樣本數量

A. 1 和 2

B. 2 和 3

C. 1 和 3

D. 1、2 和 3

答案為(D):大 K 值意味著對過高估計真實預期誤差(訓練的折數將更接近於整個驗證集樣本數)擁有更小的偏差和更多的運行時間(並隨著越來越接近極限情況:留一交叉驗證)。我們同樣在選擇 K 值時需要考慮 K 折準確度和方差間的均衡。

23 題至 24 題的背景:交叉驗證在機器學習超參數微調中是十分重要的步驟。假定你需要為 GBM 通過選擇 10 個不同的深度值(該值大於 2)而調整超參數「max_depth」,該樹型模型使用 5 折交叉驗證。 4 折訓練驗證算法(模型 max_depth 為 2)的時間為 10 秒,在剩下的 1 折中預測為 2 秒。

23. 哪一項描述擁有 10 個「max_depth」不同值的 5 折交叉驗證整體執行時間是正確的?

A. 少於 100 秒

B. 100-300 秒

C. 300-600 秒

D. 大於等於 600 秒

E. 無法估計

答案為(D):因為深度為 2 的 5 折交叉驗證每一次迭代需要訓練 10 秒和測試 2 秒。因此五折驗證需要 12*5 = 60 秒,又因為我們需要搜索 10 個深度值,所以算法需要 60*10 = 600。

24. 在先前的答案中,如果你訓練同樣的算法調整 2 個超參數,假設是 max_depth 和 learning_rate。你想要選擇正確的值對抗 max_depth(從給定的 10 個深度值中)和學習率(從 5 個不同的學習率做選擇)。在此情況下,整體時間是下面的哪個?

A.1000-1500 秒

B.1500-3000 秒

C. 多於或等於 3000 Second

D. 都不是

答案為(D):和 23 題一樣。

25. 下表是機器學習算法 M1 的訓練錯誤率 TE 和驗證錯誤率 VE,基於 TE 和 VE 你想要選擇一個超參數(H)。

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!(附解答)

基於上表,你會選擇哪個 H 值?

A.1

B.2

C.3

D.4

E.5

答案為(D):看這個表,D 選項看起來是最好的。

26. 為了得到和 SVD 一樣的投射(projection),你需要在 PCA 中怎樣做?

A. 將數據轉換成零均值

B. 將數據轉換成零中位數

C. 無法做到

D. 以上方法不行

答案為(A):當數據有一個 0 均值向量時,PCA 有與 SVD 一樣的投射,否則在使用 SVD 之前,你必須將數據均值歸 0。

問題 27-28 的背景:假設存在一個黑箱算法,其輸入為有多個觀察(t1, t2, t3,…….. tn)的訓練數據和一個新的觀察(q1)。該黑箱算法輸出 q1 的最近鄰 ti 及其對應的類別標籤 ci。你可以將這個黑箱算法看作是一個 1-NN(1-最近鄰)

27. 能夠僅基於該黑箱算法而構建一個 k-NN 分類算法?注:相對於 k 而言,n(訓練觀察的數量)非常大。

A. 可以

B. 不行

答案為(A):在第一步,你在這個黑箱算法中傳遞一個觀察樣本 q1,使該算法返回一個最近鄰的觀察樣本及其類別,在第二步,你在訓練數據中找出最近觀察樣本,然後再一次輸入這個觀察樣本(q1)。該黑箱算法將再一次返回一個最近鄰的觀察樣本及其類別。你需要將這個流程重複 k 次。

28. 我們不使用 1-NN 黑箱,而是使用 j-NN(j>1) 算法作為黑箱。為了使用 j-NN 尋找 k-NN,下面哪個選項是正確的?

A. j 必須是 k 的一個合適的因子

B. j>k

C. 不能辦到

答案為(C):原因和 27 題一樣

29. 有以下 7 副散點圖(從左到右分別編號為 1-7),你需要比較每個散點圖的變量之間的皮爾遜相關係數。下面正確的比較順序是?

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!(附解答)

  1. 1<2<3<4

  2. 1>2>3 > 4

  3. 7<6<5<4

  4. 7>6>5>4

A. 1 和 3

B. 2 和 3

C. 1 和 4

D. 2 和 4

答案為(B):從圖1到圖4,相關性係數(絕對值)是遞減的。但圖4到7相關性係數絕對值是遞增的(值為負數,如0、-0.3、-0.7、-0.99等)

30. 你可以使用不同的標準評估二元分類問題的表現,例如準確率、log-loss、F-Score。讓我們假設你使用 log-loss 函數作為評估標準。下面這些選項,哪個/些是對作為評估標準的 log-loss 的正確解釋。

  1. 如果一個分類器對不正確的分類很自信,log-loss 會嚴重的批評它。

  2. 對一個特別的觀察而言,分類器為正確的類別分配非常小的概率,然後對 log-loss 的相應分佈會非常大。

  3. 3.log-loss 越低,模型越好。

A.1 和 3

B.2 和 3

C.1 和 2

D.1、2、3

答案為(D):答案無需解釋。

問題 31-32 背景:下面是數據集給出的 5 個樣本。

你是合格的機器學習數據科學家嗎?來挑戰這40題吧!(附解答)

注意:圖像中點之間的視覺距離代表實際距離。

31. 下面哪個是 3-NN(3-最近鄰)的留一法交叉驗證準確率?

A.0

B.0.4

C.0.8

D.1

答案為(C):留一法交叉驗證,我們將選擇(n-1) 觀察值作為訓練,以及驗證的 1 觀察值。把每個點作為交叉驗證點,然後找到 3 個最近鄰點。所以,如果你在每個點上重複該步驟,你會為上圖中給出的所有正類找到正確的分類,而錯誤分類負類。因此,得到 80% 的準確率。

32. 下面哪個 K 值將會有最低的差一法(leave-one-out)交叉驗證精確度?

A. 1NN

B. 3NN

C. 4NN

D. 以上所有具有相同的差一法錯誤

答案(A):在 1-NN 中,被錯誤分類的每一個點都意味著你將得到 0% 的精確度。

33. 假設你被給到以下數據,你想要在給定的兩個類別中使用 logistic 迴歸模型對它進行分類。你正在使用帶有 L1 正則化的 logistic 迴歸,其中 C 是正則化參數,w1 和 w2 是 x1 和 x2 的係數。當你把 C 值從 0 增加至非常大的值時,下面哪個選項是正確的?

A. 第一個 w2 成了 0,接著 w1 也成了 0

B. 第一個 w1 成了 0,接著 w2 也成了 0

C. w1 和 w2 同時成了 0

D. 即使在 C 成為大值之後,w1 和 w2 都不能成 0

答案(B):通過觀察圖像我們發現,即使只使用 x2,我們也能高效執行分類。因此一開始 w1 將成 0;當正則化參數不斷增加時,w2 也會越來越接近 0。

34. 假設我們有一個數據集,在一個深度為 6 的決策樹的幫助下,它可以使用 100% 的精確度被訓練。現在考慮一下兩點,並基於這兩點選擇正確的選項。

注意:所有其他超參數是相同的,所有其他因子不受影響。

  1. 深度為 4 時將有高偏差和低方差

  2. 深度為 4 時將有低偏差和低方差

A. 只有 1

B. 只有 2

C. 1 和 2

D. 沒有一個

答案(A):如果在這樣的數據中你擬合深度為 4 的決策樹,這意味著其更有可能與數據欠擬合。因此,在欠擬合的情況下,你將獲得高偏差和低方差。

35. 在 k-均值算法中,以下哪個選項可用於獲得全局最小?

  1. 嘗試為不同的質心(centroid)初始化運行算法

  2. 調整迭代的次數

  3. 找到集群的最佳數量

A. 2 和 3

B. 1 和 3

C. 1 和 2

D. 以上所有

答案(D):所有都可以用來調試以找到全局最小。

36. 假設你正在做一個項目,它是一個二元分類問題。你在數據集上訓練一個模型,並在驗證數據集上得到混淆矩陣。基於上述混淆矩陣,下面哪個選項會給你正確的預測。

  1. 精確度是~0.91

  2. 錯誤分類率是~0.91

  3. 假正率(False correct classification)是~0.95

  4. 真正率(True positive rate)是~0.95

A. 1 和 3

B. 2 和 4

C. 1 和 4

D. 2 和 3

答案(C):精確度(正確分類)是 (50+100)/165,約等於 0.91。真正率是你正確預測正分類的次數,因此真正率將是 100/105 = 0.95,也被稱作敏感度或召回。

37. 對於下面的超參數來說,更高的值對於決策樹算法更好嗎?

  1. 用於拆分的樣本量

  2. 樹深

  3. 樹葉樣本

A. 1 和 2

B. 2 和 3

C. 1 和 3

D. 1、2 和 3

E. 無法分辨

答案(E):對於選項 A、B、C 來說,如果你增加參數的值,性能並不一定會提升。例如,如果我們有一個非常高的樹深值,結果樹可能會過擬合數據,並且也不會泛化。另一方面,如果我們有一個非常低的值,結果樹也許與數據欠擬合。因此我們不能確定更高的值對於決策樹算法就更好。

38-39 題背景 :想象一下,你有一個 28x28 的圖片,並使用輸入深度為 3 和輸出深度為 8 在上面運行一個 3x3 的卷積神經網絡。注意,步幅是 1,你正在使用相同的填充(padding)。

38. 當使用給定的參數時,輸出特徵圖的尺寸是多少?

A. 28 寬、28 高、8 深

B. 13 寬、13 高、8 深

C. 28 寬、13 高、8 深

D. 13 寬、28 高、8 深

答案(A):計算輸出尺寸的公式是:輸出尺寸=(N – F)/S + 1。其中,N 是輸入尺寸,F 是過濾器尺寸,S 是步幅。閱讀這篇文章(鏈接:https://www.analyticsvidhya.com/blog/2016/04/deep-learning-computer-vision-introduction-convolution-neural-networks/)獲得更多瞭解。

39. 當使用以下參數時,輸出特徵圖的尺寸是多少?

A. 28 寬、28 高、8 深

B. 13 寬、13 高、8 深

C. 28 寬、13 高、8 深

D. 13 寬、28 高、8 深

答案 (B):同上

40. 假設,我們正在 SVM 算法中為 C(懲罰參數)的不同值進行視覺化繪圖。由於某些原因,我們忘記了使用視覺化標註 C 值。這個時候,下面的哪個選項在 rbf 內核的情況下最好地解釋了下圖(1、2、3 從左到右,圖 1 的 C 值 是 C 1,圖 2 的 C 值 是 C 2,圖 3 的 C 值 是 C 3)中的 C 值。

A. C1 = C2 = C3

B. C1 > C2 > C3

C. C1 < C2 < C3

D. 沒有一個

答案 (C):錯誤項的懲罰參數 C。它也控制平滑決策邊界和訓練點正確分類之間的權衡。對於 C 的大值,優化會選擇一個較小邊距的超平面。更多內容:https://www.analyticsvidhya.com/blog/2015/10/understaing-support-vector-machine-example-code/

相關推薦

推薦中...