<strike id="ddzbl"><span id="ddzbl"><em id="ddzbl"></em></span></strike>
    <font id="ddzbl"><sub id="ddzbl"><mark id="ddzbl"></mark></sub></font>

      <address id="ddzbl"></address>
      <listing id="ddzbl"></listing>

        <track id="ddzbl"><span id="ddzbl"><progress id="ddzbl"></progress></span></track>

        首頁人工智能常見問題正文

        SVM的推導,特性?多分類怎么處理?

        更新時間:2020-09-21 來源:黑馬程序員 瀏覽量:

        ? SVM是最大間隔分類器

        從線性可分情況下,原問題,特征轉換后的dual問題,引入kernel(線性kernel,多項式,高斯),最后是soft margin。

        線性:簡單,速度快,但是需要線性可分

        多項式:比線性核擬合程度更強,知道具體的維度,但是高次容易出現數值不穩定,參數選擇比較多。

        高斯:擬合能力最強,但是要注意過擬合問題。不過只有一個參數需要調整。

        ? 多分類問題,一般將二分類推廣到多分類的方式有三種,一對一,一對多,多對多。

        一對一:將N個類別兩兩配對,產生N(N-1)/2個二分類任務,測試階段新樣本同時交給所有的分類器,最終結果通過投票產生。

        一對多:每一次將一個例作為正例,其他的作為反例,訓練N個分類器,測試時如果只有一個分類器預測為正類,則對應類別為最終結果,如果有多個,則一般選擇置信度最大的。從分類器角度一對一更多,但是每一次都只用了2個類別,因此當類別數很多的時候一對一開銷通常更小(只要訓練復雜度高于O(N)即可得到此結果)。

        多對多:若干個類作為正類,若干個類作為反類。注意正反類必須特殊的設計。

        猜你喜歡:

        簡述機器學習流程

        在無監督學習中如何進行文件聚類?

        樸素貝葉斯為什么被稱為“樸素”?

        人工智能高級軟件工程師課程

        分享到:
        在線咨詢 我要報名

        CHINESE熟女老女人HD

          <strike id="ddzbl"><span id="ddzbl"><em id="ddzbl"></em></span></strike>
          <font id="ddzbl"><sub id="ddzbl"><mark id="ddzbl"></mark></sub></font>

            <address id="ddzbl"></address>
            <listing id="ddzbl"></listing>

              <track id="ddzbl"><span id="ddzbl"><progress id="ddzbl"></progress></span></track>