SVMでの大きなマージン効果を理解しているように:
たとえば、次の画像を見てみましょう。
正則化項による SVM 最適化目標では、(パラメータ ベクトル) シータのノルムが小さいパラメータのセットを見つけようとします。したがって、小さなベクトル シータと、このベクトルに対する正の例 (p) の射影を見つける必要があります (内積の小さなシータ ベクトルを補償するため)。同時に、p が大きいと大きなマージンが得られます。この画像では、理想的なシータと大きな p (および大きなマージン) が見つかります。
私の質問:
ロジスティック回帰が大きなマージン分類器ではないのはなぜですか? LR では、同じ方法で正則化項のシータ ベクトルを最小化します。もしそうなら、私は何かを理解していなかったのかもしれません - 訂正してください。
Coursera ml クラスの画像と理論を使用しました。