私は多くの論文を読み、サポート ベクター マシンの基本概念を非常に高いレベルで理解しました。「最適化関数」がこの入力ベクトルを評価する方法に基づいて、一連の機能を持つトレーニング入力ベクトルを与えます。これを x、(テキスト分類について話しているとしましょう)、入力ベクトルに関連付けられたテキストと呼びましょう。 x は、事前に定義された 2 つのクラスのいずれかに分類されます。これは、バイナリ分類の場合のみです。
したがって、私の最初の質問は、上記の手順によるものです。すべての論文は、最初に、このトレーニング入力ベクトル x がより高い (おそらく無限の) 次元空間にマッピングされると述べています。では、このマッピングは何を達成し、なぜこれが必要なのでしょうか? 入力ベクトル x に 5 つの特徴があるとします。では、どの「高次元」の x をマッピングするかを誰が決定するのでしょうか?
2 番目の質問は、次の最適化方程式に関するものです。
min 1/2 wi(転置)*wi + C Σi = 1..n ξi
w は、グラフのサポート ベクターからの超平面のマージンと関係があることを理解しています。また、C が何らかのペナルティであることはわかっていますが、それが何に対するペナルティなのかはわかりません。また、この場合の ξi は何を表していますか。
2 番目の質問の簡単な説明をいただければ幸いです。テクニカル ペーパーを読んでも理解できなかったからです。