200 個の機能があり、各機能が 0 から無限大の範囲の値を持つことができる場合、先に進んでその上で LibSVM をトレーニングする前に、機能値を [0-1] の範囲にスケーリングする必要がありますか?
ここで、値をスケーリングしたとします。モデルをトレーニングした後、その値または特徴を入力として 1 つのベクトルを取得した場合、入力テスト ベクトルのこれらの値を分類する前にどのようにスケーリングしますか?
ありがとうアビシェクS
200 個の機能があり、各機能が 0 から無限大の範囲の値を持つことができる場合、先に進んでその上で LibSVM をトレーニングする前に、機能値を [0-1] の範囲にスケーリングする必要がありますか?
ここで、値をスケーリングしたとします。モデルをトレーニングした後、その値または特徴を入力として 1 つのベクトルを取得した場合、入力テスト ベクトルのこれらの値を分類する前にどのようにスケーリングしますか?
ありがとうアビシェクS
特徴量が無限にある場合、とにかく LIBSVM を使用することはできません。
より実際的には、カーネルが大きな数を処理する必要がないように、スケーリングは一般的に有用です。ただし、必須ではありません。
Anony-Mousse がコメントで示唆しているように、スケーリングありとなしで実験を実行してみて、違いを確認してください。
ここで、値をスケーリングしたとします。モデルをトレーニングした後、その値または特徴を入力として 1 つのベクトルを取得した場合、分類する前に入力テスト ベクトルのこれらの値をどのようにスケーリングしますか?
再度スケーリングする必要はありません。これは、トレーニング前のステップ (つまり、データ処理) で既に行っています。