私は、(1) コンピューター カーソルを上に移動する場合と (2) 他の 7 つの基本方向のいずれかに移動する場合、または移動しない場合に対応するニューラル データを区別するために、 1 対静止分類器を実装しています。RBF カーネル (LIBSVM で作成) で SVM 分類器を使用しており、分類器に最適なガンマとコスト パラメータを見つけるためにグリッド検索を行いました。2 つのクラスのそれぞれから 338 要素のトレーニング データを使用してみました (大規模な「残りの」クラスをアンダーサンプリングします)。最初のクラスから 338 要素を使用し、2 番目のクラスから 7218 要素を加重 SVM で使用しました。
また、特徴選択を使用して、使用している特徴の数を 130 から 10 に減らしました。分類器をトレーニングするときに、10 個の「最良」の特徴と 10 個の「最悪」の特徴を使用してみました。また、機能セット全体を使用しました。
残念ながら、私の結果はあまり良くありません。さらに、その理由を説明することもできません。私は 37759 のデータ ポイントでテストしました。そのうちの 1687 は「1」(つまり「上」) クラスからのもので、残りの 36072 は「残り」のクラスからのものでした。すべての場合において、私の分類子は 95% 正確ですが、正しく予測された値はすべて「rest」クラスに分類されます (つまり、すべてのデータ ポイントは「rest」として予測され、誤って予測されたすべての値は「one」に分類されます)。 "/"up" クラス)。各クラスから 338 個のデータ ポイント (トレーニングに使用したものと同じもの) でテストを試みたところ、サポート ベクターの数は 666 であり、データ ポイントの数より 10 少ないことがわかりました。この場合、パーセント精度はわずか 71% です。
何がうまくいかないのか分かりますか?ご提案がありましたら、お知らせください。
ありがとう!