問題タブ [liblinear]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
r - Liblinear を使用した Leave-one-out 交差検証
私は著者属性の問題のために R で liblinear を使用しており、liblinear の cross パラメータを使用して (: のようなものLiblineaR(data=mydata, labels=factor(mydata[,1]), cost=co, cross=nrow(mydata)
)、実際にすべての行を反復処理して、どのテキストが誤分類されたか何か:
両方の方法で同じ結果が得られるはずですが、一部のデータセットでは、最初のバージョンの方が 2 番目のバージョンよりもはるかに優れた結果が得られます。たとえば、96% の精度と 50% の精度 (すべての作品は、同じ作者)。この種のことを扱った人はいますか?
r - 同じデータで同じパラメーターを使用した異なる svm ライブラリ間で異なる精度
私はlibsvmを使用しており、非常に単純な実験を行い、10k ベクトルをトレーニングし、わずか 22 でテストしました。パラメータ cost で線形カーネルを使用していますC=1
。私の問題はマルチクラスです。したがって、Libsvm は 1 対 1 のアプローチを使用してデータを分類します。Libsvm はSMOを使用して分離ハイパープレーンを見つけます。
私の友人が同じ実験をしましたが、使用した SVM 分類器はStatistics Toolboxからのものでした。彼は R のe1071パッケージも使用しました。ここでも、使用したカーネルは線形カーネルで、パラメーター コストC
は 1 に等しく、MATLAB でデータを分類するために 1 対 1 アプローチが使用されています (1 対 1アプローチは私の友人によってコーディングされました) と e1071 R パッケージ。MATLAB Statistics Toolbox と R の e1071 はどちらも、既定で分離超平面を見つけるために SMO アプローチを使用します。
最新のLIBLINEARライブラリも試しました。繰り返しますが、同じ構成が使用されました。
使用されるコードは次のとおりです。
libsvm 3.18 (コマンドライン)
liblinear 1.94 (コマンドライン)
R
いくつかの精度の違いがあります:
- Libsvm は 22 個のテスト特徴ベクトルのうち 11 個を正しく分類しました
- liblinear は 22 個のテスト特徴ベクトルのうち 18 個を正しく分類しました
- R は 22 個のテスト特徴ベクトルのうち 17 個を正しく分類しました
- 私の友人の 1 対 1 の MATLAB 実装は、22 個の特徴ベクトルのうち 19 個を正しく分類しました。
では、なぜ予測が異なるのでしょうか。つまり、すべての SVM が線形カーネルを使用し、コスト パラメーターが同じで、マルチクラス分類に同じアプローチを使用している場合、結果は同じではないでしょうか?
matlab - SVR出力の決定レベル融合
同じ出力を予測する 2 つの機能セットがあります。しかし、一度にすべてをトレーニングするのではなく、それらを個別にトレーニングして、意思決定を融合させたいと考えています。SVM 分類では、別の SVM のトレーニングに使用できるクラスの確率値を取得できます。しかし、SVR では、これをどのように行うことができるのでしょうか?
何か案は?
ありがとう :)