問題タブ [training-data]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
r - r サポート ベクター マシン e1071 トレーニングが機能しない
R言語でサポートベクターマシンをいじっています。具体的には、e1071 パッケージを使用しています。
マニュアルページまたはwikibooksのチュートリアルに従う限り、すべてが機能します。しかし、これらの例で独自のデータセットを使用しようとすると、うまくいきません。
何らかの理由でモデルの作成に失敗したようです。少なくとも、ターゲット列のレベルを取得していません。以下に、明確にするための例を示します。
誰かが私がここで間違っていることを理解するのを手伝ってくれるかもしれません。ここにすべてのコードとデータがあります。
テスト データセット
Rスクリプト
summary(model) ステートメントの出力
ウィキブックの例
この出力を wikibooks の例の出力と比較すると、いくつかの情報が欠落しています。出力の「Levels」セクションに注意してください。
出力
visual-c++ - ビデオ内の他の 2 つのポイントに関してポイントの位置を推測するための SVM トレーニング
必要なポイントが関連している他の2つのポイントに関して、画像内のポイントの位置を推測するために、opencv c ++でSVMをトレーニングしたいと思います。
基本的に、ビデオ全体で 3 点の軌跡があり、これらの軌跡を SVM のトレーニング データとして使用したいと考えています。
私は機械学習技術に不慣れで、いくつかの読書の後、SVMがブール値の結果を返すことを理解したと思います(いくつかの条件が同時に満たされている場合はtrue、そうでない場合はfalse)。私の場合、結果として画像内の位置が必要です。
トレーニングセットをどのように整理すればよいかわかりません。次のようなことを考えていました。
T1 T2 T3 ラベル=1
ここで、T1 T2 と T3 には、私が正しいとわかっている 3 つの軌道に属するすべての点が含まれています。
T1 T2 T4 ラベル=-1
ここで、T1 と T2 は以前と同じですが、T4 には軌道 T3 上にないランダムな点が含まれています。
さまざまなビデオからのさまざまな軌道で SVM をトレーニングしたら、時間 t の T1 と T2 に対応する P1(x,y) と P2(x,y) とランダムな点 P(x,y) の 3 つの点を渡したいと思います。 )、SVM は、ランダムな点が目的の位置にあるかどうかを予測する必要があります。
このアプローチが間違っているかどうか、そしてその理由を誰かが説明できますか?
ありがとう
ocr - Tesseract OCR の新しい言語のトレーニングに使用するデータの種類
Tesseract OCR の新しい言語をトレーニングするために使用するデータの種類を知りたいですか?
各キャラですか?それとも、特定の文を作成する必要がありますか?
この情報のソースを提供するのを手伝ってください.wikiページでは明確にわかりません.
training-data - FANN 増分学習
現在、FANN を使用して増分学習を行っています。私のプログラムが間違っているかどうかを誰かに教えてもらえますか? ありがとうございました。
トレーニングするデータセットがあります。しかし、将来的には新しいデータセットを取得する予定です。「増分学習」と呼ばれる新しいデータセットを使用して、現在の nn を増分的にトレーニングしたいと考えています。
まず、古いデータ「old.data」で nn を作成してトレーニングします。トレーニングアルゴリズムも設定します。
struct fann *ann = fann_create_standard(num_layers, num_input, num_neurons_hidden, num_output); fann_set_activation_function_hidden(ann, FANN_SIGMOID_SYMMETRIC); fann_set_activation_function_output(ann, FANN_SIGMOID_SYMMETRIC);
fann_set_training_algorithm(ann, FANN_TRAIN_INCREMENTAL);
fann_train_on_file(ann, "old.data", max_epochs, epochs_between_reports, desired_error); fann_save(ann, "mynn.net");
fann_destroy(ann);
次に、新しいデータセット「new.data」がある場合、次のようにプログラムできると思います。
struct fann *ann = fann_create_from_file("mynn.net");
fann_train_on_file(ann, "new.data", max_epochs, epochs_between_reports, desired_error);
私のプログラムは正しいですか?
matlab - オブジェクト検出のために潜在的な SVM モデルをトレーニングする方法は? Matlab 2012b、Windows 64 ビット OS を使用するとクラッシュします
Windows 7 で C++ または Matlab2012b を使用して独自の検出器をトレーニングするにはどうすればよいですか? Linux または Mac OSX を持っていません。
ここに書く前に、実際にたくさん検索しました。私が得たものは次のとおりです。
独自の潜在 SVM モデルをトレーニングし、C++ で使用したいと考えています。OpenCV のサンプル cpp/latentsvm_multidetect.cpp を確認しました。既存のモデルで動作します。
著者のウェブサイト: http://www.cs.berkeley.edu/~rbg/latent/index.html . ソフトウェアは、Linux および Mac OSX で matlab2011a を使用してテストされていることが言及されています。ただし、Windows7 64 ビットで matlab2012b を実行しています。コードが頻繁にクラッシュするので、バグを修正しようとしましたが、もう対処できません。
Windows 7 64 ビットで使用できる他のソース コードはありますか?
OpenCV: http://docs.opencv.org/modules/objdetect/doc/latent_svm.html . トレーニング用のコード実装はありません。既存のモデルでオブジェクトを検出するために使用できるのは検出器のみです。
一方で、別の人が同じ質問をしました。opencv 潜在 svm . しかし、質問は答えられずに閉じられました。悲しい!
また、OpenCV と Latent SVM Detectorは私の質問に似ています。私は答えに満足していません.MatlabのソースコードのREADMEファイルで同じことを読みました. Windows 7 で実行している場合、ソース コードのバグを克服するのに役立ちません。
潜在SVMは魅力的で、オブジェクトを検出するための新しいものだと思います。また、これは私たち自身のモデルを簡単に訓練するための一般的な問題であるべきだと思います. どなたかご指導いただけると助かります。
とにかく、トレーニング部分が検出器部分でOpenCVに実装されていない理由がわかりません!
r - R での置換によるランダム サンプリングによるサブセット
300 個の数値 (1 から 300 まで) のベクトルがあります。モデル/トレーニング (200 個の数字) とテスト セット (100 個の数字) の 2 つのサブセットを作成し、置き換えたいと考えています。使用しようとしましsample
たsubset
が、必要な結果が得られませんでした。
任意の提案をしてください!!!!!
csv - テストとトレーニング セットは互換性がありません
同じ問題に関するさまざまな記事を見てきました。多くの解決策を試しましたが、何も機能していません。親切にアドバイス。
WEKA でエラーが発生します。
「分類子の評価の問題: テストとトレーニング セットに互換性がありません」。
私は使っている
私のアルゴリズムとしてのJ48
これは私のテストセットです:
(コードが長くてコピペできない)
WEKA (Traningset 用) で「バッチ フィルタリング」を試しましたが、まだ機能しません。
編集:私も変換しました
.csv to .arff
が、それでも同じ問題です。EDIT2: 両方の CSV のヘッダーが一致することを確認しました。それでも同じ問題。助けてください!
ご意見をお聞かせください。