問題タブ [adaboost]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
4481 参照

opencv - OpenCV Haartraining は永遠に終わらない

opencvのhaartrainingを使うのはこれが初めてです。

練習用に、35 枚のポジ画像と 45 枚のネガ画像を使用しました。

でもデータからトレーニングしようとすると、 永遠に終わらず、

パラメータを極端に調整した場合でも。

(最小ヒット率 = 0.001、最大誤警報率 = 0.999

この極端な値のため、それほど時間はかからないと思います)

私の実験では何が間違っているのでしょうか?

これが私のコマンドとパラメーターです。

そして結果。

0 投票する
6 に答える
11833 参照

r - mfinal>10 を指定すると、adabag ブースティング関数がエラーをスローする

奇妙な問題があります。adabag パッケージのブースト機能で mfinal 引数を 10 を超えて増やそうとすると、エラーが発生します。mfinal=9 でも警告が表示されます。

私の列車データには、7 つのクラス従属変数と 100 の独立変数、および約 22000 のデータ サンプルがあります (DMwR を使用して 1 つのクラスをスモートしました)。私の従属変数は、順番にトレーニング データセットの最後にあります。

前もって感謝します。

0 投票する
1 に答える
4652 参照

opencv - アダブースト機能の選択

視覚的な歩行者検出のために、openCV ライブラリを使用してアダブースト分類子をトレーニングしようとしています。私は、adaboost が最も関連性の高い特徴の選択を可能にするという考えに出くわしました。つまり、画像から 50.000 の特徴を収集し、それらを使用して分類器をトレーニングすると、トレーニング プロセスの最後に選択できるようになります。たとえば、これらの 50.000 のうちの最高の 2000 です。

そうすれば、スピードのために、実際のプロセスで 2000 個だけを収穫できるようになります。

これは本当ですか?それとも私は誤解に陥っていますか?

本当なら、openCV ライブラリを使用して行うことは可能ですか?

よろしくお願いします

0 投票する
1 に答える
1192 参照

opencv - Adaboost でのパラメータ選択

ブーストにOpenCV を使用した後、独自のバージョンのAdaboostアルゴリズムを実装しようとしています (参照については、こちらこちら、および元の論文を参照してください)。

すべての資料を読んで、アルゴリズムの実装に関するいくつかの疑問を思いつきました。

1) 各弱学習器の重み a_t がどのように割り当てられているかは明確ではありません。

私が指摘したすべての情報源では、選択はでありa_t = k * ln( (1-e_t) / e_t )、k は正の定数であり、e_t は特定の弱学習器のエラー率です。

このソースの 7 ページには、その特定の値が特定の凸微分可能関数を最小化すると書かれていますが、私はその節を本当に理解していません。

  • 誰か説明してくれませんか?

2) トレーニング サンプルの重み更新の手順に疑問があります。

明らかに、それらが確率分布のままであることを保証するような方法で行う必要があります。すべての参考文献はこの選択を採用しています:

D_{t+1}(i) = D_{t}(i) * e^(-a_t y_i h_t(x_i)) / Z_t (Z_t は、D_{t+1} が分布になるように選択された正規化係数です) )。

  • しかし、重み更新の特定の選択が、特定の弱学習器によって作成されたエラー率の指数関数と乗算されるのはなぜですか?
  • 他に可能なアップデートはありますか?はいの場合、この更新が学習プロセスのある種の最適性を保証するという証拠はありますか?

これがこの質問を投稿する適切な場所であることを願っています。そうでない場合は、リダイレクトしてください!
ご協力いただきありがとうございます。

0 投票する
0 に答える
1711 参照

opencv - OpenCV: ソフト カスケード分類器のトレーニング

openCV ツールを使用して、歩行者検出のアルゴリズムを構築しました。分類を実行するには、CvBoost クラスでトレーニングされたブースト分類子を使用します。

この実装の問題は、トレーニングに使用した機能のセット全体を分類器に供給する必要があることです。これにより、アルゴリズムが非常に遅くなり、各画像を完全に分析するのに約 20 秒かかります。

別の検出構造が必要で、openCV にはこの Soft Cascade クラスがあり、まさに私が必要としているものと思われます。その基本原理は、検出器が少数の機能を使用してほとんどの陰性サンプルを拒否できるため、テスト サンプルのすべての機能を調べる必要がないということです。問題は、完全にラベル付けされた一連の負の例と正の例を与えられた場合、どのようにトレーニングするかがわかりません。

これに関する情報がオンラインで見つからないため、このソフトカスケードを使用して分類を行う方法について教えていただけるヒントを探しています。

よろしくお願いします

0 投票する
1 に答える
896 参照

opencv - OpenCV: adaboost から弱いラーナーを取得する方法

Opencv に実装されている adaboost アルゴリズムから弱学習器に対応する機能を抽出する方法はありますか?

アダブーストは、一連の入力機能に基づいて一連の弱学習器を組み合わせることを知っています。トレーニング セットの各サンプルについて、同じ特徴が測定されます。通常、adaboost は決定スタンプを使用し、各機能のしきい値を設定して、最小のエラーを持つ決定スタンプを選択します。弱学習器を生成した特徴は何かを知りたいです。

ありがとう。

0 投票する
1 に答える
1478 参照

r - さまざまな機械学習アルゴリズムを R のブースティングと組み合わせる

R がさまざまなアルゴリズムを強化するためのパッケージはありますか? たとえば、ランダム フォレストやニューラル ネットワークなどです。私が理解しているように、パッケージada化してgbm決定木をブーストすることしかできません。

ありがとうございました。