問題タブ [caffe]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Caffe と C++ または Python とのインターフェース中の問題
チュートリアルについて私が読んだことは、データを作成し、protobuf を使用してモデルを作成し、次にソルバー ファイルを作成するということです。最後に、モデルをトレーニングして、生成されたファイルを取得します。これはすべてコマンドラインから実行されます。今、2つの質問があります
1) 生成されたモデルがあるとします。テスト フォルダーにない新しいイメージをロードして、フォワード パスを実行するにはどうすればよいですか。コマンドラインまたはいくつかの言語(c ++、python)から実行する必要がありますか?
2)上記はそれを行う1つの方法だったと思います。分類器をトレーニングする最良の方法 (コマンド ライン トレーニング/またはコーディング) と、生成されたモデル ファイルをコードで (トレーニング後に) 使用する方法を教えてください。
私は自分のコードでカフェをインターフェースしたいのですが、mnistなどのデータベースでステップバイステップで説明する短いチュートリアルを見つけることができません。モデルはLeNetほど複雑である必要はありませんが、単純な完全に接続されたレイヤーはもします。しかし、C++ または Python を使用して単純なコードを記述し、データセットをゼロからトレーニングする方法を教えてください。
分類器をトレーニングし、それを使用して caffe を使用して新しいデータを予測するためのサンプル C++/python コードも高く評価されます。
python - Caffe ネットワークの損失は非常に低くなりますが、テストの精度は非常に低くなります
私はカフェに少し慣れていないので、奇妙な動作をしています。bvlc_reference_caffenet の微調整を使用して、OCR タスクを実行しようとしています。
私は彼らの事前訓練されたネットを取り、最後の FC 層を私が持っている出力クラスの数に変更し、再訓練しました。数千回の反復の後、損失率は ~.001 になり、ネットワーク テストでは 90% を超える精度が得られました。とはいえ、自分でネットワークをデータで実行しようとすると、7 ~ 8% を超えないひどい結果が得られます。
ネットを実行するために使用しているコードは次のとおりです。
このパフォーマンスが非常に悪い理由について何か考えはありますか?
ありがとう!
PS: 役に立つかもしれないし、役に立たないかもしれないいくつかの追加情報。以下に示すように分類する場合、分類子は実際に特定のクラスを優先しているようです。101 クラスの問題がありますが、最大 15 の異なるクラスしか割り当てられないようです
PPS: また、オーバーフィットしていないこともかなり確信しています。途中でスナップショットを使用してこれをテストしてきましたが、それらはすべて同じ悪い結果を示しています。
cuda - 2 つの GPU カードに 1 つのプログラムが表示される
複数の GPU カード (NO.0、NO.1 ...) があり、 NO.1 または 2 ... (0 を除く) カードでcaffeプロセスを実行するたびに、NO で 73MiB を使い果たします。カード0枚。
たとえば、次の図では、プロセス 11899 は NO.0 カードで 73MiB を使用しますが、実際には NO.1 カードで実行されます。
なんで?この機能を無効にすることはできますか?
lua - Torch Caffe Lua - Flickr スタイルの例を機能させるには?
Torch Caffe Bindingの使用。Flickr Styleの例で予測したいと思います。トレーニング済みのモデルと以下のコードがあります。コードを変更して機能させるにはどうすればよいですか?
出力するのは、20 倍の NaN 値を持つ FloatTensor [次元 20x1x1 の torch.FloatTensor] です。
machine-learning - カフェに回帰層を追加する
深層学習に基づく笑顔検出システムを実装しました。一番下のレイヤーはシステムの出力で、人の笑顔の量に応じて 10 個の出力があります。
これらの 10 個の出力を回帰層で 1 から 10 の範囲の数値出力に変換したいと考えています。
カフェでこれを行うにはどうすればよいですか?
ありがとう
caffe - Caffe: ブロブに期待される lmdb データ構造を理解する
Caffe でデータがどのように解釈されるかを理解しようとしています。そのために、Minst チュートリアルを参照 しました。入力データの定義を見てみましょう。
mnist_train_lmdb を見て、エントリの 1 つを取得しました (16 進数で表示):
(「7」の数字が見えるように、ここに改行を追加しました。)
今私の質問は、このフォーマットがどこに記述されているのですか? または別の言い方をすれば、最初の 36 バイトが何らかのヘッダーであり、最後の 8 バイトが何らかのラベル対応を持っていると定義されている場所はどこですか?
独自のデータを構築するにはどうすればよいですか? Blob TutorialもLayers Definitionも、必要なフォーマットについてあまり教えてくれ ません。私の意図は、画像データではなく、時系列を使用することです
ありがとう!