問題タブ [conv-neural-network]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - Tensorflow モデル動物園?
私にとってのカフェの主な利点の 1 つは、自由に配布された事前トレーニング済みのモデルで転移学習を実行できることでした。
テンソルフロー形式の論文/コンペティションからトレーニング済みモデルを取得する場所はありますか?
そうでない場合、既存のカフェ (またはその他の) モデルをテンソルフロー モデルに変換する可能性はありますか?
deep-learning - CNN をトレーニングするための「人工」画像の生成
さまざまな種類の車両やロゴなどを特定しようとしています。この分野でのほとんどの取り組みと同様に、課題はトレーニング画像が不足していることです。
人工画像を生成しようとした人はいますか? ロゴを車両のボンネット、車両後部の上に「描画」し、変形 (色や形状の変更など) を実行して、より多様なトレーニング セットを提供します。
このアプローチにガイドラインやベスト プラクティスはありますか?
編集:反対票を投じた人、少なくとも反対票を投じた理由をコメントしてください。私はこのフォーラムをトロールしようとしているわけではなく、心から質問しました。同意しない場合は、あなたの考えを共有してください。
tensorflow - テンソルフローの損失関数として2つの画像の二乗差を使用する
ネットワークの損失関数として 2 つのイメージ間で SSD を使用しようとしています。
問題は、重みが発散し、エラーが発生することです
なぜですか?画像サイズでssdを正規化する(機能しなかった)、出力値を1にトリミングする(もうクラッシュしませんが、まだ評価する必要があります)など、他のことを試しました:
私の観察は期待されるべきですか?
編集:@mdaoustの提案は正しいことが証明されました。主なポイントは、バッチサイズで正規化することでした。これは、このコードを使用して、バッチ サイズに関係なく実行できます。
この変更により、学習率をわずかに (0.0001 に) 下げるだけで済みました。
neural-network - カフェの精度が 100% を超える
私は 1 つを構築していますが、lenet の例で提供されているカスタム トレイン関数を 110 より大きいバッチ サイズで使用すると、精度が 1 (100%) より大きくなります。
バッチ サイズ 32 を使用すると、30% の精度が得られます。バッチ サイズが 64 の場合、正味の精度は 64 です。バッチ サイズが 128 の場合、精度は 1.2 です。
私の画像は 32x32 です。データセットのトレーニング: ニュートラルな顔の 56 枚の画像。驚きの顔画像60枚。テスト データセット: ニュートラルな顔の 15 枚の画像。驚きの顔画像15枚。
これは私のコードです:
では、私のコードの何が問題なのですか?
python - Caffe、事前訓練されたネットから予測する方法
私はこのコードを使用してネットをロードしています:
3行に疑問があります。
1-mean=np.load(caffe_root + 'python/caffe/imagenet/ilsvrc_2012_mean.npy').mean(1).mean(1)
意味は何?この平均値または別の値を使用する必要がありますか? はいの場合、どこでカスタム平均値を取得できますか? カスタム データセットを使用しています。
2-channel_swap=(2,1,0)
channel_swap とは? 繰り返しますが、この値またはカスタム値を使用する必要がありますか?
そして最後の
3-raw_scale=255
raw_scale とは何ですか? そして、どの値を使用する必要がありますか?
Cohn Kanadeデータセットを使用しています。すべての画像は 64x64 でグレースケールです。
machine-learning - train.prototxt から caffe.deploy を作成する方法
これは私のtrain.prototxtです。これが私のdeploy.prototxtです。
デプロイ ファイルをロードしようとすると、次のエラーが発生します。
そこで、データ層を削除しました:
より、bottom: "data"
conv1レイヤーから削除しました。
その後、次のエラーが発生しました。
bottom: "label"
損失レイヤーから削除しました。そして、私はこのエラーを受け取りました:
それを修正して展開ファイルを作成するにはどうすればよいですか?
deep-learning - Caffe トレーニングの反復損失は -nan です
独自のカスタム データを使用してFCN-8を実装しようとしています。トレーニング中、ゼロから、私の損失 = -nan がわかりました。
誰かが何がうまくいかないのか、どうすればこれを修正できるのかを提案できますか? 私のsolver.prototxtは次のとおりです:-
train_val.prototxt は、上記のリンクにあるものと同じです。カスタム イメージのサイズは 3x512x640 で、ラベルは 1x512x640 です。11 種類のラベルがあります。
machine-learning - カフェ | solver.prototxt 値の設定方法
Caffe では、セマンティック セグメンテーションのために完全畳み込みネットワークを実装しようとしています。'solver.prototxt'
次のハイパーパラメータの値を設定するための特定の戦略があるのだろうかと思っていました:
- test_iter
- テスト間隔
- iter_size
- max_iter
トレーニング セット用の画像の数に依存しますか? もしそうなら、どのように?
neural-network - 正方形でない入力に対して VGG または AlexNet を微調整する
VGG と AlexNet などでは、正方形の寸法 ( H
== W
) の固定画像入力が必要です。非正方形の入力を提供できるように、どのように微調整またはネット手術を実行できますか?
参考までに、私は Caffe を使用してFC7
おり、非正方形の画像入力の特徴を抽出するつもりです。
python - 再利用可能な Tensorflow 畳み込みネットワーク
Tensorflow "MNIST for Pros" CNN exampleのコードを再利用したい。私の画像は 388px X 191px で、出力クラスは 2 つだけです。元のコードはここにあります。以下に示すように、入力レイヤーと出力レイヤーのみを変更して、このコードを再利用しようとしました。
入力層
出力層
変更されたコードを実行すると、あいまいなスタック トレースが得られます。