問題タブ [imagenet]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 分散型テンソルフロー パラメータ サーバーとワーカー
私は、Imagenet の分散型 TF トレインの例を綿密にフォローしていました。
この例が 2 つの異なるワーカーで実行されている場合、データの分散がどのように行われるのか理解できませんか? 理論的には、さまざまなワーカーがデータのさまざまな部分を見る必要があります。また、パラメーター サーバーでパラメーターを渡すように指示するコードの部分はどれですか? マルチ GPU の例のように、「cpu:0」の明示的なセクションがあります。
machine-learning - TensorFlow: Adding Class to Pre-trained Inception Model & Outputting Full Image Hierarchy
Two questions:
1) Does anyone know if I can add new image classes to the pre-trained Inception-v3 model? For example, I wanted to train TensorFlow on a multitude of national flags, but I need to make sure that I can still recognize the images from the ImageNet hierarchy. I realize that there is a way to wipe the top layer of Inception and completely retrain the model on my classes, but this very limiting and time consuming.
2) Also, is there a way to output the entire hierarchy containing the tag that the image receives? I wish to be able to not only see specifically what Inception tags the image as, but I want to see all of the more broad 'synsets' from ImageNet. For example, instead of just seeing the output "toy poodle", I am interested in "Animal/Domesticated Animal/Dog/Poodle/toy poodle".
Any responses are greatly appreciated.
computer-vision - 深層学習 - Conv net モデルに基づく微調整
Alexnet アーキテクチャを使用して、イメージ ネット モデルを微調整しています。私のデータセットは非常に小さいです (拡張なしでクラスごとに 7 つの画像)。最後の FC layer( "FC8"
) の重みを削除する必要がありますが、他の完全に接続されたレイヤーについてはどうでしょうか。画像ネットモデルの重みを使用するか、ランダムから初期化する必要があり"FC6"
ますか? "FC7"
3 つの FC 層すべての学習率は 5 です。
machine-learning - 畳み込み ImageNet ネットワークは、画像の反転に対して不変です
画像分類にディープ ラーニング カフェ フレームワークを使用しています。
私は顔のあるコインを持っています。それらのいくつかは左向きで、いくつかは右向きです。
それらを分類するために、私は一般的なアプローチを使用しています。すでに多くの画像パターンをキャプチャし、ほとんどの最後のレイヤーをトレーニングして、トレーニングセットに適合する事前トレーニング済みの ImageNet ネットワークから重みと構造を取得します。
しかし、このセットではネットワークが機能しないことがわかりました。たとえば、 leftdirected などのコインをいくつか取り、水平方向に反転した画像を生成し、右側としてマークしました。
このセットの畳み込みネットの精度は約 50% で、正確にランダムな結果です。
また、2つの画像(「h」文字の2つの反転バージョン)でネットをトレーニングしようとしました。しかし、同じ結果 - 50% . (私が別の文字を選択し、拡張されたデータセットでネットをトレーニングすることを選択した場合、100% の精度が非常に速く得られます)。しかし、反転に対する不変性は私の分類を破りました。
私の質問は次のとおりです。事前トレーニング済みのイメージネットの利点を使用できるアプローチが存在しますが、何らかの形でこの不変性を破っています。そして、ネット上のどの層が不変性を可能にするのか.
この例のアプローチに基づいてネットを生成するために「カフェ」を使用しています。
https://github.com/BVLC/caffe/blob/master/examples/02-fine-tuning.ipynb
deep-learning - Caffe "ImageNet" は .jpg または .bmp 画像をサポートしていますか?
Caffe の「ImageNet」は入力として画像をサポートしています.jpg
か? .bmp
ILSVRC2012 では、.JPEG
ファイルしか表示されません。.jpg および .bmp ファイル (タイプごとに異なるトレーニング) でモデルをトレーニングしようとしましたが、妥当な結果が得られません。
c++ - 分類 imagenet - caffe/caffe.hpp: そのようなファイルまたはディレクトリはありません
Caffe を介して独自のデータセットを使用してネットをトレーニングしましたが、C++ を使用して分類コードを記述したいと考えています。私のマシン (linux) は CPU のみで動作します! (GPU を使用して VM でネットをトレーニングします)。
特定の Caffe ヘッダーを「インクルード」しようとすると#include <caffe/caffe.hpp>
、コンパイラは次のメッセージを表示します: fatal error: caffe/caffe.hpp: No such file or directory
.
特定のカフェファイルをコピーしようとしまし/usr/lib/
たが、役に立ちませんでした。助言がありますか?
machine-learning - ILSVRC12 で ZFNet を学習してもテスト精度が向上しない
研究用に自作の ZFNet ( prototxt ) を実装しました。定義を 20k 回繰り返した後、テストの精度は ~0.001 (つまり、1/1000)、テストの損失は ~6.9、トレーニングの損失は ~6.9 にとどまり、ネットは 1k クラスの間で推測ゲームを続けているようです。定義全体を徹底的にチェックし、いくつかのハイパーパラメーターを変更して新しいトレーニングを開始しようとしましたが、役に立たず、同じ結果が画面に表示されました....
誰か光を見せてくれませんか?前もって感謝します!
prototxt のハイパーパラメーターは、論文 [1] から派生したものです。論文の図3が示唆するように、レイヤーのすべての入力と出力は正しいようです。
微調整は次のとおりです。
crop
トレーニングとテストの両方の入力の -s は、#33 で説明した225
代わりに に設定されます。224
conv3
、conv4
、およびブロブのサイズを一定にするための1 ピクセルのゼロ パディングconv5
[1]。すべての学習可能なレイヤーのフィラー タイプ
constant
が [1] からgaussian
withに変更されましたstd: 0.01
。weight_decay
: PR #33 で @sergeyk によって提案されたようにから0.0005
に変更します。0.00025
[1] Zeiler, M. と Fergus, R. 畳み込みネットワークの視覚化と理解、ECCV 2014。
そして悪い部分のために...、私はそれをここに貼り付けました