問題タブ [tf-slim]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - TF-Slim NASNet モデルを使用した CIFAR-10 の結果の再現
https://github.com/tensorflow/models/tree/master/research/slimの TF-Slim 実装を使用して、いくつかのベンチマーク目的で CIFAR-10 上の NASNet モデルの結果を再現したいと考えています。このモデルをゼロからトレーニングするためにtrain_image_classifier.py
、スクリプトのコメント (31 ~ 37 行目) の指示に従って、次の行を の元のコードに追加しました/nets/nasnet/models.py
。
247行目以降:
536行目以降:
CIFAR-10 データをダウンロードして TFRecord 形式に変換した後、次を実行します。
600 エポック (= 937500 ステップ) 後も学習は続いているようですが、コサイン減衰により 600 エポックで学習率が 0 になるため、パラメータは更新されません。評価スクリプトの実行:
次の結果が得られます。
そのため、1 回の実行のテスト エラーは 4.23 % であり、これはスケーラブルな画像認識のための転送可能なアーキテクチャの学習で示されている結果のいずれにも対応していません。紙の結果と一致させるのを妨げるものはありますか?
tensorflow - `tf.train.batch()` から `inputs` を再形成して `slim.fully_connected() で使用する必要があるのはなぜですか?
でこのエラーが発生するのはなぜslim.fully_connected()
ですか?
ValueError: Input 0 of layer fc1 is incompatible with the layer: : expected min_ndim=2, found ndim=1. Full shape received: [32]
私の入力はTensor("batch:0", shape=(32,), dtype=float32)
からですtf.train.batch()
入力の形状を変更すると、(32,1)
正常に機能します。
スリムなウォークスルーの例は、後で明示的に再形成しなくても機能するようですload_batch()