問題タブ [transfer-learning]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - keras VGGFace フレームワークを使用した CNN のトレーニング中にエポックが開始されない
12 クラスの顔画像で構成される独自のデータセットで、keras フレームワークを使用した VGG Face 実装を使用しようとしています。トレーニング セットのデータが非常に少ないいくつかのクラスに拡張を適用しました。
resnet50 で微調整した後、モデルをトレーニングしようとすると、エポックでスタックします。つまり、トレーニングを開始せず、エポック 1/50 を表示し続けます。外観は次のとおりです。
これが私のコードです:
考えられる問題を知っている人はいますか?そして、どうすればモデルをより良くすることができますか(何かできることがあれば)。私に改善を提案してください。
python - PyTorch : GPU 実行時間
私は PyTorch のさまざまなチュートリアルに従っています。GPU の速度を使用しようとしていますが、Web サイトで発表されている実行時間と現実の間に問題が発生しています。 https://pytorch.org/tutorials/beginner/transfer_learning_tutorial.html
このページの最後にコードがあります。私のコンピューターでは、プログラムが 6/7 分で終了したのに対し、1 分 30 秒で終了したことが読み取れます。試してみて、何時間あるか教えてください!Web サイトと同じファイル コードを使用して大きな違いが見られて非常に混乱しています。これにより、問題が GPU に起因するかどうかを理解できます:)
私の設定:GTX 1080Ti Windows10 Cuda 9.1 Pytorch 0.4.0
コード:
すべての体に感謝します!
python - 事前訓練された畳み込みベースを使用した keras モデルの損失関数の奇妙な動作
写真から数値予測を行うために、Keras でモデルを作成しようとしています。私のモデルにはdensenet121畳み込みベースがあり、その上にいくつかの追加レイヤーがあります。最後の 2 つのレイヤーを除くすべてのレイヤーが に設定されlayer.trainable = False
ます。回帰タスクであるため、私の損失は平均二乗誤差です。トレーニング中は が得られloss: ~3
ますが、データのまったく同じバッチでの評価は次のようになりますloss: ~30
。
エポック 1/1 32/32 [============================] - 0s 11ms/ステップ - 損失: 2.5571
32/32 [============================] - 2s 59ms/ステップ 29.276123046875
トレーニングと評価の間、まったく同じ 32 枚の写真をフィードします。また、予測値を使用して損失を計算しy_pred=model.predict(dat[0])
、numpy を使用して平均二乗誤差を構築しました。結果は、評価から得たものと同じでした (つまり、29.276123...)。
この動作はBatchNormalization
、畳み込みベースのレイヤーが原因である可能性があるという提案がありました ( github での議論)。もちろん、BatchNormalization
私のモデルのすべてのレイヤーlayer.trainable=False
も同様に設定されています。誰かがこの問題に遭遇し、解決策を見つけたのではないでしょうか?