問題タブ [deeplab]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Google Colab での DeepLab ResNet V3 のトレーニングとローカル マシンでのトレーニングの間に大きな相違がある
カスタム データセットでセマンティック セグメンテーションを実行するように Deeplab Resnet V3 をトレーニングしようとしています。私はローカル マシンで作業していましたが、私の GPU は小さな Quadro T1000 にすぎないため、モデルを Google Colab に移動して GPU インスタンスを利用し、より良い結果を得ることにしました。
期待していた速度の向上が得られますが、ローカル マシンと比べて、colab では大幅に異なるトレーニング ロスが発生しています。まったく同じコードをコピーして貼り付けたので、見つけられる唯一の違いはデータセットにあります。colab のデータセットが Google ドライブのローカル データセットのコピーであることを除いて、まったく同じデータセットを使用しています。ドライブの注文ファイルが Windows で異なることに気付きましたが、データセットをランダムにシャッフルするため、これがどのように問題になるかわかりません。これらのランダムな分割により、出力に小さな違いが生じる可能性があることは理解していますが、トレーニング損失の約 10 倍の違いは意味がありません。
また、さまざまなランダム シード、さまざまなバッチ サイズ、さまざまな train_test_split パラメーターを使用して colab でバージョンを実行し、オプティマイザーを SGD から Adam に変更してみましたが、それでもモデルは約 0.5 の損失で非常に早期に収束します。
これが私のコードです:
これは、Colab での 1 つのエポックの出力です。
そして、これが私のローカルマシンでの出力です:
長くて実行に時間がかかるため、これ以上は貼り付けませんが、3 番目のエポックの終わりまでに、Colab モデルの損失はまだ 0.5 前後で跳ね返っていますが、ローカルでは 0.02 に達しています。
誰かがこの問題を解決するのを手伝ってくれるなら、それは大歓迎です。
tensorflow - 事前トレーニング済みのチェックポイントに基づいて、自分のデータセットで Deeplab を微調整する
私は、ディープラボを使用して平面画像のセグメンテーション タスクに取り組んでいます。PASCAL VOC 2012 でトレーニングされた公式 Web サイトが提供する事前トレーニング済みのチェックポイントを使用して、自分のデータを推論しました。一部のセグメンテーション結果は、要件ほど良好ではありません。私は自分の飛行機のデータセットでモデルをトレーニングするつもりですが、トレーニング プロセスを加速するために既存のチェックポイントにも基づいています。
これを行うにはどうすればよいですか、これについての経験がある人はいますか? ありがとう