問題タブ [tensorflow-model-garden]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - DeeplabV3+ モデルからの推論のためにフリーズした後に Batchnorm レイヤーが存在しますが、これは問題ありませんか?
トレーニング済みモデルのエクスポート後、BatchNorm レイヤーは引き続き存在します。私は、次の 2 つの理由から、推論のためにこれらを削除する必要があることをどこかで読みました。
- ネットワーク出力が間違っている可能性があります
- ネットワーク全体の高速化
さて、私は 1. には疑問がありますが、2 番目の事実は論理的に聞こえるので、私の質問は次のとおりです。
環境: Tensorflow GitHub のモデルで、Tensorflow 1.15.3 でトレーニングされています。
使用済みの輸出:
ネットワーク グラフの抜粋:
tensorflow2.0 - バート分類器モデルの量子化
現在、bert-classifier モデルを量子化しようとしていますが、エラーが発生しています。これが現時点でサポートされているかどうか疑問に思っていましたか? 明確にするために、量子化が tensorflow-model-garden の BERT Classifier スーパークラスでサポートされているかどうかを尋ねていますか? 助けてくれてありがとう!
python - 事前トレーニング済みの tensorflow オブジェクト検出 API モデルの 1 つのクラスを改善する
事前トレーニング済みの tf オブジェクト検出 API モデル ( ) で phone モバイル クラスを改善しようとしていましたefficientdet_d0_coco17_tpu-32
。
トレーニング データを収集し、次のようなtfrecords
場所を作成しました。label_map.pbtext
pipeline.config
を次のように更新しました。
新しいモデルを推論しようとしているときにトレーニングした後、常に1 asを取得していdetection_classes
ます。
私が間違っていることは何ですか?または継続学習はここでは不可能ですか?