0

私はオブジェクト検出ソフトウェアに取り組んでいます。基本的に、Python で MobileNetV1 を使用して TensorFlow オブジェクト検出 API を使用しています。独自のデータセットでモデルをトレーニングしました。

私のデータセットを使用したトレーニングの結果のfrozen_inference_graph.pbファイルは、22 Moのようです。

量子化してTFLiteに変換しようとしましたが、それでも21.2 Moのようです。

この 2 つのサイズが 20+ Mo であることは正常ですか? MobileNet 量子化モデルが約 5 Mo であることをさまざまな情報源から読みました。これは、新しいオブジェクトを使用してカスタム データセットでトレーニングしたためですか? また、量子化してもサイズが縮小されないのはなぜですか (最大 4 分の 1)。

ご協力ありがとうございました

4

0 に答える 0