tensorflow-lite を使用して、Android でセマンティック セグメンテーション アプリケーションに取り組んでいます。モデルを実行し、tflite.run メソッドの助けを借りて ByteBuffer 形式で出力を取得できました。しかし、Java でこの出力から画像を抽出できませんでした。パスカル voc データセットでトレーニングされ、実際に変換されたモデルTF モデルからの tflite 形式: ' mobilenetv2_dm05_coco_voc_trainval ' 。
この問題は、次のスタックオーバーフローの質問に似ているようです: tensorflow-lite - using tflite Interpreter to get an image in the output
float データ型の変換を扱う同じ問題は、github の問題で修正されているようです: https://github.com/tensorflow/tensorflow/issues/23483
では、UINT8 モデルの出力からセグメンテーション マスクを適切に抽出するにはどうすればよいでしょうか。