Firebase ML Kit を使用して、Android カメラを使用して、畳み込みニューラル ネットワーク モデルへの入力として画像をフィードしようとしています。
モデルはすでに Firebase にアップロードしています (tf lite モデルとして)。
私のモデルは (56, 75, 3) ピクセルの画像を入力として取り、画像を 4 つのクラスに分類しようとします。
{1, 56, 75, 3} のバイト配列内に収まるようにビットマップのサイズを適切に変更するのに苦労しています
bitmap = android.provider.MediaStore.Images.Media.getBitmap(cr, selectedImage); //getting bitmap from camera
//Boilerplate code to set up Firebase
FirebaseModelInputOutputOptions inputOutputOptions = new FirebaseModelInputOutputOptions.Builder().setInputFormat(0, FirebaseModelDataType.BYTE, new int[]{1, 56, 75, 3}).setOutputFormat(0, FirebaseModelDataType.BYTE, new int[]{1, 4}).build();
Bitmap scaled_bitmap Bitmap.createScaledBitmap(bitmap, 56, 75, true)
ビットマップを [1][56][75][3] バイト配列に変換して、ビットマップをモデルにフィードできるようにするにはどうすればよいですか?
byte[][][][] input = new byte[1][56][75][3];
input = ?? need help here to convert bitmap to byte array