AndroidパッケージFace
を介して検出されたオブジェクトによって表される実際のピクセルを抽出するための推奨される方法は何ですか?gms.vision.face.*
デバイスのカメラからビデオ フレームを取得し、顔検出を実行するために、こちらのFaceTracker
サンプル コードを使用しています。
パイプラインは、オブジェクトからを受け取るFace Detector
に をアタッチします。顔検出器は、検出された顔ごとにオブジェクトを作成します。ただし、私が知る限り、オブジェクトは、顔に含まれる下にあるピクセルを保持していません。今後の検証のために、検出された顔を保存したいと思います。CameraSource
Frame
SurfaceView
Face
Face
考えられる解決策の 1 つ (私が知る限り) は、 からフレームを受信し、SurfaceView
そのバッファーを保持し、単一の で顔検出を呼び出し、返されFrame
たオブジェクトを使用しFace
てピクセルを抽出することです。ただし、実装の詳細については、1 つのフレーム (モデルの初期化など) で呼び出しを行うことで発生する可能性のあるオーバーヘッドを推測するのに十分な知識がありません。私は 10 年ぶりに Java に再び慣れてきました。
そこに好ましい解決策はありますか?