FaceDetector
Android Vision APIを使用して、ビデオ ファイル (ユーザー ギャラリーの MP4 など) で顔検出/追跡を実行したいと考えています。CameraSourceクラスを使用して、カメラから直接来るストリーム (たとえばandroid-vision github ) で顔追跡を実行する例はたくさんありますが、ビデオ ファイルでは何も見られません。
CameraSource
Android Studio 経由でソースコードを見てみましたが、難読化されていて、元のオンラインを見ることができませんでした。カメラの使用とファイルの使用には多くの共通点があると思います。おそらく、ビデオ ファイルを で再生し、Surface
それをパイプラインに渡します。
Frame.Builder
あるいは、関数setImageData
とがあることがわかりますsetTimestampMillis
。ビデオを として読み取ることができた場合、それをAPIByteBuffer
に渡すにはどうすればよいですか? この質問は似ているFaceDetector
と思いますが、答えはありません。同様に、ビデオをフレームにデコードし、それを に渡します。Bitmap
setBitmap
理想的には、ビデオを画面にレンダリングしたくないので、FaceDetector
API が可能な限り高速に処理を行う必要があります。