2

Android 携帯のカメラを入力として使用して画像処理アルゴリズムをテストしていますが、アルゴリズムを一貫してテストする方法が必要です。理想的には、事前に記録されたビデオ フィードを取得し、そのビデオ フィードがカメラからのライブ ビデオであると電話で「ふり」をさせたいと考えています。

私の理想的な解決策は、アルゴリズムを実行しているアプリが、ビデオが事前に記録されていることを認識していない場合です。ビデオ ファイルをアプリに直接ロードするのではなく、可能であればセンサー データとして読み込みます。

このアプローチは可能ですか?もしそうなら、正しい方向へのポインタは非常に役に立ちます.Google検索はこれまで失敗しました

ありがとう!

編集:明確にするために、カメラクラスはカメラサービスを使用してハードウェアからビデオを読み取ると理解しています。アプリケーション側で何かを行うのではなく、ハードウェアではなくビデオ ファイルから読み取るカスタム カメラ サービスを作成したいと考えています。それは可能ですか?

4

1 に答える 1

1

Android のライブ ビデオ フィードで処理を行う場合、Android が提供するインターフェイスを介して個々のフレームをフィードする独自のカスタム カメラアプリケーションを構築する必要があります。PreviewCallback

プレビュー フレームの形式は一般に NV21 形式であるため、これをシミュレートするのは少し難しいと思われます。getFrameAtTime事前に記録されたビデオを使用している場合、まったく異なる形式のビットマップを取得する方法を試してみない限り、フレームを 1 つずつ読み取る明確な方法はないと思います。

これにより、メソッドからこれらのビットマップを使用してテストできる可能性があることを示唆しています (ただし、ここで何をしようとしているのかはよくわかりません) getFrameAtTimePreviewCallbackこのコードをライブ カメラ プレビューで機能させるには、インターフェイスからの NV21 フレームを からのビットマップと同じ形式に変換する必要がありますgetFrameAtTime。または、アルゴリズムを適応させて NV21 形式のフレームを処理することもできます。NV21 は、色と輝度のデータを別々に表示する非常に優れた形式ですが、使いにくい場合があります。

于 2013-01-22T22:00:16.730 に答える