Android 携帯のカメラを入力として使用して画像処理アルゴリズムをテストしていますが、アルゴリズムを一貫してテストする方法が必要です。理想的には、事前に記録されたビデオ フィードを取得し、そのビデオ フィードがカメラからのライブ ビデオであると電話で「ふり」をさせたいと考えています。
私の理想的な解決策は、アルゴリズムを実行しているアプリが、ビデオが事前に記録されていることを認識していない場合です。ビデオ ファイルをアプリに直接ロードするのではなく、可能であればセンサー データとして読み込みます。
このアプローチは可能ですか?もしそうなら、正しい方向へのポインタは非常に役に立ちます.Google検索はこれまで失敗しました
ありがとう!
編集:明確にするために、カメラクラスはカメラサービスを使用してハードウェアからビデオを読み取ると理解しています。アプリケーション側で何かを行うのではなく、ハードウェアではなくビデオ ファイルから読み取るカスタム カメラ サービスを作成したいと考えています。それは可能ですか?