カメラからソケットを介してコンピューターにライブビデオストリームを送信するAndroidアプリを作成しました。FFmpeg を使用して MPEG4 ビデオ ストリームをデコードし、カメラがリアルタイムで見ているものを表示する方法はありますか? バイトストリームから取得した最新の情報からビットマップを作成し、20+ FPS でコンピューターに表示する必要があると思います。
このようなことをするにはどうすればよいですか?C++、C#、または Java で問題ありません。私の理解では、FFmpeg は C++ で書かれています。