これで、いくつかのビッグ ビデオ データが得られました。hadoop
を使用してビデオデータをデコードしたいMap/Reduce
。
使いたいデコード用のライブラリはffmpeg
. ただし、この関数av_open_input_file
はローカル ファイルのみを読み取ることができ、 では読み取れませんHDFS
。
したがって、ビデオ データをデコードする場合は、struct AVFormatContext
. 今、私はこれを得ることができませんstruct
。ビデオファイルのヘッダーを読み取って初期化するにはどうすればよいですかAVFormatContext
。そして、ビデオデータをバイト単位で読み取り、最後にデコードしますか?
1162 次
1 に答える
0
分散的にデコードしようとしました。ただし、ffmpeg はローカル ビデオしかデコードできません。そこで、ファイル ヘッダーを読み込んでデコーダを開始しようとしました。最後に、私は失敗しました。次に、別の解決策、fuse_dfs を見つけました。データが分散ファイルシステムにも保存されている間に、HDFS をローカルファイルシステムにマウントできます。このサイトでいくつかのヘルプを見つけることができます: hdfs をローカル ファイル システムにマウントする方法
于 2012-11-28T03:32:11.360 に答える