1

ビデオ ファイルがあります。このビデオを Xuggler を使用して画像フレームのセットに変換しました。画像の各フレームを読み取って、何らかの処理を行う必要があります。そのような画像が 2000 個あるとします (私は Xuggler を使用しています。これはビデオを画像に変換し、次に画像をビデオに変換します)。最初の画像で、指定された座標に長方形を描画する必要があると言います。画像のすべての処理が終了すると、すべての画像が Xuggler ツールによってビデオに変換されます。

ビデオファイルは5TB以上の非常に巨大です。Hadoop mapreduce ですべての画像処理作業を行いたいです。Hadoop での画像処理専用の API HIPI を 1 つ見つけました。

ただし、HIPI は MetaData 情報の追加をサポートしていません。各画像に関連付けられたメタデータ情報が必要です。これにより、Mapper で IMAGE ID を把握し、指定された参照ファイルに基づいてその画像 ID を処理できるようになります。注: 画像番号、位置座標などの情報を含む参照ファイルが 1 つあります。画像の。そのため、MapTask で特定の画像を取得すると、画像番号 10 と言うと、指定された座標の形状を描画するなどの画像処理を行います。

HIPIを使用する場合、マップタスクにはImageHeaderがキーとして含まれ、FloatImageが値として含まれます。ImageHeaderには情報がありません(ファイル名でさえありません)。したがって、hdfs分散ファイルを参照データと比較する方法がありません

これを行うための他の良い方法はありますか?

4

0 に答える 0