私は現在、「Hadoop を使用した時系列マイニング アルゴリズムのためのクラウド コンピューティング」というタイトルのプロジェクトを開始しています。私が持っているデータは、テラバイトを超えるサイズの hdf ファイルです。Hadoop では、さらに処理するための入力としてテキスト ファイルが必要であることがわかっています (map-reduce タスク)。そのため、すべての .hdf ファイルをテキスト ファイルに変換するオプションが 1 つあります。これには多くの時間がかかります。
または、map reduce プログラムで生の hdf ファイルを使用する方法を見つけました。これまでのところ、hdf ファイルを読み取り、そこからデータを抽出する Java コードを見つけることに成功していません。誰かが hdf ファイルを操作する方法についてより良いアイデアを持っている場合は、そのような助けに本当に感謝します.
ありがとう