0

私はopenclでアプリケーションを開発しています。その基本的な目的は、GPUプラットフォームにデータマイニングアルゴリズムを実装することです。Hadoop分散ファイルシステムを使用し、複数のノードでアプリケーションを実行したい。私はMapReduceフレームワークを使用しており、基本的なアルゴリズムを「Map」と「Reduce」の2つの部分に分割しました。

私はこれまでHadoopで作業したことがないので、いくつか質問があります。

  1. HadoopおよびMapeduceフレームワークを使用するためだけにアプリケーションをJavaで記述していますか?
  2. openclでmapとreduceのカーネル関数を作成しました。Java以外のGPUコンピューティングアプリケーションにHDFSファイルシステムを使用することは可能ですか?(注:JavaCLまたはAparapiは使用しません)
4

2 に答える 2

1

HDFS はファイル システムです。HDFS ファイル システムは任意の言語で使用できます。

HDFS データは複数のマシンに分散され、GPU コンピューティングでデータを処理するための可用性が高くなります。

詳細については、Hadoop ストリーミングを参照してください。

于 2013-03-19T21:07:19.740 に答える
1

Hadoop ストリーミングを使用すると、コードが stdio から読み取り、それに書き戻すことができる限り、任意の言語でマッパーとレデューサーを作成できます。R が Hadoop ストリーミングでどのように使用されているかの例を参考にしてください。

于 2013-03-19T20:35:29.653 に答える