HAWQがインストールされたGreenplumに取り組んでいます。Hadoop ストリーミング ジョブを実行したいと考えています。ただし、hadoop が構成または開始されていないようです。hadoop ストリーミングを使用できることを確認するために mapred を起動するにはどうすればよいですか?
質問する
184 次
3 に答える
0
単語数を取得するには、次のコマンドを試してください。
$HADOOP_HOME/bin/hadoop jar $HADOOP_HOME/hadoop-streaming.jar \
-input <inputDir> \
-output <outputDir> \
-mapper /bin/cat \
-reducer /bin/wc
それが正しい単語数を示している場合は、それが機能している場合は、このコマンドを実行して吐き出されたエラーを確認してください
于 2014-10-21T08:57:12.760 に答える
0
最初に、クラスターが開始され、機能していることを確認します。Pivotal Command Center (通常、リンクは次のようなものですhttps://<admin_node>:5443/
) に移動して、クラスターの状態を確認するか、管理者に依頼してください。
次に、ジョブを開始しようとしているマシンに PHD クライアント ライブラリがインストールされていることを確認します。「rpm -qa | grep phd」を実行します
次に、クラスターが実行中でライブラリがインストールされている場合は、次のようにストリーミング ジョブを実行できます。
hadoop jar /usr/lib/gphd/hadoop-mapreduce/hadoop-streaming.jar -mapper /bin/cat -reducer /bin/wc -input /example.txt -output /testout
/example.txt ファイルは HDFS に存在する必要があります
于 2014-11-01T18:18:02.003 に答える