0

tarball バージョンを使用して CDH4 をインストールしようとしていますが、私が行った手順のように直面している問題は次のとおりです。

リンクからtarballをダウンロードしましたhttps://ccp.cloudera.com/display/SUPPORT/CDH4+Downloadable+Tarballs

まず、hadoop-0.20-mapreduce-0.20.2+1341 tar ファイルを untar します

私は構成の変更を行いました

hadoop-0.20-mapreduce-0.20.2+1341  since i wanted mrv1 not yarn .

cdh4のインストールで述べたように、最初にHDFSを構成することでした

関連する変更を加えました

core-site.xml
hdfs-site.xml
mapred-site.xml
masters --- which is my namenode
slaves ---- my datanodes

クラスター内のすべてのノードに Hadoop 構成をコピーしました

namenode フォーマットを実行しました。

フォーマット後、クラスターを起動する必要がありましたが、bin フォルダーではできませんでした

start-all.sh スクリプトを見つけます。その場合、私はコマンドで始めました

bin/start-mapred.sh

ログには、ジョブトラッカーが開始され、スレーブノードでタスクトラッカーが開始されたことが示されていますが、jpsを実行すると

私だけが見える

jobtracker
jps

さらに、以下のコマンドでデータノードでデータノードを開始しました

bin/hadoop-daemon.sh start datanode .

datanode started が表示されます。

Namenode が開始されていません。tasktracker が開始されていません。

ログを確認したところ、

ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: Exception in namenode join
java.io.FileNotFoundException: webapps/hdfs not found in CLASSPATH

何がクラスターの動作を妨げているのかわかりません。

以前はcdh3を実行していました。だから私は cdh3 クラスターを停止しました。次に、 cdh4 のインストールから始めました。また、すべてのディレクトリ hdfs-site.xml を変更しました。つまり、cdh3 で定義されたものではなく、namenode と datanode の新しい空のディレクトリを指定しました。

しかし、まだ何も役に立たないようです。

また、ルートアクセス権があるため、ファイアウォールをオフにしましたが、同じことが機能しませんでした。

上記のヘルプは大きな助けになります。


親切な回答ありがとうございますが、

ありません

start-dfs.sh file in bin folder 

/home/hadoop-2.0.0-mr1-cdh4.2.0/bin フォルダー内のファイルのみが

start-mapred.sh
stop-mapred.sh
hadoop-daemon.sh
hadoop-daemons.sh
hadoop-config.sh
rcc
slaves.sh
hadoop

現在私が使用しているコマンドは以下のとおりです

datanode を開始する場合:

for x in /home/hadoop-2.0.0-mr1-cdh4.2.0/bin/hadoop-* ; do $x start datanode ; done ;

namenode を開始する場合:

bin/start-mapred.sh

まだ私は同じ問題に取り組んでいます。

4

2 に答える 2

1

こんにちは、上記の誤解で申し訳ありません。次のコマンドを実行して、datanodes と namenodes を開始できます。

namenode を開始するには:

hadoop-daemon.sh  start namenode 

データノードを開始するには:

hadoop-daemons.sh  start datanode 

secondarynamenode を開始するには、次のようにします。

hadoop-daemons.sh --hosts masters start secondarynamenode
于 2013-03-25T13:15:17.767 に答える
-1

コマンドを実行すると、jobtracker デーモンがマスター ノードで開始され、tasktraker デーモンが各データノードで開始されます

bin/start-mapred.sh

Hadoop クラスターのセットアップでは、ジョブタッカーデーモンのみがマスター ノードの JPS コマンドによって表示され、各データノードでは、 JPS コマンドを使用して実行されているタスクトラッカーデーモンを確認できます。

次に、マスターノードで次のコマンドを実行して HDFS を開始する必要があります。

bin/start-dfs.sh

このコマンドは、namenodeマシンでnamenodeデーモンを開始し(この構成では、マスターノード自体が私が信じている)、各スレーブノードでDatanodeデーモンが開始されます

これで、各データノードで JPS を実行できるようになり、出力が得られます

tasktracker
datanode
jps

このリンクは役に立つと思います http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/

于 2013-03-24T21:29:19.347 に答える