5

Hadoop をインストールするためのチュートリアルに従っていました : http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/ HDFS へ」ステップ。

私が得る接続エラー:

<12/10/26 17:29:16 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 0 time(s).
12/10/26 17:29:17 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 1 time(s).
12/10/26 17:29:18 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 2 time(s).
12/10/26 17:29:19 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 3 time(s).
12/10/26 17:29:20 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 4 time(s).
12/10/26 17:29:21 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 5 time(s).
12/10/26 17:29:22 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 6 time(s).
12/10/26 17:29:23 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 7 time(s).
12/10/26 17:29:24 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 8 time(s).
12/10/26 17:29:25 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 9 time(s).
Bad connection to FS. command aborted. exception: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused

これはすでにこの質問とほぼ同じです: Hadoop の実行中のエラー

ここでのポイントは、そこと上記のチュートリアルで説明されているように、ivp6 を無効にしましたが、役に立たないということです。私が行方不明になっているものはありますか?

編集:

新しくインストールされたubuntuを備えた2台目のマシンでチュートリアルを繰り返し、段階的に比較しました. hduserのbashrc構成にバグがあったことが判明しました。その後、正常に動作しました...

4

3 に答える 3

4

DataNode/NameNode が実行されていないときに実行しようとすると、正確なエラー メッセージが表示されるHadoop fs <anything>ので、同じことが起こっていると思います。

端末に入力jpsします。すべてが実行されている場合、次のようになります。

16022 DataNode
16524 Jps
15434 TaskTracker
15223 JobTracker
15810 NameNode
16229 SecondaryNameNode

DataNode または NameNode が実行されていないことに賭けます。jps の出力に抜けがある場合は、再起動してください。

于 2012-10-26T17:59:14.063 に答える
0
  1. etc/hadoop/core-site.xml に移動します。fs.default.name の値を確認します。以下のようになっているはずです。{ fs.default.name hdfs://localhost:54310 }
  2. 設定全体の後、このコマンドを与えます

hadoop namenode -format

  1. このコマンドですべてのサービスを開始します

start-all.sh

これで問題が解決します。

namenode がセーフ モードになっている可能性があります。bin/hdfs dfsadmin -safemode leave または bin/hadoop dsfadmin -safemode leave を実行してから、手順 2 および手順 3 に従ってください。

于 2015-05-29T09:09:01.900 に答える
0

設定全体の後、このコマンドを与えます

hadoop namenode -format

このコマンドですべてのサービスを開始します

start-all.sh

これはあなたの問題を解決します

于 2013-09-26T08:38:53.750 に答える