1

私はHadoopを初めて使用します。いくつかの問題がありますが、解決策を見つけることができません。問題は次のとおりです。

**Created a directory on HDFS using below command:
 --bin/hadoop fs -mkdir /user/abhijit/apple_poc
**Checking if my directory has been created:
 --bin/hadoop fs -ls
 --(output)-->drwxr-xr-x   - abhijit supergroup          0 2013-07-11 11:09 /user/abhijit/apple_poc
**Stopping all hadoop daemons:
 --bin/stop-all.sh 
**Restarting all the daemons again:
 --bin/start-all.sh 
**Again checking if my directory on HDFS created above is present or not:
 --bin/hadoop fs -ls
 --(output):
 2013-07-11 11:37:57.304 java[3457:1903] Unable to load realm info from SCDynamicStore
 13/07/11 11:37:58 INFO ipc.Client: Retrying connect to server:localhost/127.0.0.1:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
 13/07/11 11:37:59 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 1 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
 13/07/11 11:38:00 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 2 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
 13/07/11 11:38:01 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 3 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
 13/07/11 11:38:02 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 4 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
 13/07/11 11:38:03 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 5 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
 13/07/11 11:38:04 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 6 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
 13/07/11 11:38:05 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 7 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
 13/07/11 11:38:06 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 8 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
 13/07/11 11:38:07 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 9 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
 Bad connection to FS. command aborted. exception: Call to localhost/127.0.0.1:9000 failed on connection exception: java.net.ConnectException: Connection refused

どうか明らかにしてください..

  1. 私が何を間違っているのか本当にわかりませんか、プロパティファイルに変更するものはありますか?

  2. HDFS のデフォルト ディレクトリ ストレージは /user// ですが、問題を解決するには、このデフォルト ディレクトリを変更する必要がありますか?

  3. この問題から抜け出すためにnamenodeをフォーマットする必要があるたびに、上記で作成したディレクトリをフォーマットした後は失われます。

この背後にある問題を教えてください。ご協力いただきありがとうございます。

ありがとう、アビジット

4

1 に答える 1

2

このエラーは複数の理由で発生します。私は Hadoop で遊んでいます。この問題が複数回発生し、原因が異なっていました

  1. メイン ノードが実行されていない場合 -> ログを確認します
  2. 適切なIPがホストファイルに記載されていない場合[ホスト名を設定した後、ホストファイルにIPを提供して、他のノードがアクセスできるようにします]
于 2013-08-14T08:39:45.210 に答える