-1

ローカル コンピューターで hadoop-0.23.8 を構成しようとしています。そして、私は次の例外で実行しています。私が間違っていることを知っていますか

次のシステム変数を使用しています

export HADOOP_OPTS="-Djava.security.krb5.realm=OX.AC.UK -Djava.security.krb5.kdc=kdc0.ox.ac.uk:kdc1.ox.ac.uk"

また、Java 6 を使用しており、次の変数 HADOOP_PREFIX、HADOOP_HDFS_HOME、および YARN_HOME を設定しています。正しく構成するのに役立ちますか。

192.168.1.13: namenode running as process 10522. Stop it first.
hduser@192.168.1.13: starting datanode, logging to /usr/local/hadoop-0.23.8/logs/hadoop-
hduser-datanode-MacBook-Air.local.out
hduser@192.168.1.13: 2013-06-19 00:30:30.556 java[11171:1603] Unable to load realm info from SCDynamicStore
hduser@192.168.1.13: 2013-06-19 00:30:30.558 java[11171:1603] Unable to load realm info from SCDynamicStore
Starting secondary namenodes []
hduser@192.168.1.13: starting secondarynamenode, logging to /usr/local/hadoop-0.23.8/logs/hadoop-hduser-secondarynamenode-MacBook-Air.local.out
hduser@192.168.1.13: Exception in thread "main" java.lang.IllegalArgumentException: Target address cannot be null.
hduser@192.168.1.13:    at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:179)
hduser@192.168.1.13:    at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:154)
hduser@192.168.1.13:    at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:143)
hduser@192.168.1.13:    at org.apache.hadoop.hdfs.DFSUtil.getNameServiceId(DFSUtil.java:771)
hduser@192.168.1.13:    at org.apache.hadoop.hdfs.DFSUtil.getSecondaryNameServiceId(DFSUtil.java:738)
hduser@192.168.1.13:    at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.<init>(SecondaryNameNode.java:186)
hduser@192.168.1.13:    at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.main(SecondaryNameNode.java:691)
4

1 に答える 1