0

Hadoop と Hbase は初めてです。ローカル ファイル システムで Hbase を実行しており、Hbase を使用してテーブルを作成しようとしましたが、Hmaster が開始されていないことがわかりました。hbase-site.xml を変更しましたが、改善されないようです。xml に次のエントリがあります。

<property>
    <name>hbase.rootdir</name>
    <value>file:///home/cluster/hbase</value>
</property>


<property>
    <name>hbase.master</name>
    <value>localhost:9000</value>
</property>

<property>
    <name>hbase.zookeeper.quorum</name>
            <value>localhost</value>
</property>

 <property>    
    <name>hbase.zookeeper.property.dataDir</name>
    <value>file:///home/cluster/zooKeeper</value>    
</property>

ローカルホスト:127.0.0.1

例外は:

java.net.ConnectException: Call to localhost/127.0.0.1:9000 failed on connection exception: java.net.ConnectException: Connection refused
    at org.apache.hadoop.ipc.Client.wrapException(Client.java:1099)
    at org.apache.hadoop.ipc.Client.call(Client.java:1075)
    at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:225)
    at com.sun.proxy.$Proxy11.getProtocolVersion(Unknown Source)
    at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:396)
    at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:379)
    at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:119)
    at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:238)
    at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:203)
    at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:89)
    at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1386)
    at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66)
    at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1404)
    at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:254)
    at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:123)
    at org.apache.hadoop.hbase.util.JVMClusterUtil.startup(JVMClusterUtil.java:191)
    at org.apache.hadoop.hbase.LocalHBaseCluster.startup(LocalHBaseCluster.java:420)
    at org.apache.hadoop.hbase.master.HMasterCommandLine.startMaster(HMasterCommandLine.java:149)
    at org.apache.hadoop.hbase.master.HMasterCommandLine.run(HMasterCommandLine.java:104)
    at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
    at org.apache.hadoop.hbase.util.ServerCommandLine.doMain(ServerCommandLine.java:76)
    at org.apache.hadoop.hbase.master.HMaster.main(HMaster.java:2044)
Caused by: java.net.ConnectException: Connection refused
4

1 に答える 1

-1

CDHなどのディストリビューションを使用し、インストール手順に従うことをお勧めします。始めたばかりの場合は、自分で設定しようとするよりもはるかに簡単です。

hbase.master価値があるのは、プロパティを設定する必要がなかったことです。プロパティを設定する必要がありますが、これはローカルURLhbase.rootdirではなく、HDFS ディレクトリを指している必要があります。file://それがおそらくあなたの問題の原因です。機能している HDFS クラスターも必要です。CDH は、開発者マシン用の疑似分散環境を非常に簡単にセットアップします。

参考までに、hbase-site.xmlCDH4 を使用した私のローカルは次のとおりです。

<configuration>
  <property>
    <name>hbase.zookeeper.quorum</name>
    <value>localhost</value>
  </property>
  <property>
    <name>hbase.rootdir</name>
    <value>hdfs://localhost:8020/hbase</value>
  </property>
  <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
  </property>
  <property>
    <name>dfs.support.append</name>
    <value>true</value>
  </property>
  <property>
    <name>dfs.client.read.shortcircuit</name>
    <value>true</value>
  </property>
</configuration>

dfs.support.append技術的には、とを削除できると思いますがdfs.client.read.shortcircuit、これらも便利です。

同様に、core-site.xmlHDFS のローカルは次のとおりです。

<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:8020</value>
  </property>
</configuration>
于 2014-04-01T00:19:04.527 に答える