2

私は直面している次の問題についてたくさん検索しました:

java.io.IOException:ローカル例外で/10.0.1.37:50070の呼び出しに失敗しました:org.apache.hadoopのorg.apache.hadoop.ipc.Client.wrapException(Client.java:1139)のjava.io.EOFException。 ipc.Client.call(Client.java:1107)at org.apache.hadoop.ipc.RPC $ Invoker.invoke(RPC.java:226)...。

次のようなリンクが見つかりました:hbase /filesystemからのhadoopnamenode接続でのEOF例外の意味は何ですか?と他の人が、それらのどれも私のために働いていませんでした。

今、私はバージョンの互換性の問題をよりよく理解していないと感じ始めています。私が最も混乱しているのは、Hadoopの互換性に関するHbaseのドキュメントで、「このバージョンのHbaseはHadoop0.20でのみ実行されます」のようになっています。ここで「これ」は何を指しますか?それらは0.93スナップショット(ドキュメントの上部にあります)を意味しますか?

最後に、Hadoopバージョン0.20.203とHbase0.90.4を使用しています。これらのバージョンに互換性があるかどうか誰かに教えてもらえますか?

前もって感謝します!!

4

2 に答える 2

1

私は、この本が「このバージョン」について話している奇妙な参照を与えており、「0.93」についても話していることに同意します。物事をもう少し明確にするために、本は現在バージョンを超越していますが、現在0.93と呼ばれているトランクにのみ存在します(そしてそれをコンパイルすると-snapshotが追加されます)。

いずれにせよ、現在、すべてのHBaseバージョンは、0.20.2または0.20.205.0。のすべてのHadoop 0.20。*と互換性があり、現在、追加をサポートしているのは後者だけです。使用しているバージョン0.20.203はそうではなく、リージョンサーバーが停止するとデータが失われる可能性があります。

EOF例外は、HBaselib/フォルダー内のHadoopjarを適切に交換しなかったことが原因である可能性があります。昨日、HBase 0.94のEOFException(0.94と誤ったタイトルでしたが、0.90.4であるはずです)のメーリングリストで同様の質問に答えました。これは、これをデバッグするための他の手がかりを与えます。

最後に、スタックトレースには奇妙なポート番号が含まれています。50070はWebUIであり、デフォルトで9000であるNamenodeRPCポートではありません。HBaseに間違ったポート番号を指定している可能性があります。

于 2011-12-07T17:42:52.147 に答える
-1

投稿されたリンクから入力を取りましたが、うまくいきました。$HADOOP_HOME/lib にある追加の guava*.jar を $HBASE_HOME/lib にコピーするだけで済みました (hadoop-0.20.2 を使用)。

于 2013-05-15T11:27:34.110 に答える