0

172.16.53.31:8787 でホストされている R-hadoop を使用して、HDFS から 172.16.53.31:54331 (元は 54321) でホストされている H2O にファイルをインポートしようとしています。

このエラーが発生しました。何か案が?

エラー

または何かアドバイスはありますか?

よろしくお願いします。

心から、

新しい

4

2 に答える 2

2

画面に貼り付けられたスクリーンショットのエラーが読みにくいですが、InvalidProtocolBufferException のようです。

この場合、「hdfs://172.16.53.31:」の形式が正しくないようです。

ポートなしで「hdfs://172.16.53.31」を試してください。または、Hadoop インストール用の正しいポートを追加してみてください。

完全に間違ったポートを指定すると、指定したものは protobuf を話しません。

このエラーは、Hadoop クライアントのバージョンが Hadoop サーバーのバージョンと大きく異なる場合にも発生する可能性があります。(「hadoop jar」メソッドで H2O を開始すると、正しい Hadoop ライブラリが「hadoop jar」によってクライアント クラスパスに配置されることに注意してください。)

「hadoop jar」を使用して H2O を開始すると、通常は環境から名前ノードを取得し、名前ノードを指定せずに「hdfs:///path/to/file.csv」を指定できます。

于 2015-03-30T03:06:36.380 に答える
1

私は同じ問題を抱えていました。

hdfs パスに 9000 ポート番号を追加してみてください。

このようなもの:

hdfs://<ip>:9000/<dataPath>/
于 2015-02-06T14:45:20.047 に答える