172.16.53.31:8787 でホストされている R-hadoop を使用して、HDFS から 172.16.53.31:54331 (元は 54321) でホストされている H2O にファイルをインポートしようとしています。
このエラーが発生しました。何か案が?
または何かアドバイスはありますか?
よろしくお願いします。
心から、
新しい
画面に貼り付けられたスクリーンショットのエラーが読みにくいですが、InvalidProtocolBufferException のようです。
この場合、「hdfs://172.16.53.31:」の形式が正しくないようです。
ポートなしで「hdfs://172.16.53.31」を試してください。または、Hadoop インストール用の正しいポートを追加してみてください。
完全に間違ったポートを指定すると、指定したものは protobuf を話しません。
このエラーは、Hadoop クライアントのバージョンが Hadoop サーバーのバージョンと大きく異なる場合にも発生する可能性があります。(「hadoop jar」メソッドで H2O を開始すると、正しい Hadoop ライブラリが「hadoop jar」によってクライアント クラスパスに配置されることに注意してください。)
「hadoop jar」を使用して H2O を開始すると、通常は環境から名前ノードを取得し、名前ノードを指定せずに「hdfs:///path/to/file.csv」を指定できます。
私は同じ問題を抱えていました。
hdfs パスに 9000 ポート番号を追加してみてください。
このようなもの:
hdfs://<ip>:9000/<dataPath>/