2

ubuntuでVMをセットアップしました。Hadoop を単一ノードとして実行します。後でApache Pigをインストールしました。Apache Pig はローカル モードで問題なく動作しますが、常に prom で動作しますERROR 2999: Unexpected internal error. Failed to create DataStorage

非常に明白な何かが欠けています。誰かがこれを実行するのを手伝ってくれますか?

詳細: 1. Python で MapReduce ジョブを実行できたので、hadoop は正常に動作していると思います。2. pig -x local は期待どおりに実行されます。3.入力pigすると、次のエラーが表示されます

Pig 起動前のエラー
----------------------------
エラー 2999: 予期しない内部エラーです。データストレージの作成に失敗しました

java.lang.RuntimeException: DataStorage の作成に失敗しました
    org.apache.pig.backend.hadoop.datastorage.HDataStorage.init(HDataStorage.java:75) で
    org.apache.pig.backend.hadoop.datastorage.HDataStorage.(HDataStorage.java:58) で
    org.apache.pig.backend.hadoop.executionengine.HExecutionEngine.init (HExecutionEngine.java:214) で
    org.apache.pig.backend.hadoop.executionengine.HExecutionEngine.init (HExecutionEngine.java:134) で
    org.apache.pig.impl.PigContext.connect(PigContext.java:183) で
    org.apache.pig.PigServer.(PigServer.java:226) で
    org.apache.pig.PigServer.(PigServer.java:215) で
    org.apache.pig.tools.grunt.Grunt.(Grunt.java:55) で
    org.apache.pig.Main.run (Main.java:452) で
    org.apache.pig.Main.main (Main.java:107) で
原因: java.io.IOException: localhost/127.0.0.1:54310 への呼び出しがローカル例外で失敗しました: java.io.EOFException
    org.apache.hadoop.ipc.Client.wrapException (Client.java:775) で
    org.apache.hadoop.ipc.Client.call(Client.java:743) で
    org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220) で
    $Proxy0.getProtocolVersion (不明なソース) で
    org.apache.hadoop.ipc.RPC.getProxy (RPC.java:359) で
    org.apache.hadoop.hdfs.DFSClient.createRPCNamenode (DFSClient.java:106) で
    org.apache.hadoop.hdfs.DFSClient.(DFSClient.java:207) で
    org.apache.hadoop.hdfs.DFSClient.(DFSClient.java:170) で
    org.apache.hadoop.hdfs.DistributedFileSystem.initialize (DistributedFileSystem.java:82) で
    org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1378) で
    org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66) で
    org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1390) で
    org.apache.hadoop.fs.FileSystem.get(FileSystem.java:196) で
    org.apache.hadoop.fs.FileSystem.get(FileSystem.java:95) で
    org.apache.pig.backend.hadoop.datastorage.HDataStorage.init(HDataStorage.java:72) で
    ... 9 つ以上
原因: java.io.EOFException
    java.io.DataInputStream.readInt(DataInputStream.java:375) で
    org.apache.hadoop.ipc.Client$Connection.receiveResponse(Client.java:501) で
    org.apache.hadoop.ipc.Client$Connection.run(Client.java:446) で
================================================== ==============================
4

3 に答える 3

3

リンクは、失敗の考えられる原因を理解するのに役立ちました。

これが私の問題を解決したものです。
1. hadoop なしで pig を再コンパイルします。
2. PIG_CLASSPATH を更新して、$HADOOP_HOME/lib のすべての jar を取得します
。 3. pig を実行します。

ありがとう。

于 2011-07-21T06:00:13.063 に答える
-1

Cygwin をインストールしてから、Cygwin パスをパス環境変数に追加します。

詳しくはこちらをご覧ください

于 2011-11-15T10:47:08.580 に答える