問題: Eclipse Hadoop プラグインの問題 (localhost/127.0.0.1:50070 への呼び出しがローカル例外で失敗しました: java.io.EOFException)。これに対する解決策を私に教えてくれる体はありますか?
Cloudera のトレーニング チュートリアルを行っています。Eclipse(Helios)3.6 および Hadoop.0.20.2-cdh3u2 バージョンを使用します。
hadoop-eclipse-plugin-0.20.3-SNAPSHOT.jar をダウンロードし、同じものを /home/training/eclipse/plugins/ フォルダーにコピーしました。
Run --> Eclipse --> gone to File (which is in Menu bar) --> New --> other
他の選択された MapReduce プロジェクトから。[Hadoop ライブラリの場所を指定] を選択しました。そして、「/usr/lib/hadoop」として場所を指定します。この場所には、以下のファイルがあります。
bin hadoop-examples-0.20.2-cdh3u2.jar
build.xml hadoop-examples.jar
CHANGES.txt hadoop-test-0.20.2-cdh3u2.jar
conf hadoop-test.jar
contrib hadoop-tools-0.20.2-cdh3u2.jar
example-confs hadoop-tools.jar
hadoop-0.20.2-cdh3u2-ant.jar ivy
hadoop-0.20.2-cdh3u2-core.jar ivy.xml
hadoop-0.20.2-cdh3u2-examples.jar lib
hadoop-0.20.2-cdh3u2-test.jar LICENSE.txt
hadoop-0.20.2-cdh3u2-tools.jar logs
hadoop-ant-0.20.2-cdh3u2.jar NOTICE.txt
hadoop-ant.jar pids
hadoop-core-0.20.2-cdh3u2.jar README.txt
hadoop-core.jar webapps
Mpareduce プロジェクトを「myhadoop」として指定し、終了ボタンをクリックしました。DFS Locations ボタンで Mapreduce ボタンを取得しましたが、その階層は取得しませんでした。
行って、dfs と mapred ポートをチェックしました。
私のcore-site.xmlは
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:8020</value>
</property>
私のmapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:8021</value>
</property>
Map ReTo Define Hadoop Location in eclipse で、以下のように指定しました。
Map/Reduce Master
Host: localhost
port 50021
DFS Master:
Host :localhost
Port:50020
同時に、私は M/R ホストを選択しています。
Cloudera の例の wordcount プログラムを実行しましたが、以下の問題が発生しています。2日から試している解決策を教えてください.,....
Exception in thread "main" java.io.IOException: Call to localhost/127.0.0.1:50070 failed on local exception: java.io.EOFException
at org.apache.hadoop.ipc.Client.wrapException(Client.java:1142)
at org.apache.hadoop.ipc.Client.call(Client.java:1110)
at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:226)
at $Proxy0.getProtocolVersion(Unknown Source)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:398)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:384)
at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:111)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:213)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:180)
at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:89)
at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1514)
at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:67)
at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:1548)
at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1530)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:228)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:111)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:212)
at org.apache.hadoop.fs.Path.getFileSystem(Path.java:183)
at org.apache.hadoop.mapreduce.lib.input.FileInputFormat.addInputPath(FileInputFormat.java:368)
at WordCount.main(WordCount.java:65)
Caused by: java.io.EOFException
at java.io.DataInputStream.readInt(DataInputStream.java:375)
at org.apache.hadoop.ipc.Client$Connection.receiveResponse(Client.java:815)
at org.apache.hadoop.ipc.Client$Connection.run(Client.java:724)