現在、mapreduce ジョブを実行するために karmasphere eclipse プラグインを使用し始めています。ドキュメントの指示に従いました。ホスト マシンでローカル開発、展開ジョブを実行できます。その後、Cloudera CDH3 をダウンロードし、VM として (VMWare を介して) 実行しました。マップ削減ジョブを VM (ゲスト マシン) でローカルに実行でき、VM で発生している mapreduce ジョブを Eclipse Hadoop の観点から監視できます(ホスト マシン) カルマスフィアのリモート展開を試すと、HDFS で使用可能なファイルしか表示されませんが、ファイルにアクセスできず、マップ削減プログラムを実行したり、Eclipse IDE から HDFS に新しいファイルを作成したりできません。次の例外が発生します。
java.io.IOException: Blocklist for /user/cloudera/wordcount/input/wordcount/file01 has changed!
java.io.IOException: Blocklist for /user/cloudera/wordcount/input/wordcount/file01 has changed!
at com.karmasphere.studio.hadoop.client.hdfs.vfsio.DFSInputStream.openInfo(DFSInputStream.java:81)
at com.karmasphere.studio.hadoop.client.hdfs.vfsio.DFSInputStream.chooseDataNode(DFSInputStream.java:357)
at com.karmasphere.studio.hadoop.client.hdfs.vfsio.DFSInputStream.blockSeekTo(DFSInputStream.java:206)
at com.karmasphere.studio.hadoop.client.hdfs.vfsio.DFSInputStream.read(DFSInputStream.java:311)
at java.io.BufferedInputStream.fill(Unknown Source)
at java.io.BufferedInputStream.read1(Unknown Source)
at java.io.BufferedInputStream.read(Unknown Source)
at org.apache.commons.vfs.util.MonitorInputStream.read(MonitorInputStream.java:74)
at java.io.FilterInputStream.read(Unknown Source)
at com.karmasphere.studio.hadoop.mapreduce.model.hadoop.HadoopBootstrapModel.createCacheFile(HadoopBootstrapModel.java:198)
at com.karmasphere.studio.hadoop.mapreduce.model.hadoop.HadoopBootstrapModel.update(HadoopBootstrapModel.java:169)
at com.karmasphere.studio.hadoop.mapreduce.model.core.AbstractOperatorModel.run(AbstractOperatorModel.java:369)
at org.openide.util.RequestProcessor$Task.run(RequestProcessor.java:577)
at org.openide.util.RequestProcessor$Processor.run(RequestProcessor.java:1030)
誰でもこれを手伝ってもらえますか?私はカルマスフィアとHadoopを初めて使用します。