mapReduce を実行し、あるディレクトリで出力を生成する jar を作成しました。ローカルディレクトリにコピーせずに、hadoop 環境で実行されない Java コードの出力ディレクトリから出力データからデータを読み取る必要があります。私は ProcessBuilder を使用して Jar.can を実行しています。
2 に答える
1
HDFS APIを使用してHDFSデータを読み取る際の問題は何ですか??
public static void main(String[] args) throws IOException {
// TODO Auto-generated method stub
Configuration conf = new Configuration();
conf.addResource(new Path("/hadoop/projects/hadoop-1.0.4/conf/core-site.xml"));
conf.addResource(new Path("/hadoop/projects/hadoop-1.0.4/conf/hdfs-site.xml"));
FileSystem fs = FileSystem.get(conf);
FSDataInputStream inputStream = fs.open(new Path("/mapout/input.txt"));
System.out.println(inputStream.readLine());
}
プログラムが Hadoop クラスターを使い果たしている可能性がありますが、hadoop デーモンは実行されている必要があります。
于 2013-06-26T13:09:39.547 に答える