1

mapReduce を実行し、あるディレクトリで出力を生成する jar を作成しました。ローカルディレクトリにコピーせずに、hadoop 環境で実行されない Java コードの出力ディレクトリから出力データからデータを読み取る必要があります。私は ProcessBuilder を使用して Jar.can を実行しています。

4

2 に答える 2

1

HDFS APIを使用してHDFSデータを読み取る際の問題は何ですか??

public static void main(String[] args) throws IOException {
        // TODO Auto-generated method stub

        Configuration conf = new Configuration();
        conf.addResource(new Path("/hadoop/projects/hadoop-1.0.4/conf/core-site.xml"));
        conf.addResource(new Path("/hadoop/projects/hadoop-1.0.4/conf/hdfs-site.xml"));
        FileSystem fs = FileSystem.get(conf);
        FSDataInputStream inputStream = fs.open(new Path("/mapout/input.txt"));
        System.out.println(inputStream.readLine());     
    }

プログラムが Hadoop クラスターを使い果たしている可能性がありますが、hadoop デーモンは実行されている必要があります。

于 2013-06-26T13:09:39.547 に答える