MapReduce 構造は Hadoop でのプログラミングに必須ですか、それとも単純な JAR を実行することもできますか?
Java コードから HDFS のファイルにアクセスしようとしています。私は試した:
static{
URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
}
in = new URL("hdfs://cluster-server:54310/home/hduser/sort/inputs").openStream();
IOUtils.copyBytes(in, System.out, 2, false);
しかし、Eclipse からこのコードを実行すると、エラーが発生します。
cluster-server/172.16.18.75:54310 への呼び出しがローカル例外で失敗しました: null
しかし、コマンド ライン インターフェースを介して、ファイルが Hadoop HDFS クラスターに存在することを確認できます。
私を助けてください。前もって感謝します。