次のコード行を使用して、Hadoop HDFS に書き込もうとしています。
Files.write(Paths.get("hdfs:////localhost:9000/user/cloudera/trial/"+ "cat.txt","miao miao!".getBytes());
Spark アプリケーションでは、次の例外が発生します。
java.nio.file.NoSuchFileException: hdfs:/quickstart.cloudera:9000/user/cloudera/trial/cat2
私が解釈しているのは、 "hdfs:" の後にスラッシュが 1 つしかないため、エラーになります。
すでに java.nio.Files メソッドを使用して HDFS に書き込んでいたことを覚えているので、それは問題ではありません。
その例外を防ぐにはどうすればよいですか?
編集:インポートセクション
import java.io.File;
import java.nio.file.Files;
import java.nio.file.Paths;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;