次のコードを使用して、TSV ファイルを DataFrame オブジェクトに読み込もうとしています。
SQLContext sqlContext = new SQLContext(javaSparkContext);
Map<String, String> sqlContextOptions = new HashMap<>();
sqlContextOptions.put("header", "true");
sqlContextOptions.put("delimiter", "\t");
DataFrame df = sqlContext.read()
.format("com.databricks.spark.csv")
.options(sqlContextOptions)
.load(path);
現時点では、空のファイルが検出されると、コードは UnsupportedOperationException をスローします。空のファイルを処理したいのですが、この例外が常に空のファイルを意味するとは思いたくありません。指定されたファイルが空かどうかを確認するためのベスト プラクティスは何ですか?