Spark 1.6を使用しています。
次の方法で、spark-sql Java コードのテーブルに接続しようとしています。
JavaSparkContext js = new JavaSparkContext();
SQLContext sc = new SQLContext(js);
DataFrame mainFile = sc.sql("Select * from db.table");
テーブルが見つからないという例外が発生します。
しかし、scala を使用して spark-shell でそれを行うと、正常に動作します。テーブルにアクセスし、データを出力することもできます。
この問題に関する意見はありますか?