私の zeppelin-env.sh では、次のように JDBC MySQL コネクタを jar としてロードしています。
export ZEPPELIN_JAVA_OPTS+=" -Dspark.jars=/usr/local/opt/mysql-connector-java/libexec/mysql-connector-java-5.1.32-bin.jar"
さらに、次の 2 つ (またはそれ以上) の方法で動作するはずの Databricks CSV パッケージを読み込みたいと思います。
%dep z.load("com.databricks:spark-csv_2.10:1.2.0")
export SPARK_SUBMIT_OPTIONS="--packages com.databricks:spark-csv_2.10:1.2.0"
1 つ目はno SPARK_HOME
が設定されている場合に機能しますが、外部 Spark ホームがSPARK_SUBMIT_OPTIONS
設定されている場合にのみ考慮されます。
を設定せずに databricks CSV パッケージを読み込むにはどうすればよいですか?SPARK_HOME
または、埋め込み Spark ライブラリを使用するときに含まれる他のすべての jar を設定せずに読み込むにはどうすればよいSPARK_HOME
ですか?
実際には、Zeppelin とは独立して更新できる別の Spark インストールを使用することを好みますが、組み込みの Spark に固執する場合にない非互換性を恐れています。