私はJDBC経由で書き込もうとしています:
df.write.jdbc("jdbc:postgresql://123.123.123.123:5432/myDatabase", "myTable", props)
Sparkのドキュメントspark.driver.extraClassPath
では、JVM がすでに起動されているため、クライアント モード(Dataproc が実行されるモード)で実行されている場合、構成オプションを使用して JDBC ドライバ JAR を追加することはできないと説明されています。
Dataproc の submit コマンドに JAR パスを追加してみました。
gcloud beta dataproc jobs submit spark ...
--jars file:///home/bryan/org.postgresql.postgresql-9.4-1203-jdbc41.jar
ドライバーをロードするコマンドも追加しました。
Class.forName("org.postgresql.Driver")
しかし、私はまだエラーが発生します:
java.sql.SQLException: No suitable driver found for jdbc:postgresql://123.123.123.123:5432/myDatabase