Spark Job サーバー Docker を使用しています
docker run -d -p 8090:8090 --name sjs --net=<network_name> -e SPARK_MASTER=spark://<host_name>:7077 velvia/spark-jobserver:0.6.2.mesos-0.28.1.spark-1.6.1
動作しているように見えますが、ジョブを送信するとき:
curl -d 'input.config = ""' '<spark-job-server-ip>:8090/jobs?appName=my_test_app&classPath=test.testapp&sync=true
ただし、ログによると、ジョブはクラスターではなくローカルの Spark で実行されます。
ジョブをローカル マシンではなくクラスターで実行するには、他にどのような構成が必要ですか?