0

Spark Job サーバー Docker を使用しています

docker run -d -p 8090:8090 --name sjs --net=<network_name> -e SPARK_MASTER=spark://<host_name>:7077 velvia/spark-jobserver:0.6.2.mesos-0.28.1.spark-1.6.1

動作しているように見えますが、ジョブを送信するとき:

curl -d 'input.config = ""' '<spark-job-server-ip>:8090/jobs?appName=my_test_app&classPath=test.testapp&sync=true

ただし、ログによると、ジョブはクラスターではなくローカルの Spark で実行されます。

ジョブをローカル マシンではなくクラスターで実行するには、他にどのような構成が必要ですか?

4

0 に答える 0