コマンドを使用して Spark をインストールした AWS で Mesos DCOS クラスターを実行していますdcos package install spark
。DCOS CLI を使用して Spark ジョブを正常に実行できます。dcos spark run ...
Mesos クラスター内で実行されている Docker コンテナーから Spark ジョブを実行したいと考えていますが、実行中の Spark インスタンスに到達する方法がよくわかりません。DCOS CLI を使用してクラスタの外部から同じジョブを実行するのではなく、Dockerコンテナにspark-submit
コマンドを実行させて、Spark デプロイメントにジョブを送信させるという考えです。
現在のドキュメントは、DCOS CLI を介して Spark を実行することにのみ焦点を当てているようです。クラスター内で実行されている別のアプリケーションから Spark デプロイメントに到達する方法はありますか?