スパークの「ジョブ」を単一のアプリケーションに送信する方法を考えています(RDD作業の共有だけでなく、モジュールのコード/実行の独立性も可能にします)。ooyala でこのspark-jobserverを正式に見たことがありますが、まだ Python をサポートしていないことに気付きました。これは、scala/java でのこのユースケースで取られる一般的なルートですか? それとも、ここで間違ったルートを下っていますか?
また、人気の低いpyspark-jobserverと、python と R に対処するためのメインの spark-jobserver に関する未解決の問題も確認しました。
spark-jobserver の使用例をよりよく理解するために、詳細なジョブ スケジューリング フレームワークを考えると、なぜこの機能が spark によって直接サポートされないのか疑問に思っています。