Spark クラスターで実行できるように Play を構成するにはどうすればよいですか? 現在、私は Play を使用する Web フレームワークを持っていますが、Spark クラスターにも接続しています。実行するspark-shell
と、次のようになります。これは良いことです。
SparkDeploySchedulerBackend: Connected to Spark cluster with app ID app-20130813222026-0026
Client$ClientActor: Executor added: app-20130813222026-0026/0 on worker-20130808012122-42908 with 16 cores
SparkDeploySchedulerBackend: Granted executor ID app-20130813222026-0026/8 on host with 16 cores, 8.0 GB RAM
Client$ClientActor: Executor updated: app-20130813222026-0026/0 is now RUNNING
...など
しかし、実行しようとするplay start
と、上記のメッセージが表示されません (Spark をクラスターではなくローカルで実行していることを示します)。これを機能させるための正しい構成に関するアイデアはありますか?