HDFS からファイルを読み取るコードをデプロイしようとしている場所に、Apache Spark 0.9.0 クラスターがインストールされています。このコードは警告をスローし、最終的にジョブは失敗します。ここにコードがあります
/**
* running the code would fail
* with a warning
* Initial job has not accepted any resources; check your cluster UI to ensure that
* workers are registered and have sufficient memory
*/
object Main extends App {
val sconf = new SparkConf()
.setMaster("spark://labscs1:7077")
.setAppName("spark scala")
val sctx = new SparkContext(sconf)
sctx.parallelize(1 to 100).count
}
以下は警告メッセージです
初期ジョブはリソースを受け入れていません。クラスター UI をチェックして、ワーカーが登録され、十分なメモリがあることを確認します
これを取り除く方法、またはいくつかの設定がありません。