私のクラスターはSpark-0.7.2
+Mesos-0.9
です。Python で spark プログラムを作成しましたが、ローカル モードで問題なく動作します。しかし、mesos で実行すると、いくつかのエラーが発生しました。エラー情報は次のとおりです。
13/09/30 15:40:13 INFO TaskSetManager: Finished TID 13 in 242 ms (progress: 2/3)
13/09/30 15:40:13 INFO DAGScheduler: Completed ResultTask(4, 1)
send
Exception in thread "DAGScheduler" spark.SparkException: EOF reached before Python server acknowledged
at spark.api.python.PythonAccumulatorParam.addInPlace(PythonRDD.scala:303)
at spark.api.python.PythonAccumulatorParam.addInPlace(PythonRDD.scala:278)
at spark.Accumulable.$plus$plus$eq(Accumulators.scala:52)
at spark.Accumulators$$anonfun$add$2.apply(Accumulators.scala:235)
at spark.Accumulators$$anonfun$add$2.apply(Accumulators.scala:233)
at scala.collection.mutable.HashMap$$anonfun$foreach$1.apply(HashMap.scala:93)
at scala.collection.mutable.HashMap$$anonfun$foreach$1.apply(HashMap.scala:93)
at scala.collection.Iterator$class.foreach(Iterator.scala:660)
at scala.collection.mutable.HashTable$$anon$1.foreach(HashTable.scala:157)
at scala.collection.mutable.HashTable$class.foreachEntry(HashTable.scala:190)
at scala.collection.mutable.HashMap.foreachEntry(HashMap.scala:43)
at scala.collection.mutable.HashMap.foreach(HashMap.scala:93)
at spark.Accumulators$.add(Accumulators.scala:233)
at spark.scheduler.DAGScheduler.handleTaskCompletion(DAGScheduler.scala:494)
at spark.scheduler.DAGScheduler.processEvent(DAGScheduler.scala:300)
at spark.scheduler.DAGScheduler.spark$scheduler$DAGScheduler$$run(DAGScheduler.scala:364)
at spark.scheduler.DAGScheduler$$anon$1.run(DAGScheduler.scala:107)
13/09/30 15:40:13 INFO TaskSetManager: Finished TID 12 in 407 ms (progress: 3/3)
これは毎回起こっているわけではありません。ソケット接続が安定していないようです。誰かがこの問題を解決する方法を提案できますか?