Hadoop 3.1.0 と spark 2.4.7 を 4 つの仮想マシンにインストールしました。全部で 32 個のコア、128G のメモリがあります。スパークシェルテストを実行しています
[hadoop@hadoop1 bin]$hadoop fs -mkdir -p /user/hadoop/testdata
[hadoop@hadoop1 bin]$hadoop fs -put /app/hadoop/hadoop-2.2.0/etc/hadoop/core-site.xml /user/hadoop/testdata
[hadoop@hadoop1 bin]$ spark-shell --master spark://hadoop1:7077
scala>val rdd=sc.textFile("hdfs://hadoop1:9000/user/hadoop/testdata/core-site.xml")
scala>rdd.cache()
scala>val wordcount=rdd.flatMap(_.split(" ")).map(x=>(x,1)).reduceByKey(_+_)
scala>wordcount.take(10)
scala>val wordsort=wordcount.map(x=>(x._2,x._1)).sortByKey(false).map(x=>(x._2,x._1))
scala>wordsort.take(10)
私は次のパラメータで遊んでいます
spark.core.connection.ack.wait.timeout 600s
spark.default.parallelism 4
spark.driver.memory 6g
spark.executor.memory 6g
spark.cores.max 21
spark.executor.cores 3
ぶつかっorg.apache.spark.shuffle.FetchFailedException Failed to connect 192.168.0.XXX
たり、WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources
これらのパラメーターやその他のパラメーターを微調整するための一般的なガイドはありますか?