Dataproc クラスタで Spark ジョブを実行しようとしていますが、Yarn が正しく構成されていないため、Spark が起動しません。
シェルから "spark-shell" を (ローカルでマスター上で) 実行するとき、およびローカル マシンから Web GUI および gcloud コマンド ライン ユーティリティを介してジョブをアップロードするときに、次のエラーが表示されます。
15/11/08 21:27:16 ERROR org.apache.spark.SparkContext: Error initializing SparkContext.
java.lang.IllegalArgumentException: Required executor memory (38281+2679 MB) is above the max threshold (20480 MB) of this cluster! Please increase the value of 'yarn.s
cheduler.maximum-allocation-mb'.
の値を変更しようとしまし/etc/hadoop/conf/yarn-site.xml
たが、何も変わりませんでした。そのファイルから構成を引き出すとは思わない。
複数のサイト (主にヨーロッパ) で複数のクラスターの組み合わせを試しましたが、これは低メモリ バージョン (4 コア、15 GB メモリ) でしか機能しませんでした。
つまり、これは、yarn のデフォルトで許可されているメモリよりも高いメモリ用に構成されたノードでのみ発生する問題です。