map-reduce ジョブで、「java.lang.OutOfMemoryError: Java heap space」というエラーが発生しました。マッパー関数でこのエラーが発生するため。マッパーへの入力サイズを下げると、エラーが発生しなくなると考えたので、mapred.max.split.size をより低い値に変更しました。
その後、再度ジョブを開始したところ、「実行するマッパー タスクの数」が増加していることがわかりました。そのため、mapred.max.split.size を下げることは良い考えであると考えました。より少ないメモリ要件でより多くのマッパーを使用することです。
しかし、「java.lang.OutOfMemoryError: Java heap space」エラーが何度も何度も発生しました。
Hadoop の仕組みを理解していなかったようです。
助言がありますか?