以前は問題なく実行されていたhadoop0.20map/reduceジョブがあります。過去数日間、16.66%でreduceフェーズでスタックしています。ジョブトラッカーでreduceタスクを見ると、次のエラーが表示されます。
Shuffle Error: Exceeded the abort failure limit; bailing-out.
誰かがそれが何を意味するのか教えてもらえますか、そして多分私がこれを修正する方法を理解できるように正しい方向に私を向けることができますか?
このエラーは、レデューサーがマップ出力を報告してプロパティにマップする前に、マップ出力をフェッチしようとする最大回数に対応しますmapreduce.reduce.shuffle.maxfetchfailures。
このプロパティを増やしてみることができますが、通常はデフォルト値の10で十分なので、もっと深刻なことがあるかもしれません。
フェッチの失敗に似た何かが誤った/etc/ hostsファイルが原因であり、少しグーグルした後、これが問題である可能性があるように見える場合を覚えています。次のことを試してください。