Hadoop のクレイジーなデータ分散と管理が原因で、奇妙な問題に直面しています。非 DFS の使用により、データ ノードの 1 つまたは 2 つが完全にいっぱいになりましたが、他のノードはほとんど空です。非 DFS の使用をより均一にする方法はありますか? [すでに dfs.datanode.du.reserved を使用してみましたが、どちらも役に立ちません]
問題の例:それぞれ 10 GB のスペースを持つ 16 個のデータ ノードがあります。最初は、各ノードには約があります。7 GB の空き容量。5 GB のデータを処理するジョブ (レプリケーション ファクター = 1) を開始すると、ジョブが正常に完了することを期待しています。しかし悲しいかな!ジョブの実行を監視すると、非 DFS の使用量が約 6 ~ 7 GB であるため、突然 1 つのノードのスペースが不足し、再試行すると別のノードのスペースが不足することがわかります。探しているパフォーマンス メトリックが得られないため、再試行回数を増やしたくありません。
どうすればこの問題を解決できますか。