GCのオーバーヘッド制限を超えたためにHadoopDatanodeプロセスが停止することに関連する情報を検索しましたが、あまり見つかりませんでした。そのため、質問を投稿したいと思いました。
テストを実行しており、Hadoopクラスターが最大300万個のファイルを格納できることを確認する必要があります(現在は4ノードクラスター)。64ビットJVMを使用しており、ネームノードに8gを割り当てています。ただし、テストプログラムがDFSにさらに多くのファイルを書き込むと、データノードは次のエラーで停止し始めます:スレッドの例外 "DataNode:[/ var / hadoop / data / hadoop / data]" java.lang.OutOfMemoryError:GCオーバーヘッド制限を超えました
いくつかのオプションについての投稿を見ました(並列GC?)hadoop-env.shで設定できると思いますが、構文がよくわからず、初心者なので、あまり気になりませんでしたそれがどのように行われるか。ここで助けてくれてありがとう!