0

12 台のサーバーの Hadoop クラスター (CDH) があります。最近、そのうちの 3 台を廃止したいと考えていますが、このプロセスは既に 2 日以上実行されています。しかし、それは決して終わりません。特に、過去 24 時間で、3 つのデータノードで利用可能なデータは 94G しかないことがわかりましたが、サイズは過去 24 時間で変化していないようです。レプリケートされていないブロック数がすでにゼロになっている場合でも。hdfs 内のすべてのデータの複製係数は 3 です。

以下は、hadoop fsck コマンドの結果です。

合計サイズ: 5789534135468 B (開いているファイルの合計サイズ: 94222879072 B) 合計ディレクトリ: 42458 合計ファイル: 5494378 合計シンボリックリンク: 0 (現在書き込まれているファイル: 133) 合計ブロック (検証済み): 5506578 (平均ブロックサイズ 1051385 B) (開いているファイル ブロックの合計 (未検証): 822) 最小限に複製されたブロック: 5506578 (100.0 %) 過剰に複製されたブロック: 0 (0.0 %) 複製されていないブロック: 0 (0.0 %) 誤っ て複製されたブロック: 0 (0.0 %)デフォルトのレプリケーション係数: 3 平均ブロックレプリケーション: 2.999584 破損ブロック: 0 レプリカの欠落: 0 (0.0 %) データノードの数: 13 ラックの数: 1 FSCK は 2016 年 10 月 17 日月曜日 16:36:09 KST で 781094 ミリ秒で終了しました

4

1 に答える 1

1

データノードで cloudera エージェントの停止を試みることができます。

sudo service cloudera-scm-agent hard_stop_confirmed

エージェントが停止したら、そのデータノードを hdfs インスタンス ページから削除できます。

これがうまくいくことを願っています

于 2016-10-25T06:56:28.570 に答える