HDFS は通常の Linux ファイル システムを使用してデータ ノードにデータを格納することを知っています。私の HDFS ブロック サイズは128 MBです。Hadoop クラスターに十分なディスク容量があるとしましょう。10 GBつまり、HDFS は最初に80 blocks利用可能なストレージとして持っています。
たとえば の小さなファイルを作成すると12.8 MB、#available HDFS ブロックは 79 になります。別の小さなファイルを作成するとどうなります12.8 MBか? #availbale ブロックは 79 のままでしょうか、それとも 78 まで下がるのでしょうか? 前者の場合、HDFS は基本的に、使用可能な空きディスク領域に基づいて各ブロックの割り当て後に #available ブロックを再計算するため、#available ブロックは、128 MB を超えるディスク領域が消費された後にのみ 78 になります。どうか明らかにしてください。