Hadoop を使用して十分な (約 100 万) のテキスト ファイルを解析していますが、それぞれに大量のデータが含まれています。まず、Eclipse を使用してすべてのテキスト ファイルを hdfs にアップロードしました。しかし、ファイルをアップロードするとき、map-reduce 操作により、次のディレクトリ C:\tmp\hadoop-admin\dfs\data に大量のファイルが作成されました。それで、HDFS(基本的には上記のドライブ)のサイズを縮小できるメカニズムはありますか。