私たちが開発した 1 つのソフトウェアは、ますます多くのファイルを生成します。現在、1 日あたり約 70000 ファイル、それぞれ 3 ~ 5 MB です。これらのファイルは、ext3 ファイル システムの Linux サーバーに保存されます。ソフトウェアは毎日新しいディレクトリを作成し、その日に生成されたファイルをこのディレクトリに書き込みます。このような大量のファイルの書き込みと読み取りはますます遅くなっているため (つまり、ファイルごとに)、同僚の 1 人がサブディレクトリを1 時間ごとに開くことを提案しました。これによりシステムが高速になるかどうかをテストしますが、この問題は一般化できます。
ターゲットディレクトリ内のファイル数の関数として、ファイルの書き込みと読み取りの速度を測定した人はいますか? ファイルをサブディレクトリに配置する方が高速である最適なファイル数はありますか? 最適化に影響を与える重要なパラメータは何ですか?
前もって感謝します。