決して (ほとんど) 更新されないファイルのキャッシュ層を設定するために、同僚から提案されたソリューションがありました。現在、Ruby アプリケーションは DB からコンテンツをフェッチし、ページをレンダリングし、リクエストごとにサービスを提供する必要があります。
サイトに 5,000 人のユーザーがいる場合、パフォーマンスはひどいものになります。
提案された解決策は、1500 万の静的ページを 1 回 (4T) 生成し、NFS サーバー上の 1 つのディレクトリに格納してから、9 台の Apache/Phusion-Passenger サーバー間で共有し、マウントされた NFS 共有から静的コンテンツを提供するように Apache を設定することでした。
最初の 1,500 万のファイルに加えて、1 日あたり 8,000 の静的ファイルが生成され、NFS に追加されます
私はこれが良い解決策だとは思いませんし、これを実装して Varnish を調べてほとんどアクセスされた記事をキャッシュすることに満足しているとは思いませんが、提案された解決策と varnish について他の人がどう思うか知りたいです。
質問:
- Linux (CentOS) で 1 つのディレクトリに 1500 万のファイル (4T) を保存できますか
- このような大きなディレクトリを NFS 経由で共有できますか? それで安定するのか
- ハッシュ化されたディレクトリに 1,500 万個のファイルを格納できますか? それともまだ悪い考えですか?
- NFS 共有の最大ファイル制限はありますか?
事前にアドバイスをいただき、ありがとうございます。