HTTP セッション Cookie に関連付けられたデータを保存および読み取る最速の方法を探しています。
現在、ファイルでいっぱいのディレクトリがあり、ファイル名はセッション cookie (ランダムな ~150 文字) で、内容はバイナリ blob で、通常は数バイト、場合によっては 1 ~ 2 キロバイトです。また、atime (最終読み取りタイムスタンプ) を使用して、古いセッション データを見つけて削除します。
ディレクトリ内のこのファイル数は数百万に急増する可能性があり、サーバーはファイルが存在するかどうか、現在の時刻を常にチェックし、読み取り/書き込み、そしてもちろんファイルの削除/作成を行っています。ext3 は、この使用パターンに対する理想的なアプローチではないと思いますか?
この種のデータを保存する最良の方法は何ですか? MySQL をテストしましたが、ext3 よりも桁違いに遅いです (何も間違っていないと思いますか?)。接続を確立するだけでも、一般的なファイルシステムの存在/時間/fread サイクルを実行するよりも時間がかかります。
経験のある方は大歓迎です。関連性のない小さなデータからなる巨大なデータベースを管理する最速の方法は何ですか?
ハイエンドサーバーハードウェアでCentOSを使用してPHPを使用しています(ほぼ最高のお金で購入できます)。クラスタリングやロード バランシングは必要ありません。中~低トラフィックの Web サイトでリクエストごとのレイテンシを削減しようとしています。私たちの状況では動作しないため、PHP の組み込みセッション API は使用していません。