2

さまざまなメンテナンス、安定性、およびバックアップの理由から、10 ノード (10 Linux ホスト) の ocfs2 共有ファイルシステムを、共有ディスクに依存しないものに置き換える必要があります。クライアント アプリケーションは、Linux のみの環境では PHP です。

現在、各 PHP クライアントはデータベースから一意の ID を要求し、共有ディスク上にその ID/名前でファイルを作成します。データベースには、すべてのファイル メタデータが格納されます。既存のファイルは、同様の方法でアクセスされます。

共有ディスク ソリューションを、ネットワーク経由のファイル サーバーへの putfile(id, '/tmp/path') および getfile(id, '/tmp/path') 呼び出しに置き換えたいと考えています。クライアント側では、tmpfs 内のファイルを操作できました。サーバーは圧縮などを処理する必要があります。これにより、PHP クライアントへの依存からも解放され、Windows Delphi アプリケーションのように、他のアプリケーションからファイル サーバーを直接使用できます。

理論的には、FTP ベースのソリューションでも機能する可能性がありますが、パフォーマンスはおそらくあまり高くありません。それとも、古い FTP プロトコルを信用しないのは間違っていますか?

私は現在 3,000 万を超えるファイル ID を持っています。それらのほとんどはサイズが数 KB で、最大 300 MB の注目すべき例外があり、合計で 320 GB しかありません。PHP クライアントは、gzip と tar を使用して圧縮とグループ化も行いますが、すべて非常に扱いにくいものです。

私は memcachedb のような高速でシンプルなものを見つけたいと思っていましたが、ファイル用です。私が見つけた最も近いものは、hadoop の hdfs ですが、それが正しい解決策だとは思いません。

推奨事項はありますか?明らかな何かが欠けていますか?

4

0 に答える 0