0

S3FS を使用する 1 つの EC2 インスタンスにボリュームとして S3 バケット マウントがあります。PHP を使用して、現在 20GB を超えるディレクトリ構造を作成しました。

S3FS がインスタンス メモリを使い果たし、アップロードが非常に遅いため、すべてのファイルを同じインスタンスにアタッチされた EBS に移動したいと考えています。

私は S3CMD を試しましたが、S3FS はディレクトリと同じ名前でサイズがゼロのオブジェクトをバケットに作成するため、いくつかの非互換性があります。

また、サイズがゼロのオブジェクトをスキップして構造を再帰的にコピーするスクリプトを作成してみました。

どれも機能しませんでした。

誰かがこれをやろうとしたことがありますか?よろしくお願いします。

4

1 に答える 1

0

@hernangarcia物事を複雑にしないでください。 wget -r の後にバケットエンドポイントのURLが続く再帰的なwgetを使用してください。すべてのコンテンツを EBS ボリュームにダウンロードできます。また、私の提案は、インスタンスのルート ボリュームに 20 GB のようなすべてのファイルを保存するのではなく、別のボリュームをそれに接続してから、それらすべてのファイルをその余分なボリュームに保存することです。高 IOPS ボリュームがある場合は、操作が速くなります。

于 2013-03-29T11:44:36.940 に答える