現在、すべてのユーザー生成コンテンツを中規模の EC2 インスタンスにアップロードしており、そこから cron ジョブを実行して、アップロードされたすべてのコンテンツを S3 に同期しています。バックエンドで (アップロードされたファイルにアクセスする必要があるたびに) 実行されるコードがいくつかあります。このコードは、リソースが S3 に移動されたかどうか、またはアップロード インスタンスで利用できるかどうかを確認します。
これは少し無駄に思えますが、冗長性を提供します。S3 がダウンしている場合、アップロード ボックスからファイルを強制的に提供する JavaScript コードが配置されています。実際のファイルのアップロードは、インスタンスではなく EBS に保存されます。
現在、S3 バケットには約 150 GB 相当のファイルがあります。これにより、S3 バケットの個別のバックアップを実行するのは非常に時間がかかり、定期的に実行することはほぼ不可能になります。
それで、私の質問は、これは必要ですか?S3 と EC2 の間のアップタイム統計を誰か教えてもらえますか? S3 がダウンしていても、EC2 は利用できるということはありますか? すべてを S3 に直接アップロードして、それが稼働していることを信頼する方が簡単なように思えます..一方、すべてを EBS に保存して、S3 を完全に無視することもできます。