しばらくの間、Web アプリケーションの画像と PDF を保存するために S3 を使用してきました。Web アプリケーションを最初にコーディングしたとき、S3 GET のエラー率はかなり高く (最初の試行で約 1%)、クライアント コードに再試行セマンティクスを組み込みました。つまり、クライアントは S3 イメージのダウンロードを試行し、失敗するとさらに数回再試行します。
私の質問:
S3 の Get エラー率は、GET の再試行が必要なほどまだ高いですか (> 0.1% としましょう)? 注: S3 データセンター全体のダウンタイムについては心配していません。それは別の問題です。このトピックに関する分析は非常に役立ちます (リソース サイズごとのエラー率など)。