1

s3cmd 1.1.0betaを使用して、5GBを超えるファイルをAmazonS3にアップロードしています。これは、1.1.0より古いs3cmdは5 GB(Amazonシングルパートアップロード制限)を超えるファイルをアップロードできず、最新のベータバージョンはマルチパートアップロードを使用してこれらのファイルをS3にアップロードできるためです。

問題は次のとおりです。s3cmd1.1.0を介してアップロードされた5GBを超えるファイルに対して操作を実行できません。s3cmdによって設定されたEtagがAmazonが期待するEtagと一致しないため、これが発生している可能性があると思われます。

具体的な問題は次のとおりです(両方ともWebコンソールを介して)。

  1. これらのファイルをあるバケットから別のバケットにコピーしようとすると、Amazon S3は次のように文句を言います。「次のオブジェクトは、次のエラーのためにコピーされませんでした。」
  2. これらのファイルのプロパティを変更しようとすると、S3は次のように文句を言います:「次のオブジェクトのエラーのため、追加のプロパティが有効化または無効化されませんでした:」

5 GBを超えるファイルのEtagを修正して、これらのファイルで操作を実行できるようにする方法はありますか?

4

1 に答える 1

1

OK、いくつかの調査の結果、問題はAmazonS3が5GBを超えるサイズのファイルをネイティブに処理できないことに関係していることがわかりました。

サイズが5GBを超えるファイルをコピーまたは操作するには、Amazonのマルチパートアップロードおよび関連するAPIを使用して大きなファイルを処理する必要があります。

どうやら、AmazonのAWS Webコンソールでさえ、サイズが5 GB未満のファイルでのみ機能する単純なAPIのみを使用しているため、サイズが5 GBを超えるファイルで何かを行う場合は、独自のコードを作成する必要があります。 AWS APIを使用して、これらのファイルを操作します。

于 2013-03-04T17:09:06.327 に答える