1

これは、ローカル サーバーから S3 バケットに約 1000 個のファイルをコピーするときに発生しsyncます。cpソースは、Windows 8 マシンから Hyper-V で実行されている Windows Server 2008 R2 VM にマップされたネットワーク ドライブです。

これはコマンドです:

aws s3 cp X:\folder s3://my-bucket/folder --recursive

失敗するファイルにはパターンがないようです。より大きなもの (最大 30MB) もあれば、わずか数 kb のものもあります。これはエラーメッセージです:

HTTPSConnectionPool(host='XXX.s3.amazonaws.com', port=443): Max retries exceeded with url: ... (Caused by <class 'socket.error'>: [Errno 10054] An existing connection was forcibly closed by the remote host)
4

2 に答える 2

1

私も同じ問題を抱えていました。Ubuntu を使用したノートブック、コマンドaws s3 cp、またはaws s3 sync説明どおりに失敗しました。

私のファイルは 104285 バイトの大きさだったので、「大きすぎる」ということはありませんでした。

BucketExplorer 経由でのファイルのコピーは問題なく機能していました。

botocore では問題が報告されており、大きなファイルについては同様の問題が示されていますが、小さなファイルについては報告されていません。

次に、boto ライブラリを 2.9.5 から最新の 2.23.0 に更新しましたが、問題は解決しません。

その後、私は自分の問題ファイルをテストし、公開するまでどんどん小さくしていきました。最後に、元のファイルでも問題がなくなったことを発見しました。

問題がどのように、また解決されたかを言うのは難しいです。

AWS 側の一時的な問題が考えられますが、最初の試行で BucketExplorer 経由でファイルを公開できたので、そうではなかったと思います。

AWS Health Dashboard の確認: http://status.aws.amazon.com/報告された問題は見つかりませんでしたが、小さな問題がすべて見つかるとは限りません。

とにかく、最も可能性の高い原因と思われるので、boto を最新バージョンに更新することをお勧めします。

 $ pip install --upgrade boto

これらの問題が発生する前に、私の AWS CLI はすでに更新されており、バージョンは 0.31 です。

私の最終バージョンは次のとおりです。

$ pip freeze|grep boto
boto==2.23.0
boto-utils==0.3
botocore==0.31.0
于 2014-01-24T23:11:26.253 に答える
-1

問題は、マップされたネットワーク ドライブです。ネットワークの場所ではなく、ローカル ディスク上のフォルダーからコピーすると、すべてのファイルが正常にアップロードされます。

于 2013-12-16T23:37:48.480 に答える