1

さまざまな方法でファイルをs3バケットにアップロードします。

Pythonでは、次のようにbotoを使用できます。

from boto.s3.connection import S3Connection

conn = S3Connection('access-key','secret-access-key')
bucket = conn.get_bucket('bucket')
for key in bucket.list():
    print key.name

ノードでは、knoxを使用してバケットに接続してURLを取得しましたが、ノードのキーを反復処理してバケット内のすべてのファイルを表示するにはどうすればよいですか?

4

2 に答える 2

3

バケツが大きくなった場合は、それらのキーをストリーミングするのが最適です。knox-copyをチェックしてください:

var knoxCopy = require('knox-copy');

var client = knoxCopy.createClient({
  key: '<api-key-here>',
  secret: '<secret-here>',
  bucket: 'mrbucket'
});

client.streamKeys({
  // omit the prefix to list the whole bucket
  prefix: 'buckets/of/fun' 
}).on('data', function(key) {
  console.log(key);
});
于 2012-10-15T04:24:54.410 に答える
2

あなたはAwsSumでそれを行うことができます。これは積極的に維持されており、Amazonが提供するすべてのS3操作を実行できます。

node-awssum-scriptsリポジトリには、まさにあなたが探しているものの完全な機能を備えた例があります。最初の1000個のキーを取得し、キーがなくなるまで操作に対して「marker」パラメーターを使用して新しい要求を実行し続けるので、次のことを確認してください。

ヘルプが必要な場合は、GitHubで一言お願いします。免責事項:私はAwssumの作者であるchiltsです。:)

于 2012-05-07T07:14:31.227 に答える