3

非常に多数のファイル (1,000 万以上) を S3 バケットから Google Cloud Storage に移動する方法を探していますが、これまでのところ問題があります。

S3 と GCS の両方の間の通信をネイティブにサポートしているため、現在は gsutil を使用していますが、パフォーマンスはあまり良くありません。間違ったことをしているだけかもしれませんが、次の gsutil コマンドを使用しています。

gsutil -m cp -R s3://bucket gs://bucket

c3.2xlarge AWS インスタンス (16GB 8CPU) を起動して十分な馬力を確保しましたが、ボックスのスループットが 2GB 2CPU ボックスよりも優れているようには見えません。わかりませんか?

私は構成ファイルをいじっていて~/.boto、現在次のオプションが設定されています。

parallel_process_count = 8
parallel_thread_count = 100

スレッド数を 10 倍に増やすと確実に効果があると思いましたが、これまでのテストでは違いはありませんでした。パフォーマンスを向上させるために他にできることはありますか?

または、S3 データを GCS に移動するためのより良いツールはありますか? 私は SDK を見ていますが、Java で何かを書きたいと思っています。

4

1 に答える 1