2

AWS S3 を利用したテキスト分析用の Web API を開発しています。クライアントが大きな (数 MB または数 GB の) ファイルをアップロードできるようにするために、私は S3 マルチパート アップロード機能を調べてきました。クライアントがアップロードするエンドポイントは私の API に属し、S3 の使用を直接公開することはありません。私の (おそらく素朴な) 仮定は、大きなファイルが送信された場合、最初にサーバーへのファイルのマルチパート アップロードを処理し、次にサーバーから S3 への 2 回目のマルチパート アップロードを行う必要があるというものです。そうですか?またはある種のリダイレクト。どちらの可能性も特に効率的とは思えません...

つまり、DropBox は S3 によってサポートされていることを考えると、おそらくこのようなことを行うということです。生の S3 API ではなく、DropBox 自体を使用する方が簡単で速いのではないでしょうか?

4

1 に答える 1

0

クライアントは、API を介して大きなファイルをそのままアップロードできます。そこから、パフォーマンスのために S3 にマルチパート アップロードを行い、シングルパート アップロードの 5GB 制限を破ることができます。

http://aws.amazon.com/s3/faqs/#How_much_data_can_I_store

クライアントがサービスにアップロードしている間に複数のパーツを S3 に送信するか、全体をキャッシュしてリクエストを終了し、非同期で送信することができます。

Dropbox アプリケーションは大きなファイルを許可しますが、Dropbox は Web インターフェースを介したアップロードのサイズを 300MB に制限しています。

https://www.dropbox.com/help/5/en

于 2013-06-18T18:35:31.813 に答える