0

We have a data streaming application which uses local caching to reduce future downloads. The full datasets are larger than what is streamed to the end user - i.e. just the bits the end user wants to see. The concept is pretty much like a browser, except the streamed data is exclusively jpg and png.

The usage patterns are sporadic and unpredictable. There are download spikes on initial usage while the cache is populated. What would be the theoretical and practical/experimental means of modelling and measuring the bandwidth usage of this application. We have size values of the source datasets, but little knowledge of the usage patterns.

4

1 に答える 1

0

帯域幅の使用に関する有用な理論モデルを導出するには、十分な情報がありません。展開パターンについてある程度知っている場合は、スパイクの分布をモデル化することができます。これは、短期間で全員がアプリを取得する非公開のユーザー グループですか? 個々の顧客に販売し、それを多数の従業員に展開しますか? 消費者に販売していますか?これらはすべて、ピークの分布に影響を与えます。

定常状態の帯域幅要件に関しては、使用パターン (同じデータを頻繁に再利用するか、新しいデータを頻繁に探すか) に大きく依存します。これは、ベータ プログラム中に決定するのに最適です。ベータ ユーザーの使用パターンをローカルおよび/またはサーバーに記録し、ユーザー コミュニティ全体を代表するベータ ユーザーを獲得するようにします。

最後に、消費の急増を管理するために、コンテンツをAmazon CloudFrontなどのサービスにデプロイすることを検討してください。これにより、実際に使用する帯域幅に対して料金を支払うことができますが、需要のピークを処理するために必要に応じて拡張できます。

于 2009-09-24T16:45:57.167 に答える