Microsoft は、たとえば Azure Storage のアーキテクチャを変更して使用しました。ジャーナリングと 10 Gbps ネットワーク用の SSD (標準のハードドライブと 1G ps ネットワークの代わりに)。http://blogs.msdn.com/b/windowsazure/archive/2012/11/02/windows-azure-s-flat-network-storage-and-2012-scalability-targets.aspxを参照してください
ここでは、ストレージが「1 秒あたり最大 20,000 エンティティ/メッセージ/BLOB」向けに設計されていることがわかります。
私の懸念は、20.000 個のエンティティ (またはテーブル ストレージの行) が実際には多くないことです。
1.000.000.000 行のテーブルを使用したかなり小さなソリューションがあります。わずか 20.000 のエンティティで pr。次に、すべての行を読み取るのに半日以上かかります。
20.000 個のエンティティが、実際には最大 20.000 個のリクエストを実行できることを意味することを願っています。2番目。
第 1 世代では最大 5,000 件のリクエストが許可されていたと確信しています。2番目。
だから私の質問はです。第 1 世代の Azure ストレージが実際に第 2 世代よりもスケーラブルであるシナリオはありますか?
アップグレードしない (データを新しいストレージに移動する) べきではない他の理由はありますか? 例えば。約100行のprを取得しようとしました。なぜなら、それが最高のパフォーマンス特性をもたらしたからです。2代目との違いはありますか?または、変更するとバグが発生する可能性のある変更がありましたか?