0

t個の並列スレッドを持つ nginx サーバーで静的な200kbの HTML ファイルをクエリすると、 mミリ秒で取得され、約r req/secのスループットに達します。(約 2000 件のリクエストの平均を使用しました)

t:10 m:13 r:440

t:20 m:20 r:475

t:50 m:67 r:547

t:80 m:98 r:517

リクエストごとに時間を追加するリバース プロキシを開発しています。変更やキャッシュを行わずに同じテストを実行すると (rfc2616 が尊重されます)、それらの結果が得られます (今まであまりパフォーマンス チューニングを行っていませんでした)。

t:10 m:42 r:130

t:20 m:80 r:121

t:50 m:133 r:194

t:80 m:182 r:258

プロキシにキャッシュされたバージョンのファイルがある場合、この結果が得られます

t:10 m:74 r:118

t:20 m:116 r:150

t:50 m:236 r:155

t:80 m:402 r:142

今私の質問: これらは良い値ですか? 比較する値があま​​り見つかりませんでした。私が知りたいのは、10 個の並列クライアントでリクエストする場合、リクエストごとに 30 ~ 50 ミリ秒を追加しても大丈夫ですか? そんなにスループットが落ちても大丈夫ですか?

squid、varnish、または apache トラフィック サーバーの追加にかかる時間はどれくらいですか? 誰かが同等の価値を持っていますか?

4

1 に答える 1

0

さて、それらの値は非常に悪かった....今ではほとんどの値が 20 ミリ秒未満です。理由は次のとおりです。couchbase に clouchnode クライアントを使用しましたが、現在は、couchbase の memcache インターフェイスを使用しています。

于 2013-06-13T20:06:26.927 に答える