1

したがって、基本的にはNginx OpenRestyをセットアップし、最大のパフォーマンス/リクエストのために構成を最適化しようとしました。

サーバーはまばたきさえしなくても明らかに多くのことを処理できますが、統計に示されているように、毎秒約 55k のリクエストの後、Nginx はそれ以上接続を確立しないようです。

Luameter を使用して読み取り値を取得しています。クラウド プラットフォームを使用してサーバーにストレスを与え、毎秒 50k リクエストまたは毎秒 100k リクエストを実行しても、Nginx 統計から 50k リクエスト以上が返されることはありません。

サーバーには完全な 1 Gbps ポートがありますが、ストレスがかかったときに 330 mbps を超える出力を送信することはありません。SSD HDDも搭載。

1 秒あたり 100k のリクエストがヒットすると、CPU は 45% になります。

Ulimit は無制限で、ulimit -n 999999

ここに私のnginx構成のスニペットがあります:

user  nobody; worker_processes  8; worker_rlimit_nofile 262144; error_log            logs/error.log crit;

events {
worker_connections  100000;
use epoll;
multi_accept on; }

http {

open_file_cache max=200000 inactive=20s; open_file_cache_valid 30s;  
open_file_cache_min_uses 2; open_file_cache_errors on;

サーバーリソースに関してまだ作業の余地があることを考えると、どうすればこの制限を増やすことができますか?

ありがとう

4

2 に答える 2

1

mikhailov のコメントに加えて、これは特にネットワークの IRQ 負荷を分散するのに役立ち、状況に役立つ可能性があります。

echo f > /sys/class/net/eth0/queues/rx-0/rps_cpus
于 2015-07-06T13:44:44.853 に答える