0

Linux Web サーバー (nginx) に 60 の Web サイトがあり、各 Web サイトが完全に読み込まれるまでの時間を監視したいと考えています。tools.pingdom.com のようなもので、URL とロケールを入力し、ページが完全に読み込まれるまでの時間を返します。しかし、すべてのWebサイトおよび新しい将来のWebサイトに対してこのタスクを自動化するには、Linuxターミナル経由でこれが必要です。この仕事をするための Linux 経由の API やツールを知っている人はいますか? wget と curl を試しましたが、結果が不安定で、wget を使用しました:

(time wget -p --no-cache --delete-after example.com -q ) 2>&1 | awk '/real/ {print $2}'

しかし、ロケールを設定できず、ほとんどの場合、結果は不安定で、同じ Web サイトの読み込みに 2 秒、数分前に 10 秒かかります。

ありがとう !

4

1 に答える 1

1

サーバーのパフォーマンスが不安定な場合、結果も不安定になりますが、これは正しいことです。

curlリクエストにwgetかかる時間を測定するための実行可能なオプションです。おそらく、「Accept-Language」ヘッダーを必要な言語の値に設定することで、ロケールを設定できます (wget --headerと を使用curl --header)。また、転送が完了した後に標準出力に情報を表示curlするフラグがあることに注意してください。args タイミング変数-wの形式で指定できます(例: )。-wcurl -w "First Byte: {time_starttransfer}, Total:{time_total}"

webpagestest ツールもご覧ください。API を備えたホストされたバージョンがあり、実行可能なバージョンをダウンロードできます。これは cli、web、および api であり、ヘッダーをオーバーライドできる内部スクリプト言語をサポートしています。Webpagetest は curl や wget とはまったく異なります。Web ページ全体 (css、js、画像などのすべてのアセットを含む) をロードし、ユーザーが Web サイトを実際に閲覧するときに経験する合計時間を測定するからです。ブラウザ。内部では、webpagetest は実際の Web ブラウザーを駆動します。

于 2016-05-17T13:02:35.370 に答える