Sysdig で時間集計がどのように機能するかについて疑問があります。私はすでに次のドキュメントを参照しています: https://sysdigdocs.atlassian.net/wiki/spaces/Monitor/pages/209027280/Data+Aggregationですが、まだ曖昧です。
私の知る限り、Sysdig は 10 秒間隔でデータをポーリングします。これは、10 秒ごとに 1 つのデータ ポイントがあることを意味します。つまり、各データ ポイント (つまり 10 秒) の平均、最小、最大、およびレートは同じになります。しかし、以下のグラフを見ると、グラフはすでに 10 秒間隔を示していますが、平均と最大は異なります。
データが毎秒ポーリングされているとしましょう。つまり、10 秒間に 10 個のデータ ポイントがあることを意味します。次に、それらの 10 個のデータ ポイントから平均、最大、および最小を計算でき、チャートは理にかなっています。しかし、10 秒あたり 1 つのデータ ポイントしかない場合、平均/最大/最小はどのように計算されるのだろうか