あなたが jHiccup を使っていること、そしてそれが現実に基づいたしゃっくりを示しているように見えることをうれしく思います。
jHiccup は、JVM で実行されているアプリケーション スレッドでも見られる「しゃっくり」を観察します。理由を収集するのではなく、事実を報告するだけです。理由は、プロセスが完全にすぐに実行できるコードを実行できない原因となるものであれば何でもかまいません: GC の一時停止は一般的な原因ですが、キーボードの一時的な ^Z、または仮想化されたホスト間での「ライブ マイグレーション」のいずれかです。 OS またはハイパーバイザー レベル (存在する場合) でのスケジューリング プレッシャー、電源管理の狂気、スワッピングなど、さまざまな理由が考えられます。私は、Linux ファイル システムのプレッシャーと、Transparent Huge Page の「バックグラウンド」での最適化が、数秒の中断を引き起こすのを見てきました...
一時停止の原因を特定するための適切な最初のステップは、jHiccup で「-c」オプションを使用することです。これは、別の制御プロセスを起動します (それ以外の場合はアイドル状態のワークロード)。アプリケーションと制御プロセスの両方で、サイズと時間に大まかな相関関係がある問題が発生している場合は、(プロセス ローカルではなく) システム レベルの理由を探していることがわかります。それらが相関しない場合は、JVM の内部が疑われることがわかります。これは、JVM が何か大きな問題のために一時停止していることを示している可能性が最も高いです。セーフポイントまでの時間が何らかの理由で (そしてほとんどの JVM では、セーフポイントまでの時間が長くなる原因が多数考えられます)。
jHiccup の測定は非常に単純なので、間違えることはほとんどありません。全体で 650 行未満の Java コードなので、自分でロジックを確認できます。jHiccup の HiccupRecorder スレッドは、繰り返し 1 ミリ秒間スリープ状態になり、ウェイクアップすると、1 ミリ秒を超える (スリープ前からの) 時間差をヒカップとして記録します。簡単な仮定としては、1 つの実行準備が整ったスレッド (HiccupRecorder) が 5 秒間実行されなかった場合、同じプロセス内の他のスレッドでも同様のサイズのヒカップが発生したということです。
上記のように、jHiccups の観察結果は、独立したネットワーク ログで裏付けられているようです。応答時間は 5 秒でした。すべての問題がネットワーク ログで観察されたわけではないことに注意してください。ネットワークロガーで観測されました。対照的に、jHiccup は他のアクティビティがなくても 1 秒あたり 1,000 回ウェイクアップを試みるため、1 ミリ秒を超えるヒカップは jHiccup から隠れることはできません。
これは GC ではないかもしれませんが、GC を除外する前に、GC のログをもう少し調べてみることをお勧めします。まず、一時停止を 200 ミリ秒に制限する JVM ヒントは、既知のすべての JVM では役に立ちません。一時停止のヒントは、「お願いします」と言うのと同じです。さらに、オプションに -XX:+PrintGCApplicationStoppedTime を含めない限り、GC ログを信じないでください (そして、その場合でもそれらを疑ってください)。このフラグを含めない限り、一時停止や一時停止の一部が非常に長くなり、報告されないことがあります。たとえば、GC が実際に何らかの作業を行った一時停止の 0.08 秒の部分のみを報告した場合、安全なポイントに到達するのに 15 秒かかる時折の長期カウント ループが原因で一時停止が発生するのを見てきました。「GC」の一部とは見なされない原因の一時停止もたくさんあります
――ギル。[jHiccupの作者]