問題タブ [horizontal-pod-autoscaling]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
kubernetes - CrashLoopBackOff を使用したメトリック サーバー
metrics-server pod を実行できません。crashloopbackoff エラーが発生します。「kubectl get pods -n kube-system」を実行すると、次の出力が表示されます。
次に、「kubectl describe pods metrics-server -n kube-system」を実行すると、次のように表示されます。
誰かが何が間違っているのかを理解するのを手伝ってくれますか? 私は似たようなケースをたくさん見てきましたが、どれもうまくいきませんでした。さらに、すべてマスターノード内で実行しています。
編集 1: ログの出力を投稿:
前もって感謝します :)
spring-boot - TCP 接続を使用した Kubernetes ポッドの正常なシャットダウン (Spring Boot)
Azure クラウドでサービスをホストしていますが、明らかな理由もなく "BackendConnectionFailure" が発生することがあります。調査の結果、ほとんどの場合、この例外と自動スケーリング (スケールダウン) の間に相関関係があることがわかりました。
ドキュメントによると、デフォルトの終了猶予期間は 30 秒です。ポッドは終了とマークされ、ロードバランサーはこれ以上考慮しないため、それ以上のリクエストは受信されません。これによれば、サービスの所要時間が 30 秒よりもはるかに短い場合、アプリケーションに prestop フックや特別な実装は必要ありません (間違っている場合は修正してください)。
前の段落が正しい場合、この例外が比較的頻繁に発生するのはなぜですか? 私の考えは、ポッドが終了とマークされ、ロードバランサーがポッドにリクエストを転送する必要があるときに、それ以上リクエストを転送しない場合です。
編集1:
アーキテクチャは単純にこのようなものです
クライアント -> ファイアウォール (Azure) -> API (Azure APIM) -> マイクロサービス (Spring Boot) -> サービスに応じてバックエンド (サード パーティ) または Azure RDB
例外は APIM から来ていると思います。この例外には 2 つのパターンが見つかりました。
Message The underlying connection was closed: The connection was closed unexpectedly. Exception type BackendConnectionFailure Failed method forward-request
Response time 10.0 s
Message The underlying connection was closed: A connection that was expected to be kept alive was closed by the server. Exception type BackendConnectionFailure Failed method forward-request
Response time 3.6 ms
kubernetes - 使用量がしきい値を下回っていても Kubernetes のデプロイがスケールダウンしない
水平ポッド オートスケーラーで何が起こっているのか理解するのに苦労しています。
メモリまたは CPU の使用率が 80% を超えた場合に、展開をスケールアップしようとしています。
これが私の HPA テンプレートです。
問題は、使用率が 80% を下回っているにもかかわらず、何日も 3 つのレプリカで座っていて、その理由がわかりません。
top コマンドの出力は次のとおりです。
各 Pod は、要求されたメモリの約 60% を消費します (つまり、80% の目標を下回っています)。
これが私の展開です:
手動で 2 つのレプリカにスケールダウンすると、理由もなくすぐに 3 つに戻ります。
誰が何が起こっているのか知っていますか?