問題タブ [kubernetes-health-check]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
3 に答える
232 参照

kubernetes - Kubernetes レプリケーション コントローラー / コンテナーの再生成

現在、セキュリティ上の理由から、時間または条件に基づいて、Kubernetes のレプリケーション コントローラーからポッドまたはコンテナーを「再作成」または再生成することは可能ですか? x 分/時間ごと、または条件 (トリップワイヤーなど) により、スケジュールに基づいてコンテナーを再作成したいと考えています。これが既存の機能だったのか、それともこの目的を達成するための巧妙な方法があったのか知りたいだけです。

0 投票する
1 に答える
224 参照

kubernetes - 新しいデプロイ後に kubernetes クラスターの正常性を検証できる自動化されたテストはありますか?

基本的には、kube マスターとノードのすべてのコンポーネントが適切に稼働していることを確認します) .. デリバリー パイプライン モデルに従って、dev->devOps->staging->production にデプロイします ...複数のデータセンターでのクラスターのデプロイを手動で確認する時間です消費..どんな助けでも大歓迎です

0 投票する
1 に答える
3513 参照

kubernetes - Liveness probe failure output not in kubelet logs

The output from a liveness probe failure when using exec does not show up in the kubelet event logs (kubernetes version 1.3.2).

For example, I created a pod from the liveness probe example here: http://kubernetes.io/docs/user-guide/liveness/

Using exec-liveness.yaml, I do not get any output from why the Liveness probe failed:

0 投票する
2 に答える
265 参照

docker - Openshift PaaS/Kubernetes Docker コンテナの監視とオーケストレーション

Kubernetes のデプロイとレプリケーション コントローラーは、最小限の数のレプリカが存在することを保証することで、自己修復機能を提供します。

また、自動スケーリング機能により、特定の CPU しきい値を指定してレプリカを増やすことができます。

自動修復機能と自動スケーリング機能に柔軟性を提供するツールはありますか?

例 : ピーク時間または日中にレプリカの数を自動調整します。Pod が停止し、外部の問題が原因である場合、システムがコンテナーを再作成するのを防ぎ、ping または telnet テストなどの条件が成功するのを待ちます。

0 投票する
1 に答える
974 参照

apache - Apache の kubernetes イングレスと https リダイレクトが機能しない

Apache で http から https へのリダイレクトを有効にすると、イングレス ヘルス ルールが Apache サービスを特定できず、Google クラウドで「UNHEALTHY」ステータスが表示されます。

0 投票する
1 に答える
2934 参照

kubernetes - kubernetes nginx ingress // ヘルスチェックが機能していません

次の例に基づいて「機能する」クラスターを作成します: https://github.com/jetstack/kube-lego/tree/master/examples/nginx

RC の上記の構成では、ロードバランサーのバックエンドのヘルス チェックを確認すると、次のエラーが発生し続けます。This load balancer has no health check, so traffic will be sent to all instances regardless of their status.ただし、ヘルスチェックはありますが、デフォルトのバックエンドは稼働しています (デプロイとサービス)。

lb イングレスで静的 ips を使用することから利益を得るために、nginx の上にサービスがあります。これも癒されるべき?

場合に備えてここにキャプチャ:ここに画像の説明を入力

ヘルスチェックに関する基本的な知識が不足している可能性があります。しかし、ドキュメントを読んでも、明確な設定をしてこの問題を解決するのに役立ちませんでした

助けていただければ幸いです。一番

0 投票する
1 に答える
2559 参照

mongodb - k8s 1.2.4 で mongodb の livenessprobe exec check プローブがポッドを強制終了している

K8s で実行されているポッドに livenessProbes を実装しようとしています。非常に単純なプローブのみが機能しています。例を参照してください。

実装する必要があるプローブは、50 秒ごとにポッドを殺すことです。

プローブが実装されておらず、ポッド内でコマンドが実行されている場合、必要に応じて REMOVED 文字列が見つかった場合は 1 が返され、見つからない場合は 0 が返されます。

[root@eas-mongo-rs-3-ui81p /]# mongo --port 27018 --eval "rs.status()" | grep "削除" ; テスト $? -eq 1

問題は、Container Exec Check などのコマンドを実装する方法です。

よろしく

0 投票する
0 に答える
2726 参照

kubernetes - kube-dns および kubernetes-dashboard ポッドのステータスは CrashLoopBackOff です

https://coreos.com/kubernetes/docs/latest/getting-started.htmlに従って、OpenStack でマルチノード Kubernetes クラスター (3 つの etcds、2 つのマスター、および 2 つのノード) をセットアップします。

すべての VM に CoreOS 1185.3.0 が搭載されている

kubectl get nodesクラスタが正常であることを返します

kubectl get pods --namespace=kube-systemkube-dns および kubernetes-dashboard ポッドのステータスが CrashLoopBackOff を返す

ここで正確な問題を把握する方法を教えてもらえますか?

アップデート:

kube-dns および kubernetes-dashboard コンテナーのログを取得できました。kubernetes api を呼び出そうとすると、証明書の問題のようです。すべての証明書を再作成し、それらを置き換えました。

マスターとワーカーの指示のセットアップ、 https ://coreos.com/kubernetes/docs/latest/deploy-master.html https://coreos.com/kubernetes/docs/latest/deploy-workers.html

マスターは、ロード バランサーの前にあります。

最後に、2 つのマスター VM と 2 つのノード VM を kubernetes で再起動しました。しかし、問題は kube-dns と kubernetes-dashboard でまだ解決されていません。

kube-dns コンテナー ログ

kubernetes-dashboard コンテナー ログ

kubernetes ノード ログ

証明書を生成するときは、 https: //coreos.com/kubernetes/docs/latest/openssl.htmlに従いました。

以下の openssl 構成によって生成される API サーバー証明書

ここで何か不足していますか?

ありがとう