問題タブ [kubernetes-health-check]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
kubernetes - Kubernetes レプリケーション コントローラー / コンテナーの再生成
現在、セキュリティ上の理由から、時間または条件に基づいて、Kubernetes のレプリケーション コントローラーからポッドまたはコンテナーを「再作成」または再生成することは可能ですか? x 分/時間ごと、または条件 (トリップワイヤーなど) により、スケジュールに基づいてコンテナーを再作成したいと考えています。これが既存の機能だったのか、それともこの目的を達成するための巧妙な方法があったのか知りたいだけです。
kubernetes - 新しいデプロイ後に kubernetes クラスターの正常性を検証できる自動化されたテストはありますか?
基本的には、kube マスターとノードのすべてのコンポーネントが適切に稼働していることを確認します) .. デリバリー パイプライン モデルに従って、dev->devOps->staging->production にデプロイします ...複数のデータセンターでのクラスターのデプロイを手動で確認する時間です消費..どんな助けでも大歓迎です
kubernetes - Liveness probe failure output not in kubelet logs
The output from a liveness probe failure when using exec
does not show up in the kubelet event logs (kubernetes version 1.3.2).
For example, I created a pod from the liveness probe example here: http://kubernetes.io/docs/user-guide/liveness/
Using exec-liveness.yaml, I do not get any output from why the Liveness probe failed:
docker - Openshift PaaS/Kubernetes Docker コンテナの監視とオーケストレーション
Kubernetes のデプロイとレプリケーション コントローラーは、最小限の数のレプリカが存在することを保証することで、自己修復機能を提供します。
また、自動スケーリング機能により、特定の CPU しきい値を指定してレプリカを増やすことができます。
自動修復機能と自動スケーリング機能に柔軟性を提供するツールはありますか?
例 : ピーク時間または日中にレプリカの数を自動調整します。Pod が停止し、外部の問題が原因である場合、システムがコンテナーを再作成するのを防ぎ、ping または telnet テストなどの条件が成功するのを待ちます。
apache - Apache の kubernetes イングレスと https リダイレクトが機能しない
Apache で http から https へのリダイレクトを有効にすると、イングレス ヘルス ルールが Apache サービスを特定できず、Google クラウドで「UNHEALTHY」ステータスが表示されます。
kubernetes - kubernetes nginx ingress // ヘルスチェックが機能していません
次の例に基づいて「機能する」クラスターを作成します: https://github.com/jetstack/kube-lego/tree/master/examples/nginx
RC の上記の構成では、ロードバランサーのバックエンドのヘルス チェックを確認すると、次のエラーが発生し続けます。This load balancer has no health check, so traffic will be sent to all instances regardless of their status.
ただし、ヘルスチェックはありますが、デフォルトのバックエンドは稼働しています (デプロイとサービス)。
lb イングレスで静的 ips を使用することから利益を得るために、nginx の上にサービスがあります。これも癒されるべき?
ヘルスチェックに関する基本的な知識が不足している可能性があります。しかし、ドキュメントを読んでも、明確な設定をしてこの問題を解決するのに役立ちませんでした
助けていただければ幸いです。一番
mongodb - k8s 1.2.4 で mongodb の livenessprobe exec check プローブがポッドを強制終了している
K8s で実行されているポッドに livenessProbes を実装しようとしています。非常に単純なプローブのみが機能しています。例を参照してください。
実装する必要があるプローブは、50 秒ごとにポッドを殺すことです。
プローブが実装されておらず、ポッド内でコマンドが実行されている場合、必要に応じて REMOVED 文字列が見つかった場合は 1 が返され、見つからない場合は 0 が返されます。
[root@eas-mongo-rs-3-ui81p /]# mongo --port 27018 --eval "rs.status()" | grep "削除" ; テスト $? -eq 1
問題は、Container Exec Check などのコマンドを実装する方法です。
よろしく
kubernetes - kube-dns および kubernetes-dashboard ポッドのステータスは CrashLoopBackOff です
https://coreos.com/kubernetes/docs/latest/getting-started.htmlに従って、OpenStack でマルチノード Kubernetes クラスター (3 つの etcds、2 つのマスター、および 2 つのノード) をセットアップします。
すべての VM に CoreOS 1185.3.0 が搭載されている
kubectl get nodes
クラスタが正常であることを返します
kubectl get pods --namespace=kube-system
kube-dns および kubernetes-dashboard ポッドのステータスが CrashLoopBackOff を返す
ここで正確な問題を把握する方法を教えてもらえますか?
アップデート:
kube-dns および kubernetes-dashboard コンテナーのログを取得できました。kubernetes api を呼び出そうとすると、証明書の問題のようです。すべての証明書を再作成し、それらを置き換えました。
マスターとワーカーの指示のセットアップ、 https ://coreos.com/kubernetes/docs/latest/deploy-master.html https://coreos.com/kubernetes/docs/latest/deploy-workers.html
マスターは、ロード バランサーの前にあります。
最後に、2 つのマスター VM と 2 つのノード VM を kubernetes で再起動しました。しかし、問題は kube-dns と kubernetes-dashboard でまだ解決されていません。
kube-dns コンテナー ログ
kubernetes-dashboard コンテナー ログ
kubernetes ノード ログ
証明書を生成するときは、 https: //coreos.com/kubernetes/docs/latest/openssl.htmlに従いました。
以下の openssl 構成によって生成される API サーバー証明書
ここで何か不足していますか?
ありがとう