EKS でジョブを実行しています。無効な yaml でジョブを開始しようとした後、問題のある yaml を手放すことができず、ファイルを修正した後も同じエラー メッセージが表示され続けます。
- 無事に就職しました。
- セクションにブール値を持つ環境変数を追加したため、次の
env
エラーが発生しました。Error from server (BadRequest): error when creating "k8s/jobs/create_csv.yaml": Job in version "v1" cannot be handled as a Job: v1.Job: Spec: v1.JobSpec: Template: v1.PodTemplateSpec: Spec: v1.PodSpec: Containers: []v1.Container: v1.Container: Env: []v1.EnvVar: v1.EnvVar: Value: ReadString: expects " or n, but found t, error found in #10 byte of ...|,"value":true},{"nam|..., bigger context ...|oduction"},{"name":"RAILS_LOG_TO_STDOUT","value":true},{"name":"AWS_REGION","value":"us-east-1"},{"n|...
- 値を string に変更しました
yes
が、エラー メッセージには引き続き元の不適切な yaml が表示されます。 - 求人はありません
kubectl get jobs --all-namespaces
- したがって、この古い yaml がどこに隠れているかわかりません。
imagePullPolicy
に設定していなかったことが原因かと思いましたが、ローカルでコマンドAlways
を実行しても発生します。kubectl
以下は私のジョブ定義ファイルです:
apiVersion: batch/v1
kind: Job
metadata:
generateName: create-csv-
labels:
transformer: AR
spec:
template:
spec:
containers:
- name: create-csv
image: my-image:latest
imagePullPolicy: Always
command: ["bin/rails", "create_csv"]
env:
- name: RAILS_ENV
value: production
- name: RAILS_LOG_TO_STDOUT
value: yes
- name: AWS_REGION
value: us-east-1
- name: AWS_ACCESS_KEY_ID
valueFrom:
secretKeyRef:
name: aws
key: aws_access_key_id
- name: AWS_SECRET_ACCESS_KEY
valueFrom:
secretKeyRef:
name: aws
key: aws_secret_access_key
restartPolicy: OnFailure
backoffLimit: 6