2

EKS でジョブを実行しています。無効な yaml でジョブを開始しようとした後、問題のある yaml を手放すことができず、ファイルを修正した後も同じエラー メッセージが表示され続けます。

  1. 無事に就職しました。
  2. セクションにブール値を持つ環境変数を追加したため、次のenvエラーが発生しました。
    • Error from server (BadRequest): error when creating "k8s/jobs/create_csv.yaml": Job in version "v1" cannot be handled as a Job: v1.Job: Spec: v1.JobSpec: Template: v1.PodTemplateSpec: Spec: v1.PodSpec: Containers: []v1.Container: v1.Container: Env: []v1.EnvVar: v1.EnvVar: Value: ReadString: expects " or n, but found t, error found in #10 byte of ...|,"value":true},{"nam|..., bigger context ...|oduction"},{"name":"RAILS_LOG_TO_STDOUT","value":true},{"name":"AWS_REGION","value":"us-east-1"},{"n|...
  3. 値を string に変更しましたyesが、エラー メッセージには引き続き元の不適切な yaml が表示されます。
  4. 求人はありませんkubectl get jobs --all-namespaces
    • したがって、この古い yaml がどこに隠れているかわかりません。

imagePullPolicyに設定していなかったことが原因かと思いましたが、ローカルでコマンドAlwaysを実行しても発生します。kubectl

以下は私のジョブ定義ファイルです:

apiVersion: batch/v1
kind: Job
metadata:
  generateName: create-csv-
  labels:
    transformer: AR
spec:
  template:
    spec:
      containers:
      - name: create-csv
        image: my-image:latest
        imagePullPolicy: Always
        command: ["bin/rails",  "create_csv"]
        env:
          - name: RAILS_ENV
            value: production
          - name: RAILS_LOG_TO_STDOUT
            value: yes
          - name: AWS_REGION
            value: us-east-1
          - name: AWS_ACCESS_KEY_ID
            valueFrom:
              secretKeyRef:
                name: aws
                key: aws_access_key_id
          - name: AWS_SECRET_ACCESS_KEY
            valueFrom:
              secretKeyRef:
                name: aws
                key: aws_secret_access_key
      restartPolicy: OnFailure
  backoffLimit: 6
4

2 に答える 2