ドキュメントには、source_objects
引数がテンプレート化された値を取ると記載されています。ただし、次のことを試すと:
gcs_to_bq_op = GoogleCloudStorageToBigQueryOperator(
task_id=name,
bucket='gdbm-public',
source_objects=['entity/{{ ds_nodash }}.0.{}.json'.format(filename)],
destination_project_dataset_table='dbm_public_entity.{}'.format(name),
schema_fields=schema,
source_format='NEWLINE_DELIMITED_JSON',
create_disposition='CREATE_IF_NEEDED',
write_disposition='WRITE_TRUNCATE',
max_bad_records=0,
allow_jagged_rows=True,
google_cloud_storage_conn_id='my_gcp_conn',
bigquery_conn_id='my_gcp_conn',
delegate_to=SERVICE_ACCOUNT,
dag=dag
)
次のエラー メッセージが表示されます。
Exception: BigQuery job failed. Final error was: {u'reason': u'notFound', u'message': u'Not found: URI gs://gdbm-public/entity/{ ds_nodash }.0.GeoLocation.json'}.
変数が同じように使用されている例を見つけました。{{ ds_nodash }}
ですから、なぜこれがうまくいかないのかわかりません。