0

データをBigQueryに挿入する際に問題が発生しています。私たちはオランダにあります。

コマンド:
adm @ la478 ads_csv $ time bq load --debug_mode --skip_leading_rows 1 --max_bad_records 100 --project_id 197553342340 ad_monitoring.ad ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz
ロード操作でのBigQueryエラー:バックエンドエラー

メトリック:
実際の4m35.997s
ユーザー0m0.963s
sys 0m0.169s

ファイルサイズ:
-rw-rw-rw- 1 adm admin 39M Jul 10 17:02ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz200MB
非圧縮

何をすべきかアドバイスしてもらえますか?

4

1 に答える 1

1

バックエンドの問題を調査していますが、Google ストレージを介してインポートをステージングすると、(特にヨーロッパから) 運が良くなる可能性があります。を実行する場合gsutil cp ad_monitoring.ad ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz gs://your_bucket/ad_monitoring.ad ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gzは、bq コマンド ラインを次のように変更できます。

bq load --debug_mode --skip_leading_rows 1 --max_bad_records 100 --project_id 197553342340 ad_monitoring.ad gs://your_bucket/ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz

ログであなたのジョブを探していますが、「TOO_MANY_ERRORS」で失敗した最近のロード ジョブがたくさんあるようです。使用するbq ls -jと、bq show -j <job_id>これらに関する詳細情報を取得できます。

于 2012-07-11T14:04:35.940 に答える