1

私はいくつかのファイルを Google Cloud Storage に保存しており、Google Cloud Datalab の Notebook から次のコマンドを実行しています。

path = r'data/path/to/csv/orders_1234'
orders_path = os.path.join(bucket_path, path)
print(orders_path)
dest = 'project_name:dataset_name.orders'
%bigquery load -m append -f csv -d '\t' -S $orders_path -D $dest

しかし、このコードを実行すると、Invalid source format CSVというエラーが発生しました。ここで私が間違って何をしたか知っていますか?

ありがとうございました!

4

1 に答える 1

1

datalab サンプル ノートブックリポジトリから取得した次の実際のを試してください。

import datalab.bigquery as bq
import datalab.storage as storage
import pandas as pd
from StringIO import StringIO

# Create the schema, conveniently using a DataFrame example.
%storage read --object gs://cloud-datalab-samples/cars.csv --variable cars
df = pd.read_csv(StringIO(cars))
schema = bq.Schema.from_dataframe(df)

# Create the dataset
bq.Dataset('sample').create()

# Create the table
sample_table = bq.Table('sample.cars').create(schema = schema, overwrite = True)

# Load csv file from GCS to Google BigQuery
sample_table.load('gs://cloud-datalab-samples/cars.csv', mode='append',
                  source_format = 'csv', csv_options=bq.CSVOptions(skip_leading_rows = 1))   

注: 古いバージョンの datalab を実行している場合は、import gcp.bigquery as bq代わりに使用する必要がある場合があります。import datalab.bigquery as bq

BigQuery コンソールの [ジョブ履歴] ページで、追加のエラー メッセージ情報を確認できる場合があります。

于 2016-06-04T15:51:03.703 に答える