BigQuery でテーブルを作成しようとしています。単一のデータセットがあり、API を使用してテーブルを追加し、クラウド ストレージからデータ (json.tar.gz) をインポートする必要があります。プロセス全体を自動化するには、Ruby クライアントを使用できる必要があります。2 つの質問があります。
私はドキュメントを読み、それをアップロードしようとしましたが (以下のコード)、成功しておらず、何が間違っているのかまったくわかりません。誰かが私を啓発したり、正しい方向に向けてくれませんか?
リクエストを行ったら、ジョブが実際にいつ終了したかをどのように知ることができますか? APIから、私はjobs.getリクエストを使用するつもりだったと思いますか? 最初の部分を完了していないので、この側面を見ることができませんでした。
これは以下の私のコードです。
config= {
'configuration'=> {
'load'=> {
'sourceUris'=> ["gs://person-bucket/person_json.tar.gz"],
'schema'=> {
'fields'=> [
{ 'name'=>'person_id', 'type'=>'integer' },
{ 'name'=> 'person_name', 'type'=>'string' },
{ 'name'=> 'logged_in_at', 'type'=>'timestamp' },
]
},
'destinationTable'=> {
'projectId'=> "XXXXXXXXX",
'datasetId'=> "personDataset",
'tableId'=> "person"
},
'createDisposition' => 'CREATE_IF_NEEDED',
'maxBadRecords'=> 10,
}
},
'jobReference'=>{'projectId'=>XXXXXXXXX}
}
multipart_boundary="xxx"
body = "--#{multipart_boundary}\n"
body += "Content-Type: application/json; charset=UTF-8\n\n"
body += "#{config.to_json}\n"
body += "--#{multipart_boundary}\n"
body +="Content-Type: application/octet-stream\n\n"
body += "--#{multipart_boundary}--\n"
param_hash = {:api_method=> bigquery.jobs.insert }
param_hash[:parameters] = {'projectId' => 'XXXXXXXX'}
param_hash[:body] = body
param_hash[:headers] = {'Content-Type' => "multipart/related; boundary=#{multipart_boundary}"}
result = @client.execute(param_hash)
puts JSON.parse(result.response.header)
次のエラーが表示されます: {"error"=>{"errors"=>[{"domain"=>"global", "reason"=>"wrongUrlForUpload", "message"=>"Uploads must be sent to the URL をアップロードします。このリクエストをhttps://www.googleapis.com/upload/bigquery/v2/projects/XXXXXXXX/jobsに再送信してください"}], "code"=>400, "message"=>"Uploads must beアップロード URL に送信されました。このリクエストをhttps://www.googleapis.com/upload/bigquery/v2/projects/XXXXXXXX/jobsに再送信してください"}}
リクエスト ヘッダーから、エラーが送信先であると言っているのと同じ URI に送信されているように見えます。どんな助けでも大歓迎です。
ありがとう、素晴らしい一日を!