2

Java API を使用して、ローカルの csv ファイルを BigQuery にインポートしようとしました。

しかし、私はそれをすることができませんでした。

以下のコードで何が間違っていたのか理解できたら、教えてください...

        TableSchema schema = new TableSchema();
        ArrayList<TableFieldSchema> fields = new ArrayList<TableFieldSchema>();
        fields.add(new TableFieldSchema().setName("nn").setType("String"));
        fields.add(new TableFieldSchema().setName("gg").setType("String"));
        fields.add(new TableFieldSchema().setName("uu").setType("String"));
        schema.setFields(fields);

        TableReference destTable = new TableReference();
        destTable.setProjectId(projectId);
        destTable.setDatasetId(datasetId);
        destTable.setTableId("testUploads_fromJava");

        FileContent content = new FileContent("application/octet-stream", new File(csv));

        Job job = new Job();
        JobConfiguration config = new JobConfiguration();
        JobConfigurationLoad configLoad = new JobConfigurationLoad();

        configLoad.setSchema(schema);
        configLoad.setDestinationTable(destTable);

        config.setLoad(configLoad);
        job.setConfiguration(config);

        Insert insert = bigquery.jobs().insert(projectId, job, content);
        insert.setProjectId(projectId);
        JobReference jobRef = insert.execute().getJobReference();

「JobReference jobRef = insert.execute().getJobReference();」でエラーが発生しました。

これがエラーコードです。

java.lang.NullPointerException
at java.net.URI$Parser.parse(URI.java:3004)
at java.net.URI.<init>(URI.java:577)
at com.google.api.client.http.GenericUrl.<init>(GenericUrl.java:100)
at com.google.api.client.googleapis.media.MediaHttpUploader.upload(MediaHttpUploader.java:269)
at com.google.api.client.googleapis.services.AbstractGoogleClientRequest.executeUnparsed(AbstractGoogleClientRequest.java:408)
at com.google.api.client.googleapis.services.AbstractGoogleClientRequest.executeUnparsed(AbstractGoogleClientRequest.java:328)
at com.google.api.client.googleapis.services.AbstractGoogleClientRequest.execute(AbstractGoogleClientRequest.java:449)
at bigquery.GettingBigQueryResult.loadLocalCSVtoBQ(GettingBigQueryResult.java:117)
at main.GetBQData.main(GetBQData.java:70)

ありがとう。

4

1 に答える 1

1

@ greenessアドバイスありがとうございます。

スキームの設定を間違えました。スキーム定義が json から読み込まれるので、コードを変更します。

正しいコードは以下です。

TableSchema schema = new TableSchema();
        schema.setFields(new ArrayList<TableFieldSchema>());
        JacksonFactory JACKSON = new JacksonFactory();
        JACKSON.createJsonParser(new FileInputStream("schema.json"))
        .parseArrayAndClose(schema.getFields(), TableFieldSchema.class, null);
        schema.setFactory(JACKSON);

        TableReference destTable = new TableReference();
        destTable.setProjectId(projectId);
        destTable.setDatasetId(datasetId);
        destTable.setTableId(tableId);

        FileContent content = new FileContent("application/octet-stream", new File(csv));

        Job job = new Job();
        JobConfiguration config = new JobConfiguration();
        JobConfigurationLoad configLoad = new JobConfigurationLoad();

        configLoad.setSchema(schema);
        configLoad.setDestinationTable(destTable);

        configLoad.setEncoding("UTF-8");
        configLoad.setCreateDisposition("CREATE_IF_NEEDED");

        config.setLoad(configLoad);
        job.setConfiguration(config);

        Insert insert = bigquery.jobs().insert(projectId, job, content);
        insert.setProjectId(projectId);
        JobReference jobRef = insert.execute().getJobReference();
        String jobId = jobRef.getJobId();

ありがとうございました。

于 2013-02-21T08:42:12.033 に答える