0

何千もの URL からデータをインポートする必要があります。データの例を次に示します。

[{"date":"20201006T120000Z","uri":"secret","val":"1765.756"},{"date":"20201006T120500Z","uri":"secret","val":"2015.09258」 "},{"date":"20201006T121000Z","uri":"secret","val":"2283.0885"}]

COPY は JSON 形式をサポートしていないため、これを使用していくつかの URL からデータをインポートしています。

CREATE TEMP TABLE stage(x jsonb);

COPY stage FROM PROGRAM 'curl https://.....';

insert into test_table select f.* from stage,
   jsonb_populate_recordset(null::test_table, x) f;

ただし、インポートごとにテーブルを作成し、一度に 1 つの URL をインポートするため、非効率的です。(ツール、スクリプト、またはコマンドを使用して) すべての URL を含むファイルを読み取り、それらのデータをデータベースにコピーできるかどうかを知りたいです。

4

1 に答える 1