20000 を超える患者情報を含む csv ファイルを処理しようとしています。全部で 50 の列があり、各患者には時間ごとのデータとして複数の行があります。ほとんどの列は監視リソース タイプに属します。心拍数、体温、血圧など。
データを FHIR 形式に変換することに成功しました。ただし、FHIR サーバー内にデータをプッシュしようとすると、データに対して最大 500 エントリしか許可されていないというエラーがサーバーからスローされます。
最大 500 エントリ待って json ファイルをプッシュしても、 20000 * 50 を隠すのにかなりの時間がかかります。azure fhir サーバーにデータを一括挿入する効率的な方法はありますか?
現在、次のコードを使用しています。しかし、かなりの時間とリソースが必要になるようです。私のcsvファイルには約70万行あります。
def export_template(self, template):
if self.export_max_500 is None:
self.export_max_500 = template
else:
export_max_500_entry = self.export_max_500["entry"]
template_entry = template["entry"]
self.export_max_500["entry"] = export_max_500_entry + template_entry
if len(self.export_max_500["entry"]) > 500:
template["entry"] = self.export_max_500["entry"][:495]
self.export_max_500["entry"] = self.export_max_500["entry"][495:]
self.send_to_server(template)