0

現在、Google BigQuery プラットフォームを使用して多くのデータ (~ > 6 Go) をアップロードし、それらを Tableau Desktop Software のデータソースとして使用しています。現在、Google API を使用した Python スクリプトを使用して、非圧縮の CSV 形式 (合計 6 Go) で 12 個のテーブルをアップロードするのに平均 1 時間かかります。Google ドキュメントでは、「アプリにとって読み込み速度が重要であり、データを読み込むための帯域幅が十分にある場合は、ファイルを圧縮しないでください」と指定されています。このプロセスを最適化するにはどうすればよいですか? アップロード速度を向上させるために csv ファイルを圧縮するソリューションにする必要がありますか? Google Cloud Storage の使用も考えていますが、問題は同じでしょうか? データ ファイルのアップロードにかかる時間を短縮する必要がありますが、優れた解決策が見つかりません。

前もって感謝します。

4

1 に答える 1