私は、70GB 相当の xml ドキュメントから多数の情報を取得し、それをリレーショナル データベース (この場合は postgres) にロードしようとするプロジェクトの最中です。現在、python スクリプトと psycopg2 を使用して、この挿入などを行っています。 . 一部のテーブルの行数が増えると、それがわかりました。(そのうちの最大のものは約 500 万行です) スクリプト (挿入) の速度が遅くなりました。以前は数分かかっていた作業が、今では約 1 時間かかります。
これをスピードアップするにはどうすればよいですか? このタスクに python と psycopg2 を使用するのは間違っていましたか? このプロセスを高速化するためにデータベースに対してできることはありますか? 私はこれについて完全に間違った方法で行っていると感じています。