したがって、200MBのJSONファイルが2つあります。最初のものは読み込みに 1.5 時間かかり、2 番目のもの (最初のものと多対多の関係モデルを作成する) は 24 時間以上かかります (コンソールを介した更新がないため、まだ行っていた場合、またはフリーズした場合は停止したため、停止しました)。
loaddata がうまく機能していなかったので、最近データベースに保存されたものを出力しながら、データをロードする独自のスクリプトを作成しましたが、スクリプトの速度が (コンピューターと共に) 遅くなるにつれて低下することに気付きました。そのため、スクリプトを停止する必要がありました->コンピューターを再起動します->中断したデータのセクションで再開します。これは、スクリプト全体を実行するよりも高速です。すべてのデータを完全にロードするために 4 時間ごとにコンピューターを再起動するのに約 18 時間かかったので、これは面倒なプロセスでした。
大量のデータをロードするためのより良いソリューションがあるかどうか疑問に思っていますか?
編集:生のSQLをロードするオプションがあることに気付いたので、SQLをブラッシュアップする必要がありますが、それを試すことができます。