Python で記述された高強度モデルがあり、配列計算には 4000 を超える時間ステップで 200,000 を超えるセルが含まれます。2 つの配列があり、1 つは細かいグリッド アレイ、もう 1 つはより粗いグリッド メッシュです。細かいグリッド アレイからの情報は、粗いグリッド メッシュの特性を通知するために使用されます。プログラムが実行されると、CPU の 1% しか使用しませんが、RAM (8GB) を使い果たします。実行には数日かかります。この問題を解決するための最良の方法は何でしょうか? GPU 処理は良い考えでしょうか、それとも完了した計算の一部を HDD にオフロードする方法を見つける必要がありますか?
解決に向けて動くための思考の道を見つけようとしているだけです。モデルが RAM にデータを取り込みすぎて、計算が遅くなっているのでしょうか?