3

Python で記述された高強度モデルがあり、配列計算には 4000 を超える時間ステップで 200,000 を超えるセルが含まれます。2 つの配列があり、1 つは細かいグリッド アレイ、もう 1 つはより粗いグリッド メッシュです。細かいグリッド アレイからの情報は、粗いグリッド メッシュの特性を通知するために使用されます。プログラムが実行されると、CPU の 1% しか使用しませんが、RAM (8GB) を使い果たします。実行には数日かかります。この問題を解決するための最良の方法は何でしょうか? GPU 処理は良い考えでしょうか、それとも完了した計算の一部を HDD にオフロードする方法を見つける必要がありますか?

解決に向けて動くための思考の道を見つけようとしているだけです。モデルが RAM にデータを取り込みすぎて、計算が遅くなっているのでしょうか?

4

2 に答える 2

1

あなたの問題はメモリ管理にあるようです。スワップ ファイルに書き込んでいる可能性が高いため、処理が大幅に遅くなります。処理(CPU)ではなく、RAMを最大限に活用していると述べたように、GPUはこれに役立ちません。おそらくアルゴリズムを書き直すか、別のデータ型を使用する必要がありますが、コードを共有していないため、記述した内容だけに基づいて診断することは困難です。これがあなたを正しい方向に導くのに十分な情報であることを願っています.

于 2014-05-13T03:04:39.397 に答える
1

グリッドがまばらに読み込まれている場合は、巨大な Python リスト (配列) ではなく、別のデータ構造を使用して、読み込まれた部分だけを追跡する方がよい場合があります。

于 2014-05-13T03:17:25.177 に答える