Python で X 回完了する単一のタスクがあり、LSF を使用してそれを高速化します。別々に並行して実行できる複数の Python スクリプトを含むジョブを送信するのと、マルチプロセッサ モジュールを利用する 1 つの Python スクリプトを送信するのとでは、どちらが適していますか?
私の問題は、LSF が Python コードを複数のプロセスに分割する方法を知っているとは思えないことです (LSF がこれをどのように行うのかはわかりません)。ただし、非効率的で整理されていないように見えるため、いくつかの Python スクリプトが飛び交うのも望ましくありません。
当面のタスクには、6 つの非常に大きな ASCII ファイルを解析し、後で使用するために出力を Python dict に保存することが含まれます。6 つのファイルを並行して解析したいと考えています (それぞれに約 3 分かかります)。LSF では、Python が「ねえ、スクリプトは 1 つですが、これらの 6 つのプロセスに分割するつもりです」などと言うことができますか? LSFは Python にそれを伝える必要がありますか、それともその方法を既に知っていますか?
さらに情報が必要な場合はお知らせください。背景の「ちょうどいい」と「多すぎる」のバランスをとるのに苦労しています。