UNIX(クラスター)とWindows(Intel Core Duo、2Gb RAM)で同じコードを実行しています。実行時間に大きな違いがあることがわかります。UNIXでは1つのコアのみを使用していることがわかりますが、Windowsでは2つのコアを使用している可能性があります(わかりません)。私の懸念は次のとおりです。
Windows:
user system elapsed
207.12 8.82 472.04
Unix
user system elapsed
327.765 2.493 330.819
私が理解していないこと、なぜWindowsのCPU処理時間と経過時間に大きな違いがあるのか。コードをセグメントに分割しましたが、これは部分(I / O)の読み取りと書き込みでのみ発生します。残りの計算は、UNIXに比べて非常に高速で、「ユーザー」時間と「経過時間」に違いはありません。
user system elapsed
48.765 0.00 52.69
私は特別なことは何もしていませんが、300MBの非常に大きなファイルを読んでいます
indata <- read.csv(mutFile, sep="\t", header = TRUE)
この違いを回避して全体的なパフォーマンスを向上させるにはどうすればよいですか?