2 つの文字列と 6 つの整数列を含む 1,000,000 行の大きな data.frame があります。この data.frame を順次反復すると、変更しなくても非常に時間がかかります。これは私が使用している基本的なループです:
for( i in 1:1000000 ) {
varA = mydf[i, "varA"]
varB = mydf[i, "varB"]
...
}
100 行を処理するのに約 10 秒かかり、通過するデータの 1M ブロックがいくつかあります。data.frame を変更する必要はありませんが、行を順番に読み取る必要があります (そのため、apply を呼び出すのではなく、for ループを実行することにしました)。
この状況では、data.table オブジェクトと bigmemory オブジェクトのどちらを使用しますか?