R の調査に時間を費やしたところdata.table
ですが、最大のパフォーマンス向上を期待できる条件について疑問に思っていました。おそらく簡単な答えは、大きな data.frame があり、この data.frame のサブセットを操作することが多い場合です。データ ファイルを読み込んでモデルを推定するだけでは、あまり期待できませんが、多くの[
操作で違いが生じます。それは本当で唯一の答えですか、それとも他に何を考慮する必要がありますか? いつ問題になり始めますか?10x5、1,000x5、1,000,000x5?
data.table
編集:一部のコメントは、多くの場合より高速であり、同様に重要であるが、遅くなることはほとんどないことを示唆しています。したがって、いつ使用しないかを知っておくとよいでしょうdata.table
。