R でいくつかのログファイル分析を行う予定です (R で実行できない場合を除きます)。また、データが RAM に収まる必要があることも理解しています (keyval ストアへのインターフェイスのような何らかの修正を使用しない限り、多分?)。そのため、データが RAM でどのくらいのスペースを占めるか、十分に確保できるかどうかを事前に知る方法を考えています。私は自分が持っているRAMの量を知っており(XPでは3GBという膨大な量ではありません)、ログファイルが最終的にいくつの行と列になるか、そして列エントリがどのようなデータ型であるべきかを知っています(これはおそらく次のように確認する必要があります読みます)。
これをRで分析を行うためのゴー/ノーゴーの決定にどのようにまとめるのですか? (おそらく、R は、データを保持するだけでなく、操作を行うための RAM を備えている必要があります!) すぐに必要な出力は、統計、頻度、不測の事態などの簡単な要約の集まりです。短期的に必要な出力を提供するパーサー/タブレータですが、次のステップとしてこのデータへのさまざまなアプローチを試してみたいので、R を使用する可能性を検討しています.
ここで R の大規模なデータセットに関する有益なアドバイスをたくさん見てきましたが、これを読み、また読み直します。そこにあるが、それを扱いやすくするためにいくつかの追加のことをしなければならないことを期待するか、(c) 手遅れになる前に逃げて、他の言語/環境で何かをする (提案を歓迎します...!)。ありがとう!