非常に大きなデータセットを調べるためにGrepと協力します。かなりたくさんのログ。時々クレイジーな複雑な正規表現を使用して一度grepを実行するのが良いのか、それともいくつかの単純なgrep呼び出しを実行して、毎回ますます小さなデータセットを返すのが良いのかわかりません。私は正規表現が得意ではありませんが、必要な正規表現をログ検索ツールに保存できます。どの方法が最適かを探しています。
編集:
申し訳ありませんが、別のgrepの質問に対する前回の投稿にあった情報を追加するのを忘れました。ファイルはログです。私がテストしているものはこれまでのところ1.9GBであるため、小さい場合も大きい場合もあります。これはかなり適切なサイズだと思います。ログは小さいものから始まり、その後大きくなっていきます。ログはある時点でロートしますが、Apacheアクセスログのように実行していて、ホームページが読み込まれた頻度をgrepしたり、ページの読み込み時間をgrepしたりして、平均をとることができます。