URL、参照コード、セッション、時間などをログに記録することでページビューの非常に基本的な追跡を行っていますが、ロボット(Google、Yahooなど)が攻撃されていることがわかりました。これらの統計を除外するか、ログに記録しないのが効果的な方法は何でしょうか。
ロボットのIPリストなどを試しましたが、これは絶対確実ではありません。
ロボットを「だまし」たり、人間以外の操作を無視したりできる、robots.txt、htaccess、PHPサーバー側コード、javascript、またはその他の方法はありますか?