サイトの会社プロファイルにアクセスしたときにビューデータベースに行を保存する新しい訪問数機能をサイトに実装しました。これは、ページ(会社のプロファイル)が読み込まれるたびに実行されるサーバー側の「/addVisit」関数を使用して行われます。残念ながら、これは昨夜Googlebotから400回以上の訪問があったことを意味します。
Googleにこれらのページのインデックスを作成してもらいたいので、robots.txtを使用してこれらのページでGooglebotを除外することはできません。
また、jQuery $ .get()を使用してこの関数を実行しても、Googlebotが停止しないことも読みました。
唯一の有効な解決策は、既知のボットIPを除外することですか、それともオプションがありますか?
または、robots.txtでjQuery $ .get(/ addVisit)を使用すると、/ addVisitが除外され、googlebotや他のボットがこの関数を実行できなくなりますか?