ルートに次のrobots.txtがあるサイトがあります。
User-agent: *
Disabled: /
User-agent: Googlebot
Disabled: /
User-agent: Googlebot-Image
Disallow: /
そして、このサイト内のページは、一日中Googlebotsによってスキャンされています。私のファイルまたはGoogleに何か問題がありますか?
ルートに次のrobots.txtがあるサイトがあります。
User-agent: *
Disabled: /
User-agent: Googlebot
Disabled: /
User-agent: Googlebot-Image
Disallow: /
そして、このサイト内のページは、一日中Googlebotsによってスキャンされています。私のファイルまたはGoogleに何か問題がありますか?
Disallow:
ではなく、である必要がありDisabled:
ます。
たぶん、Googlerobots.txtチェッカーを試してみてください
Googleにはrobots.txtエントリをチェックするための分析ツールがあります。ここでそれについて読んでください
また、「不正な」ロボットのIPアドレスをチェックして、それらが実際にGoogleによって所有されているかどうかを確認することもできます。
また、ボットはページを下に移動し、それに適用される最初のディレクティブを取得すると思います。あなたの場合、GooglebotとGooglebot-Imageは、最初に「User-Agent:*」を尊重するため、特定のディレクティブを表示することはありません。
この答えは無視してください。これが当てはまらないことを示す情報を見つけました。ボットは、それに固有のディレクティブを見つけて、それを尊重する必要があります