robots.txtで#End Robots#を使用する必要がありますか?
つまり、空白を取得するのを防ぐのに役立つのでしょうか。
今のところ、次のようになっています。
User-agent: *
Disallow: /admin/
Disallow: /account/
Disallow: /access-denied/
#End Robots#
robots.txtで#End Robots#を使用する必要がありますか?
つまり、空白を取得するのを防ぐのに役立つのでしょうか。
今のところ、次のようになっています。
User-agent: *
Disallow: /admin/
Disallow: /account/
Disallow: /access-denied/
#End Robots#
http://support.google.com/webmasters/bin/answer.py?hl=en&answer=156449は、それが必要ないことを示唆しているようです。
個人的には、これをデプロイしたロボットファイルに追加したことはなく、問題が発生したこともありません。