9

SEOの目的で、 http: //example.ca/robots.txtのようなURLからいくつかのファイルにアクセスできるようにしようとしていますが、奇妙な問題に直面しています。ファイルはFirefoxでアクセスできますが、クロムボットとグーグルボットはそれらのファイルを取得できません。

私のルート:

# Map static resources from the /public folder to the /assets URL path
GET     /assets/*file               controllers.Assets.at(path="/public", file)

# Robots and Humans files
GET     /$file<(robots|humans).txt>             controllers.Assets.at(path="/public", file)

GET     /$file<MJ12_576CD562EFAFA1742768BA479A39BFF9.txt>                 controllers.Assets.at(path="/public", file)
4

1 に答える 1

22

それが違いを生むかどうかはわかりませんが、試してみてください:

GET     /robots.txt             controllers.Assets.at(path="/public", file="robots.txt")
GET     /humans.txt             controllers.Assets.at(path="/public", file="humans.txt")

GET     /MJ12_576CD562EFAFA1742768BA479A39BFF9.txt                 controllers.Assets.at(path="/public", file="MJ12_576CD562EFAFA1742768BA479A39BFF9.txt")
于 2012-11-26T22:54:27.280 に答える