0

私の URL は で終わります&content=Search。これで終わるすべての URL をブロックしたい。robots.txt に以下を追加しました。

User-agent: *
Disallow:
Sitemap: http://local.com/sitemap.xml
Sitemap: http://local.com/en/sitemap.xml
Disallow: /*&content=Search$

しかし、 https://webmaster.yandex.com/robots.xml でテスト/en/search?q=terms#currentYear=2015&content=searchすると機能しません。content=searchキャラクターの後なので、私にはうまくいきません#

4

1 に答える 1

0

Robots.txt の値では大文字と小文字が区別されるため、Yandex Robots.txt の分析では、代わりにSearchテストすると、例がブロックされます。searchDisallow

サイトで大文字と小文字を区別しない URL を使用している場合は、次を使用できます。

User-agent: *
Disallow: /*&content=Search$
Disallow: /*&content=search$
# and possibly also =SEARCH, =SEarch, etc.

そうは言っても、Yandex が実際に URL フラグメントに対してこれをサポートしているかどうかはわかりませんが (それは珍しいことだと思います)、彼らのツールはこのような印象を与えます。

于 2015-10-06T13:39:44.603 に答える