3

この結果を得るには、パターンマッチングルールを取得する必要があります。

allow /dir/path_name.htm/something
disallow /dir/path_name/something
and disallow /dir/path_name.htm

実際、これら2つの不許可は、ずっと蓄積されたタイプミスです。それらのページは決して存在しません。グーグルが二度とそれらをクロールするのを止める方法は?

ここでテストしました:http://www.frobee.com/robots-txt-check/次のようにテストしましたが、何も機能していないようです。

Allow: /dir/*.htm/?*
Disallow: /dir/*

何が悪かったのか?ありがとうございました。

4

1 に答える 1

1

仕様によると:

http://www.robotstxt.org/norobots-rfc.txt

ワイルドカード ( *) は使用できません。パスは完全一致です。私の推測では、何らかの形式の書き換えを使用しており、同じ内容の複数の ulr を表示したくないと考えています。その場合、これはより良い解決策かもしれません:

http://googlewebmastercentral.blogspot.de/2009/02/specify-your-canonical.html

于 2012-07-16T13:56:55.207 に答える