2

標準の単純な書き換えルールを使用して、zope 2 (複数の仮想ホスト) の前に apache があります。

私がホストしているいくつかの古いサイトと googlebot で大きな問題が発生しています。

私が持っているとしましょう:

  • site.example.com/documents/
  • site.example.com/images/i.jpg
  • site.example.com/xml/
  • site.example.com/flash_banner.swf

次のことが起こらないようにするにはどうすればよいですか?

  • site.example.com/documents/images/xml/i.jpg
  • site.example.com/images/xml/i.jpg
  • site.example.com/images/i.jpg/xml/documents/flash_banner.swf

すべてが URI の末尾にある最後のフォルダーからの正しいオブジェクトで応答します。古いサイトはあまり適切に記述されておらず、場合によっては、Google は、存在しないが常に見つける何百ものフォルダー構造の順列に出入りしています。大きなフラッシュファイル。そのため、Googlebot は Flash ファイルを 1 回ヒットする代わりに、何千回もサイトからドラッグしています。古いサイトを Django に移動中です。しかし、私は Zope でそれを止める必要があります。過去に ipchains と mod_security を試しましたが、今回はオプションではありません。

4

1 に答える 1

2

同じオブジェクトへのすべてのバリアント パスを Google に提供しているページを調べます。次に、そのページを修正して、トラバース可能なオブジェクトの absoute_url()、absoute_url_path()、または virtual_url_path() メソッドを使用して正規パスのみを提供するようにします。

また、 sitemaps.xmlまたはrobots.txtを使用して Google に間違ったパスをスパイしないように指示することもできますが、これは間違いなく回避策であり、上記のような修正ではありません。

于 2011-08-12T16:05:08.420 に答える