0

私のウェブサイトには約 200 の役立つ記事があります。Web サイトには多くのパラメーターを使用した内部検索機能があるため、検索エンジンは、タグ、検索フレーズ、バージョン、日付などの追加パラメーターのすべての可能な順列で URL をスパイダーします。これらのページのほとんどは、単に検索結果のリストです。元記事の一部を抜粋。

Google の Webmaster-tools によると、Google は xml サイトマップの 200 エントリのうち約 150 のみをスパイダーしました。オンラインになってから何年も経ってから、Google はまだすべてのコンテンツを見ていないようです。

検索エンジンがこれらの動的 URL をスパイダーしないように、robots.txt に "Disallow:" 行をいくつか追加する予定です。さらに、Webmaster-tools の "website configuration" --> "url parameter" セクションでいくつかの url パラメーターを無効にする予定です。

それによって、現在の SEO ランキングが改善されますか、それとも損なわれますか? 私のウェブサイトが何千ものコンテンツ ページを失ったかのように見えます。

4

2 に答える 2

1

これはまさに正規URLの目的です。1つのページ(記事など)に複数のURLでアクセスできる場合は、正規URLを使用してプライマリURLを指定する必要があります。これにより、重複コンテンツの問題が防止され、検索結果に表示するURLがGoogleに通知されます。

したがって、記事をブロックしないでください。また、パラメータを入力する必要もありません。正規のURLを使用するだけで、問題はありません。

于 2011-09-21T17:51:26.810 に答える
0

nn4l が指摘したように、canonical は検索ページに適したソリューションではありません。

最初にすべきことは、検索結果ページに noindex という robots メタ タグを含めることです。これにより、それらをインデックスから削除し、Google が実際のコンテンツに集中できるようになります。それらが再クロールされると、Google はゆっくりとそれらを削除する必要があります。

その他の対策:

GWMT で、これらの検索パラメータをすべて無視するように Google に指示します。ただのバンドエイドですが、回復を早めるのに役立つかもしれません.

robots.txt ファイルで検索ページをブロックしないでください。ブロックすると、ロボットがクロールして、既にインデックスに登録されているページを完全に削除できなくなります。そのような完全なブロックを行う前に、インデックスがクリアされるまで待ってください。

検索システムは、POST ベースのフォームではなく、リンク (タグ) または GET ベースのフォームに基づいている必要があります。これが、インデックスが作成された理由です。それらを POST ベースのフォームに切り替えると、ロボットが最初にそれらのページをインデックス化しようとするのを停止するはずです。JavaScript または AJAX は、それを行う別の方法です。

于 2012-03-29T14:22:29.067 に答える