0

1 つのサイトで多数の 404 エラーが発生するという問題があります。Google が存在しなくなったページを見つけようとしているために、これらのエラーが発生していることがわかりました。次に、これらのページを再度インデックスに登録しないよう Google に指示する必要があります。

robots.txt ファイルの使用について、インターネットでいくつかの解決策を見つけました。しかし、これは私が構築したサイトではありません。これらのエラーを修正する必要があるだけです。問題は、それらのページが生成されるということです。それらはその形で物理的に存在しません。だから私はphpコードに何も追加できません。そして、それらをrobot.txtに追加する方法がよくわかりません。

私がちょうど書くとき: *User-agent: * noindex: /objekten/anzeigen/haus_antea/5-0000001575*

ウェブマスターツールのテストボタンを押す

これは Googlebot から取得します: Allowed Detected as a directory; 特定のファイルには異なる制限がある場合があります

そして、それが何を意味するのかわかりません。

私はこの種のものに慣れていないので、できるだけ簡単に答えを書いてください。

下手な英語でごめんなさい。

4

1 に答える 1

0

Google は 404 エラーを返すようなページをインデックスから自動的に削除すると思います。Google はこれらのページを結果に表示しません。ですから、それを気にする必要はありません。

これらのページが他のページからリンクされていないことを確認してください。その場合、Google は時々それらをインデックスに登録しようとします。この場合、301 エラー (恒久的に移動) を返し、正しい URL にリダイレクトする必要があります。Google は 301 エラーに従い、代わりにリダイレクトされた URL を使用します。

robots.txt は、既に検索結果に含まれているページを削除する場合にのみ必要です。ただし、エラー コード 404 のページは表示されないと思います。

于 2012-06-01T16:25:13.237 に答える