1 つのサイトで多数の 404 エラーが発生するという問題があります。Google が存在しなくなったページを見つけようとしているために、これらのエラーが発生していることがわかりました。次に、これらのページを再度インデックスに登録しないよう Google に指示する必要があります。
robots.txt ファイルの使用について、インターネットでいくつかの解決策を見つけました。しかし、これは私が構築したサイトではありません。これらのエラーを修正する必要があるだけです。問題は、それらのページが生成されるということです。それらはその形で物理的に存在しません。だから私はphpコードに何も追加できません。そして、それらをrobot.txtに追加する方法がよくわかりません。
私がちょうど書くとき: *User-agent: * noindex: /objekten/anzeigen/haus_antea/5-0000001575*
ウェブマスターツールのテストボタンを押す
これは Googlebot から取得します: Allowed Detected as a directory; 特定のファイルには異なる制限がある場合があります
そして、それが何を意味するのかわかりません。
私はこの種のものに慣れていないので、できるだけ簡単に答えを書いてください。
下手な英語でごめんなさい。