これがこれを処理するための最良の方法であるかどうかさえわかりませんが、私は自分の書き直しで一時的な間違いを犯し、Google(おそらく他の人)がそれを拾い上げました。
基本的に、私はさまざまな要因に基づいてURLを生成しています。その1つは、自動的に生成される記事のIDです。次に、これらは正しい場所にリダイレクトされます。
私は最初に次のようなものを誤って設定しました:
/ 2343 / news / blahblahblah
/ 7645 / reviews / blahblahblah
等。
これは多くの理由で問題でした。主な理由は、重複があり、適切な場所とやだやだを指していなかったということです。そして私は今それらをこれに修正しました:
/ news / 2343 / blahblahblah
/ reviews / 7645 / blahblahblah
等。
そして、それはすべて良いことです。しかし、私は最初のパターンに該当するものはすべてブロックしたいと思います。言い換えれば、次のようになります。
** =任意の数値パターン
/ * * /anythingelsehere
そのため、Google(および間違ったものをインデックスに登録した可能性のある他の人)は、すべてが台無しになっていて、もう存在しないこれらのURLを探すのをやめます。これは可能ですか?robots.txtを介してこれを行う必要がありますか?