0

Google はどういうわけか私のウェブサイトの https バージョンのインデックスを作成し始めました。これを止めるには、2 つの異なる robots.txt ファイルと .htaccess にいくつかの追加コードが必要だというチュートリアルを読みました。

.htaccess

RewriteCond %{HTTPS} on
RewriteRule ^robots\.txt$ robots-https.txt

robots-https.txt

User-agent: *
Disallow: /

何日か経ちましたが、Google はまだ https ページのインデックス解除を開始していません。だから今、私は少し心配していて、変更が正しく行われたかどうかをテストしたいと思っています.

PHP と cURL を使用して、どの robots.txt が https 接続で使用されているかを確認する方法はありますか?

ご提案ありがとうございます。

4

1 に答える 1

0

異なるドキュメント ルートからサイトの 2 つのバージョンを提供している場合は、単純に robots.txt の 2 つのコピーを保持します。

/home/sites/example.com/http/robots.txt
/home/sites/example.com/https/robots.txt

両方が同じ物理ディレクトリから来ている場合は、仮想ホストの定義で単純に Apache エイリアスを使用できます。

<virtualhost example.com:443>
   Alias /robots.txt  /physical/path/to/ssl/robots.txt
</virtualhost>

<virtualhost example.com:80>
   Alias /robots.txt /path/to/standard/robots.txt
</virtualhost>

正規表現や mod_rewrite に頼る必要はありません。

于 2013-01-29T19:22:33.383 に答える