www の有無にかかわらず、ドメイン名に一致するサブフォルダー内の robots.txt および sitemap.xml ファイルを検索する rewriterule を作成したいと思います。例を見てみましょう:
- ドメイン aaa.com、bbb.com、および ccc.com があります。
- それらはすべて同じルート フォルダ %{DOCUMENT_ROOT} にインストールされます
- これらは、www の有無にかかわらずアクセスできます。
誰かがhttp://aaa.com/robots.txtファイルにアクセスしようとしている場合、次のことを実行したいと思います。
リクエストされたファイルが robots.txt の場合 {
- サブフォルダ %{DOCUMENT_ROOT}/aaa.com/robots.txt に一致するファイルがある場合 (このファイルを指定して停止) *1
- ElseIf サブフォルダ %{DOCUMENT_ROOT}/www.aaa.com/robots.txt に一致するファイルがある場合 (このファイルを指定して停止) *2
- それ以外の場合は、ファイル %{DOCUMENT_ROOT}/robots.txt *3 を指定します
}
ドメイン名をハードコーディングしたくありません。リクエストから取り出そうとしましたが、条件を確認できませんでした *2 および *3:
RewriteCond %{REQUEST_URI} ^/robots.txt$
RewriteRule ^robots\.txt$ /www\.%{HTTP_HOST}/robots\.txt [L]
RewriteCond %{REQUEST_URI} ^/sitemap.xml$
RewriteRule ^sitemap\.xml$ /www\.%{HTTP_HOST}/sitemap\.xml [L]
ご協力ありがとうございました !