ファイルは Web クローラー/ロボットrobots.txt
によって読み取られ、サーバー上のリソースのスクレイピングを許可/禁止します。ただし、ロボットがこのファイルを読み取ることは必須ではありませんが、優れたロボットは読み取ります。http://en.wikipedia.org/wiki/Robots.txtにさらにいくつかの例があります。サンプル ファイルは次のようになり、Web ルート ディレクトリに存在します。
User-agent: * # All robots
Disallow: / # Do not enter website
また
User-Agent: googlebot # For this robot
Disallow: /something # do not enter
apple-touch-icon-precomposed.png
説明されていますhttps://stackoverflow.com/a/12683605/722238
の使用法はmissing.html
、カスタマイズされた 404 ページとして一部で使用されていると思います。ロボットがこのファイルをスクレイピングするように構成されている可能性があるため、このファイルが要求されます。
ロボットがサーバーから取得するリソースを制御する場合は、robots.txt ファイルを追加する必要があります。前に述べたように、ロボットがこのファイルを読み取ることは必須ではありません。
ただし、他の 2 つのファイルを追加してエラー メッセージを削除することもできますが、その必要はないと思います。joe_random がサーバーにリクエストを送信しないことは言うまでもあり/somerandomfile.txt
ません。その場合、存在しない別のファイルに関する別のエラー メッセージが表示されます。その後、カスタマイズした 404 ページにリダイレクトできます。