robots.txt
http と https の両方を使用する Node.js のサイトに を実装しています。get
http と https のコントローラで robots.txt を簡単に処理できますが、問題は、コントローラがリクエストを処理する前に、エクスプレス (または接続?) がディレクトリrobots.txt
内のファイルを/public
探し、見つからない場合、コンソールに長い「Not Found」エラーを吐き出します。これをクリーンアップして、このエラーがコンソールに出力されないようにしたいと思います。
自分で処理しているため、エクスプレスがファイルシステムで robots.txt を検索しないようにするにはどうすればよいですか?