ScrapyがこれらのクロールされたURLをどのようにフィルタリングするか知りたいですか?のようなものでクロールされたすべてのURLを保存しcrawled_urls_list
、新しいURLを取得すると、リストを検索してそのURLが存在するかどうかを確認しますか?
CrawlSpiderのこのフィルタリング部分のコードはどこにありますか(/path/to/scrapy/contrib/spiders/crawl.py)?
どうもありがとう!
ScrapyがこれらのクロールされたURLをどのようにフィルタリングするか知りたいですか?のようなものでクロールされたすべてのURLを保存しcrawled_urls_list
、新しいURLを取得すると、リストを検索してそのURLが存在するかどうかを確認しますか?
CrawlSpiderのこのフィルタリング部分のコードはどこにありますか(/path/to/scrapy/contrib/spiders/crawl.py)?
どうもありがとう!