このコードは機能していません:
name="souq_com"
allowed_domains=['uae.souq.com']
start_urls=["http://uae.souq.com/ae-en/shop-all-categories/c/"]
rules = (
#categories
Rule(SgmlLinkExtractor(restrict_xpaths=('//div[@id="body-column-main"]//div[contains(@class,"fl")]'),unique=True)),
Rule(SgmlLinkExtractor(restrict_xpaths=('//div[@id="ItemResultList"]/div/div/div/a'),unique=True),callback='parse_item'),
Rule(SgmlLinkExtractor(allow=(r'.*?page=\d+'),unique=True)),
)
最初のルールは応答を取得していますが、2 番目のルールは機能していません。2 番目のルール xpath は正しいと確信しています (scrapy shell を使用して試しました)。また、最初のルールにコールバックを追加して、2 番目のルールのパスを選択しようとしました ('//div[@id="ItemResultList "]/div/div/div/a') を呼び出してリクエストを発行すると、正しく機能しています。
Crawl Spider の代わりに Base Spider を使用しようとしましたが、最初のリクエストのみを発行し、コールバックは発行しませんでした。どうすれば修正できますか?