答えは下にあります。つまり、ItemPipeline のインデントが間違っていたため、None が返されていました。
これまで Python を使用したことがなく、Scrapy で CrawlSpider を作成しようとしていました。Spider はクロールし、コールバック関数を呼び出し、データを抽出してアイテムを埋めますが、常に None を返します。印刷記事の呼び出しでテストしましたが、すべて正常でした。これをyieldとreturnの両方で試しました(違いはまだわかりませんが)。率直に言って、私はアイデアがありません。以下はコールバック関数です。//edit はスパイダー コードも追加しました。
class ZeitSpider(CrawlSpider):
name= xxxx
allowed_domains = ['example.com']
start_urls = ['http://www.example.com/%d/%d' %(JAHR,39)]
rules = (Rule(SgmlLinkExtractor(restrict_xpaths=('//ul[@class="teaserlist"]/li[@class="archiveteaser"]/h4[@class="title"]')),callback='parse_url',follow=True),)
def parse_url(self,response):
hxs = HtmlXPathSelector(response)
article = Article()
article['url']= response.url.encode('UTF-8',errors='strict')
article['author']= hxs.select('//div[@id="informatives"]/ul[@class="tools"]/li[@class="author first"]/text()').extract().pop().encode('UTF-8',errors='strict')
article['title']= hxs.select('//div[@class="articleheader"]/h1/span[@class="title"]/text()').extract().pop().encode('UTF-8',errors='strict')
article['text']= hxs.select('//div[@id="main"]/p/text()').extract().pop().encode('UTF-8',errors='strict')
article['excerpt'] = hxs.select('//p[@class="excerpt"]/text()').extract().pop().encode('UTF-8',errors='strict')
yield article
およびアイテム定義
class Article(Item):
url=Field()
author=Field()
text=Field()
title=Field()
excerpt=Field()