必要なものがほとんどすべて揃っているプライマリページでいくつかの投稿をスクレイピングしようとしています。しかし、リンク(編集)ページには、追加で必要な日付フィールドがあります。私は次のようにコールバックを試みました:
from scrapy.spider import BaseSpider
from macnn_com.items import MacnnComItem
from scrapy.selector import HtmlXPathSelector
from scrapy.contrib.loader import XPathItemLoader
from scrapy.contrib.loader.processor import MapCompose, Join
from scrapy.http.request import Request
class MacnnSpider(BaseSpider):
name = 'macnn_com'
allowed_domains = ['macnn.com']
start_urls = ['http://www.macnn.com']
posts_list_xpath = '//div[@class="post"]'
item_fields = { 'title': './/h1/a/text()',
'link': './/h1/a/@href',
'summary': './/p/text()',
'image': './/div[@class="post_img"]/div[@class="post_img_border"]/a/img/@original' }
def parse(self, response):
hxs = HtmlXPathSelector(response)
# iterate over posts
for qxs in hxs.select(self.posts_list_xpath):
loader = XPathItemLoader(MacnnComItem(), selector=qxs)
# define processors
loader.default_input_processor = MapCompose(unicode.strip)
loader.default_output_processor = Join()
# skip posts with empty titles
if loader.get_xpath('.//h1/a/text()') == []:
continue
# iterate over fields and add xpaths to the loader
for field, xpath in self.item_fields.iteritems():
loader.add_xpath(field, xpath)
request = Request(loader.get_xpath('.//h1/a/@href')[0], callback=self.parse_link,meta={'loader':loader})
yield request
#loader.add_value('datums',request)
yield loader.load_item()
def parse_link(self, response):
loader = response.meta["loader"]
hxs = HtmlXPathSelector(response)
hero = hxs.select("//div[@class='post_header']/h2/text()").extract()
loader.add_value('datums',hero)
return loader
しかし、次のようなエラーが発生します
エラー: Spider は Request、BaseItem、または None を返す必要があります。'XPathItemLoader' を取得しました
<GET http://www.macnn.com/articles/13/06/14/sidebar.makes.it.easier.to.jump.between.columns/>
ここで何が間違っていますか?