基本的には問題なく動作し、本来の動作をするスパイダーを Scrapy で作成しました。問題は、小さな変更を加える必要があり、いくつかのアプローチを試みましたが成功しませんでした (InitSpider の変更など)。スクリプトが今すべきことは次のとおりです。
- 開始 URL をクロールする
http://www.example.de/index/search?method=simple
- 今すぐURLに進みます
http://www.example.de/index/search?filter=homepage
- ルールで定義されたパターンでここからクロールを開始します
したがって、基本的に変更する必要があるのは、間に 1 つの URL を呼び出すことだけです。BaseSpider で全体を書き直すのは避けたいので、誰かがこれを達成する方法についてアイデアを持っていることを願っています :)
追加情報が必要な場合は、お知らせください。以下に、現在のスクリプトを示します。
#!/usr/bin/python
# -*- coding: utf-8 -*-
from scrapy.contrib.spiders import CrawlSpider, Rule
from scrapy.contrib.linkextractors.sgml import SgmlLinkExtractor
from scrapy.selector import HtmlXPathSelector
from scrapy.http import Request
from example.items import ExampleItem
from scrapy.contrib.loader.processor import TakeFirst
import re
import urllib
take_first = TakeFirst()
class ExampleSpider(CrawlSpider):
name = "example"
allowed_domains = ["example.de"]
start_url = "http://www.example.de/index/search?method=simple"
start_urls = [start_url]
rules = (
# http://www.example.de/index/search?page=2
# http://www.example.de/index/search?page=1&tab=direct
Rule(SgmlLinkExtractor(allow=('\/index\/search\?page=\d*$', )), callback='parse_item', follow=True),
Rule(SgmlLinkExtractor(allow=('\/index\/search\?page=\d*&tab=direct', )), callback='parse_item', follow=True),
)
def parse_item(self, response):
hxs = HtmlXPathSelector(response)
# fetch all company entries
companies = hxs.select("//ul[contains(@class, 'directresults')]/li[contains(@id, 'entry')]")
items = []
for company in companies:
item = ExampleItem()
item['name'] = take_first(company.select(".//span[@class='fn']/text()").extract())
item['address'] = company.select(".//p[@class='data track']/text()").extract()
item['website'] = take_first(company.select(".//p[@class='customurl track']/a/@href").extract())
# we try to fetch the number directly from the page (only works for premium entries)
item['telephone'] = take_first(company.select(".//p[@class='numericdata track']/a/text()").extract())
if not item['telephone']:
# if we cannot fetch the number it has been encoded on the client and hidden in the rel=""
item['telephone'] = take_first(company.select(".//p[@class='numericdata track']/a/@rel").extract())
items.append(item)
return items
編集
これが InitSpider での私の試みです: https://gist.github.com/150b30eaa97e0518673a 私はここからそのアイデアを得ました: Scrapy で認証されたセッションでクロール
ご覧のとおり、CrawlSpider を継承していますが、コアの Scrapy ファイルにいくつかの変更を加えました (私のお気に入りのアプローチではありません)。CrawlSpider が BaseSpider ( source )の代わりに InitSpider を継承するようにしました。
これは今のところ機能しますが、スパイダーは他のすべてのページを取得するのではなく、最初のページの後で停止するだけです。
また、このアプローチは私には絶対に不要なようです:)