次のように、Webサイトから多くのページを取得したい
curl "http://farmsubsidy.org/DE/browse?page=[0000-3603]" -o "de.#1"
ディスクファイルではなく、Pythonでページのデータを取得します。誰かpycurl
がこれを行うコードを投稿するか、可能であれば
高速に (一度に 1 つずつではなく) 投稿してください
。ありがとうurllib2
あなたには2つの問題があります。1つの例でお見せしましょう。pycurl はすでにマルチスレッド化を行っていることに注意してください。
#! /usr/bin/env python
import sys, select, time
import pycurl,StringIO
c1 = pycurl.Curl()
c2 = pycurl.Curl()
c3 = pycurl.Curl()
c1.setopt(c1.URL, "http://www.python.org")
c2.setopt(c2.URL, "http://curl.haxx.se")
c3.setopt(c3.URL, "http://slashdot.org")
s1 = StringIO.StringIO()
s2 = StringIO.StringIO()
s3 = StringIO.StringIO()
c1.setopt(c1.WRITEFUNCTION, s1.write)
c2.setopt(c2.WRITEFUNCTION, s2.write)
c3.setopt(c3.WRITEFUNCTION, s3.write)
m = pycurl.CurlMulti()
m.add_handle(c1)
m.add_handle(c2)
m.add_handle(c3)
# Number of seconds to wait for a timeout to happen
SELECT_TIMEOUT = 1.0
# Stir the state machine into action
while 1:
ret, num_handles = m.perform()
if ret != pycurl.E_CALL_MULTI_PERFORM:
break
# Keep going until all the connections have terminated
while num_handles:
# The select method uses fdset internally to determine which file descriptors
# to check.
m.select(SELECT_TIMEOUT)
while 1:
ret, num_handles = m.perform()
if ret != pycurl.E_CALL_MULTI_PERFORM:
break
# Cleanup
m.remove_handle(c3)
m.remove_handle(c2)
m.remove_handle(c1)
m.close()
c1.close()
c2.close()
c3.close()
print "http://www.python.org is ",s1.getvalue()
print "http://curl.haxx.se is ",s2.getvalue()
print "http://slashdot.org is ",s3.getvalue()
最後に、これらのコードは主に pycurl サイトの例に基づいています =.=
あなたは本当にドキュメントを読むべきかもしれません。pplはそれに膨大な時間を費やします。
これは、urllib2 とスレッドに基づくソリューションです。
import urllib2
from threading import Thread
BASE_URL = 'http://farmsubsidy.org/DE/browse?page='
NUM_RANGE = range(0000, 3603)
THREADS = 2
def main():
for nums in split_seq(NUM_RANGE, THREADS):
t = Spider(BASE_URL, nums)
t.start()
def split_seq(seq, num_pieces):
start = 0
for i in xrange(num_pieces):
stop = start + len(seq[i::num_pieces])
yield seq[start:stop]
start = stop
class Spider(Thread):
def __init__(self, base_url, nums):
Thread.__init__(self)
self.base_url = base_url
self.nums = nums
def run(self):
for num in self.nums:
url = '%s%s' % (self.base_url, num)
data = urllib2.urlopen(url).read()
print data
if __name__ == '__main__':
main()
BeautifulSoup4とリクエストの使用-
ヘッドページをつかむ:
page = Soup(requests.get(url='http://rootpage.htm').text)
リクエストの配列を作成します。
from requests import async
requests = [async.get(url.get('href')) for url in page('a')]
responses = async.map(requests)
[dosomething(response.text) for response in responses]
リクエストでは、これを行うためにgeventが必要です。
human_curlの非同期モジュールを使用することをお勧めします
例を見てください:
from urlparse import urljoin
from datetime import datetime
from human_curl.async import AsyncClient
from human_curl.utils import stdout_debug
def success_callback(response, **kwargs):
"""This function call when response successed
"""
print("success callback")
print(response, response.request)
print(response.headers)
print(response.content)
print(kwargs)
def fail_callback(request, opener, **kwargs):
"""Collect errors
"""
print("fail callback")
print(request, opener)
print(kwargs)
with AsyncClient(success_callback=success_callback,
fail_callback=fail_callback) as async_client:
for x in xrange(10000):
async_client.get('http://google.com/', params=(("x", str(x)),)
async_client.get('http://google.com/', params=(("x", str(x)),),
success_callback=success_callback, fail_callback=fail_callback)
使い方はとても簡単。次に、失敗した async_client のロードされたページの成功がコールバックを呼び出します。また、並列接続の数を指定することもできます。
Python を使用して Web サイトをクロールする場合は、scrapy http://scrapy.orgを参照する必要があります。
それを for ループ内の bash スクリプトに入れるだけです。
ただし、Python を使用して各ページを解析する方がうまくいく場合があります。 http://www.securitytube.net/Crawling-the-Web-for-Fun-and-Profit-video.aspx 正確なデータを取得し、同時にデータベースに保存することができます。 http://www.securitytube.net/Storing-Mined-Data-from-the-Web-for-Fun-and-Profit-video.aspx