0

javascriptを介して、通常はブラウザのリンクをクリックして、要求されたページのhtmlをダウンロードしようとしています。一般的なURLがあるので、最初のページをダウンロードできます。

http://www.locationary.com/stats/hotzone.jsp?hz=1

ただし、ページの下部に数字(1から10)のリンクがあります。したがって、1つをクリックすると、たとえば2ページに移動します。

http://www.locationary.com/stats/hotzone.jsp?ACTION_TOKEN=hotzone_jsp$JspView$NumericAction&inPageNumber=2

そのURLをプログラムに入れてhtmlをダウンロードしようとすると、Webサイトの別のページのhtmlが表示され、ホームページだと思います。

javascriptを使用し、特定のURLがない場合、このURLのHTMLを取得するにはどうすればよいですか?

ありがとう。

PS私はurllib/urllib2とcookielibを使用しています。

また、PyQueryと呼ばれるものを見つけましたか?それを使用できますか?そして、私はそれをどのように行うでしょうか?

コード:

import urllib
import urllib2
import cookielib
import re

URL = ''

def load(url):

    data = urllib.urlencode({"inUserName":"email", "inUserPass":"password"})
    jar = cookielib.FileCookieJar("cookies")
    opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(jar))
    opener.addheaders.append(('User-agent', 'Mozilla/5.0 (Windows NT 6.1; rv:13.0) Gecko/20100101 Firefox/13.0.1'))
    opener.addheaders.append(('Referer', 'http://www.locationary.com/'))
    opener.addheaders.append(('Cookie','site_version=REGULAR'))
    request = urllib2.Request("https://www.locationary.com/index.jsp?ACTION_TOKEN=tile_loginBar_jsp$JspView$LoginAction", data)
    response = opener.open(request)
    page = opener.open("https://www.locationary.com/index.jsp?ACTION_TOKEN=tile_loginBar_jsp$JspView$LoginAction").read()

    h = response.info().headers
    jsid = re.findall(r'Set-Cookie: (.*);', str(h[5]))
    data = urllib.urlencode({"inUserName":"email", "inUserPass":"password"})
    jar = cookielib.FileCookieJar("cookies")
    opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(jar))
    opener.addheaders.append(('User-agent', 'Mozilla/5.0 (Windows NT 6.1; rv:13.0) Gecko/20100101 Firefox/13.0.1'))
    opener.addheaders.append(('Referer', 'http://www.locationary.com/'))
    opener.addheaders.append(('Cookie','site_version=REGULAR; ' + str(jsid[0])))
    request = urllib2.Request("https://www.locationary.com/index.jsp?ACTION_TOKEN=tile_loginBar_jsp$JspView$LoginAction", data)
    response = opener.open(request)
    page = opener.open(url).read()
    print page

load(URL)
4

2 に答える 2

1

私自身は使っていませんが、Requestsについて良いことを聞いたことがあります。

于 2012-08-15T02:41:35.997 に答える
0

プロジェクト Splinter を参照してください。おそらく便利です: http://splinter.cobrateam.info/

于 2012-08-15T01:45:22.877 に答える