1

Python を使用して Web サイトにログインしたままにする方法を見つけました。問題は、時々切断されてログアウトされることです。セッションがタイムアウトしていると推測していますが、修正方法がわかりません。

Firefox 用のライブ HTTP ヘッダー アドオンを使用し、ヘッダーをログイン リクエストからプログラムにコピーしました。

import urllib
import urllib2
import cookielib

data = urllib.urlencode({"inUserName":"MY EMAIL", "inUserPass":"MY PASSWORD"})
jar = cookielib.FileCookieJar("cookies")
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(jar))
opener.addheaders.append(('User-agent', 'Mozilla/5.0'))
opener.addheaders.append(('Referer', 'http://www.locationary.com/'))
opener.addheaders.append(('Cookie','site_version=REGULAR; __utma=47547066.601656247.1344371114.1344602507.1344606239.16; __utmz=47547066.1344371114.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); nickname=jacob501; jforumUserId=1; locaCountry=1227; locaState=null; locaCity=Atlanta; PSESSIONID=533e2fb9fda008d5d16bfbdc9b9a6afed0e5ac54; Locacookie=enable; sortOrder=1; JSESSIONID=DE58AC8BC78D1DF20BF338E195336E58; __utmc=47547066; __utmb=47547066.6.10.1344606239'))
request = urllib2.Request("https://www.locationary.com/index.jsp?ACTION_TOKEN=tile_loginBar_jsp$JspView$LoginAction", data)
response = opener.open(request)
page = opener.open(url).read()
soup = BeautifulSoup(page)

cookieliburrlib/を使いurllib2ました。実際に機能させる Cookie は非常に長いものですが、それが何を意味するのかよくわからず、アドオンからコピーしただけです。接続が切断された場合は、ブラウザーに移動して再度ログインし、アドオンから新しい Cookie を取得します。前に言ったように、セッションやセッション ID などに関係していると思いますが、常にログインできるようにする方法がわかりません。

ありがとう。

編集

なぜこれが悪い質問なのか、それとも私が愚かなのか誰か教えてもらえますか? -1 何のために?

編集2

わかった!ログインしたままにしない場合、接続/Cookie が機能しないようにする方法はありますか?

編集3

自分でFirefoxアドオンに行く以外に、新しいCookieを取得する方法がわかりません...笑

編集4

わかった。新しいテストプログラムを作成しました:

import urllib
import urllib2
import cookielib
import re

url = 'http://www.locationary.com/home/index2.jsp'

data = urllib.urlencode({"inUserName":"email", "inUserPass":"password"})
jar = cookielib.FileCookieJar("cookies")
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(jar))
opener.addheaders.append(('User-agent', 'Mozilla/5.0 (Windows NT 6.1; rv:13.0) Gecko/20100101 Firefox/13.0.1'))
opener.addheaders.append(('Referer', 'http://www.locationary.com/'))
opener.addheaders.append(('Cookie','site_version=REGULAR; __utma=47547066.601656247.1344371114.1344612897.1344615635.18; __utmz=47547066.1344371114.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); nickname=jacob501; jforumUserId=1; locaCountry=1227; locaState=null; locaCity=Atlanta; PSESSIONID=533e2fb9fda008d5d16bfbdc9b9a6afed0e5ac54; Locacookie=enable; sortOrder=1; JSESSIONID=781FD0C497FB596954BB78B1323215F6; __utmc=47547066; __utmb=47547066.9.10.1344615635'))
request = urllib2.Request("https://www.locationary.com/index.jsp?ACTION_TOKEN=tile_loginBar_jsp$JspView$LoginAction", data)
response = opener.open(request)
page = opener.open(url).read()
print re.findall(r'<title>(.*)</title>', page)
h = response.info().headers
print h

出力:

['Home Page']
['Server: nginx/1.0.8\r\n', 'Date: Fri, 10 Aug 2012 16:50:47 GMT\r\n', 'Content-Type: text/html;charset=UTF-8\r\n', 'Transfer-Encoding: chunked\r\n', 'Connection: close\r\n', 'P3P: CP="IDC DSP COR ADM DEVi TAIi PSA PSD IVAi IVDi CONi HIS OUR IND CNT"\r\n']
4

2 に答える 2

2

requestsモジュールを使ってみて、それが違いを生むかどうか試してみませんか?

ここで例を見てみましょう。使い方はとても簡単で、組み込みの Cookie jar は、Python の惨めな HTTP ライブラリーで誤ってミスを犯してしまうのを防ぐためだけに役立つかもしれません。

于 2012-08-10T17:36:02.277 に答える
1

Selenium を使用して、firefox を使用してこの Web ページにログインしたままにすることができます。 セレン

from selenium import selenium

localport = 12345

## you create a socket proxy here listening on localport
## connecting to www.locationary.com:80

selenium = selenium("localhost", 4444, 
                    "*firefox", "http://localhost:%i" % localport)

while 1:
    # open the selenium side every 5 minutes
    selenium.open("/home/index2.jsp")
    selenium.wait_for_page_to_load("30000")
    time.sleep(5 * 60) # seconds

Selenium をインストールするには、それを起動するための python パッケージと Selenium サーバーの .jar ファイルが必要です。

Firefox はプログラムを介してログインするため、有効なセッション ID のトラフィックを解析できます。

質問?

于 2012-08-11T21:13:03.580 に答える