HTTP 接続を使用してデータをダウンロードする、データ集約型のPythonスクリプトがあります。私は通常、一晩中実行します。接続に失敗したり、Web サイトが一時的に利用できなくなったりすることがあります。これらの例外をキャッチして定期的に再試行し、5 分間の再試行後に正常に終了する (そしてエラーをログに記録する) 基本的なエラー処理があります。
ただし、ジョブがフリーズする場合があることに気付きました。エラーはスローされず、ジョブはまだ実行されており、最後の印刷メッセージから数時間後になることもあります。
最善の方法は次のとおりです。
- Python スクリプトを監視し、
- 一定時間経過後に応答がないかどうかを検出し、
- 応答がない場合は終了し、
- 別のものを開始しますか?
アップデート
ご協力ありがとうございました。何人かが指摘しているように、urllibとsocketモジュールにはタイムアウトが正しく設定されていません。Freebaseおよびurllib2モジュールでPython 2.5を使用し、 MetawebErrorsおよびurllib2.URLErrorsをキャッチして処理しています。最後のスクリプトが 12 時間ハングした後の err 出力のサンプルを次に示します。
File "/home/matthew/dev/projects/myapp_module/project/app/myapp/contrib/freebase/api/session.py", line 369, in _httpreq_json
resp, body = self._httpreq(*args, **kws)
File "/home/matthew/dev/projects/myapp_module/project/app/myapp/contrib/freebase/api/session.py", line 355, in _httpreq
return self._http_request(url, method, body, headers)
File "/home/matthew/dev/projects/myapp_module/project/app/myapp/contrib/freebase/api/httpclients.py", line 33, in __call__
resp = self.opener.open(req)
File "/usr/lib/python2.5/urllib2.py", line 381, in open
response = self._open(req, data)
File "/usr/lib/python2.5/urllib2.py", line 399, in _open
'_open', req)
File "/usr/lib/python2.5/urllib2.py", line 360, in _call_chain
result = func(*args)
File "/usr/lib/python2.5/urllib2.py", line 1107, in http_open
return self.do_open(httplib.HTTPConnection, req)
File "/usr/lib/python2.5/urllib2.py", line 1080, in do_open
r = h.getresponse()
File "/usr/lib/python2.5/httplib.py", line 928, in getresponse
response.begin()
File "/usr/lib/python2.5/httplib.py", line 385, in begin
version, status, reason = self._read_status()
File "/usr/lib/python2.5/httplib.py", line 343, in _read_status
line = self.fp.readline()
File "/usr/lib/python2.5/socket.py", line 372, in readline
data = recv(1)
KeyboardInterrupt
下部にソケット エラーが表示されます。私はPython 2.5を使用していて、3 番目のurllib2.urlopenオプションにアクセスできないため、このエラーを監視してキャッチする別の方法はありますか? たとえば、私はURLErrorsをキャッチしています - urllib2またはソケットに別のタイプのエラーがあり、それをキャッチできるのでしょうか?