私はまだPythonに比較的慣れていないので、これが明らかな質問である場合は、お詫び申し上げます。
私の質問はurllib2ライブラリに関するもので、それはurlopen関数です。現在、これを使用して別のサーバーから大量のページをロードしています(これらはすべて同じリモートホスト上にあります)が、タイムアウトエラーによってスクリプトがときどき強制終了されます(これは大量のリクエストによるものと思われます)。
タイムアウト後もスクリプトを実行し続ける方法はありますか?すべてのページをフェッチできるようにしたいので、ページを取得して次に進むまで試行を続けるスクリプトが必要です。
ちなみに、サーバーへの接続を開いたままにしておくと役に立ちますか?