5 秒ごとに 1 つの Web ページの更新をチェックするために、python の urllib ライブラリを使用します。しかし、プログラムを数時間実行した後、urllib.open(url) が古いデータを返すだけのようです。通常は 5 ~ 10 分遅れます。助けが必要です。
urlItem = urllib.urlopen("http://ka.game.163.com/")
htmlSource = urlItem.read()
urlItem.close()
5 秒ごとに 1 つの Web ページの更新をチェックするために、python の urllib ライブラリを使用します。しかし、プログラムを数時間実行した後、urllib.open(url) が古いデータを返すだけのようです。通常は 5 ~ 10 分遅れます。助けが必要です。
urlItem = urllib.urlopen("http://ka.game.163.com/")
htmlSource = urlItem.read()
urlItem.close()
これはキャッシングの問題のようです。通信を最適化するためにキャッシュが使用されるため、頻繁に要求されるデータを常に要求する必要はありません。
呼び出すurllib.open
と、内部で関数が使用されurlib.retrieve
ます。この関数はデータをローカルにキャッシュするため、このキャッシュを回避するには、 を呼び出すurllib.urlcleanup
たびに を呼び出す必要がありますurllib.open
。これはドキュメントに記載されています
また、あなたの質問は、これで説明されているのと同じ問題にぶつかります。