Web サイトのデータをスクレイピングするプログラムがあります。最後に取得してから数分しか経っていない場合、そのデータをロードする代わりにキャッシュできるようにしたいと考えています。私はビーカーを見ましたが、私はキャッシュに非常に慣れていないので、これが必要かどうかわかりません。また、Cachemanager とは何か、「cache.set」と「cache.get」の両方を使用する代わりに「cache.get」のみを使用する理由もよくわかりません。テストに使用したスクリプトを含めました。
from beaker.cache import CacheManager
from beaker.util import parse_cache_config_options
import sched, time
from datetime import datetime
cache_opts = {
'cache.type': 'file',
'cache.data_dir': '../Beaker/tmp/cache/data',
'cache.lock_dir': '../Beaker/tmp/cache/lock'
}
cache = CacheManager(**parse_cache_config_options(cache_opts))
tmpl_cache = cache.get_cache('mytemplate', type='file', expire=5)
def get_results():
# do something to retrieve data
print 'hey'
data = datetime.now()
return data
def get_results2():
return 'askdjfla;j'
s = sched.scheduler(time.time, time.sleep)
def get_time(sc):
results = tmpl_cache.get(key='gophers', createfunc=get_results)
results2 = tmpl_cache.get(key='hank', createfunc=get_results2)
print results,results2
sc.enter(1, 1, get_time, (sc,))
s.enter(1, 1, get_time, (s,))
s.run()
私はこれを正しい方法で行っていますか?