2

Web サイトのデータをスクレイピングするプログラムがあります。最後に取得してから数分しか経っていない場合、そのデータをロードする代わりにキャッシュできるようにしたいと考えています。私はビーカーを見ましたが、私はキャッシュに非常に慣れていないので、これが必要かどうかわかりません。また、Cachemanager とは何か、「cache.set」と「cache.get」の両方を使用する代わりに「cache.get」のみを使用する理由もよくわかりません。テストに使用したスクリプトを含めました。

from beaker.cache import CacheManager
from beaker.util import parse_cache_config_options
import sched, time
from datetime import datetime

cache_opts = {
             'cache.type': 'file',
             'cache.data_dir': '../Beaker/tmp/cache/data',
             'cache.lock_dir': '../Beaker/tmp/cache/lock'
             }

cache = CacheManager(**parse_cache_config_options(cache_opts))
tmpl_cache = cache.get_cache('mytemplate', type='file', expire=5)

def get_results():
    # do something to retrieve data
    print 'hey'
    data = datetime.now()
    return data

def get_results2():
    return 'askdjfla;j'

s = sched.scheduler(time.time, time.sleep)
def get_time(sc):     
    results = tmpl_cache.get(key='gophers', createfunc=get_results)    
    results2 = tmpl_cache.get(key='hank', createfunc=get_results2)   
    print results,results2
    sc.enter(1, 1, get_time, (sc,))

s.enter(1, 1, get_time, (s,))
s.run()

私はこれを正しい方法で行っていますか?

4

1 に答える 1