3

バックエンドの独自のデータベースを使用して、Webサイトの100を超える動的ページにデータをフィードしています。URLの形式はwww.example.com/blah?id=1、www.example.com/blah?id=2などです。データの取得が非常に遅いため、これらのページの読み込みには最大5秒かかる場合があります。 (接続しているデータベースのため)。

私の目標は、すべての動的ページを「ループ」して要求し、キャッシュされるようにするcronジョブ(PHPで)を作成することです(これらのページには24時間のキャッシュがあります)。

私の最善のアプローチは、出力が無視される「wget」コマンドが埋め込まれたPHPスクリプトですか?必要に応じて、cURLにアクセスできます。ページをキャッシュするためだけに100個のURLにヒットするスクリプトの作成にパフォーマンスの問題はありますか?もちろん、夜のピーク時間帯に実行します。

これについてのガイダンスをありがとう!

4

1 に答える 1

0

これを行うには、multi-cURLを使用することをお勧めします。そうすれば、リクエストは互いに並行して実行されます。

組み込みのPHP関数を使用してこれを行うことができますが、それらをラップする多くのクラスの1つを使用することをお勧めします。

https://github.com/jmathai/php-multi-curl

http://curl.haxx.se/libcurl/php/examples/multi.html

于 2012-04-19T18:28:02.213 に答える