バックエンドの独自のデータベースを使用して、Webサイトの100を超える動的ページにデータをフィードしています。URLの形式はwww.example.com/blah?id=1、www.example.com/blah?id=2などです。データの取得が非常に遅いため、これらのページの読み込みには最大5秒かかる場合があります。 (接続しているデータベースのため)。
私の目標は、すべての動的ページを「ループ」して要求し、キャッシュされるようにするcronジョブ(PHPで)を作成することです(これらのページには24時間のキャッシュがあります)。
私の最善のアプローチは、出力が無視される「wget」コマンドが埋め込まれたPHPスクリプトですか?必要に応じて、cURLにアクセスできます。ページをキャッシュするためだけに100個のURLにヒットするスクリプトの作成にパフォーマンスの問題はありますか?もちろん、夜のピーク時間帯に実行します。
これについてのガイダンスをありがとう!