誰かがこれを手伝ってくれることを願っています。
何百万ものアイテムを含む複数のテーブルがあり、これらのデータを使用してサイトマップを作成したいと考えています。
array_chunk($dataArray, 50000); を使用するようにアドバイスされました。
次に foreach( $dataArray ad $data){ do .... }
私が抱えている問題は、100 万個のアイテムを含む配列がメモリの問題を引き起こす可能性があることです。また、cronjob を使用してサイトマップを毎日更新することも考えています。ほとんどのホストでは、cronjob を実行できる時間に制限があります。このことを踏まえて、次のことを知りたい。
1) これはサイトマップを管理する効率的な方法ですか? 2) 大きなデータのサイトマップを頻繁に作成/更新する効率的な方法はありますか?