-1

誰かがこれを手伝ってくれることを願っています。

何百万ものアイテムを含む複数のテーブルがあり、これらのデータを使用してサイトマップを作成したいと考えています。

array_chunk($dataArray, 50000); を使用するようにアドバイスされました。

次に foreach( $dataArray ad $data){ do .... }

私が抱えている問題は、100 万個のアイテムを含む配列がメモリの問題を引き起こす可能性があることです。また、cronjob を使用してサイトマップを毎日更新することも考えています。ほとんどのホストでは、cronjob を実行できる時間に制限があります。このことを踏まえて、次のことを知りたい。

1) これはサイトマップを管理する効率的な方法ですか? 2) 大きなデータのサイトマップを頻繁に作成/更新する効率的な方法はありますか?

4

1 に答える 1

0

Google サイトマップの最大サイズは 10 MB または 50,000 アイテムです。そのため、サイトマップを分割することをお勧めします。

を使用する代わりにarray_chunk、MySQL から一度に 50,000 項目を取得してみませんか? これにより、メモリ制限が回避されます。

多くの場合、cron ジョブの時間制限は を使用して上書きできます[set_time_limit][1]が、私の意見では、ページ数が 100 万あり、厳格な制限を課すホストをまだ使用している場合は、より深刻なサービスへの移行を検討するかもしれません。

100 万のリンクをサイトマップにするには、20 個のサイトマップ (それぞれ 50k) とサイトマップ インデックスが必要であることをご存知ですか?

http://en.wikipedia.org/wiki/Sitemap_index

于 2013-01-19T23:20:04.703 に答える