だからここにローダウンがあります:
私が開発しているクライアントはHostGator上にあり、max_execution_timeが30秒に制限されており、オーバーライドできません(サポートとwikiを介してできないことを確認しました)
私がコードを実行しているのは、アップロードされたファイルを取得して...
- xmlをループします
- ファイル内のすべてのフィードダウンロードリンクを取得する
- 各xmlファイルをダウンロードします
- 各ファイルの各xml配列を個別にループし、各アイテムの情報をデータベースに挿入します(ファイル名など)。
どういうわけかこれをキューに入れたり、ワークロードを複数のファイルに分割したりする方法はありますか?コードが問題なく機能し、挿入する前に各アイテムが存在するかどうかを確認することはわかっていますが、execution_limitを回避するのに行き詰まっています。
ご提案をいただければ幸いです。ご不明な点がございましたら、お気軽にお問い合わせください。