制御できないかなり大きなcsvファイル(少なくともWeb用)があります。約10万行あり、大きくなるだけです。
Drupal Module Feedsを使用して、このデータに基づいてノードを作成しています。それらのパーサーは、50行のグループに解析をバッチ処理します。ただし、パーサーは引用符を適切に処理せず、csvファイルの約60%を解析できません。fgetcsvは機能しますが、私が知る限り、バッチ処理は行いません。
fgetcsvを使用してファイル全体を読み取ろうとすると、PHPは最終的にメモリを使い果たします。したがって、私は物事をより小さなチャンクに分割できるようにしたいと思います。これは可能ですか?