エンティティ データを格納する「マスター」テーブルと、各エンティティの動的データを格納するエンティティ属性値テーブルへの csv --> データベース インポートを実行する従来の php Web アプリがあります。
インポート プロセスは、マスター テーブルへの INSERT と各行の EAV テーブルへの複数の INSERT を使用して、csv ファイルを 1 行ずつ繰り返します。
このプロセスは遅く、mysql のチューニングについてほとんど知られていないことから、LOAD DATA ステートメントは通常、一連の INSERT よりもはるかに高速であることがわかります。ただし、EAV プロセスのため、csv ファイルではなくデータベース クエリの結果に基づいて、反復を実行する必要があります。
修正する価値はありますか?
各ファイルに数千万のレコードがあり、通常、実際に属性にマップされているファイル フィールドの 2/3 未満である場合、違いはありますか?