231,451,584 行、14 列、15.1 GiB サイズの巨大なテーブルがあります。
最後の 3 列にはgroup_concat
、3 つの異なるテーブルに入るデータがあります (最初の 11 列の冗長性を排除し、列 #12、#13、または #14 の値を大きなコンマで区切ってマージすることにより、行数を約 2,500 に戻します)。 、csv 形式のテキスト)。
この操作 (新しいテーブルごとに group_concat を挿入する) には、(新しいテーブルごとに)膨大な時間≈18.000 seconds
がかかります。
最初のテーブルを 3 つに分割すると高速になるはずです(最初は同じ 11 列で、新しいテーブルごとに連結したい値が異なる最後の列のみ)。
私のケースのベンチマークを取得するには時間がかかるため、ここで質問しています。
ありがとう!