0

231,451,584 行、14 列、15.1 GiB サイズの巨大なテーブルがあります。

最後の 3 列にはgroup_concat、3 つの異なるテーブルに入るデータがあります (最初の 11 列の冗長性を排除し、列 #12、#13、または #14 の値を大きなコンマで区切ってマージすることにより、行数を約 2,500 に戻します)。 、csv 形式のテキスト)。

この操作 (新しいテーブルごとに group_concat を挿入する) には、(新しいテーブルごとに)膨大な時間≈18.000 secondsがかかります。

最初のテーブルを 3 つに分割すると高速になるはずです(最初は同じ 11 列で、新しいテーブルごとに連結したい値が異なる最後の列のみ)。

私のケースのベンチマークを取得するには時間がかかるため、ここで質問しています。

ありがとう!

4

0 に答える 0