レポートの応答時間を短縮するために、マテリアライズド ビューのように機能するサマリー テーブルを作成しました。実際にデータを交換する方法をまだ決定していないため、データを更新する頻度はまだ決めていません。
キーに基づいてデータを更新することは、現在の構造ではオプションではありません。各レコードは多数の列の個別の組み合わせから作成され、そのうちのいくつかは null になる可能性があるためです。これにより、NULL 値が含まれる場合に複数の行に一致する更新が行われます。データベースのデータは 1 日に 1 回か 2 回しか更新されないため、頻繁に更新する必要はありません。
現在セットアップしているため、ストアド プロシージャは集計テーブルのデータを単純に切り捨て、すぐにクエリを再実行して最初から再作成します。何百万ものレコードからプルしているため、これには時間がかかる場合があります。データのダウンタイムを最小限に抑えるために、大規模なデータセットを非常に迅速に置き換えるための標準的な方法はありますか? 新しい集計データを一時テーブルにロードし、クエリの終了後に集計テーブルに移動するようなものでしょうか?