問題タブ [barman]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
postgresql - Postgres で大きなテーブル (>1 TB) のバックアップを処理していますか?
バックアップが面倒な 1 TB のテーブル (X) があります。
テーブル X には、作成後にあまり更新されない履歴ログ データが含まれています。通常、一度に 1 つの行にしかアクセスできないため、パフォーマンスは依然として非常に良好です。
現在、毎晩完全な論理バックアップを作成しており、バックアップの時間とスペースのために X を除外しています。X の履歴バックアップは必要ありません。データが取り込まれたログ ファイル自体がバックアップされるためです。ただし、ログ ファイルの再処理による X の回復には、不必要に長い時間がかかります。
バックアップ戦略に X を含めて、復旧時間を大幅に短縮したいと考えています。夜間の論理バックアップに X を含めることは現実的ではないようです。
理想的には、増分的に更新される X の単一の完全バックアップが必要です (純粋に時間を節約するため)。
ソリューションを単独で調査する経験が不足しており、どのような選択肢があるのか疑問に思っています。
増分更新のバーマン? パーティションX? 両方?
もう少し読んだ後、私はテーブルをパーティション分割し、変更されたテーブル パーティションでのみ論理バックアップを実行する (そして以前のバックアップを置き換える) 夜間スクリプトを作成する傾向があります。ただし、この戦略は、回復中にまだ長い時間がかかる可能性がありpg_restore
ます...
ありがとう!