4

主にバックアップ用にホーム サーバーを設定しています。ディスク容量を確保しながら、最も信頼性の高い方法でバックアップする必要がある約 90 GB の個人データがあります。特定の日付の任意のファイルに戻ることができるように、完全なファイル履歴が必要です。

データのサイズのため、毎週の完全バックアップはオプションではありません。代わりに、増分バックアップ ソリューションの方針に沿って検討しています。ただし、一連の増分バックアップで 1 つの破損が発生すると、一連のバックアップ全体が (ある時点を超えて) 回復不能になることを認識しています。したがって、単純な増分バックアップはオプションではありません。

私はこの問題に対する多くの解決策を研究してきました。まず、逆増分バックアップを使用して、ファイルの最新バージョンが失われる可能性を最小限に抑えます (古いファイルはそれほど重要ではありません)。次に、インクリメントとバックアップの両方を何らかの冗長性で保護したいと考えています。Par2 パリティ データは、この仕事に最適なようです。つまり、次の要件を満たすバックアップ ソリューションを探しています。

  • 逆増分 (ディスク容量を節約し、最新のバックアップを優先するため)
  • ファイル履歴 (リバース インクリメンタルを含むより広いカテゴリの一種)
  • 増分およびバックアップ データの Par2 パリティ データ
  • メタデータを保持する
  • 帯域幅を効率的に使用できます (帯域幅の節約。インクリメントごとにディレクトリ全体をコピーする必要はありません)。ほとんどの増分バックアップ ソリューションは、この方法で機能するはずです。

これにより、ファイルの整合性と比較的小さなバックアップ サイズが保証されると (私は信じています)。すでに多くのバックアップ ソリューションを見てきましたが、多くの問題があります。

  • Bacula - シンプルな通常の増分バックアップ
  • bup - インクリメンタルで、par2 を実装しますが、逆インクリメンタルではなく、メタデータを保持しません
  • duplicity - 増分、圧縮、および暗号化されていますが、逆増分ではありません
  • dar - インクリメンタルで par2 は簡単に追加できますが、逆インクリメンタルでファイル履歴なしではありませんか?
  • rdiff-backup - 必要なものにはほぼ完璧ですが、par2 のサポートはありません

これまでのところ、rdiff-backup が最善の妥協案のように思えますが、par2 はサポートしていません。par2 のサポートをバックアップの増分に簡単に追加できると思いますが、それらはバックアップごとに変更されるわけではありませんが、残りのファイルはどうですか? バックアップ内のすべてのファイルに対して par2 ファイルを再帰的に生成できますが、これは遅くて非効率的であり、バックアップ中の破損や古い par2 ファイルについて心配する必要があります。特に、変更されたファイルと破損したファイルの違いを見分けることができませんでした。また、そのようなエラーをチェックする方法や、バックアップ履歴にどのように影響するかについてもわかりません。誰もがより良い解決策を知っていますか? 問題へのより良いアプローチはありますか?

私の困難を読んでくれてありがとう。どんな助けでも大歓迎です。

4

2 に答える 2

2

http://www.timedicer.co.uk/index

エンジンとして rdiff-backup を使用します。私はそれを見てきましたが、Linuxまたは仮想マシンを使用して「サーバー」をセットアップする必要があります。

個人的には、スケジュールされたタスクによって毎日実行される疑似増分バックアップ (実際には最近のファイルの完全バックアップを作成する) を作成するために WinRAR を使用しています。同様に、「プッシュ」バックアップです。

これは真の増分 (または逆増分) ではありませんが、最後に更新された時期に基づいて、さまざまなバージョンのファイルを保存します。つまり、ファイルが同一であっても、今日、昨日、および前日のバージョンが保存されます。アーカイブ ビットを設定してスペースを節約できますが、バックアップするのは小さなスプレッドシートとドキュメントだけなので、もう気にする必要はありません。

RAR には、サイズまたはパーセンテージで設定できる独自のパリティまたは回復レコードがあります。1%(ワンパーセント)を使用しています。

メタデータを保持できます。個人的には、高解像度の時間はスキップします。

ファイルを圧縮するので効率的です。

あとは、ファイルをバックアップに送信するだけです。別のドライブとネットワーク内の別のコンピューターにコピーしました。真のサーバーは必要ありません。共有だけです。Windows ワークステーションには 10 の接続制限があるため、あまりにも多くのコンピューターに対してこれを行うことはできません。

したがって、あなたの目的に合うかもしれない私の目的のために、過去 7 日間に更新されたファイルのファイルを毎日バックアップします。次に、過去 90 日間に更新されたファイルをバックアップする別のスケジュール バックアップを、1 か月に 1 回または 30 日ごとに実行します。

しかし、私は Windows を使用しているので、実際に Linux サーバーをセットアップする場合は、Time Dicer をチェックしてみてください。

于 2012-05-16T08:16:34.160 に答える
0

誰も私の質問に答えることができなかったので、トピックの調査中に見つけたいくつかの可能な解決策を書きます. 要するに、最善の解決策は ZFS ファイルシステムへの rdiff バックアップだと思います。理由は次のとおりです。

  • ZFS は、格納されているすべてのブロックをチェックサムし、エラーを簡単に検出できます。
  • データをミラーリングするように ZFS を設定している場合は、正常なコピーからコピーすることでエラーを回復できます。
  • これは、データが 2 回コピーされますが、フル バックアップよりも占有するスペースが少なくなります。
  • オリジナルとミラーの両方でエラーが発生する可能性はごくわずかです。

ZFS は Linux で作業するのが少し難しいため、個人的にはこのソリューションを使用していません。Btrfs は有望に見えますが、何年にもわたる使用から安定性が証明されていません。代わりに、ハード ドライブの SMART データをチェックするだけの安価なオプションを使用します。ハードドライブはエラーチェック/修正を行う必要があり、このデータを監視することで、このプロセスが適切に機能しているかどうかを確認できます. ファイルシステムのパリティを追加するほどではありませんが、何もないよりはましです。

信頼できるバックアップの開発を検討している人々にとって興味深いかもしれないいくつかの注意事項:

  • par2 は時代遅れでバグのあるソフトウェアのようです。zfec は、はるかに高速な最新の代替手段のようです。bup での議論は少し前に行われました: https://groups.google.com/group/bup-list/browse_thread/thread/a61748557087ca07
  • ディスクに書き込む前にパリティ データを計算する方が安全です。つまり、ディスクへの書き込み、読み取り、およびパリティ データの計算を行わないでください。RAMから実行し、オリジナルと照合して信頼性を高めます。par2 は遅すぎるため、これは zfec でのみ可能です。
于 2012-02-26T19:49:56.060 に答える