問題タブ [duplicity]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
backup - 重複して変更されたファイルのみを復元する
問題があります。Duplicity はバックアップに最適です。インクリメンタル diff tar を実行できることがとても気に入っていますが、... Duplicity を復元するときに同じ概念が適用されないようです。
基本的に、変更されたファイルのみを復元する必要があります (明らかに完全バックアップの後) が、その方法がわかりません。
ディレクトリを復元しようとすると、次のようになります。
ディレクトリをバックアップする必要があり (それを行うのに問題はありません)、別のマシンにミラーをセットアップする必要があります。
ありがとう!
backup - バックアップ前にファイルを検証する方法は?
Duplicityは増分バックアップを行うための優れたツールであると聞いたことがあります。
ただ気になるのは検証です。
Duplicity は、バックアップをサーバーに同期する前に、バックアップの一貫性をどのようにチェックしますか? それは実際にこれを行いますか?
バックアップを復元しようとしているときに、破損したバックアップ ファイルの問題に直面するのは良くありません。
私が理解しているように、Duplicity の基本的なワークフローは次のとおりです。
- バックアップが必要なディレクトリからデルタを生成します。
- このデルタをリモート ストレージに同期します。
1 と 2 の間のこのデルタの検証はありますか?
PS私はこれを見つけましたが、「最後のバックアップ以降に変更されたファイルがある場合はそのファイル」を確認するために使用され、バックアップファイルの整合性と一貫性を検証するために使用されません。
amazon-s3 - 重複、Amazon s3 バックエンド例外
このガイドに従って、重複を使用して Amazon s3 への自動バックアップを作成しようとしています: 重複を使用した Amazon s3への簡単なサーバー バックアップ
ただし、このコマンドでは:
次のエラーが発生します。
グーグルは私にとって理解できる結果をもたらしません。参考までに、私が実行する実際のコマンドは次のとおりです。
このガイドは Linux 用であることを理解しています。私は mac osx lion を使用していますが、それも同様に機能すると考えました。どんな助けでも大歓迎です。ありがとう。
python - 重複を使用してバックアップするときに GnuPG 暗号化を削除するにはどうすればよいですか?
私はこのコマンドを試しました:
ただし、s3フォルダーのファイルは引き続き暗号化されます。私が欲しいのは、コマンドを実行し、/Location フォルダーに txt1、txt2、txt3 が含まれている場合、s3 フォルダーに txt1、txt2、txt3 が表示されることです。
ありがとう :)
backup - deja バックアップ: UnicodeDecodeError "unexpected end of data"
ubuntu 12.04 と deja バックアップを使用しています。
バックアップの準備中に次のエラーが発生します。
完全なレポートについては、以下を参照してください。
これは、ファイル名が正しくエンコードされていないためだと思われます。
これを修正する方法、または少なくともdejaバックアップで問題を無視する方法を知っていますか?
ありがとうございました!
.
amazon-s3 - 重複 - 単一のファイルを復元できません
Amazon s3 から重複して単一のファイルまたはディレクトリを復元しようとしましたが、エラーが発生しました。
私は何を間違っていますか?
ここでバックアップを行う方法 export PASSPHRASE= * *** export AWS_ACCESS_KEY_ID= * *** export AWS_SECRET_ACCESS_KEY = * *** GPG_KEY= * *** BACKUP_SIM_RUN=1
duplicity - CentOS 5 で S3 の重複バックアップ スクリプトが失敗する
こんにちは、このガイドを使用して S3 へのバックアップをセットアップできませんでした: http://www.cenolan.com/2008/12/how-to-incremental-daily-backups-amazon-s3-duplicity/
スクリプトを実行すると、次のエラーが表示されます: Command line error: Expected 2 args, got 0 Enter 'duplicity --help' for help screen.
重複ログ ファイル: 2013-08-07_17:43:20: ... ファイル システムをバックアップしています ./duplicity-backup: 60 行目: --include=/home: そのようなファイルやディレクトリはありません
私のスクリプトは次のようなものです:
誰が何が悪いのか分かりますか?
directory - 重複バックアップで特定のフォルダーを除外する際の問題
duplicity を使用して Web ルートをバックアップしようとしていますが、特定のフォルダーを除外するのに問題があります。
/var/www/
サイトを含む多くのサブフォルダーがあるバックアップしたい:例:
各サイトのフォルダー構造のどこにでも配置できるログとキャッシュ フォルダーを除外したいと考えています。
例:
また :
キャッシュ フォルダは常に「キャッシュ」と呼ばれます ログ フォルダは常に「ログ」と呼ばれます
私が使用しているコマンド(機能しない)は次のとおりです。
そして、次のエラーが表示されます。
amazon-s3 - 重複「ドロップボックスという名前のモジュールがありません」エラー
例として次のコマンドを使用して、Amazon からバックアップを復元しようとしています
そしてシェルは次のエラーを返します
どんなアドバイスでも大いに役立ちます。