問題タブ [duplicity]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
bash - 新しい重複アーカイブのみをダウンロードする (bash)
二重化を使用して、暗号化されたバックアップをリモート マシン A に 1 日 1 回保存しています。リモート マシン B にリモート マシン A からこれらのバックアップをダウンロードしてもらいたいのですが、新しいアーカイブのみをダウンロードして、A が侵害されてバックアップが改ざんされた場合でも、B にはその時点までのクリーンなバックアップが残るようにします。
duplicity は、最初に次のような一連のファイルを保存します。
以降のバックアップ操作では、次のような一連のファイルが保存されます。
bashスクリプトで、マシンBがまだ持っていないファイルだけをダウンロードし、持っているファイルを変更しないようにするにはどうすればよいですか?
macos - Duplicity は、Mavericks の最大オープン ファイル設定が気に入らない
一部のファイルをバックアップするために重複を使用します。バックアップをテストするために Mac に復元しようとしていますが、次のエラーが表示されます。
だから私は試します:
そして、それは問題ないようです。次に実行します:
実際にどのようにして変更の制限を取得しますか? 運が悪かったのでGoogleで検索しました:(
linux - 重複 + CloudFiles
Duplicity を使用して CloudFiles にバックアップしようとすると、次の出力が表示されます。
私は Linux Mint 17 を使用しており、次のガイドに従っています: http://gsusmonzon.blogspot.co.uk/2013/07/backup-with-duplicity-and-rackspace.html
bash - duplicity - ファイル指定 ... ベース ディレクトリ内のどのファイルとも一致しません
重複したパスを他のパーティションにバックアップしていますが、サブディレクトリを除外したいと考えています。しかし、私はこのエラーが発生しました:
ファイル指定がベース ディレクトリで始まるため、これは奇妙です。バックアップしたい他のユーザーディレクトリもあります。それぞれに対して 1 つの重複プロセスを実行します。または、複数の --include オプションをベース ディレクトリ / として使用する重複プロセスを 1 つだけ使用する必要がありますか?
これは実際のバックアップ スクリプトです。
backup - Duplicity include with wildcards
I want to backup all homes of my lxc containers with duplicity and i use (commandline simplified to the problem):
which does not match the homes, while
works.
further testing shows, that
does not work either. The manpage of duplicity tells me first match wins and *
and **
are allowed as wildcards, where **
matches everything and *
only one path component.
ubuntu - Deja Dup: ネットワークからのバックアップ フォルダー
リモートの場所にバックアップを保存できることは知っていますが、リモートの場所をバックアップできますか? 同じネットワーク上に、バックアップを保持するデータとPCを備えたサーバーがあります。sshfsを使用してサーバーからPCにデータをマウントし、マウントされたフォルダーをバックアップできます。毎日バックアップを作成し、少なくとも 1 か月はバックアップを保持したいと考えています。問題は、サーバーが停止したり、接続が失われたりした場合にどうなるかということです。Deja Dup は空のフォルダーのバックアップを作成し、翌日、すべてのファイルにアクセスできるようになったときに、すべてのバックアップを再度実行する増分バックアップを作成しますか? サーバーには約 300 GB のデータがあり、バックアップする必要があります。初日に、300 GB のバックアップが作成されます。増分バックアップは小さく、1 日あたり約 50 ~ 80 MB です。ただし、接続が失われた場合は、空のバックアップが作成され、翌日には 300GB の増分バックアップが作成されます。月に 5 回接続が失われると、1.5 TB の無駄な増分バックアップが作成されることになります。
command-line-interface - rsync はリモートではなくローカルにコピーします
以前に動作していたバックアップ スクリプトに問題があります。
簡単に言うと、duplicity を呼び出して、rsync 経由でファイルを NAS にコピーするように命令するだけです。
ただし、スクリプトを開始すると、常にアクセス許可が拒否されたというエラーが返されます。
rsync が思ったように機能しないことに絞り込みました。
私のテスト セットアップでは、次のコードを実行します。
現在のディレクトリに「remoteuser@nas.domain.com」というフォルダが作成され、rsync がファイルを test からその新しいフォルダに同期します。リモート (...:/home/remoteuser/backup) にターゲット ディレクトリを追加すると、前述の「許可が拒否されました」というエラーが返されます。
私のnasへのssh経由の接続は問題なく動作します。