web-dev-qa-db-ja.com

非常に巨大なサイズの重複キャッシュ

現在、重複スクリプトを使用して、110G/2T CentOSサーバーを2T sftpサーバーにバックアップしています。

4日が経過して以来、重複性は90Gしかバックアップしていません。これは問題ありません。主な問題は、 「/user/.cache/duplicity」で重複が生成した600G近くのキャッシュがあります。このサイズは普通ではないので、どうすればいいですか?タスクが終了すると、重複がこれらのキャッシュファイルとフォルダーを縮小または削除しますか? duplicityはキャッシュもバックアップしますか(/ userフォルダーを除外していません)?

追加情報:私はHetznerサーバーを使用しており、これは私が使用しているバックアップスクリプトです: https://wiki.hetzner.de/index.php/Duplicity_Script/en

さらに、ルートからproc、sys、devのディレクトリを除外しました(サーバー全体のバックアップが必要だったため、ルートから開始して他のすべてをバックアップしました)。

8

メーリングリスト によると

手動で除外する必要があります。

バックアップチェーンのインデックスファイル(バックアップリポジトリの目次)を保持します。それらをローカルにキャッシュすると、ステータスや増分バックアップなどのオプションが高速化されます。これらの操作は、すでに動作するようにバックアップされているものを知る必要があります。キャッシュされている場合は、何度も転送および復号化する必要はありません。

.. ede

残りは 長期にわたるバグ のようです。

Debianバグトラッカーで 彼らは推奨します

duplicity cleanup --extra-clean --force ....

警告:推奨される--extra-cleanオプションは危険であり、非常に強く噛むことができます。バックアップを作成します 通常の方法では復元できません

7
Marki

非常に古いバックアップをリモートでクリーンアップし始めたとき(S3)、duplyコマンドが非常に古いローカルメタデータを自動的に削除し始めました。

つまり、現在xか月だけバックアップを保持しています。また、ローカルメタデータキャッシュのサイズはそれに応じて縮小しました。

0
user18099