21

公式の postgres imageで実行しようとしている大規模な (100 GB 以上) データベースがあります。

~/Library/Containers/com.docker.docker/Data/com.docker.driver.amd64-linux/Docker.qcow2Docker for Macのファイルには約 60 GB のサイズ制限があるため、docker ボリュームにデータを保存できません。

マウントされたホスト ディレクトリ ボリュームでのファイル アクセスは、通常のボリュームよりもはるかに遅いため、ホスト ディレクトリをボリュームとしてマウントすることをためらっています。

これらの問題について詳しく説明している便利なリンクを次に示します。

  • これは、Docker.qcow2 ファイルのサイズ制限について説明しています
  • これは、Docker.qcow2 ファイルのサイズ制限についても説明しています
  • これは、マウントされたホスト ディレクトリ ボリュームの速度の問題について説明します
  • これは、Docker.qcow2 ファイルを、より大きくなる可能性のあるファイルに置き換える方法の適切な説明を提供します。
  • これは、コンテンツが削除されても Docker.qcow2 ファイルが縮小しない方法について説明しています (これは直接関係はありませんが、問題をさらに複雑にする可能性があります)。

速度の低下を食い物にして、ホストディレクトリをマウントしますか? qemu で大きくなる可能性のある qcow2 ファイルを手動で作成しますか (これを行う場合、アップグレード間でこのファイルを維持する必要がありますか) この問題を処理するために何か他のことをしていますか?

4

3 に答える 3

2

次のスクリプトは、引数として渡されたイメージを保持する新しい縮小された Docker.qcow2 ファイルを削除して再作成します。

https://blog.mrtrustor.net/post/clean-docker-for-mac/

お役に立てれば。

于 2017-03-19T17:47:27.770 に答える
1

このような状況では、大きくなる可能性のある qcow イメージを作成することを強くお勧めします。

これは比較的単純なプロセスであり、大規模なデータベースを実行する場合に一般的に必要とされるパフォーマンス上の利点が得られます。

于 2016-10-13T17:31:32.197 に答える