22

大きなファイル (ゲノムデータを含むため、サイズが最大 10GB に達する) を使用する Docker イメージ (およびその結果としてそのイメージのコンテナー) を作成する必要があります。

それらの使用を最適化するにはどうすればよいですか? それらをコンテナー ( などCOPY large_folder large_folder_in_container) に含めることになっていますか? そのようなファイルを参照するより良い方法はありますか? 要点は、そのようなコンテナー (10 GB を超える) をプライベート リポジトリにプッシュするのは奇妙に聞こえるということです。それらすべてのGBを一緒に詰め込まずに、コンテナに一種のボリュームを取り付ける方法があるのだろうか.

ありがとうございました。

4

3 に答える 3

23

そのようなファイルを参照するより良い方法はありますか?

データを配布する方法が既にある場合は、「バインド マウント」を使用してボリュームをコンテナーにアタッチします。

docker run -v /path/to/data/on/host:/path/to/data/in/container <image> ...

そうすれば、画像を変更でき、毎回大きなデータ セットを再ダウンロードする必要がなくなります。

レジストリを使用して大規模なデータ セットを配布したいが、データ セットへの変更を個別に管理したい場合は、次のDockerfileようなデータ ボリューム コンテナーを使用できます。

FROM tianon/true
COPY dataset /dataset
VOLUME /dataset

アプリケーション コンテナーから、次を使用してそのボリュームをアタッチできます。

docker run -d --name dataset <data volume image name>
docker run --volumes-from dataset <image> ...

いずれにせよ、https://docs.docker.com/engine/tutorials/dockervolumes/はあなたが望むものだと思います。

于 2016-09-15T15:17:04.137 に答える