0

いくつかの依存関係 (Python 3.7 など) を追加できるように、カスタム コンテナを使用して AI Platform Notebooks インスタンスを起動したいと考えています。ただし、カスタム コンテナを実行すると、Cloud Filestore からデータをマウントできません。

ドキュメントに従ってこのディープ ラーニング イメージを使用してカスタム コンテナーを作成しました。

gcr.io/deeplearning-platform-release/tf-cpu

私はまだ独自のコンテナーを作成しておらず、カスタマイズをまったく追加していません。gcr.io/deeplearning-platform-release/tf-cpuカスタム インスタンスのコンソールに接続しました。

Cloud Filestore をマウントしようとすると、次のエラーが表示されます。

root@c7a60444b0fc:/# mount <IP_ADDRESS>:/streams cfs
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
root@c7a60444b0fc:/# mount -o nolock <IP_ADDRESS>:/streams cfs
mount.nfs: Operation not permitted

ここで、コンソールから TensorFlow 1.15 ノートブックを起動すると (カスタマイズなし)、マウントは正常に機能し、環境はディープラーニング イメージで取得したものとは異なります。特に、ディープラーニング イメージはユーザーとして起動しrootますが、TF 1.15 インスタンスはjupyterユーザーとして起動します。

では、GCP AI ノートブックが実際に使用しているイメージは何ですか? Cloud Filestore をマウントできるようにするには、ディープラーニング イメージにどのような追加のカスタマイズが必要ですか?

4

1 に答える 1