いくつかの依存関係 (Python 3.7 など) を追加できるように、カスタム コンテナを使用して AI Platform Notebooks インスタンスを起動したいと考えています。ただし、カスタム コンテナを実行すると、Cloud Filestore からデータをマウントできません。
ドキュメントに従って、このディープ ラーニング イメージを使用してカスタム コンテナーを作成しました。
gcr.io/deeplearning-platform-release/tf-cpu
私はまだ独自のコンテナーを作成しておらず、カスタマイズをまったく追加していません。gcr.io/deeplearning-platform-release/tf-cpu
カスタム インスタンスのコンソールに接続しました。
Cloud Filestore をマウントしようとすると、次のエラーが表示されます。
root@c7a60444b0fc:/# mount <IP_ADDRESS>:/streams cfs
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
root@c7a60444b0fc:/# mount -o nolock <IP_ADDRESS>:/streams cfs
mount.nfs: Operation not permitted
ここで、コンソールから TensorFlow 1.15 ノートブックを起動すると (カスタマイズなし)、マウントは正常に機能し、環境はディープラーニング イメージで取得したものとは異なります。特に、ディープラーニング イメージはユーザーとして起動しroot
ますが、TF 1.15 インスタンスはjupyter
ユーザーとして起動します。
では、GCP AI ノートブックが実際に使用しているイメージは何ですか? Cloud Filestore をマウントできるようにするには、ディープラーニング イメージにどのような追加のカスタマイズが必要ですか?