0

TensorFlow に VGG ネットワークを実装しましたが、既にトレーニング済みです。また、AWS マーケットプレイスから Amazon Linux バージョン用の Deep Learning AMI がインストールされた Amazon Web Services p2.xlarge インスタンス (Nvidia Tesla K80、12GB) もあります。

ネットワークを使用している場合、画像処理に約 30 秒かかります。これは、TITAN X で使用されている同じネットワークが 1 ~ 2 秒かかったのに比べて長すぎます。

誰かがこれを経験したり、この問題を解決する方法を提案したりしていますか?

4

1 に答える 1

0

p3.2xlarge(Tesla V100 GPU)インスタンスで「NVIDIA Volta Deep Learning AMI」はいかがですか?2017年10月27日に試したときのスポット価格は50セント/時間でした。

https://www.nvidia.com/en-us/gpu-cloud/?ncid=van-gpu-cloudにサインアップし、AMI を無料で使用するための「API キー」を取得します。

EC2/GPU 設定情報: https://aws.amazon.com/blogs/aws/new-amazon-ec2-instances-with-up-to-8-nvidia-tesla-v100-gpus-p3/

于 2017-10-28T15:56:00.750 に答える