現在、画像認識用の Tensorflow convnet を実行しており、より複雑なグラフ、バッチ サイズ、および入力次元を有効にするために新しい GPU を購入することを検討しています。AWS GPU インスタンスを使用して convnet をトレーニングすることを推奨しないこのような投稿を読みましたが、より多くの意見をいつでも歓迎します。
Tensorflow のガイド「Training a Model Using Multiple GPU Cards」を読みましたが、GPU 間でグラフが複製されているようです。これが Tensorflow convnet で並列 GPU を使用する唯一の方法であることを知りたいですか?
私がこれを質問している理由は、Tensorflow が複数の GPU 間でしかグラフを複製できない場合、各 GPU には少なくともモデルが 1 つのバッチに必要とするメモリ サイズが必要であることを意味するためです。(たとえば、必要な最小メモリ サイズが 5 GB の場合、それぞれ 4 GB のカードを 2 枚使用しても機能しません)。
前もって感謝します!