問題タブ [nvidia-titan]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
2743 参照

nvidia - Titan Z vs K40 プロセッサ?

科学計算に GPU を使用しています。最近、Nvidia は主力製品である GeForce Titan Z をリリースしました。このプロセッサが Tesla K40 (別の NVIDIA 製品) とどのように競合するかを知りたいです。私はすでに仕様を確認しましたが、これら 2 つのプロセッサ間のベンチマーク、または科学計算アプリケーションに対する Titan Z の能力について知りたいと思っています。また、プログラミングの観点から、Titan Z を 1 つの GPU として扱うべきか、2 つの GPU として扱うべきかについても知りたいです。

前もって感謝します、よろしく、 Sakthi K

0 投票する
1 に答える
288 参照

c++ - cl::Image3DはnVidia TITAN blackでsegfaultしますが、Intel openCLデバイスではありませんか?

すべて、OpenCL で 3D 画像をセットアップするための次のコード行があります。

Intel OpenCL CPU ドライバーを使用すると (CL_DEVICE_TYPE_CPU でコンテキストを作成することにより) コードは正常に実行されますが、TITAN black で nVidia ドライバーを使用すると (CL_DEVICE_TYPE_GPU でコンテキストを作成することにより) segfault で失敗します。

これらはすべて、Intel OpenCL ランタイム 14.1_x64_4.4.0.118 および 2014_4.4.0.134_x64 Intel OpenCL SDK を使用して、利用可能な最新の nVidia ドライバーを使用する 2.6.32-358 カーネルの RHEL6.4 上にあります。

他のすべてのコードは、nVidia デバイスで動作しているようです。カーネルをコンパイルしたり、コンテキストやバッファを作成したりできますが、この 1 つのコンストラクターは失敗しているようです。cl::Device::getInfo を使用して Image3D に許可されている最大サイズを確認したところ、HxWxD の制限が 4096x4096x4096 であることが報告されているため、16x16x1024 の画像サイズでは制限を十分に下回っています。

また、CL_R および CL_FLOAT タイプがサポートされている形式であることも確認しました。

最初はホスト メモリをコピーしようとして失敗したと思っていましたが、読み取ったイメージをエンキューする前に segfault が発生しています。

gdb のバック トレースから判断できた最良の結果は、問題が CL/cl.hpp の 4074 行目にあるように見えることです。

ご覧のとおり、Image3D のコンストラクターの幅と高さの引数は不安定に見えますが、これらが実際の値であり、コンパイラーが原因で値が最適化されていないかどうかはわかりません。

したがって、私の質問は次のとおりです。

Intel CPU OpenCL ドライバーには当てはまらない、nVidia カードに関して間違っていることはありますか? Intel SDK と nVidia OpenCL ICD の間に既知のバイナリ非互換性はありますか?

0 投票する
16 に答える
228170 参照

python - tensorflow が GPU メモリ全体を割り当てないようにするにはどうすればよいですか?

私は、計算リソースが共有される環境で作業しています。つまり、それぞれ数台の Nvidia Titan X GPU を搭載した数台のサーバー マシンがあります。

小規模から中程度のサイズのモデルの場合、12 GB の Titan X は通常、2 ~ 3 人が同じ GPU で同時にトレーニングを実行するのに十分です。モデルが非常に小さいため、単一のモデルでは GPU のすべての計算ユニットを十分に活用できない場合、トレーニング プロセスを次々と実行する場合と比較して、実際には速度が向上する可能性があります。GPU への同時アクセスによって個々のトレーニング時間が遅くなる場合でも、複数のユーザーが GPU で同時にトレーニングできるという柔軟性があると便利です。

TensorFlow の問題は、デフォルトでは、起動時に利用可能な GPU メモリの全量を割り当てることです。小さな 2 層ニューラル ネットワークでも、12 GB の GPU メモリがすべて使用されていることがわかります。

特定のモデルにこれで十分であることがわかっている場合、TensorFlow に 4 GB の GPU メモリのみを割り当てる方法はありますか?

0 投票する
0 に答える
273 参照

tensorflow - Nvidia Titan X (パスカル) Tensorflow Windows 10

私のオペレーティング システムは Windows 10 で、CPU で Tensorflow バックエンドを備えた Keras を使用しています。Nvidia Web サイトで tensorflow に推奨されている「Nvidia Titan x (Pascal)」GPU を購入したい:

http://www.nvidia.com/object/gpu-accelerated-applications-tensorflow-configurations.html

彼らは、OS として Ubuntu 14.04 を推奨しています。

私の Windows 10 マシンで、Nvidia Titan x (Pascal) GPU で Tensorflow を使用できるかどうか知っている人はいますか? どうもありがとう。

0 投票する
1 に答える
836 参照

cuda - nVidia Titan V は GPUDirect をサポートしていますか?

nVidia の新しい Titan V が GPUDirect をサポートしているかどうかを誰かが教えてくれるのではないかと思っていました。私が知る限り、Tesla と Quadro カードに限定されているようです。

これを読んでいただきありがとうございます。