問題タブ [tesla]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
cuda - CUDA Fermi のアーキテクチャ: メモリ構造
CUDA Fermi のアーキテクチャについて質問があります。Fermi のアーキテクチャでは、グローバル メモリのアクセスが共有メモリのように高速であることをどこかで読んだことがあります。
では、(「フェルミ以前」の GPU とは異なり) (大きな) レイテンシなしでグローバル メモリ上のデータにアクセスできるというのは本当ですか?
Nvidia Tesla GPU を使用せずにコードをプログラミングしているという理由だけで、それを知ることは非常に重要です (大学の研究室にあり、夏の間はアクセスできません...)。
windows - 64 ビット マシンで 64 ビット SDK が必要ですか?
私のラボでは、Tesla C2070 を受け取りました。このカードは、Windows サーバー 64 ビットを実行しているマシンにインストールされています。私はいくつかのcudaシミュレーションを書くことになっています。SDK および CUDA ツールキットの 64 ビット バージョンをインストールする必要がありますか? 私が尋ねている理由は、コンパイルに Visual C++ Express を使用したいのですが、実際には 32 ビット指向のように見えるからです。または、その制限から完全に解放される別のコンパイラがありますか?
ありがとう。
編集 1 回答ありがとうございます。これまでのところ、32 ビットの cuda / openCL コードをコンパイルできます。SDK をインストールした後、ターゲットを 64 に変更し、64b lib にリンクしても、まだ機能しません。
最後に、gpgpu シミュレーションについて話すときに 64 ビット アプリにコンパイルするポイントはありますか? つまり、ホスト上で実行されているコードはほとんど何もなく、gpu 上で実行されているコードは nvcc によってコンパイルされているため、32 または 64 のどちらを選択しても問題ありません... 私は間違っていますか (おそらく) ?
cuda - Tesla C2070 および Ubuntu 12.04 の ECC サポートを無効化
Ubuntu 12.04 サーバーを実行するヘッドレス ワークステーションがあり、最近新しい Tesla C2070 カードをインストールしましたが、CUDA SDK からサンプルを実行すると、次のエラーが発生します。
実際、このエラーは「deviceQuery」以外のすべての例で発生します。
カーネル 3.2.0、nvidia ドライバー 295.41、および Cuda 4.2.9 を使用しています。
多くの検索の後、次の方法で ecc サポートを無効にする提案が見つかりました。
働いた。しかし問題は、ecc サポートを無効にした GPU コンピューティングの信頼性がどの程度になるかということです。
アドバイス、提案、または解決策は高く評価されます。
-コンスタンチン
memory - cudaMemcpy3DPeer は geforce カードでサポートされていますか?
GeForce カードでピアツーピアのメモリ転送を使用することは可能ですか? それとも Tesla でのみ許可されていますか? カードは 2 つの GTX690 であると想定しています (それぞれに 2 つの GPU が搭載されています)。
Quadro 4000 と Quadro 600 の間でコピーしようとしましたが、失敗しました。cudaMemcpy3DPeer構造体を埋めることで3D配列を転送していましたcudaMemcpy3DPeerParms。
cuda - NVIDIA TeslaとCUDAとは正確には何ですか?
私はGPGPUについていくつかの調査を行っていますが、現在、テスラとCUDAが実際に何であるかという質問に苦労しています。論文「NVIDIATesla:統合グラフィックスおよびコンピューティングアーキテクチャ」では、TeslaアーキテクチャがGeForce 8800で導入されたと述べています。さらに読んで、NVIDIAのグラフィックカードの全体的なアーキテクチャであると確信しました。残念ながら、これは実際には当てはまりません。http://www.nvidia.com/object/why-choose-tesla.htmlでは、GeForce、 Quadro 、Teslaを明示的に分離しています。そして、それはCUDAとどのように関連していますか?これは、Cuda-CのハードウェアでサポートされているGPUでの一般的な計算の拡張にすぎませんか?SM、SIMT、スレッド同期、共有メモリ、ワープなどの概念は、何に関連していますか?CUDA?テスラ?さらにhttp://nvidia.custhelp.com/app/answers/detail/a_id/2133/~/what-is-the-difference-between-tesla-and-cuda%3Fは、テスラがハイパフォーマンスコンピューティングとCUDAはソフトウェアにすぎません。誰かがそのplsを明確にすることができますか?
cuda - cudaMemcpy は Tesla C2075 では遅すぎます
現在、Quadro 400 と Tesla C2075 の 2 つの cuda 対応 GPU を搭載したサーバーで作業しています。単純なベクトル加算テスト プログラムを作成しました。私の問題は、Tesla C2075 GPU が Quadro 400 よりも強力であると考えられている一方で、仕事をするのにより多くの時間がかかることです. cudaMemcpy が実行時間のほとんどを占めており、より強力な GPU では動作が遅くなることがわかりました。ソースは次のとおりです。
出力は次のとおりです。
そして私の質問は次のとおりです。
- 使用する GPU に応じてコードを変更する必要がありますか?
- コードで指定されたブロック数、ブロックあたりのスレッド数と、GPU で使用可能なマルチプロセッサ数、マルチプロセッサあたりのコア数の間に関係はありますか?
Linux Open Suse 11.2 を実行しています。ソース コードは、nvcc コンパイラ (バージョン 4.2) を使用してコンパイルされます。
ご協力いただきありがとうございます!
windows-server-2008 - テスラ GPU の使用
私のマシンでは 3 つの GPU が接続されています。つまり、Tesla M2090 です。その GPU の使用状況を取得したい。GPU の使用状況を表示する NVIDIA SMI というツールがあります。しかし、オプション nvidia-smi.exe -d を実行しようとしたとき (メモリと GPU 使用率を知りたい)。助けてください
ドライバーのバージョン: 275.65 OS: Windows Server 2008 R2
matlab - Matlab GPUには古すぎるCUDAドライバー?
わかりました、これは問題を抱えているものです。最近、Tesla S2050 に接続された RHEL 5 を実行する x86_64 Linux システムに Matlab R2013a をインストールしました。私は、Matlab 自体で GPU 機能を使用したことはありません (ただし、Matlab で GPU をプログラムできる Jacket を使用していくつか試してみました)。
Tesla は、すべてのドライバーと CUDA がインストールされている状態で正常に動作しています (Jacket v1.8.2 は問題なく正常に動作しています)。
** ドライバー バージョン: 270.41.34 (S2050 をサポートする 2011 年の最後のバージョン) ** CUDA: v5.0.35 nvcc -V : Cuda コンパイル ツール、リリース 5.0、V0.2.1221
しかし、Matlab r2013a は文句を言います:
gpuDevice エラー: 原因: CUDA ドライバーが見つかりましたが、古すぎます。システムの CUDA ドライバーは CUDA バージョン 4 をサポートしています。必要な CUDA バージョンは 5 以上です。
これで、Matlab に Driver のバージョンに問題があるというエラーがわかりました。しかし、最新の CUDA ツールキットと、nVidia が所有する Tesla S2050 用に提供する最新のドライバーをインストールしました。
このTeslaで利用可能な最新のドライバーバージョンはありますか(最新のドライバーをダウンロードしましたが、インストールしようとすると、互換性のあるnVidiaハードウェアがないと不平を言うだけです)。
関連する CUDA を考慮するように Matlab に指示するにはどうすればよいですか? (もしあれば、PATH、CUDA_PATH などを設定する場所は?) 接続されたテスラの動作を評価するために実行する必要がある他のチェックはありますか?
助けてくれてありがとう。
cuda - Tesla GPU でのイベント サンプリング
CUDA の CUPTI ライブラリを使用して、実行された命令やメモリ アクセスなどのパフォーマンス カウンターを読み取ろうとしています。 「イベントサンプリングはTeslaファミリーデバイスではサポートされていません」と表示されます(私はGTS 250を使用しています)。これは、アプリケーションの実行中にカウンターを読み取ることができないということですか、それとも何か他のことですか?
ありがとう
cuda - NVML をクエリする CUDA コードを実行できない - libnvidia-ml.so に関するエラー
最近、同僚が NVML を使用してデバイス情報を照会する必要があったため、Tesla 開発キット 3.304.5 をダウンロードし、nvml.h ファイルを /usr/include にコピーしました。テストするために、サンプル コードを tdk_3.304.5/nvml/example にコンパイルしたところ、問題なく動作しました。
週末に、システムで何かが変更され (何が変更されたかを特定できず、マシンにアクセスできるのは私だけではありません)、サンプル コードなどの nvml.h を使用するコードは次のエラーで失敗します。 :
ただし、nvidia-smi を実行して K20m の状態に関する情報を読み取ることはできます。私の知る限り、nvidia-smi は nvml.h への一連の呼び出しにすぎません。表示されるエラー メッセージはやや不可解ですが、システムにインストールした Tesla ドライバーと nvidia-ml.so ファイルが一致する必要があることを示していると思います。すべてが正しいことを確認するために、CUDA 5.0 を再ダウンロードし、ドライバー、CUDA ランタイム、およびテスト ファイルをインストールしました。nvidia-ml.so ファイルがドライバー (どちらも 304.54) と一致することは確かなので、何が問題なのかについてかなり混乱しています。nvml.h が含まれていない限り、nvcc を使用してテスト コードをコンパイルして実行したり、独自の CUDA コードを実行したりできます。
誰かがこのエラーに遭遇したことがありますか、または問題を修正することについて何か考えがありますか?
編集: 解決策は、libnvidia-ml.so のすべての余分なインスタンスを削除することでした。なぜかたくさんありました。