問題タブ [gpu]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
directx - DirectXでの頂点法線の計算
学習経験として、私は即時モードで管理されるDirectX9アプリケーションを作成しています。
グーローシェーディングをスムーズにするために、シーン内のすべての三角形の頂点法線を手動で計算しています。
これは期待どおりに機能しますが、これは最も効率的なアプローチではないと思います。GPUにこれを実行させることは可能ですか?
monitoring - グラフィックス カードの使用状況を監視する
特定のアプリケーションを実行しているときに、グラフィック カードの使用量を監視するにはどうすればよいですか? アプリケーションがどれだけ GPU を使用しているかを知りたいです。
sdk - OpenCL SDKを入手するにはどうすればよいですか?
私はhttp://www.khronos.org/Webサイトを熟読していましたが、OpenCLのヘッダーのみが見つかりました(私が気にしないOpenGLではありません)。OpenCL SDKを入手するにはどうすればよいですか?
.net - GPUを利用して.NETからAES暗号化を行うことはできますか?もしそうなら、どのように?
ダブリンのトリニティカレッジからの興味深い論文:
コモディティグラフィックスプロセッシングユニットでのAES暗号化の実装と分析
彼らの手法では、openGLを使用してGPUを使用し、AESに必要な数値変換を実行します。
マネージド.NETライブラリを介してこの機能(ストリーム暗号化の実行)を公開することはどれほど難しいでしょうか?
どうすれば始められますか?ヒント?例?
編集:CUDAまたはアクセラレータを使用して関連する経験がある人はいますか?
cuda - cudaMemcpyToSymbol はデータをコピーしません
__constant__
すべてのカーネルのすべてのスレッドがアクセスするメモリを使用したいと考えています。
宣言はこのようなものです
を使用してこの変数にデータをコピーしています
Smooth_size = 7K バイト
それは私に間違った出力を与えていました
しかし、-deviceemu
モードで実行し、カーネル内のこれらの両方の変数の内容を出力しようとすると、スムーズですべてゼロになり、smooth_local は正しくなりました。
cudaMemcpyToSymbol
まだ0が表示された直後に出力を印刷しようとしました。
誰でも私の問題に光を当てることができますか?
c++ - C++ (できれば WMI?) を使用して GPU 情報を抽出する
C++ を使用して GPU を抽出する方法を知りたいです。ただし、私が興味を持っている情報は、Win32_VideoController クラス (ああ、プログラミングのマーフィーの法則) から入手できるデータではありません。具体的には、(メモリとシェーダーのクロック) に興味があります。
その情報を得る方法を知りたいです。
DirectX に関する知識が不足しているため (実際、ゼロ :P)、可能であれば DirectX クエリを回避したいと考えています。ただし、それが最も簡単な方法である場合は、喜んで試してみます。リンク/チュートリアルは大歓迎です。
ありがとう
c++ - SetupDiEnumDeviceInfo で GPU クロック速度を取得する
以前、GPU クロック速度の取得に関する質問を投稿しましたが、誰かが回答したため、スレッドは既に回答されているように見えました。
メンバーの 1 人から、SetupDiEnumDeviceInfo を使用して GPU クロック速度を抽出するようにアドバイスされました。
ただし、次のようないくつかの例を見回しました: http://www.codeproject.com/KB/system/DevMgr.aspx
クロック速度については何も表示されていないようでした。
可能であれば、誰かがこれを達成する方法を詳しく説明してもらえますか?
再度、感謝します
parallel-processing - 複数のGPUでコレスキー分解をスケーリングする方法
ATI Stream SDKを使用してGPUで大きな線形方程式を解くために、コレスキー分解を実装しました。今度は、ますます多くのGPUの計算能力を活用したいと考えており、このコードを複数のGPUで実行したいと考えています。
現在、1台のマシンと1台のGPUがインストールされており、コレスキー分解が正しく実行されています。Nマシンで実行したいのですが、すべてに1つのGPUがインストールされています。だから私にどのように進めるべきか提案してください。