問題タブ [gpu]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
cuda - 異なるCUDASDK間のパフォーマンスの違いは?
nVidiaのCUDASDKの能力を活用するようにアプリケーションを書き直したい場合、異なるSDK製品(C ++、Java、Python)間で実行時のパフォーマンスにまったく違いはありますか?
使用されている明らかな言語以外に、これら3つのSDKの間にまったく違いはありますか?
optimization - 行列の乗算を集中的に使用する処理数または科学シミュレーション アプリケーション
私の研究では、サイズが 1000 ~ 10000 の行列乗算のコードがあります。かなり高速に見え、計算には GPU を使用します。宿題として、ボトルネックが行列の乗算にある、利用可能なソース コードを使用して、数を計算するアプリケーションを見つける必要があります。プログラムを行列乗算用の GPU コードに接続し、高速化を測定します。
私の質問は、そのようなアプリケーションに関する情報をどこで見つけることができるか、またはそれらのいくつかを教えていただけないかということです。科学的なシミュレーション コードも役に立ちます。私たちの先生は分子動力学などについて話しましたが、私たちはコンピューターサイエンスの学生であり、その経験はありません。
どうもありがとう
cuda - CUDA: 独自の PTX 関数を注入しますか?
C インターフェイスにまだ実装されていない PTX 1.3 の機能を使用できるようにしたいと考えています。PTX で独自の関数を記述し、既存のバイナリに挿入する方法はありますか?
私が探している機能は、%smid
parallel-processing - Recommendations for Open Source Parallel programming IDE
What are the best IDE's / IDE plugins / Tools, etc for programming with CUDA / MPI etc?
I've been working in these frameworks for a short while but feel like the IDE could be doing more heavy lifting in terms of scaling and job processing interactions.
(I usually use Eclipse or Netbeans, and usually in C/C++ with occasional Java, and its a vague question but I can't think of any more specific way to put it)
algorithm - GPUでハフマンデコードを実現することは可能ですか?
ハフマンコーディングでエンコードされたデータベースがあります。ここでの目的は、関連するデコーダーを使用して GPU にコピーすることです。次に GPU でデータベースをデコードし、CPU にコピーして戻さずに、このデコードされたデータベースで処理を行います。
私はハフマンの専門家には程遠いですが、私が知っている少数の情報によると、これは本質的に制御構造に基づくアルゴリズムのようです。基本的なアルゴリズムでは、シリアライズされた操作が多くなると思います。
私の2つの質問は次のとおりです。
- ハフマンコーディング用の効率的な GPU バージョンが存在するかどうか知っていますか?
- そうでない場合、GPU に適合する (つまり、制御構造が少ない) ハフマン アルゴリズムが存在すると思いますか? または、効率的なハフマン デコードが GPU では効率的でないことを知っている (そして参照を提供できる) かもしれません。
他の制約も見られますが、重要ではありません: - GPU はツリーを処理するのにあまり効率的ではありませんでした: バイナリ ツリーは従来の配列に格納できます - ワークロードのバランスをとるのが難しい場合があります: 後で説明します
c - CUDAプログラミング用の新しいMacBookProでnVidiaカードをプログラムでアクティブ化するにはどうすればよいですか?
新しいMacBookProには、IntelHDグラフィックスとNVIDIAGeForceGT330Mの2つのグラフィックアダプタが付属しています。OS Xは、ワークロード、外部モニターの検出、またはRosettaのアクティブ化に応じて、それらを切り替えます。
CUDAプログラミングで足を濡らしたいのですが、残念ながらCUDASDKはこの前後の切り替えを処理していないようです。Intelがアクティブな場合、CUDAデバイスは検出されず、NVidiaカードがアクティブな場合は検出されます。したがって、現在の回避策は、小さなツールgfxCardStatus(http://codykrieger.com/gfxCardStatus/)を使用して、必要に応じてカードを強制的にオンまたはオフにすることですが、それでは不十分です。
ここで誰かが、Appleが祝福し、Appleが推奨する方法が、(1)CUDAカードの存在を検出し、(2)存在する場合にこのカードをアクティブ化する方法を知っていますか?
wpf - GPU 集中型アプリケーション使用時の WPF/Silverlight パフォーマンス
私は言及された分野の初心者であるため、この質問ではリンゴとオレンジを混ぜている可能性があるため、私の意味を理解してください.
WPF (およびその拡張としての Silverlight) は、GPU アクセラレーションを使用して画面上にレンダリングすることを読みました。
その場合、GPU を多用するアプリケーション (ウィンドウ モードのゲームなど) を既に実行していて、GPU 時間/電力を必要とする WPF/Silverlight アプリケーションを実行するとどうなりますか? 優先順位が高いのは誰ですか? 彼らは両方とも「吃音」を始めますか?
ありがとう!
compilation - NVIDIACUDASDKの例コンパイルサポートされていないアーキテクチャ'compute_20'
CUDA SDKのコンパイル時に、nvccが致命的です:サポートされていないgpuアーキテクチャ'compute_20'私のツールキットは2.3であり、共有システム上にあり(つまり、実際にはアップグレードできません)、ドライバーバージョンも2.3であり、4テスラC1060で実行されています
それが役立つ場合、問題は基数ソートで呼び出されています。
オンラインでこの問題を抱えている人が何人かいるようですが、実際に解決策を提供する場所は見つかりませんでした。
cuda - ハードウェアなしのCUDAプログラミング用のGPUエミュレーター
質問:実際のハードウェアがなくてもCUDAをプログラムおよびテストできるGeforceカード用のエミュレーターはありますか?
情報:
私はCUDAで私のシミュレーションをいくつか高速化することを目指していますが、私の問題は、この開発を行うために常にデスクトップの周りにいるとは限らないことです。代わりにネットブックで作業をしたいのですが、ネットブックにGPUがありません。私の知る限り、CUDAを実行するにはCUDA対応のGPUが必要です。これを回避する方法はありますか?唯一の方法はGPUエミュレーターのようです(これは明らかに非常に遅いですが、機能します)。しかし、これを行う方法が何であれ、私は聞きたいと思います。
私はUbuntu10.04LTSでプログラミングしています。
c++ - char ** データ型をデバイスに送信しています
デバイスに送信したい文字ポインタの配列があります。誰か教えてくれませんか?
これが私がこれまでに試したことです:
上記の 2 つの関数にパラメーターを渡すにはどうすればよいですか? 最後に、カーネルをどのように呼び出す必要がありますか? (単に b や *b などを渡すだけですか?)