問題タブ [gpu]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
language-agnostic - GPGPU はハックですか?
私は数日前に GPGPU の作業を開始し、優れたパフォーマンスでコレスキー分解を実装することに成功し、一部の人々が「GPGPU はハックである」と言ったハイパフォーマンス コンピューティングに関する会議に出席しました。
それが何を意味するのか、なぜ彼らがハックだと言ったのか、私はまだ混乱しています. 問題をマトリックスに変換し、それに対して操作を行っているため、これはハックであるとのことでした。しかし、それでも私は混乱しています。人々はそれがハックだと思っているのでしょうか?
誰も私を助けてくれませんか、なぜ彼らはそれをハックと呼んだのですか。
parallel-processing - Ubuntu9.04のATIStreamSDK
WindowsXPSP3でATIStreamSDKを使用し、GPUに1つのアルゴリズムを実装しました。しかし今、私はMPI(メッセージを送信するため)を使用するためにUBUNTUに切り替えた複数のマシン上の複数のGPUでこのアルゴリズムをスケーリングすることに興味があります。
これをグーグルで検索しましたが、SLESとRHELにインストールするためのリファレンスを入手しましたが、UBUNTU9.04を探しています。
ありがとうGG
math - GPU での高精度演算
HLSL を使用して GPU にアルゴリズムを実装することに興味がありますが、主な懸念事項の 1 つは、可変レベルの精度が必要なことです。GPU に実装できる 64 ビット以上の精度をエミュレートする手法はありますか。
ありがとう!
c# - GPUを利用してColorMatrixを適用する
ColorMatrixを使用して画像の色を変更するC#アプリケーションがあります。ColorMatrixがGPUを使用していないことを理解しています。GPUを使用して画像の色を変更したい場合、探索するのに最適な方法は何ですか?提案されたライブラリのどこを見ればよいかへのポインタ、例はさらにそうです!
cell - Cellプロセッサの死
前回、主に次の理由により、Cellプロセッサが停止していると主張する人がたくさんいました。
- ユーザーがLinuxをインストールできないため、新しいプレイステーション3でのサポートの欠如
- GPUの処理能力の向上とそのコストの低下
- CBEではなくさまざまなGPU用の統合プログラミングアプローチ(openCL)の存在(今日はCell向けに発表されました!)
- セルの実際の使用例のカロンシー(学界を除く)
- グローバルな失敗感
どう思いますか?2、3年前にセルのプログラミングを開始した場合、これを続行しますか、それともGPUへの切り替えを検討していますか?セルの新しいバージョンが登場しますか?
ありがとう
c++ - CL_MEM_OBJECT_ALLOCATION_FAILURE が表示されるのはなぜですか?
GPUに cl_mem バッファーを割り当てて作業していますが、これは特定のサイズを超えるまで正常に動作します。その場合、割り当て自体は成功しますが、実行またはコピーは成功しません。より高速な操作のためにデバイスのメモリを使用したいので、次のように割り当てます。
今私が理解していないのはサイズ制限です。約 16M バイトをコピーしていますが、約 128M バイトを使用できるはずです (「参考文献」を参照CL_DEVICE_MAX_MEM_ALLOC_SIZE
)。
これらの数値が大きく異なるのはなぜですか?
以下は、oclDeviceQuery からの抜粋です。
monitoring - グラフィックカードのメモリ使用量を知るには?
私のアプリケーションは遅いようですが、CPU と RAM に関しては問題ないようです。それで、使用しているグラフィックカードのメモリ量を知りたいです。SO でこれに関するいくつかの質問を見たことがありますが、それらは Linux または NVidia について話しています。Windows の ATI カードに関するこの情報を入手したいと思います。
ありがとう。
gpu - 純粋な GPU ゲームをプログラミングできますか?
私は CS の修士課程の学生で、次の学期には論文の作成を開始する必要があります。論文のアイデアを思いつくのに苦労しましたが、ゲーム開発に情熱を傾けていて、いつかプロのゲーム プログラマーとして働きたいと思っているので、コンピューター グラフィックスに関連するものにしようと決めました。
残念ながら、私は 3D コンピューター グラフィックスの分野に少し慣れていません。この分野の学部課程を受講しており、次の学期には上級課程を受講したいと考えています。また、さまざまな本や記事を読んで、より多くのことを学びました。それでも、私の指導教官は、私が今、一般的な論文のアイデアを思いつき、論文の提案を行う準備としてそれについて学ぶことに時間を費やした方が良いと考えています. スーパーバイザーはいくつかの良いアイデアを提供してくれましたが、自分でもっと面白いことをしたいと思っています。ゲームと関係があり、この分野についてもっと学ぶ機会が増えることを願っています. すでに完了しているかどうかは気にしません。私にとって論文は、物事について深く学び、自分自身で実質的な作業を行う機会です。
私は GPU プログラミングについてあまり詳しくなく、シェーダーや CUDA などの言語についてまだ学んでいます。私が思いついたアイデアの 1 つは、すべてのゲーム ロジック、AI、およびテストを含めて、GPU でゲーム全体 (または可能な限り) をプログラミングすることでした。これは、GPGPU に関する論文を読んで、このような質問に触発されたものです。私の知識ではそれがどれほど実現可能かはわかりません。また、上司は最近の GPU についてあまり詳しくありません。そのうち、この質問に自分で答えられるようになると思いますが、事前に答えを知っていれば、他のアイデアも検討できるので便利です。
ここまでできたら、私の質問です。シェーダーまたは CUDA のようなものだけを使用して、GPU の本来のパワーと並列性を活用する完全でシンプルな 3D ゲームを作成できますか? または、コードの大部分を常に CPU にバインドする GPU と CPU の間の制限または違いを見逃していますか? GPU で実行されている物理エンジンについて読んだことがありますが、それ以外はすべてそうではないのはなぜですか?
image - GPU から画像をキャプチャする
画面を実際にモニターに表示する必要なく、GPU から直接スクリーンショットをキャプチャする方法はありますか? ここで多くの投稿を確認しましたが、画面イメージをリモートでキャプチャするなどの回答しか見つかりませんでした。