アプリケーションの設計方法について一般的な質問があります。Cuda のドキュメントを読みましたが、何を調べればよいかわかりません。誰かがそれに光を当てることができれば、本当に感謝しています。
株式についてリアルタイムで分析したいと考えています。たとえば、100 株とします。そして、更新された市場価格でストリーミングされるリアルタイムの市場データ フィードがあります。私がやりたいことは次のとおりです。
cudaカードの各ストックにメモリブラックを事前に割り当て、日中はメモリを保持します。
新しいデータが入ってくると、Cuda カードの対応するメモリを直接更新します。
更新後、シグナルまたはトリガイベントを発行して解析計算を開始します。
計算が終了したら、結果を CPU メモリに書き戻します。
ここに私の質問があります:
CPU メモリから GPU メモリにデータをストリーミングする最も効率的な方法は何ですか? 私はリアルタイムでそれをしたいので、メモリ スナップショットを CPU から GPU に毎秒コピーすることは受け入れられません。
CPU と GPU の両方で 100 株分のメモリ ブロックを割り当てる必要があるかもしれません。CPU メモリ セルを各 GPU メモリ セルにマッピングする方法を教えてください。
新しいデータが Cuda カードに到着したときに分析計算をトリガーする方法は?
Windows XP で Cuda 3.2 を搭載した Tesla C1060 を使用しています。
ご提案いただきありがとうございます。