GPUとCPUのパフォーマンスを比較しようとしています。NVIDIA GPUの場合cudaEvent_t
、非常に正確なタイミングを取得するためにタイプを使用しています。
CPUの場合、私は次のコードを使用しています。
// Timers
clock_t start, stop;
float elapsedTime = 0;
// Capture the start time
start = clock();
// Do something here
.......
// Capture the stop time
stop = clock();
// Retrieve time elapsed in milliseconds
elapsedTime = (float)(stop - start) / (float)CLOCKS_PER_SEC * 1000.0f;
どうやら、そのコードは数秒で数えている場合にのみ有効です。また、結果がかなり奇妙になることもあります。
Linuxで高解像度タイマーを作成する方法を知っている人はいますか?