つまり、100、200、300、400 などの範囲のデータに対して関数が経過する時間を計算する必要があります。これが私のコードです。
// start timer
time (&start);
someFun(some parameters);
// end timer
time (&end);
dif = difftime(end,start);
cstrTime.Format( _T("It took you %.6lf seconds to finish prediction.\n"),dif);
AfxMessageBox(cstrTime);
さて、問題は「someFun」の入力のサイズがどれほど大きくても、常に1.000000秒を返すことです。だから、もっと正確なタイマーを使うべきなのだろうか?アイデアはありますか?
乾杯