アルゴリズムの CPU 時間を測定するために clock() を使用しています。
コードは次のようになります。
start_time = clock();
//code to be timed
.
end_time = clock();
elapsed_time = (end_time - start_time)*1000 / CLOCKS_PER_SEC;
printf("Time taken %d seconds %d milliseconds\n", elapsed_time/1000, elapsed_time%1000 );
しかし、結果として「0秒-175ミリ秒」になります。理由がわかりません。また、「1 秒 349 ミリ秒」には、実際には 10 分以上の時間がかかるようです。それは一般的ですか?