アルゴリズムのタイミング(約ミリ秒単位)の場合、次の2つのアプローチのどちらが優れていますか。
clock_t start = clock();
algorithm();
clock_t end = clock();
double time = (double) (end-start) / CLOCKS_PER_SEC * 1000.0;
または、
time_t start = time(0);
algorithm();
time_t end = time(0);
double time = difftime(end, start) * 1000.0;
また、FreenodeのC ++チャネルでの議論から、クロックの解像度が非常に悪いことがわかっているため、(比較的)高速なアルゴリズムのタイミングはゼロになります。しかし、どちらがより良い解決time()またはclock()を持っていますか?それとも同じですか?