この質問は主に教育に関するものです。なぜなのか興味がありました。ここからプログラムを使用していますが、少し変更しました:
using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
namespace ConsoleApplication1
{
class Program
{
static void Main(string[] args)
{
long ticks = DateTime.Now.Ticks;
while(true)
{
if (ticks != DateTime.Now.Ticks)
{
long newTicks = DateTime.Now.Ticks;
Console.WriteLine(newTicks - ticks);
ticks = newTicks;
}
else
{
Console.WriteLine("same");
}
}
}
}
}
結果:
600ドル Lenovo Edge 11、Intel Pentium U5400、Windows 7 Home Basic
same
same
same
same
same
same
same
10000
same
same
10000$ HP DL360p Gen8 2 * Xeon E5-2640、Windows Server 2008 R2
same
same
same
same
same
same
same
156001
same
same
same
same
same
same
same
same
same
same
same
same
したがって、安価なノートブックの DateTime の精度は 10 ミリ秒ですが、高価なサーバー ハードウェアの精度は 156 ミリ秒です。
なんで?おそらくWindows 7はWindows Server 2008 R2よりも「正確」だと思いますが、これは私の推測です。両方のコンピューターに、最新の .NET フレームワークがすべて更新され、すべての Windows 更新プログラムがインストールされています。