timeGetTime関数のドキュメントには次のように書かれています。
timeGetTime 関数のデフォルトの精度は、マシンによっては 5 ミリ秒以上になる場合があります。timeBeginPeriod および timeEndPeriod 関数を使用して、timeGetTime の精度を上げることができます。
したがって、精度はシステムに依存します。しかし、精度を上げたくない場合は、現在のシステムでそれが何であるかを知りたいだけです。それを取得するための標準的な方法 (API など) はありますか? それともtimeGetTime
、しばらくポーリングして、出てくるものを見て、そこから推測する必要がありますか?