次のコードでminDateのミリ秒がゼロになるのはなぜですか?
maxDate = new Date(2013,0,1,0,0,1,200);
minDate = new Date(maxDate.getTime());
それが違いを生むなら、私はこれをChromeで見ていますか?
次のコードでminDateのミリ秒がゼロになるのはなぜですか?
maxDate = new Date(2013,0,1,0,0,1,200);
minDate = new Date(maxDate.getTime());
それが違いを生むなら、私はこれをChromeで見ていますか?
ミリ秒のminDate
間、ゼロはありません。ミリ秒はそこにmaxDate
あり、入りminDate
ます:
maxDate = new Date(2013,0,1,0,0,1,200);
console.log(maxDate.getMilliseconds());
minDate = new Date(maxDate.getTime());
console.log(minDate.getMilliseconds());
出力:
200
200
デモ: http: //jsfiddle.net/Guffa/2FCvz/