同期して再生する必要があるオーディオ ファイルが複数あります。Web Audio API がこれに最適なソリューションであることを読みました。しかし、これを達成する方法を示すドキュメントが見つかりません。
私が読んだほとんどすべての記事は、再生を開始するためにこれを行います。
//Let's say I have AudioBufferSourceNode connected to two buffers
var source1, source2;
source1.start(0);
source2.start(0);
これにより、source2 が source1 よりも少し遅れて再生を開始することはありませんか?
また、ソースが同期している理由は何ですか? ソースが同期して再生されることを保証するドキュメントは見つかりません。
ありがとう。