サンプルのブロックとそれに相当する時間との関係について疑問に思っています。これまでの大まかな考えを考えると:
1 秒あたりに再生されるサンプル数 = 合計ファイルサイズ / 再生時間。
たとえば、1.02MB のファイルと 12 秒 (平均) の長さのファイルがあるとすると、1 秒あたり約 89,300 サンプルが再生されることになります。これは正しいですか?
これを計算する他の方法はありますか?たとえば、byte[1024] 配列がどれくらいの時間に相当するかを知るにはどうすればよいですか?