マイクロコントローラーでデジタル遅延を開発していますが、遅延減衰に悩まされています。遅延はくし形フィルターで実装されます。
ここにあります: http://www.tonmeister.ca/main/textbook/intro_to_sound_recording837x.png
「テープをエミュレートする」遅延ラインは、サーキュラ バッファとして実装されます。効果は殺される可能性があり、そのような場合は問題にはなりません。ただし、エフェクトをオフにすると、ディレイが凍結されてテールがゆっくりと減衰するかのように、処理するためにディレイのテールがバッファに残されます(フィードバックゲインに応じて)。
私の質問は、バッファを通してサンプルを何回再循環させる必要があるかということです。
これにアプローチするために私が考えた 1 つの方法は、物理プロセスをモデル化することである可能性があります...入力シーケンスのラウドネスがその全期間にわたって 0dB であり、遅延ラインを通過した後、1/1 の係数で減衰されると仮定します。 10. ラウドネスに関しては、シーケンスがフィードバック パスを通過するたびに、電力 = 電圧 ^2 として 20dB の低下に相当します。最も弱い可聴音の大きさは-130dBですが、周囲の騒音も考慮すると、最小基準電力として-120dBで十分です。したがって、エコーがフィードバック パスを 6 回 (120dB/20dB) 通過すると、エコーは聞こえなくなります。
より効率的な方法はありますか?
ありがとうございました!