問題タブ [amplitude]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - サウンド ファイル内の特定の時間における振幅を取得しますか?
私は、コンピューターのマイクから入ってくる音の振幅を知る必要があるプロジェクトに取り組んでいます。
現在、 Snack Sound ToolkitでPython を使用しており、マイクからの音声を録音できますが、その音声の音量を知る必要があります。録音をファイルに保存し、別のツールキットを使用してオーディオ ファイルから特定の時点での振幅を読み取るか、オーディオが入ってくる間に振幅を取得しようとすることができます (エラーが発生しやすくなる可能性があります)。
これに役立つライブラリやサンプル コードはありますか? 調べてみたところ、Snack Sound Toolkit が私の最善の希望のようですが、振幅に直接アクセスする方法はないようです。
flash - Flash Player 9 を使用して Flash AS3 で周波数と振幅を計算する方法
FP9 で As3 の周波数と振幅を計算するにはどうすればよいですか。を使用してすべての生のバイトを取得しました
周波数と振幅のデータを取得できますか?
simulink - Simulink: 振幅が -1 から +1 のパルス発生器を形成可能
わかりました - Simulink を起動して実行しており、Pulse Generator を非常に単純な伝達関数とスコープで使用しています。ただし、0 から +1 ではなく、-1 から +1 になるパルスを使用したいと思います。振幅が -1 ~ +1 になるように Pulse Generator ブロックを変更する方法はありますか?
ありがとう。
java - 振幅のグラフ化
誰かが私に良いチュートリアルを教えてくれるか、バイト配列から振幅をグラフ化する方法を教えてくれるかどうか疑問に思っていました. 私が使用しているオーディオ形式は、U LAW 8000.0 Hz、8 ビット、モノラル、1 バイト/フレームです。
android - Androidでの音声アクティビティの検出
既存の音声認識と同様に動作するアプリケーションを作成していますが、音声データを独自のWebサービスに送信して、音声認識部分を実行します。音声認識に最適な標準のMediaRecord(AMR-NBエンコード)を使用しています。これによって提供される唯一のデータは、getMaxAmplitude()メソッドを介したAmplitudeです。
人が話し始めたときを検出して、人が約2秒間話しなくなったときに、音声データをWebサービスに送信できるようにしようとしています。現在、振幅のしきい値を使用しています。振幅が値(つまり、1500)を超えると、その人が話していると想定します。私の懸念は、振幅レベルがデバイス(つまり、Nexus One v Droid)によって異なる可能性があることです。そのため、振幅値から導き出すことができる、これに対するより標準的なアプローチを探しています。
PS私はグラフ化-振幅を見ましたが、それは振幅だけでそれを行う方法を提供していません。
linux - オーディオ ファイルから振幅のリストを取得するにはどうすればよいですか?
Linux コマンド ライン ツールを使用してオーディオ ファイルから振幅のリストを取得するにはどうすればよいですか?
python - Python で使用するために *.wav ファイルから振幅リストを抽出する
プログラミングと変換に少し問題があります。楽器で演奏された音符を認識する AI を設計しており、wave ファイルから生のサウンド データを抽出する必要があります。私の目的は、AI で使用するために、ファイル内の時間のチャンクに対して FFT 操作を実行することです。このためには、オーディオ ファイルの振幅リストが必要ですが、機能する変換手法が見つからないようです。ファイルは MP3 として始まり、次にそれらを wav ファイルに変換しますが、読み込もうとすると意味不明な内容を吐き出す圧縮ファイルになってしまいます。wavファイルをPythonのwaveモジュールと互換性のあるもの、またはデータを振幅リストに直接変換するものに変換する方法を知っている人はいますか?
fft - データの大きなチャンクにFFTを使用して、振幅-周波数応答をプロットするにはどうすればよいですか?
私はプログラマーであり、優れた数学者ではないため、FFTは私にとってブラックボックスのようなものです。Rightmarkオーディオなどのソフトウェアのように、データをFFTライブラリに入れて、プロット可能なAFR(振幅-周波数応答)データを取得したいと思います。します:
http://www.ixbt.com/proaudio/behringer/3031a/fr-hf.png
これで、対数掃引正弦波(鋭いエッジを避けるために短いフェードイン/フェードアウト)を再生し、オーディオシステムからの応答を記録するシステムができました。
私が理解している限り、入力をゼロから2 ^ nまで埋め、オーディオサンプルを複素数の実数部として使用し、虚数= 0に設定する必要があります。そうすれば、FFTから周波数ビン配列を半分に戻すことができます。入力データの長さ。
しかし、オーディオバッファが提供する数秒のような大きな周波数解像度が必要ない場合は、たとえば1024サイズのFFTウィンドウを作成し、オーディオのチャンクをフィードして、考慮に入れて512の周波数ポイントを取得する正しい方法は何ですか?渡したすべてのデータ?または、それが不可能であり、必要なすべてのAFRデータを取得するために、掃引正弦波全体を一度にフィードする必要がありますか?
また、スムージングが必要ですか?FFTからの生の出力は本当にノイズが多いかもしれないことを見てきました。ノイズをできるだけ早く回避する正しい方法は何ですか?したがって、ノイズはAFR自体からのものであり、FFT計算からのものではありません(私が与えたリンクの画像のように-かなり滑らかに見えます)?
私はC++/ C#プログラマーです。スイープされたサインエンドのチャンクを処理してAFRデータを取得する方法を示す例をいただければ幸いです。今のところ、データを小さなチャンクでリアルタイムに処理する例しか見つかりませんでしたが、それは私が必要としているものではありません。
c++ - WaveForm オーディオを増幅する正しい式は何ですか?
C ++からWaveFormオーディオを増幅する正しい式は何だろうと思っています。
次の 16 ビットの波形データがあるとします: 0x0000 0x2000, 0x3000, 0x2000, 0x0000, (負の部分), ...
音響上の理由により、数値を 2 倍にしただけでは、次のように 2 倍のオーディオにはなりません: 0x0000 0x4000、0x6000、0x4000、0x0000、(2 倍の負の部分)、...
音声加工に詳しい方がいらっしゃいましたら教えてください。
fft - キスFFTビン振幅
私はFFTの研究にかなりの時間を費やしてきました。KISSFFT は非常に移植性の高い C 実装であるため、特に KISSFFT の使用に興味があります。
i[x] と r[x] を周波数ビンの振幅に変換する方法はまだよくわかりません。そのため、signed int 16 バージョンの sin を作成しました。私の正弦波のサンプルは 512 個あります。1 つの Bin にはデータがあり、残りは 0 であると予想していました。そうじゃない...
これが私のコードです...
}
私はこのような結果を得ています....