問題タブ [audio-analysis]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - Node.js の Web Audio API の AnalyserNode 代替
Web Audio API の AnalyserNode により、Web ブラウザでの音声解析を簡単に行うことができます。
Node.jsに似たものはありますか?
ios - 初心者向けのiOSでのオーディオ分析
音声分析を含む iOS アプリの開発を開始したいと考えています。Audio Session Programming Guideなどの Apple のドキュメントを読んでいますが、それでもオーディオ分析の出発点が必要です。たとえば、アプリで次のようなことを行う方法を知りたいShazam
です。2 つのオーディオ ファイル/ストリームを「比較」するにはどうすればよいですか? または、他のいくつかのアプリと同じように、オーディオ ファイルまたはストリームのリズムを検出して、たとえば同じリズムで動くアニメーションを表示するにはどうすればよいでしょうか?
ガイダンスが必要です。オーディオ分析の基本がいくつか欠けていることはわかっています。それらを学習するための出発点と、iOS アプリに適用する方法を教えていただければ幸いです。
前もって感謝します
python - Python 2/3 での Praat 統合
私はいくつかのオーディオ分析のために Praat に取り組んできました。ただし、Python で Praat を使用するライブラリをいくつか見つけて、同じことをしたいと考えています。
このサイトには、praat を使用すると抽出できる多くの機能が用意されています。私はそれをPythonに「統合」するための彼の指示に従いました。http://homepage.univie.ac.at/christian.herbst//python/index.html ただし、動作させることができませんでした。エラーを返します:\ OSError: [Errno 2] No such file or directory
別のライブラリも見つけました: https://pypi.python.org/pypi/python-praat-scripts。これもエラーを返します (以下のコードを実行すると): OSError: [Errno 13] Permission denied
誰かが praat を python に適切に統合するのを手伝ってくれれば素晴らしいことです。ありがとう。
audio - 音声認識なしで複数の声を検出
複数の人が話しているかどうかをリアルタイムで検出する方法はありますか? そのために音声認識 API が必要ですか?
音声を分離したくありませんし、文字起こしもしたくありません。私のアプローチは、1 つのマイク (-> モノラル) を使用して頻繁に録音し、それらの録音を分析することです。しかし、どうすれば声を検出して区別できるでしょうか? 該当する周波数だけを見て絞り込むのですが…。
これが些細な仕事ではないことは理解しています。だからこそ、箱から出してすぐにこれを実行できる API、できればモバイル/Web フレンドリーな API があることを願っています。
これはクリスマスの買い物リストのように聞こえるかもしれませんが、前述のように、内容について何も知る必要はありません。したがって、本格的な音声認識はパフォーマンスに大きな影響を与えると思います。
visualization - 音楽の視覚化のためのオーディオ分析と特徴抽出
音楽のビジュアライゼーションの取り組みをどのように進めるべきかについて、一般的な質問があります。私はクラシック音楽の作品を録音またはライブで視覚化することに興味があります。これまでは Processing を使用してきましたが、他のソフトウェアやプログラミング言語にもオープンです。私のバックグラウンドは音楽学と音楽理論であるため、音楽理論の概念や、MIR 研究が音楽の分析に利用できるようになったツールを取り入れて、それらに基づいた視覚化を作成できるようにしたいと考えています。
とはいえ、どこから始めたらいいのかわからない。MIR の概念を研究したい気がしますが、非常に専門的なものになる可能性があり、MIR 研究のすべての側面に精通している必要はないようです。たとえば、音楽を分析して視覚化したいのですが、合成はしたくありません。あるいは、音の合成について学ぶことは、視覚化にも役立つのでしょうか? そして、どの程度ですか?
または、いくつかのソフトウェア/言語を選択して、オーディオ分析用の特定のライブラリを試す方がよいでしょうか??
基本的に私のジレンマは、MIR 理論から始めるべきか、それとも音楽作品から抽出できる可能性のあるすべての機能の概要を把握する別の方法があるかということです。
この点についてアドバイスをいただければ幸いです。
ありがとう、イリアス