問題タブ [ezaudio]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
2891 参照

ios - Accelerate Framework を使用して、このコードが音量をデシベルに変換する方法を誰か説明できますか?

EZAudio を使用して iOS アプリを作成しています。float**そのデリゲートは、検出されたボリュームを示す float 値を含むバッファーを返します。このデリゲートは常に呼び出され、その作業は別のスレッドで行われます。

私がやろうとしているのは、EZAudio から float 値を取得し、それをデシベルに変換することです。


EZAudioDelegate

マイク データを取得するための簡略化された EZAudio デリゲートを次に示します


問題

問題は、以下のリンクからソリューションを実装した後、それがどのように機能するのか理解できないことです. 誰かが音量をデシベルに変換する方法を説明できれば、とても感謝しています


コード

このソリューションでは、Accelerate Frameworkの次のメソッドを使用して、音量をデシベルに変換します。

以下はgetDecibelsFromVolume、EZAudio Delegate から呼び出されるメソッドです。デリゲートからfloat** bufferandが渡されます。bufferSize

0 投票する
1 に答える
673 参照

ios - EZAudio : 後で使用するために AudioBufferList 構造体を NSMutableArray に格納する方法は?

EZAudio ライブラリを使用して Objective-C で iPhone アプリを作成しています。

EZMicrophone クラスと EZRecorder クラスを使用して、オーディオをディスクに保存します。それでも、録音と保存を遅らせたいので、EZMicrophone が使用するデリゲート メソッドで受け取った AudioBufferList 構造体を NSMutableArray に渡す必要があります。

デリゲート メソッドで受け取った AudioBufferList 構造体を後で使用するために NSMutableArray に渡すのに問題があります。

AudioBufferList 構造体を NSValue にカプセル化しました。

起源

デリゲート メソッドは次のとおりです。

そして、AudioBufferList の NSMutableArray を受け取るメソッドは次のとおりです。

エラーが発生します:

エラー: アプリでファイルを再生すると、オーディオ ファイルからオーディオ データを読み取れませんでした (-66567)

でもいつ :

はデリゲート メソッドにあり、オーディオ ファイルは問題なく読み取られるので、私の質問は、その AudioBufferList 構造体をプロセスで失われないオブジェクトにカプセル化するにはどうすればよいかということです。私のアプリのために、それらが必要であることを知っています2 つの別々の方法。

また、アプリをデバッグすると、createAudioFile メソッドで、構造変数が適切にコピーされていることがわかりますが、(void*) であるバッファーはデリゲート メソッドで見つかったものとは異なります。(内容とアドレスが異なります)

メソッドを通過させようとしているコア オーディオ タイプの AudioBufferList と AudioBuffer を次に示します。

ご協力いただきありがとうございます。もちろん、詳細についてはご相談に応じます。

0 投票する
0 に答える
351 参照

ios - マイク入力をプロットする際のレイテンシ

マイク入力を取得するために AVFoundation を使用し、マイク入力をプロットするために EZAudio を使用しています。コードを非常に基本的なものに落としましたが、それでもレイテンシーが発生します。これは奇妙なことです。これはコードです:

私は何か間違ったことをしていますか?

0 投票する
1 に答える
530 参照

ios - EZAudio EZMicrophone のサイズを大きくするにはどうすればよいですか?

EZAudio フレームワークを使用して、リアルタイムのマイク信号 FFT 処理と、ピーク周波数を決定するための他の処理を行いたいと考えています。

問題は、EZmicrophone クラスが 512 サンプルでしか動作しないように見えることですが、私の信号には 8192 または 16384 サンプルの FFT が必要です。EZMicrophone でバッファー サイズを変更する方法はないようですが、ターゲット サイズの配列を作成してマイク バッファーを追加し、いっぱいになったら FFT を実行することを推奨する投稿を読みました。

ただし、これを行うと、データのないメモリの大きなチャンク、またはコピーされたメモリのセグメント間の不連続が発生します。マイクデリゲートが呼び出されているタイミングや順序、または別のスレッドでメモリが上書きされていることに関係している可能性があると思います...ここでストローをつかんでいます。マイク バッファが新しい 512 サンプルでいっぱいになるたびに、このコードが実行されていると仮定するのは正しいですか?

誰かが私が間違っているかもしれないことを提案できますか? 私はこれに長い間立ち往生してきました。

これは私が参照として使用している投稿です: EZAudio: バッファサイズをFFTウィンドウサイズからどのように分離しますか(より高い周波数ビン解像度が必要です)。

0 投票する
2 に答える
591 参照

ios - マイク入力を使用するアプリは、バックグラウンドに送信されると終了します

マイク入力を取得して分析する iOS アプリを作成しました。分析に基づいて、アプリはユーザーに通知を送信する必要があります。ただし、アプリをバックグラウンドに送信すると、数秒後にアプリが終了します。このリンクを使用して、Info.plist に関連するプロパティを設定しました。特にRequired background modesvalue を持つキーApp plays audio or streams audio/video using Airplay。他にやらなければならないこと、見逃したことはありますか?

関連するかどうかはわかりませんが、EZAudio を使用してマイクにアクセスしています。

0 投票する
1 に答える
317 参照

objective-c - EZAudio の出力ソースに一貫性がありませんか? と EZAudio のプロット ミラーに一貫性がありませんか?

ランダムな出力ソースを使用して、電話の聴覚スピーカーを使用する場合もあれば、ラウドスピーカーを使用する場合もあります。

shouldMirror が常に YES に設定されていても、EZAudioPlotGL を実装しました。助言がありますか ?

0 投票する
1 に答える
181 参照

ios - EZAudioを使用してオーディオファイルから画像(.png)波形を取得するにはどうすればよいですか

AudioPlot Frame で波形を表示することはできますが、画像として取得することはできませんでした。EZAudioにはそのような方法がありますか?そして、どうすればそれを使用できますか?