問題タブ [audioqueue]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - iphone、Objective c、オーディオファイルから生データを読み取る方法(コーデックを適用せずに)
iphoneのオーディオ/ヘッドホンジャックとデータを送受信するiphoneアプリを開発しています。ヘッドホンジャックとの間でデータを送受信できると思いますが、そのデータはコーデックが適用されたオーディオファイルです。オーディオファイルを読み取り、生データをヘッドホンジャックに送信したいのですが。どうすればよいですか。ヘルプやコードスニペットをいただければ幸いです。よろしく、アブドゥル・カヴィ
iphone - mp3 の AudioStreamBasicDescription
PCM を録音するオーディオ キューを使用していますが、mp3 を録音することができません。mFormatID を kAudioFormatMPEGLayer3 に変更すると、コールバック関数が起動されません。ドキュメントの例を使用しています。
iphone - オーディオファイルではなくバッファからヘッドフォンジャックオーディオをソースする方法は?
生データ (テキスト データ) をオーディオ ファイルではなくヘッドフォン ジャックに送信するアプリケーションを開発しています。フレームワークを使えばできると思いますAudioQueue
。しかし、私はそれを行う方法がわかりません。私のアプリは、squareup.com アプリと同じように機能するはずです。
pitch - audioqueue kAudioQueueParam_Pitch
OS 10.6 での Audio Queue Services のドキュメントに、ピッチ パラメータが含まれるようになりました。
kAudioQueueParam_Pitch Audio Queue の再生をピッチシフトするためのセント数。範囲は -2400 ~ 2400 セント (1200 セントは音楽の 1 オクターブに相当)。このパラメータは、タイム/ピッチ プロセッサが有効な場合にのみ使用できます。
同じドキュメントの他のセクションでは、使用可能なパラメーターはボリュームのみであり、上記の時間/ピッチ プロセッサへの参照は見つかりません。
これが何を指しているのか誰か知っていますか?パラメータに値を直接書き込んでも、再生には影響しません (ただし、エラーはスローされません)。同様に、ボリューム設定の書き込みも機能します。
Apple からのサポートがないのはいつものようにイライラします。
objective-c - AudioQueueCallBackからバッファを読み取る方法
AUdioQueueを使用して内蔵マイクからのオーディオを録音し、ソケットを介して送信しています。AudioQueueバッファーを、1回のショットでたとえば30秒のバッファーを録音するように設定し、bufferSizeを適切に割り当てています。これは、 AudioDataFormat。
次のコードは、オーディオをキャプチャするために割り当てる必要があるbufferSizeを計算します。
バッファを割り当てるための次のコードサンプル、
はい、あなたはそれを正しく推測しました、SpeakHereの例から参照されたコードのほとんど、AudioCallbackに関しては、私はバッファをキャプチャし、ソケットを介して他のマシンに送信する必要があります、
今、ログを見ると、データが来ていますが、そのようなパケットは256、320ではないと表示されます。もう一方の端でデータを渡すと、聞こえません。誰か教えてもらえますか、私は何をする必要がありますかpacketSize、私はbufferSizeがデータを送信するのに十分であるという印象を受けましたが、私は推測します、何かがパケットの数にも関係しています。
cocoa - AudioQueue、コールバックがオーディオを再生するために均一にヒットしていません
私のアプリでは、線形PCM形式のソケットを介してオーディオデータを受信します。一定の時間間隔で約50ミリ秒、AudioQueueを使用して同じものを再生します。AudioQueueSpeakHereの例のコードのほとんどを参照しました。違いのみMac OSで実行する必要がありますか?
以下は、関連するコードです。
AudioBufferDescription形式を設定します。
データを保持および再生するためのバッファの割り当て
ここで、bufferByteSizeは640で、バッファ数は3です。
キューを開始するには、
さて、私が期待していたことは、バッファを再生したときに自動的にコールバックにヒットするはずですが、それは起こっていませんでした、
だから、私がバッファを取得しているとき、私はバッファをエンキューしているので、これはコードです
バッファは適切だと思いますが、音が聞こえません。誰かが私を案内してくれますか、私が間違っていることを教えてください。
前もって感謝します
objective-c - AudioQueue、コールバックがヒットしたときにオーディオを再生、
私のアプリケーションでは、ソケットからバッファを受け取り、それを再生する必要があります。アプリは約50ミリ秒ごとにバッファを受け取ります。
私のやり方は次のとおりです。
1-オーディオフォーマットを定義します。これは次のようになります。
2--AudioQueueバッファの作成と割り当て
3-エンキューバッファ
4--キューを開始し、
今私は理解しています、それは既存のバッファを再生したときに自動的にコールバックをヒットし、次に新しいバッファを要求する必要がありますが、私の場合、バッファを取得しているときにコールバックを明示的に呼び出しているので、自動的にコールバックをヒットしません、これは正しい方法ですか
iphone - iOS、オーディオ キュー: バッファ サイズが一定でない
アプリケーションでAudio Queue Servicesを使用しています。バッファーを割り当てるときに、バッファー サイズを 30000 サンプルに設定します。
ただし、コールバックの後続の呼び出しは、次のinNumberPacketDescriptionsで行われます。
それらは常に 30000 に等しいとは限りません。なぜですか?
レコード形式の構成 ( CAStreamBasicDescriptionを使用):
3 つのバッファが使用されます。
macos - Airplay への Mac OS X ストリーミング オーディオ
Airplay デバイスを一覧表示し、AudioQueue API でそれらに接続するためのサンプル コードはありますか?
iphone - iPhoneの再生と録音の音量が小さい問題
私はvoipアプリのようなものを作っているので、同時に音を再生して録音できる必要があります。
しかし.. 再生と録音を同時に行うと、iPhone の音量が非常に小さくなりました。
使った
と
試みる
しかし..まだ音量が非常に小さい..
助けてください..!
PS
私は audioQueue でサウンドを再生し、audioUnit でサウンドを録音しています。