問題タブ [audioqueue]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 生の非圧縮サウンドをAudioQueueで再生します。サウンドはありません
ネットワーク経由でADPCMデータを再生するために、1つのキューで3つのバッファーを使用します。データは私のアプリからデコードされ、デコードされたデータ(非圧縮のpcmデータ)はAudacityから再生することで正しく検証されます。ただし、AudioQueueを使用してアプリから再生すると音が聞こえません。すべてのAudioQueueAPIの戻り値はnoErr(0)です。私はAudioQueueをフォローしようとしていますが、 3つのバッファを割り当ててもサウンドが出力されません。それは私にはうまくいきませんでした!誰かがAudioQueueログをもっと公開する方法を知っているので、障害点を見つけることができますか、それともコードに問題がありますか?ありがとう!
objective-c - AVCaptureSession と AudioQueue
私は Objective-C と iOS の初心者で、あなたの助けが必要です。マイクのオーディオ入力を受け取り、それをスピーカー出力内に直接リダイレクトしたいと思います (ファイルを経由せずに)。
私はここにいます: AVCaptureSession を使用してマイク入力を取得し、AudioQueue を使用して出力バッファーを再生しようとしています。しかし、私はインターネット上で何も見つけることができません.誰もそれをする必要はないようです. 私は何か誤解していますか?CMsampleBufferRef を、AudioQueue が再生に使用できる適切な pcmbuffer に変換する方法を知りたいだけです (したがって、AudioQueue で何を変更して AVCaptureSession とリンクするか)。それは良い方法ですか?出力バッファをファイルに書き込む方法はたくさんありますが、オンザフライで何かを行う、何もしない、またはまだ使用できない短い説明のみです。
私は初心者なので、サンプルコードで非常に詳細な説明をお願いします。今のところ、AVCaptureSession を動作させることができます (CMSampleBufferRef に何かがあります)。AudioQueue でファイルを再生できますが、これら 2 つをリンクしたい場合、どうすればよいかわかりません。
前もって感謝します
ios - (編集: iOS シミュレータ 5.x のバグ) iOS でのサウンド再生に AudioQueue を使用する場合の EXC_BAD_ACCESS
[編集: これは確認済みの iOS シミュレーターのバグです。5.0 で登場し、5.1 のままです。私自身の回答の下のリンクを参照してください]。
私たち。これは私の最初の質問です。私は本当に迷っています...
iOS で AudioQueue を使用してサウンドを再生する際に問題が発生します。AudioQueueNewOutput を使用して AudioQueue を作成すると、EXC_BAD_ACCESS が発生します。一部のオーディオ スレッドで発生するようです (Xcode ではスレッド 4 が表示されます)。
AudioQueue は次のように作成されます。
(dess には、iOS の標準的な再生形式が含まれています)。
これはエディタが示すものです:
Xcode 4.3.1
iOS シミュレーター 5.1
Mac OS X ライオン 10.7.3
本当にありがとうございました。何かご意見は?
iphone - AppDelegate の AVPlayer クラス参照が nil を返すのはなぜですか?
ユーザーが通話を受信するとオーディオが一時停止し、通話が終了すると再開するはずです。
しかし、私のクラスへの参照は、以下のMyAVPlayer
コード行で nil を返します。[myAVPlayer pauseAACStreaming:self];
[myAVPlayer playACCStreaming:self];
nil
オーディオを再生しているのに、なぜですか? それを行うより良い方法はありますか?
次のように、AppDelegate.ha にカスタム クラス MyAVPlayer への参照があります。
次に、 AppDelegate.m に次のものがあります。
audioqueue - AudioQueue は、特定の場所からファイルを再生します。?
AudioQueue サービスを介して AudioSeeking 機能を実装したいと考えています。単純に、20 秒の .wav ファイルがあります。
ios - このキュー プロパティ (iOS オーディオ キュー) の意味は何ですか?
音楽を再生するプレーヤーを書きたいと思います。以下のようなコードが表示されます。
AudioQueueProperty を設定する理由がわかりません。また、kAudioQueueProperty_MagicCookie についての手段は何ですか? ドキュメントからヘルプが見つかりません。問題を解決するための指示を与えることができる人。
ios - オーディオの再生と録音を同時に行う
再生と録音を同時に行う必要があります。問題は、再生されたサウンドと録音されたサウンドが異なる必要があることです。再生された sound_1 は、ヘッドフォン ジャックを介して接続されたデバイスに連続的に送信され、デバイスはこの sound_1 を分析し、別の sound_2 をヘッドフォン ジャックを介して送り返します。このsound_2を受け取りましたが、録音しようとすると、sound_1とsound_2が混在しています。個別に再生/録音する方法はありますか? または、着信する sound_2 に何らかのフィルターが必要ですか? AVAudioPlayerで音を再生してAudioQueueで録音しようとしたところ、セッションはPlayAndRecordでした。
同様のトピックを見つけました: iOS でヘッドセット ジャック ピンを使用してオーディオを同時に再生および録音しますか?
しかし、建設的な答えもありませんでした。
iphone - AudioQueue のサンプル値が間違っている
オーディオ サンプル値を読み取る必要があります。その audioQueue コールバックに使用しています (Apple SpeakHere の例から):
値が返されますが、大胆さのグラフと比較すると、間違っているようです:
Audacity の値は 1 (65535) から -1 (0) です。したがって、論理的には、最初のサンプル値は 32767 で、2 番目のサンプル値は ~50 000 である必要があります ...
しかし、私は他の結果を受け取ります:
質問 - mAudioData から返されるサンプル値が間違っているのはなぜですか?
iphone - iPhoneのマイクが再生音を録音しないようにする方法は?
私は現在、録音と再生を同時に行う必要があるアプリに取り組んでいますが、特定の周波数で特定のビープ音のみを鳴らします。これはすべて、 avaudioplayer を使用してサウンドを再生し、 audioqueue を使用して必要な周波数で放出することで正常に機能します。目的は、他のデバイスから信号を取得して処理することです。
残念ながら、アプリが「自分自身を聞く」ため、サウンドを再生するたびに処理もトリガーされます。深刻な信号処理/ソフトウェアのトリックなどの有無にかかわらず、これを何らかの形でキャンセルする方法があるかどうか疑問に思っていました.
私の解決策は、avaudioplayerがサウンドを再生している間、フラグを使用してアプリを聴覚障害者にし、フラグを変更するために仕上げを委任することです。まあ..それは本当に正確ではありません:(
どんな助けでも大歓迎です!
iphone - AudioQueue出力コールバックは3回のみ発生します(nBuffers回)
でオーディオ出力プロセスを開始するとAudioQueueStart(out.queue, nil)
、出力コールバックは3回だけ起動します(これは割り当てられたバッファーの数です)。
これが私の出力コールバックコードです:
バッファが不足していることが原因だと思いますが、私の出力は次のとおりです。
したがって、AudioQueueが3番目のバッファを埋め始める前に、最初のバッファがエンキューされます。バッファが不足することはありません。
ここでは何が起きるのですか ?