問題タブ [avaudioengine]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
4169 参照

ios - Swift: 必要な条件が false: ファイル != nil

アプリは正常に動作しますが、chipmunkBut​​ton をタップするとすぐにアプリがクラッシュし、次のエラーが表示されます。

ERROR: AVAudioPlayerNode.mm:678: -[AVAudioPlayerNode scheduleFile:atTime:completionHandler:]: required condition is false: file != nil 2015-05-10 17:24:25.269 Pitch Perfect[50278:1897012] *** 終了アプリ例外 'com.apple.coreaudio.avfaudio' がキャッチされていないため、理由: '必要な条件が false: ファイル != nil' です。

0 投票する
6 に答える
11313 参照

ios - AVAudioEngine によるレベルメータリング

AVAudioEngineWWDC ビデオ (Session 502 in Practice) を見たばかりAVAudioEngineで、この技術を基にアプリを作成できることに非常に興奮しています。

マイクの入力やミキサーの出力のレベルを監視する方法がわかりません。

誰でも助けることができますか?明確にするために、チャンネル/トラックの入力/出力ボリューム設定ではなく、現在の入力信号を監視する (およびこれを UI に表示する) ことについて話しています。

でこれを実行できることはわかっていますが、これは が必要とするものでAVAudioRecorderはありません。AVAudioNodeAVAudioEngine

0 投票する
1 に答える
578 参照

core-audio - ヘッドフォンなしで AVAudioEngine で録音するときのエコー フィードバックの回避

AVAudioEngine を使用して、音声にリアルタイム エフェクトを適用しながらユーザーの音声を録音しています。

セッション中にユーザーが自分の声を聞くことができるようにする必要があるため、AVAudioEngine グラフを次のように接続しました。

inputNode -> オーディオ効果ノード -> mainMixerNode (ここにインストールされているタップ) -> outputNode

また、mainMixerNode にノード タップをインストールして、処理された音声をプルし、バッファに保存しました。

ヘッドフォンを接続している場合、これらはすべて正常に機能します。ただし、録音中にヘッドフォンを途中で外すと、多くの鋭いエコーとフィードバックが発生します。これは、音声が再生用の出力に送信され、ユーザーの元の入力音声が強化されるためだと思います。

録音セッション中にヘッドフォンが途中で抜かれた場合のフィードバックを最小限に抑える良い方法はありますか? mainMixerNode を動的に切断して、プラグを抜いているときに音声が出力にルーティングされないようにすることを考えましたが、より良い方法があるかどうかはわかりません。

理想的には、ユーザーがセッション内でヘッドフォンを何度も抜き差ししても、各録音セッションの最後に 1 つのオーディオ バッファーが必要です。

何かご意見は?前もって感謝します!

0 投票する
1 に答える
415 参照

ios - iOS で効果のあるオーディオ ファイルをエクスポートする方法

AVAudioEngine を使用して、エフェクト付きのマルチ オーディオ ファイルを再生しました。そして、このサウンド(エフェクトを含み、マルチファイルが再生されている)を録音せずにエクスポートしたいと思います。

どうすればそれができますか?

これは AVAudioEngine を使用するための私のコードです

0 投票する
1 に答える
1997 参照

ios - AVAudioEngine でネットワークからデータをストリーミングすることは可能ですか?

AVAudioEngineと を使用してローカル ファイル システムからファイルを再生するために使用するアプリがありAVAudioPlayerNodesますAVAudioFiles。これは完全に正常に機能します。

ここで、インターネット上のサーバーからの MP3 ファイルのストリーミングもサポートするようにセットアップを有効にしたいと考えています。

これまでに試したこと

NSURL私の希望は、ネットワーク アドレスを指すオブジェクトからある種のバッファを作成し、 AVAudioPlayerNode.

Stack Overflowインターネット全般を検索しましたが、これを実現するための良いヒントは見つかりませんでした。

ラインナップAVAudioEngineは次のとおりです。

  • AVAudioFileまたはからオーディオを再生できるAVAudioPlayerNodeAVAudioBuffer。今日はすでにAVAudioFile「ローカルファイルのセットアップ」に使用しています。
  • ローカル ファイルに使用されるAVAudioFile 。「AVAudioFile」は「NSURL」で作成されるため、Playground のようにサーバー上の MP3 ファイルを指す URL を試しました。

    /li>

このエラーで私に報酬を与えます:

  • AVAudioPCMBufferは、私が使用したいと思っていたクラスですが、データでインスタンス化する方法が見つかりません。

私の質問(明確にするために:-))

AVAudioEngineインターネット上のサーバーから MP3 ファイルをストリーミングする方法を知っている優秀な人はいますか?

それともあきらめてこれに使うべきAVPlayerですか?

あなたからの返信を楽しみにしています。

0 投票する
1 に答える
602 参照

ios - AvAudioEngine 出力使用時のヘッドフォンの音量の問題

AVAudioEngine を使用してユーザーの声をキャプチャしながら、リアルタイムのエフェクト (リバーブや sth など) を音声に適用しています。コードは次のとおりです。

マイク付きのヘッドフォン(イヤーポッドなど)でテストすると、すべてうまく機能しますが、マイクのない他のヘッドフォンを使用すると(iPhoneのマイクしか入力ソースとして使用できませんでした)、ヘッドフォンの右側のスピーカーは常にヘッドフォンの左側のスピーカーよりも小さく聞こえます。どうすれば修正できますか?

そして、コードを書くときに聞きたい別の質問があります

関数 "recordWithReverb" 内で、コードが正しく動作しません。出力が得られません。どうしてこうなったのですか?

0 投票する
1 に答える
1274 参照

ios - AVAudioSession で Bluetooth を使用して再生する

AVAudioSession を使用して Bluetooth デバイスを使用して音声を再生しようとしています。appdelegate.swift と viewcontroller.swiftの両方に入れようとしたコードをdidFinishLaunchingWithOptions次に示します (一度に 1 回)。

したがって、コードは完全に実行されますが、接続された Bluetooth デバイスは使用されません。実は、アプリを開いていないときにiPhoneのコントロールセンターを開いて、オーディオソースをBluetoothデバイスとしているのですが、アプリを開くとすぐにBluetoothデバイスのオプションが消えてしまいます...

コードの残りの部分(使用する場合)は-

基本的にはライブ オーディオ プレーヤーであり、マイクから音声を取得し、AUX、スピーカー、(Bluetooth) で再生します。