問題タブ [avaudioengine]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - Swift: 必要な条件が false: ファイル != nil
アプリは正常に動作しますが、chipmunkButton をタップするとすぐにアプリがクラッシュし、次のエラーが表示されます。
ERROR: AVAudioPlayerNode.mm:678: -[AVAudioPlayerNode scheduleFile:atTime:completionHandler:]: required condition is false: file != nil 2015-05-10 17:24:25.269 Pitch Perfect[50278:1897012] *** 終了アプリ例外 'com.apple.coreaudio.avfaudio' がキャッチされていないため、理由: '必要な条件が false: ファイル != nil' です。
ios - AVAudioEngine によるレベルメータリング
AVAudioEngine
WWDC ビデオ (Session 502 in Practice) を見たばかりAVAudioEngine
で、この技術を基にアプリを作成できることに非常に興奮しています。
マイクの入力やミキサーの出力のレベルを監視する方法がわかりません。
誰でも助けることができますか?明確にするために、チャンネル/トラックの入力/出力ボリューム設定ではなく、現在の入力信号を監視する (およびこれを UI に表示する) ことについて話しています。
でこれを実行できることはわかっていますが、これは が必要とするものでAVAudioRecorder
はありません。AVAudioNode
AVAudioEngine
core-audio - ヘッドフォンなしで AVAudioEngine で録音するときのエコー フィードバックの回避
AVAudioEngine を使用して、音声にリアルタイム エフェクトを適用しながらユーザーの音声を録音しています。
セッション中にユーザーが自分の声を聞くことができるようにする必要があるため、AVAudioEngine グラフを次のように接続しました。
inputNode -> オーディオ効果ノード -> mainMixerNode (ここにインストールされているタップ) -> outputNode
また、mainMixerNode にノード タップをインストールして、処理された音声をプルし、バッファに保存しました。
ヘッドフォンを接続している場合、これらはすべて正常に機能します。ただし、録音中にヘッドフォンを途中で外すと、多くの鋭いエコーとフィードバックが発生します。これは、音声が再生用の出力に送信され、ユーザーの元の入力音声が強化されるためだと思います。
録音セッション中にヘッドフォンが途中で抜かれた場合のフィードバックを最小限に抑える良い方法はありますか? mainMixerNode を動的に切断して、プラグを抜いているときに音声が出力にルーティングされないようにすることを考えましたが、より良い方法があるかどうかはわかりません。
理想的には、ユーザーがセッション内でヘッドフォンを何度も抜き差ししても、各録音セッションの最後に 1 つのオーディオ バッファーが必要です。
何かご意見は?前もって感謝します!
ios - iOS で効果のあるオーディオ ファイルをエクスポートする方法
AVAudioEngine を使用して、エフェクト付きのマルチ オーディオ ファイルを再生しました。そして、このサウンド(エフェクトを含み、マルチファイルが再生されている)を録音せずにエクスポートしたいと思います。
どうすればそれができますか?
これは AVAudioEngine を使用するための私のコードです
ios - AVAudioEngine でネットワークからデータをストリーミングすることは可能ですか?
AVAudioEngine
と を使用してローカル ファイル システムからファイルを再生するために使用するアプリがありAVAudioPlayerNodes
ますAVAudioFiles
。これは完全に正常に機能します。
ここで、インターネット上のサーバーからの MP3 ファイルのストリーミングもサポートするようにセットアップを有効にしたいと考えています。
これまでに試したこと
NSURL
私の希望は、ネットワーク アドレスを指すオブジェクトからある種のバッファを作成し、 AVAudioPlayerNode
.
Stack Overflowとインターネット全般を検索しましたが、これを実現するための良いヒントは見つかりませんでした。
ラインナップAVAudioEngine
は次のとおりです。
AVAudioFile
またはからオーディオを再生できるAVAudioPlayerNodeAVAudioBuffer
。今日はすでにAVAudioFile
「ローカルファイルのセットアップ」に使用しています。ローカル ファイルに使用されるAVAudioFile 。「AVAudioFile」は「NSURL」で作成されるため、Playground のようにサーバー上の MP3 ファイルを指す URL を試しました。
/li>
このエラーで私に報酬を与えます:
- AVAudioPCMBufferは、私が使用したいと思っていたクラスですが、データでインスタンス化する方法が見つかりません。
私の質問(明確にするために:-))
AVAudioEngine
インターネット上のサーバーから MP3 ファイルをストリーミングする方法を知っている優秀な人はいますか?
それともあきらめてこれに使うべきAVPlayer
ですか?
あなたからの返信を楽しみにしています。
ios - AvAudioEngine 出力使用時のヘッドフォンの音量の問題
AVAudioEngine を使用してユーザーの声をキャプチャしながら、リアルタイムのエフェクト (リバーブや sth など) を音声に適用しています。コードは次のとおりです。
マイク付きのヘッドフォン(イヤーポッドなど)でテストすると、すべてうまく機能しますが、マイクのない他のヘッドフォンを使用すると(iPhoneのマイクしか入力ソースとして使用できませんでした)、ヘッドフォンの右側のスピーカーは常にヘッドフォンの左側のスピーカーよりも小さく聞こえます。どうすれば修正できますか?
そして、コードを書くときに聞きたい別の質問があります
関数 "recordWithReverb" 内で、コードが正しく動作しません。出力が得られません。どうしてこうなったのですか?
ios - AVAudioSession で Bluetooth を使用して再生する
AVAudioSession を使用して Bluetooth デバイスを使用して音声を再生しようとしています。appdelegate.swift と viewcontroller.swiftの両方に入れようとしたコードをdidFinishLaunchingWithOptions
次に示します (一度に 1 回)。
したがって、コードは完全に実行されますが、接続された Bluetooth デバイスは使用されません。実は、アプリを開いていないときにiPhoneのコントロールセンターを開いて、オーディオソースをBluetoothデバイスとしているのですが、アプリを開くとすぐにBluetoothデバイスのオプションが消えてしまいます...
コードの残りの部分(使用する場合)は-
基本的にはライブ オーディオ プレーヤーであり、マイクから音声を取得し、AUX、スピーカー、(Bluetooth) で再生します。