問題タブ [avaudioengine]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - iOS 9 はサイレント モードを検出します
私は長い間探していましたが、あきらめる前の最後の試みとしてここに投稿しました。現在サイレント モードになっているかどうかを検出したい。
正常に動作する回避策 (偽のサウンドを再生して完了を確認する) を見つけましたが、AVAudioSessionCategoryPlayAndRecord
モードにない場合のみです。これはまさに、UI サウンドを再生する必要があるかどうかを知るために、これを実現したいオーディオとビデオを記録できる画面上にあります。
要約すると、モードがオンのときにサイレントモードを検出する方法を見つけようとしていAVAudioSessionCategoryPlayAndRecord
ます。
ios - AUAudioUnit v3 のホストから AUScheduleParameterBlock を使用する
私は新しい AUAudioUnits で、v3 API の使用方法を理解しようとしています。kAudioUnitSubType_MultiChannelMixer
AUAudioUnitでパラメーターの変更をスケジュールして、時間の経過とともにゲインの変更を増やすことができるようにしようとしています。スライダーを使用してゲインを直接設定することができ、変更は次のようにすぐに反映されます。
しかし、scheduleParameterBlock
これを上記の AudioPlayerClass に追加して を使用してこれを実行しようとすると、ゲインが 10 秒で 1 から 0 に上昇すると予想されますが、変化はありません。
アップルの例で動作しているのを見た例には、次のようなコードが含まれます(dispatch_async部分なし):
これを実行してスライダーでゲイン パラメータを変更すると、ブロックが実行param
さvalue
れ、正しい見た目の値でコンソールに出力されますが、実際のオーディオではゲインは変更されません。私が見たこれらの例は、実装者が dspKernel 関数に直接アクセスできるカスタム AUAudioUnits にもあるため、重要なものが欠落している可能性があります。もう 1 つの方法は、一連のランプ値を計算してから、各値のゲイン パラメータを直接設定する必要がありますが、あるので、それscheduleParameterBlock
を使用できるはずです。どんな助けでも素晴らしいでしょう。ありがとう
ios - SwiftでCocoaAsyncSocketを使用して、UDP経由でオーディオをストリーミングします
CocoaAsyncSocket で UDP 経由でオーディオを迅速に送信するのに問題があります。
まず、以下のコードを実行して、4444 UDP ポートのリッスンを開始します。
その後、iPad2 でアプリケーションを実行し、接続を押します。
何か案が?
ios - ミキサー ノードにタップを取り付けてサンプル レートを変換する
入力ノードからオーディオを録音してミキサーに送信し、オーディオを低いサンプルレートに変換してディスクに書き込もうとしています。
私のオーディオファイルは次のように作成されます:
次に、オーディオ エンジンについては、最初に と同じ接続形式で入力ノードをミキサー ノードに接続しましたfile.processingFormat
。例外でクラッシュするもの
必要な条件が false: format.sampleRate == hwFormat.sampleRate
その後、入力ノードを の接続形式inputNode.outputFormatForBus(0)
でミキサー ノードに接続し、そのミキサー ノードを の接続形式で 2 番目のミキサー ノードに接続しましたfile.processingFormat
。これはクラッシュしませんが、2 番目のミキサーにタップをインストールすると、コールバックが呼び出されません。バックエンドでの処理に時間がかかっているのか、何か問題があるのか わかりません。
ios - AVAudioFile はドキュメント ディレクトリからファイルを読み取ることができません
これはオーディオ ファイルを読み取ることができません。audioFile nil を返します。NSBundle から URL を渡すときと同じコードの場合
それは正常に動作します。ありがとうございました
ios - 内蔵マイクを使用した ios の録音で 1 つのチャンネルのサウンドしか聞こえない
AVAudioEngine を使用して、ユーザーの声をキャプチャし、それにいくつかのエフェクトを適用しています。ヘッドフォンのマイクで録音すると、すべてがうまくいきます。しかし、電話の内蔵マイクで録音し、ヘッドフォンで音を再生する場合、左側のイヤホンだけに音があり、内蔵マイクには単一チャンネル入力しかないようです。では、どうすればこの問題を解決できますか? これが私のコードの一部です: