問題タブ [audiounit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - iOS 3D ミキサーの使用
I/O ユニットに接続されたマルチチャンネル ミキサーを使用して、かなり簡単に AUGraph をセットアップしました。再生はコールバック関数を介してアクセスされ、すべてがうまく機能します。
マルチチャンネル ミキサーの代わりに 3D ミキサーに切り替えようとしています。そこで、パラメーターを kAudioUnitSubType_MultiChannelMixer から kAudioUnitSubType_AU3DMixerEmbedded に切り替え、他のすべてのセットアップを同じままにしました。
その結果、何かのように聞こえ始めたような甲高い鳴き声が、やがて鳴き声のようになりました。3D Mixer ユニットの各パラメータを調べてデフォルトに設定しましたが、変更はありませんでした。ただし、k3DMixerParam_Enable パラメーターのオンとオフを切り替えると、再生のミュートとミュート解除が機能しました。
私が見逃したかもしれないセットアップは何ですか?または、動作する 3D ミキサーの例がどこにあるか知っていますか?
ios - AudioFileOpenURL と ExtAudioFileOpenURL の違いは何ですか?
ExtAudioFile を remoteIO オーディオ ユニットと組み合わせて使用すると、 を使用ExtAudioFileSetPropertyしkExtAudioFileProperty_ClientDataFormatて、ディスクから読み取ったオーディオ フォーマットをデバイス ネイティブ フォーマットに変換できます (正規の au タグを使用)。
AudioFileOpenURL と関連するメソッドを使用するAudioFileSetPropertyとkAudioFilePropertyDataFormat、同じように使用できないようです。
このわずかに高いレベルの API を使用して、オーディオ ファイルをクライアント データ形式に変換できないのはなぜですか?
iphone - iPhoneの再生と録音の音量が小さい問題
私はvoipアプリのようなものを作っているので、同時に音を再生して録音できる必要があります。
しかし.. 再生と録音を同時に行うと、iPhone の音量が非常に小さくなりました。
使った
と
試みる
しかし..まだ音量が非常に小さい..
助けてください..!
PS
私は audioQueue でサウンドを再生し、audioUnit でサウンドを録音しています。
ios4 - AudioUnitフレームワークが見つかりません
アプリケーションオーディオとiPodauidoの両方を再生する必要があるという点で、オーディオベースのアプリケーションを実装しています。アプリケーションを実行しようとすると、次のようなエラーが発生します。
私のビューコントローラコードは次のとおりです、
.hファイル:
.mファイル:
私が使用しているFrameWorks、
皆さん、それを見て、私が欠けているものを教えてください。
よろしくお願いします、チャンドラ。
macos - MIDI を生成する Logic 用のプラグインを作成することは可能ですか?
これはおそらく提案されたオーディオ プログラミング Q&A サイトにより適した質問ですが、これはまだ提案であるため、古き良き SO が今のところ実行する必要があります。
それは私の理解です:
- Audio Unit 規格は、VST とは異なり、出力として MIDI を生成するプラグインをサポートしていません。
- Logic (業界標準の OSX 用 DAW など) には、VST のネイティブ サポートはありません。VST サポートは、FXpansion などの AU ラッパー プラグインによって提供されます。
これらはまとめて、MIDI データを生成するプラグインを Logic で使用できないことを意味しますか? 不可能に思えますが、20 分間グーグルで検索し、メッセージ ボードの苦情を読んでみると、そうである可能性が非常に高いようです。
それとも、AU の枠組みの外に何かがあるのでしょうか?
core-audio - Audio Unit パラメータの説明を列挙することは可能ですか?
Audio Unit ホストがプラグインのパラメータをステップスルーして、次のような情報を取得する方法はありますか?
- 「Delay Time」などの文字列としてのパラメータ名
- パラメータ範囲 (最小、最大)
- パラメータ単位 (秒など)
- パラメータコントロール(スライダーなど)
AFAICT この情報はプラグインで利用できますが、ホスト側からクエリを実行する方法がわかりません。
iphone - AudioUnit プロパティの設定エラー (エラー コード -10868)
AudioStreamBasicDescription を使用して AudioUnit にプロパティを設定しようとしています。サウンドデータのフォーマットを設定しようとしています。返されるエラー コードは -10868 です。iOS 3.1.3 以下でのみ発生しますが、3.2 以降で動作します。そのため、4.2 を実行している iPod touch のシミュレーターでは動作しますが、第 1 世代の iPod touch では動作しません。
AudioUnit トーン ユニットのフォーマットを設定しようとすると、エラーが発生します。コードは次のようになります ( cocoawithlove.comからのものです) 。
ヘッダーを確認したところ、このエラー コードは "kAudioUnitErr_FormatNotSupported" エラーに対応しています。設定しようとしているフォーマットは iOS 3.1 ではサポートされていないのでしょうか? サポートされている形式はどこにありますか? 私が試すことができる他のフォーマットへのポインタはありますか?
使用されるレンダー コールバック:
objective-c - aurioTouchが再生されない
これをダウンロードしてiPadで試しました。音声に反応して表示されるグラフィックを見ることができるので、マイクは機能しています。しかし、スピーカーからの再生はありませんでした。はい、ミュートボタンのオンとオフの両方を試しました。何が起こったのかについてのヒントはありますか?
ios - iOS Audio Units : AUGraph の使用が必要になるのはいつですか?
私は iOS プログラミングがまったく初めてで (私はもっと Android の方です..)、オーディオ DSP を扱うアプリケーションを作成する必要があります。(iOS 開発者にアプローチする最も簡単な方法ではないことはわかっています;))
アプリは、次の両方からの入力を受け入れることができる必要があります。
1- 内蔵マイク 2- iPod ライブラリ
次に、フィルタを入力サウンドに適用し、結果を次のように出力します。
1- スピーカー 2- ファイルに録音
私の質問は次のとおりです。たとえば、複数のフィルターを入力に適用できるようにするために AUGraph が必要ですか、または異なるレンダー コールバックでサンプルを処理することによってこれらの異なる効果を適用できますか?
AUGraph を使用する場合、各入力に 1 つのオーディオ ユニット、出力に 1 つのオーディオ ユニット、各エフェクト/フィルタに 1 つのオーディオ入力が必要ですか?
最後に、オーディオ ユニットが 1 つしかない場合は、ソース/宛先を選択するために再構成しますか?
ご回答ありがとうございます。私はこのようなもので迷子になっています...