問題タブ [remoteio]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
1868 参照

ios - Garageband で公開された Inter-App Audio アプリを使用しようとするとエラーが発生する

私のアプリは、Inter-App Audio を提供するものとしてシステムに登録されています ( this questionのおかげです)。しかし、Garageband Inter-App Audio インストゥルメント ピッカーで選択すると、UIAlertView に次のメッセージが表示されます。

「アプリは利用できません。選択した Inter-App Audio アプリは現在利用できません。」

一方、コンソールでは、次のようになります。

誰?誰かのオーリオが怒っています...フォーマットの非互換性が原因の可能性がありますか?

0 投票する
0 に答える
838 参照

ios - 使用していないときに iOS オーディオ セッションを無効にしますか?

指定された期間オーディオのセグメントを録音し、そのオーディオの分析を実行し、結果を返し、ユーザーが再度録音するまで基本的に非アクティブになる iOS アプリがあります。

アプリのオーディオ構成は aurioTouch2 の構成に似ており RemoteI/O オーディオ ユニットとオーディオ セッション サービスを利用します。アプリは現在AudioSessionSetActive(true)、初回起動時に設定してからリモート I/O を開始します。オーディオ セッションとオーディオ ユニットは、アプリの有効期間を通じて実行され続けます。

ここで質問です。アプリが実際にマイクを使用するのは比較的短い時間 (15 ~ 60 秒) だけなので、アクティブAudioSessionSetActive(false)に使用されていないときにオーディオ セッションを無効にする必要がありますか?

オーディオ ユニットとオーディオ セッションの両方を録音プロセス中にのみ実行してみました。つまり、録音中に開始し、録音が終了したら停止します。シミュレーターでは期待どおりに動作しますが、物理的に実行するとクラッシュします。デバイス。エラーは次のとおりです。

そして、これが私が記録を開始/停止する方法です:

明らかに、簡潔にするために、ユニットの実行中に発生するオーディオ レンダー コールバックと、最初の起動時に行われるオーディオ セッション/オーディオ ユニットの構成を省略しましたが、これも aurioTouch2 で行われることに非常に近いものです。このエラーは、オーディオ セッションを非アクティブに設定したことが原因のようですが、その理由がわかりません。

アプリが実際には何もしていない場合でも、Apple が同じオーディオ セッションを実行することを推奨しているかどうかを見つけるのに苦労しました。アプリケーションの存続期間中、または必要に応じてセッションを維持する必要がありますか? 何かご意見は?

0 投票する
3 に答える
2883 参照

ios - remoteio オーディオ ユニットの入力スコープにアタッチされたレンダリング コールバックで循環バッファからオーディオ データを消費する

タイトルは、私が達成しようとしていることをほぼ要約しています。循環バッファが着信オーディオ データでいっぱいになっている間に、レンダー コールバック内で Michael Tyson の TPCircularBuffer を使用しようとしています。デバイスのスピーカーから聞こえるように、レンダリング コールバックから RemoteIO オーディオ ユニットの出力要素にオーディオを送信したいと考えています。

オーディオは、2048 フレームのパケットとして入ってくるインターリーブされたステレオ 16 ビットです。オーディオセッションを設定した方法は次のとおりです。

ここでは、オーディオ データが循環バッファーに読み込まれ、レンダー コールバックで使用されます。

スピーカーからオーディオが聞こえないため、このセットアップには問題がありますが、デバイスでテストしてもエラーは発生しません。私が知る限り、TPCircularBuffer は正しく読み込まれ、読み取られています。オーディオ セッションの設定については、Apple のドキュメントに従っています。次に AUGraph をセットアップしようと考えていますが、ここでやろうとしていることの解決策を誰かが提案できるかどうかを知りたいです。ありがとう!

0 投票する
1 に答える
2919 参照

ios - iOS のアクティブ ノイズ キャンセリング

リモート I/O を使用して、iOS でアクティブ ノイズ キャンセリングを実行しようとしています。オーディオ バッファを 8.24 固定小数点形式で取得し、スピーカーにも配置できました。現在、マイクを介して( onlinetonegenerator.comを使用して)正弦波をキャプチャし、コールバックを介して取得している各フレームのマグニチュードを反転しようとしています。ここに私のコードがあります:

しかし、出力トーンは破壊的な干渉を引き起こしているようには見えません。アプリを実行しているときに振幅が周期的に変化することを感じていますが、入力音はキャンセルされていません。

さらに2つの要因があると思います:

  1. マイク ストリームから出力ストリームを生成する際のレイテンシ
  2. 原音と生成音の振幅差

AudioUnit でこれらの問題をどのように処理できますか?

どうもありがとう!

0 投票する
1 に答える
197 参照

core-audio - iOS 上の Apple CoreAudio: Reverb2 AudioUnit から RemoteIO への合成

16ビットのリニアPCMを合成してRemoteIO AudioUnitに出力することに成功しました。今、RemoteIO に出力する前に Reverb2 Audio Unit を追加しようとしています。AudioGraph を作成し、リバーブ ユニットへのコールバックを設定していますが、サウンドが得られません。

グラフをセットアップし、Reverb2 と RemoteIO ユニットを適切にフォーマットするにはどうすればよいですか?

0 投票する
1 に答える
2105 参照

ios - AVAudioSession、AudioStreamBasicDescription、および RemoteIO デバイスのデフォルト

私は、デジタル信号処理を行うアプリを作成しようとしており、できるだけ軽量にしたいと考えています。しばらく私を困惑させたのは、バッファからデータを受け取る前に不要な変換が行われないようにするために、さまざまなデバイスのデフォルト値がどうなるかということでした。次のリンクhttp://club15cc.com/code-snippets/ios-2/get-the-default-output-stream-format-for-an-audio-unit-in-iosに出くわしました。それが正しい道だと信じています。

リンクからコードを拡張して、ASBD(AudioStreamBasicDescription) コンテンツを取得する前に AVAudioSession を作成およびアクティブ化しました。AudioSession を使用して、さまざまな「優先」設定を要求し、それらがどのような影響を与えるかを確認できます。また、ASBD の値を一覧表示するための Apple コードと、上記のリンクのコードを組み合わせました。

以下のコードは、Single View Application テンプレートを選択して生成された ViewController.m ファイルに挿入されます。AudioToolbox.framework と CoreAudio.framework をプロジェクトのリンクされたフレームワークとライブラリに追加する必要があることに注意してください。

他の実際のハードウェアで人々が得た結果を知りたいです。コードが構築され、IOS 7.1 に展開されたことに注意してください。