問題タブ [remoteio]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - リモート IO を使用して設定された長さのメトロノームに対して録音する
私は avaudioplayer と avaudiorecorder に必要な正確な機能を作成することができましたが、もちろん遅延の問題が発生しました。したがって、Web 上のほぼすべての記事を読み、サンプル コードのスタックを確認した後でも、次のことを実現する方法がわかりません。
- ユーザーは、プリロール/カウントインを使用して、長さ 2 小節 (小節あたり 4 ビート) のサンプルを録音することを選択します。
- ユーザーのクリック数の記録
- 4拍でカウントするメトロノームがスタート(アクセントは1拍目)
- アプリは次のバーの開始時に自動的に記録を開始します
- アプリは、3 小節目 (2 小節 + プレロール) の終わりに録音を自動的にオフにします。
- その後、ユーザーは録音を再生するか、削除してからやり直すことができます。
そのため、avaudioplayer と avaudiorecorder を使用して、正しい bpm に設定されたメトロノームを使用して audacity を使用して「カフェ」を作成しました (bpm はアプリに設定されています)。次に、avaudioplayer をセットアップして再生し、audiodidfinishsuccessfully デリゲート メソッドを使用して、レコーダーの開始、プレーヤーの再起動、ループ カウントの維持などのロジックを実行して、録音とオーディオをオフにしました。
前述したように、求めているユーザー エクスペリエンスをほぼ実現できましたが、遅延の問題は受け入れられません。
私はオーディオ ユニットとリモート IO を使用しており、再生コールバックとレコーダー コールバックなどを使用してプロジェクトをセットアップしましたが、上記の説明に基づいてこれを機能させる方法の問題に直面しています。手始めに、次のことを解決しようとしています。
- 1 ビートの caf ファイルを作成する場合、オーディオ ユニットとリモート IO を使用して x のビート数を再生してから停止するにはどうすればよいですか?
- プリロールを実行して、4 ビート後に録音コールバックを開始するにはどうすればよいですか
誰かが私にいくつかのアイデアを与えたり、正しい方向に向けたりすることはできますか? すでに述べたように、コア オーディオ ブックの購入、atastypixel.com、timbolstad.com などのすべての記事の読み取り、Apple ドキュメントのトロールなど、さまざまな調査を既に行っています。
よろしくお願いします。
ios - iPhoneでハードウェアマイクの入力ゲイン/レベルを制御する方法は?
私のオーディオ分析機能は、iPhone (4) よりも iPad (2) の方が反応が良い。iPad ではより小さな音に敏感なようですが、iPhone では適切に応答するにはより大きな入力が必要です。これがマイクの配置、さまざまなコンポーネント、さまざまなソフトウェア構成、またはその他の要因によるものであるかどうかにかかわらず、アプリで制御できるようにしたいと考えています.
もちろん、すべてのオーディオ サンプルを乗算して、プログラムでゲインを適用することもできます。もちろん、それにはソフトウェアのコストもかかるため、次のようになります。
MacOS の場合と同様に、iOS のソフトウェアからマイクのゲインを制御することはできますか? これに関するドキュメントは見つかりませんが、どういうわけか見逃していることを願っています。
ios - コールバックの代わりに Audio Unit を直接呼び出す iOS
システム コールバック入力およびレンダリング コールバックに依存する必要がないように、オーディオ ユニットへの直接呼び出しはありますか (タイマーでこれを模倣できます)。たとえば、オーディオ ユニットからデータをプルする AudioUnitRender があるように、オーディオ ユニットにデータをプッシュする別の API はありますか?
iphone - RemoteIO パススルーからの Airplay 出力
概念を証明するために、Airplay 経由で iDevice マイクを出力しようとしています。パススルーを提供するように AurioTouch コードを修正しました。4S / iPad 2 から Apple TV への Airplay Mirroring を使用して正常に動作します。
ただし、iPhone 4 / iPad 1 または Airport Express のいずれかから標準の Airplay を使用しようとすると、システム出力ルート セレクターまたはMPVolumeView
アプリでAirplay デバイスが選択されていても、デバイス スピーカーから音声が出力されます。 .
AudioUnit で Airplay を有効にするために必要なことはありますか? ドキュメントによると:
AirPlay のサポートは、AV Foundation フレームワークとフレームワークの Core Audio ファミリに組み込まれています。これらのフレームワークを使用して再生するオーディオ コンテンツは、自動的に AirPlay 配信の対象になります。ユーザーが AirPlay を使用してオーディオを再生することを選択すると、システムによって自動的にルーティングされます。
しかし、私は何の喜びも感じていないようです。
ios - iOS: 複数の AU と 1 つのレンダリング コールバック内のすべて
私は自分の (iPhone 4+) アプリ用のカスタム サンプラーとオーディオ エンジンの開発を行っており、特に録音と送信エフェクト機能を追加しています。すべてを 1 つの大きな RemoteIO レンダー コールバックで処理するか、それとも別の AU ノードに分割するかのどちらにするかを決めようとして行き詰まりました。
とにかく、複数の RemoteIO とミキサー AU を使用してすべてを合計するより複雑な AUGraph が、よく調整された単一のレンダー コールバックですべてを実行する場合と比較して、かなりのオーバーヘッドを課すかどうかを知っているでしょうか? どちらか一方に行きたいと思う他の理由はありますか (おそらく AU 境界がオーディオをクリッピング/切り捨てるなど)?
パフォーマンスは大きな問題であり、おそらく単一のレンダリング コールバックを使用することになりますが、利用可能な fx AU の増え続けるリストを見逃したくありません。
ios - Audio Unit: 音声出力を入力ソースとして使用
どのアプリケーションが原因であるかに関係なく、iOS デバイスからのステレオ出力を処理し、リアルタイムで視覚化したいと考えています。汎用出力デバイス (またはその他のもの) を使用して、現在再生中のオーディオ データを取得することはできますか? おそらくremoteIOユニットへの入力として?
つまり、aurioTouch2が行うこと (FFT のみ) を実行したいのですが、マイクを入力ソースとして使用する代わりに、特定の時間にスピーカーから出力されるすべての音を処理したいと考えています。
敬具
ios - リモート io を使用して録音し、AVPlayer を使用して iPod ライブラリ オーディオを同時に連続して再生する
リモート io を録音に使用し、AVPlayer を使用して iPod ライブラリのオーディオを同時に連続して再生することはできますか?
試しましたが、返されたエラーは次のとおりです。
ios - iPadを再起動すると、RemoteIOAudioUnitを使用しているiOSアプリで音声が聞こえない
私が開発したiOSアプリを、デバイス上のXCodeからビルドして実行すると、正常に動作するという奇妙な問題があります。ただし、デバイスを再起動してアプリを実行すると、音声がまったく聞こえません。その後、アプリを強制終了してデバイスから再起動すると、オーディオの取得が再開されます。最初は割り込みハンドラの問題だと思っていましたが、もうわかりません。どんな助けでもいただければ幸いです!
念のため、これが私の割り込みハンドラです。
}
core-audio - ExtAudioFileWrite を使用してファイルの最後に書き込む
ExtAudioFileWrite を使用して、ファイルを開いてデータを追加しようとしています。現在、作成/初期書き込み(作成時)/変換は問題なく機能しますが、残念ながら、後で書き込みのためにファイルを開くことができないようです。ファイルを開くように見える関数は 1 つExAudioFileOpenURL
だけです。ただし、読み取り専用です。では、書き込み用にファイルを開くことができない場合、ファイルの最後に書き込むにはどうすればよいでしょうか?
ios - RemoteIO:アプリによって生成されたオーディオに影響を与える
一言で言えば:RemoteIOを使用してアプリによって生成されたすべてのオーディオをキャプチャ/操作する方法はありますか?
入力スコープのRemoteIOの出力バスに接続することで、スピーカーにオーディオを送信できるレンダリングコールバックを取得できます。しかし、そのコールバックの入力バッファーには、AVPlayerによってアプリの他の場所で生成されているサウンドが含まれていません。すべてのアプリオーディオを操作することさえ可能ですか?
これが私の設定です: