問題タブ [audioqueue]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - iPhone のオーディオ ハードウェア レイテンシ
私は現在、オーディオファイル(mp3ですが、デコード時間を短縮するためにWAVに変更できます)を再生し、同時にオーディオを録音するアプリを開発しています。
同期のために、オーディオの再生が開始された正確な時間を推定したいと考えています。
AudioQueue を使用して各バッファーを制御すると、最初のバッファーが空になった時間を推定できます。私の質問は次のとおりです。
- AudioQueue バッファが排出されてから実際に再生されるまでのハードウェア遅延はどのくらいですか?
- (ハードウェア遅延測定で) より優れたパフォーマンスを持つ低レベル API (具体的には AudioUnit) はありますか?
- バッファのデコードなしで、AudioQueue を使用してハードウェア レイテンシの上限を設定することは可能ですか? 5ms は私が扱えるもののように思えますが、それ以上は別のアプローチが必要になります。
ありがとう!
ios5 - kAudioSessionCategory_MediaPlayback
セットアップ プロパティ kAudioSessionProperty_OverrideCategoryMixWithOthers を取得して、AudioQueue の MediaPlayback カテゴリと連携させようとしています。最終的には、MediaPlayback カテゴリと OverrideCategoryMixWithOthers が実現する、他のオーディオとミックスしてバックグラウンド モードで再生するアプリが必要です。ただし、mixWithOthers プロパティを設定すると、アプリがクラッシュします。助言がありますか?
ミック
macos - コールバックでAudioQueueバッファが空です
私はAudioQueueを使用して、マイクからのオーディオ入力を間接的に読み取るAudioBufferを読み取っていますが、コールバックがヒットしていないようです。
以下はロジックの概要です
1--オーディオスレッドを実行する
2--AudioQueueを作成します
3--AudioQueueを構成します。
4--コールバックを処理する
5--ユーザーがオーディオフローを停止したい場合、
6--AudioQueueを停止します
7-スレッドを停止します
必要に応じてコードを提供します。
ios - Audio Queue処理タップとは正確には何ですか?
これらは OS X でしばらく前から存在しており、最近 iOS 6 で利用できるようになりました。つまり、Audio Queue を利用して、データを送信する前に処理できるということです。これは、さまざまなアプリケーションからの生のオーディオをインターセプトし、それを再生する前に処理できるということですか? 言い換えれば、アプリ間オーディオは可能ですか? audioQueue.h ファイルを読みましたが、どうすればよいかわかりません。
ios - Audio Queue : AudioQueueStart は -50 を返します
GLES アプリ (Unity3d) でマイク パワー メーター モジュールを作成しようとしています。UIKit アプリケーションでは問題なく動作します。しかし、unity3d プロジェクトに統合すると、AudioQueue はプロパティを開始できません。AudioQueueStart を呼び出す結果コードは常に -50 ですが、-50 とはどういう意味ですか? iOS Developer Library でリファレンスが見つかりません。
この問題について調べたところ、cocos2d アプリケーションで同じ問題を抱えている人がいることを知っています。たぶん、これにはいくつかの関連性があります。
Start Audio Queue のコードは次のとおりです。
iphone - iPhoneAudioStreamerAudioQueueリアルタイムFFT
MattGallagherのAudioStreamerを使用してmp3オーディオストリームを再生しています。次に、リアルタイムでFFTを実行し、iPhoneでOpenGLESを使用して周波数を視覚化します。
オーディオデータをどこでキャッチして「Super-Fancy-FFT-Computing-3D-Visualization-Method」に渡すのか疑問に思っています。MattはAudioQueueFrameworkを使用しており、次のように設定されたコールバック関数があります。
コールバックは次のようになります。
現時点では、AudioQueueBufferRefからデータを渡していますが、結果は非常に奇妙に見えます。しかし、FFTと視覚化では、それを台無しにする可能性のあるポイントが非常に多いため、少なくとも適切なデータをFFTに渡すようにしたかったのです。1つのチャネルのみを分析したいので、1秒おきの値を無視してこの方法でバッファからデータを読み取っています。
次に、512個の値を含むmyBufferを使用したFFT計算に従います。
ios - 曲が cbr であっても、オーディオファイルストリームがすべてのリモート曲を vbr で取得する理由
リモートの曲を再生するための小さなテストを作成しましたが、テストした曲は cbr であると確信しています。で判断しようとする
vbr = ((AudioStreamPacketDescription *)inPacketDescriptions != nil);
しかし、私は常に vbr == true を取得します なぜですか?
誰でも曲のタイプ(cbrまたはvbr)を取得する方法を教えてもらえますか?
ios - iphone4 での通話後に AudioQueueStart が失敗する
ios6 と iphone4 で AudioQueue を使用してアプリから録音しようとしています。電話で最後に行ったのが通話である場合、AudioQueueStart が (2003329396) で失敗し、入力キューを開始できないことがわかりました。もう。
以前の電話がなければ、AudioQueueStart は何度もうまく機能します。
これは次のように発生します。
これは iphone4s には影響しないようです。
この場合、入力キューに AudioQueueStart を使用する機能を回復する通常の方法はありますか?
ありがとう、私のフォーマットでごめんなさい...
objective-c - XCode4.5.1AudioQueueおよびリンカーコマンドが失敗しました
私はまさに私ができる方法だろう。オーディオキューでサウンドを録音します。プロジェクトがあり、プロジェクトに必要なすべてのフレームワークを追加しました(これは問題ではありません)。変更したファイルは2つだけです。
- ViewController.h
- ViewController.m
始める前に:ファイルの種類(void)または(IBAction)についてはわかりません(テストできません)。
これが私のViewController.hのソースコードです
これが私のViewController.mのソースコードです
(関数startPlaybackコメントにエラーがあります)
プロジェクトを使用できるように、これを修正する方法がわかりません。関数startPlaybackをコメントアウトすると、次のエラーが発生します。
Ld / Users / NAME / Library / Developer / Xcode / DerivedData / recorder_test2-gehymgoneospsldgfpxnbjdapebu / Build / Products / Debug-iphonesimulator / recorder_test2.app / recorder_test2 normal i386 cd / Users / NAME / Desktop / recorder_test2 setenv IPHONEOS_DEPLOY /Xcode.app/Contents/Developer/Platforms/iPhoneSimulator.platform/Developer/usr/bin:/Applications/Xcode.app/Contents/Developer/usr/bin:/usr/bin:/bin:/usr/sbin:/ sbin "/Applications/Xcode.app/Contents/Developer/Toolchains/XcodeDefault.xctoolchain/usr/bin/clang -arch i386 -isysroot /Applications/Xcode.app/Contents/Developer/Platforms/iPhoneSimulator.platform/Developer/SDKs/ iPhoneSimulator6.0。sdk -L / Users / NAME / Library / Developer / Xcode / DerivedData / recorder_test2-gehymgoneospsldgfpxnbjdapebu / Build / Products / Debug-iphonesimulator -F / Users / NAME / Library / Developer / Xcode / DerivedData / recorder_test2-gehymgoneospsldgfpxnbj Debug-iphonesimulator -filelist / Users / NAME / Library / Developer / Xcode / DerivedData / recorder_test2-gehymgoneospsldgfpxnbjdapebu / Build / Intermediates / recorder_test2.build / Debug-iphonesimulator / recorder_test2.build / Objects-normal / i386 / recorder_test2.LinkFileList objc_abi_version -Xlinker 2 -fobjc-arc -fobjc-link-runtime -Xlinker -no_implicit_dylibs -mios-simulator-version-min=6。0 -framework AudioToolbox -framework AudioUnit -framework CoreAudio -framework UIKit -framework Foundation -framework CoreGraphics -o / Users / NAME / Library / Developer / Xcode / DerivedData / recorder_test2-gehymgoneospsldgfpxnbjdapebu / Build / Products / Debug-iphonesimulator / recorder_test2.app / recorder_test2
ld:フレームワークが見つかりませんAudioUnit clang:エラー:リンカーコマンドが終了コード1で失敗しました(呼び出しを確認するには-vを使用してください)
罪状認否は2つのソースファイルを使用し、自分でテストして助けてくれます。
objective-c - ストリームの再生後、オーディオキューはオーディオを録音できません
オーディオストリームを再生するために、MatGallagerのオーディオストリーマーを使用しています。プログラムの別の時点(別のコントローラー)で、デバイスのマイクから何かを録音しようとしています。
これが私の設定です:
{int i、bufferByteSize; UInt32サイズ;
}
{memset(&mRecordFormat、0、sizeof(mRecordFormat));
}
}
最初にAudioStreamerクラスを使用し、後で何かを録音しようとすると、コールバックさえ呼び出されないようです。しかし、最初にAudioStreamerを使用しなければ、すべて問題ありません。
誰かが私を正しい方向に向けることができますか?