問題タブ [audioqueueservices]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - シミュレーターでは AudioQueue コールバック、デバイスではコールバックしない
私は現在、iPhone のオーディオ処理アプリに取り組んでいます。これは、Apple の SpeakHere サンプル コードに基づいており、リアルタイムのオーディオ処理と再生を目的としています。コードはシミュレーターではうまく機能しますが、デバイスでテストするとコールバックしません。
コールバック関数は次のようになります。
その他の部分は、SpeakHere サンプル コードと同じです。
では、この奇妙な動作に関連する問題は何ですか? どんな洞察も高く評価されます。さらに情報が必要な場合はお知らせください。
どうもありがとうございました。
乾杯、
マンカ
iphone - 生ファイルにアクセスする iPhone Media Player フレームワーク
iPhone で Media Player フレームワークを使用して、ユーザーのライブラリ内のオーディオにアクセスすることに興味があります。特定のオーディオ ファイルを読み込んで、特殊なフィルタリングを実行できるようにしたいと考えています。
理想的には、オーディオ ファイル (またはストリーミング用のその一部) を直接読み込んでから、オーディオ コンバーター サービスを使用して解凍を実行できるようにしたいと考えています。リニア PCM データを取得したら、音声を Audio Queue に直接供給する前に、フィルタリングを実行したいと考えています。
これはiPhoneで可能ですか?
もしそうなら、オーディオファイルに直接アクセスする方法を誰か教えてもらえますか? 「URL」を使用してNSFileを使用してロードするだけの問題ですか(おそらくMPMediaItemPropertyAssetURLを介して取得します)? それとも、もっと複雑なことをする必要がありますか?
乾杯!
core-audio - Mac OS X 10.6.7 の kAudioQueueProperty_CurrentLevelMeter
kAudioQueueProperty_CurrentLevelMeter の AudioQueueRef をクエリしていますが、10.6.6 で完全に機能するコードは、level.mAveragePower と level.mPeakPower でゼロになっただけです。OSの変更を知っている人はいますか?これが 10.6.7 で動作しないことを確認できるサンプル コードを教えてもらえますか?
ありがとう、マーティン
iphone - Audio Queue コールバック関数は C スタイルの関数でなければなりませんか? それとも、客観的なCスタイルのメソッドにすることができますか?
Audio Queue コールバック関数は C スタイルの関数でなければなりませんか? それとも、客観的なCスタイルのメソッドにすることができますか?
iphone - AudioQueueBufferRefデータをFFT関数に渡します!
私はiphoneのマイクを通して与えられたサウンドプロセスの周波数を計算しようとしています。
FFTに関するすべての投稿(aurioTouch、SpeakHereなどのすべてのアップルコード例を含む)を読みましたが、この問題の解決策ではありません。
私はAudioQueueを使用していますが、AudioQueueコールバック関数(MyInputBufferHandler)inBuffer->mAudioDataから生データ"AudioQueueBufferRef"を渡すにはどうすればよいですか。実際のFFT「DSPSplitComplex」データ型に変換するので、計算できます。これはすべて、Accelerateフレームワークを使用しています。
FFT関数。
これを行う方法についてはどこにも見つかりません。助けてください!
iphone - オーディオ キューを使用してストリームを再生およびレンダリングする
現在、iOS アプリでストリームを再生していますが、追加したい機能の 1 つは、出力波形の視覚化です。ストリームを再生するために出力オーディオ キューを使用していますが、出力バッファを読み取る方法が見つかりません。これは Audio Queue を使用して実現できますか、それとも下位レベルの API で実現できますか?
iphone - Objective C (Audio Queue Services) を使用して FFMpeg から正確な時刻を取得する
私の iPhone アプリは、FFMPEG を使用してオーディオ ファイルを再生します。
次のように、再生中のオーディオから(ユーザーに表示するための)経過時間(マイクロ秒から変換した後の分と秒)を取得しています:
すべて正常に動作しますが、曲の別の部分を再生するために前後にスクラブすると、現在の位置に関係なく、経過時間が 0 に戻ります。タイマーは常にゼロになります。
古い時間と新しい時間を追跡するために、おそらく別の時計を構築したり、別のコールバック関数を実装したりするなど、いくつかの計算を行う必要があることはわかっています...どのようにすればよいかわかりません。
私の質問は次のとおりです。
1)曲を前後に移動するときに経過時間を追跡し、時計が常にゼロに戻らないようにする最善の方法は何ですか?
2)この問題を解決するには、FFMPeg の機能を詳しく調べる必要がありますか?それとも、Objective-C と Cocoa Touch を使い続ける必要がありますか?
経験豊富なプログラマーからのアドバイス/アイデアが必要です。私は立ち往生しています。よろしくお願いします!
iphone - オーディオパワーのピークをカウントするiOS
進歩的な洞察のために質問を編集しました:-)
音声入力をリッスンするアプリを作成しています。ピークを数えてほしい。(ピークは約10 Hzの最大周波数になります。)
多くの検索を行った後、生の入力データを取得できるAudioQueueサービスを使用することになりました。SpeakHereの例の簡略版(再生なし)を使用していますが、単にファイルシステムにバッファーを書き込むのではなく、個々のサンプルデータを確認したいと思います。
私は今正しい方向に進んでいると思いますが、バッファの操作方法がわかりません。1つのサンプルのデータを分離しようとしています。次の関数のforループでは、それは意味がありますか?1つのサンプルを取得するには、そこに何を入れる必要がありますか?
(多分私は元の質問の多くを削除するべきではありませんでした...ポリシーは何ですか?)
もともとはAurioTouchの例を使うことを考えていましたが、コメントで指摘されているように、スループットを使用しており、入力のみが必要です。また、SpeakHereよりもはるかに複雑な例です。
iphone - iOS、オーディオ キュー: バッファ サイズが一定でない
アプリケーションでAudio Queue Servicesを使用しています。バッファーを割り当てるときに、バッファー サイズを 30000 サンプルに設定します。
ただし、コールバックの後続の呼び出しは、次のinNumberPacketDescriptionsで行われます。
それらは常に 30000 に等しいとは限りません。なぜですか?
レコード形式の構成 ( CAStreamBasicDescriptionを使用):
3 つのバッファが使用されます。
iphone - オーディオキューサービスからデコードされたオーディオデータにアクセスすることは可能ですか?
App Storeに、圧縮された音楽ファイルをネットワーク経由でストリーミングするためのアプリがあります。ファイルの再生を処理するためにオーディオキューサービスを使用しています。
ファイルがストリーミングされるときに、ファイルに対していくつかの処理を実行したいと思います。オーディオバッファのデータをテストしましたが、解凍されたオーディオではありません。mp3ファイルをストリーミングしている場合、バッファはmp3データのほんの一部です。
私の質問は、オーディオキューサービスを使用しているときに非圧縮のPCMデータにアクセスすることは可能ですか?Audio Unitsの使用に切り替える必要がありますか?