問題タブ [mixer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - pygame.mixer.init がサンプリングレートを変更しないのはなぜですか?
私が走れば
また
また
結果: (22050, -16, 2)
(44100, -16,2) の代わりに
なんで?私は何を間違っていますか?
core-audio - マルチチャンネルミキサー+音声処理IOユニット
kAudioUnitSubType_RemoteIO
私は AUGraph をセットアップして動作させています。これは、スピーカーに出力するために RemoteIO () ユニットに供給するマルチチャンネル ミキサー (単一のモノラル入力を備えた) で構成されています。左と右のハードウェア出力チャンネル間でオーディオ ソースをパンできるように、シングル入力ミキサーを実装しました。これはうまくいきます。
これは VOIP アプリケーションでkAudioUnitSubType_VoiceProcessingIO
あるため、リモート IO ユニット ( kAudioUnitSubType_RemoteIO
) の代わりに音声処理 IO ユニット ( ) を使用して実験を行っています。Apple の説明によると、このユニットはいくつかの追加機能を備えたリモート IO ユニットのように動作するはずです...
音声処理 I/O ユニット (サブタイプ
kAudioUnitSubType_VoiceProcessingIO
) は、リモート I/O ユニットの特性を持ち、双方向の二重通信用にエコー抑制を追加します。また、自動ゲイン補正、音声処理品質の調整、およびミュートも追加されています。これは、VoIP (Voice over Internet Protocol) アプリに使用する正しい I/O ユニットです。
しかし、音声処理 IO ユニットに切り替えると、ミキサーを使用してパンする機能が失われることに注意してください。ここで何が起こっているかについてのアイデアはありますか? 音声処理 IO ユニットは本質的にモノフォニックですか?
audio - pygame.mixer は 8 つ以上のノートを再生できません
テキストファイルに書き込んだメモを読み取り、ピアノ音楽として再生する小さなプログラムを作成しようとしています。
私はpygameを使用しており、ミキサーを使用して.aiff
サウンドファイルを再生しています。8 つ以上のノートが再生されないことを除いて、すべて正常に動作します。誰もこれについて何か知っていますか?別のファイルとノートで試してみましたが、常に 8 番目のノートの後に停止しますが、そのノート全体が再生されます。
コードの一部を次に示します。
そして、これは私がテストに使用したサンプル音楽の 1 つです (O Canada):
'z' が使用されているのは、私が設定した読み枠が 4 で、一部の曲は 3 文字 (abc) しかない白鍵で終わるためです。a は音符、b は位置、c は長さを示します。
linux - また、どこからデフォルトの状態を取得していますか?
私はalsaに関する知識を得ようとしています。私が見たときは、ミキサー コントロールの以前の状態が自動的に保存され、再起動時に復元されていました。だから私はファイルからこのプロセスをコメントしました/etc/init/alsa-restore.conf
/etc/init/alsa-store.conf
。その後、1 つのコントロールを True にして、システムを再起動しました。再起動後、コントロールの値を確認しましたが、現在は false です。
どこからでも、再起動後にその制御値を false として取得します。
削除したため、ファイルはありません/var/lib/alsa/asound.state
。
ios - iOS 上の AUGraph は、TAAE を使用して一時停止 (停止) した後、再起動するのに数秒かかります
私のアプリは iOS 8.3 (iPad および iPhone) 上にあり、The Amazing Audio Engine を使用しています。24 個のオーディオ ファイルをバッファ ロードし、それらの出力を接続された USB オーディオ デバイスのさまざまなチャンネルに割り当てています。現在、Scarlett 2i|4 でテストしていますが、これは Apogee Duet と 2 つの異なる PreSonus AudioBox ユニット (44VSL と 1818VSL) でも発生します。
初めて[engine play]
AUGraphStart(graph) を呼び出すと、すぐに再生が始まります。それから私は[engine stop]
別名を呼びますAUGraphStop()
。次に[engine play]
akaを呼び出すAUGraphStart()
と、再生が始まるまでに約 4 秒かかり、USB デバイスのチャンネルが数回クリックします。
デバイスが最初に iPad または iPhone に接続されたときにも、チャンネルが数回クリックします。
この問題は、スピーカーまたはヘッドフォン ルートでは発生しません。USB デバイスが接続されて使用されている場合のみです。
AUGraphStart()
再生を開始する前に呼び出しAUGraphStop()
が 4 秒かかる理由はありますか?
c# - C# 3 つの独立したミキサーによる同じ入力のミキシング
こんばんは、最終的には簡単かもしれない問題に直面しています。
1 台の PC にさまざまなオーディオ ソースがあります。2 つの Teamspeak インスタンス、1 つの VOIP 接続、サウンド サンプル、およびバックグラウンド ノイズです。現在、3 つの独立したヘッドフォン デバイスがあります。それぞれがすべてのソース ストリームをミックスする必要があります。
どうすればこれを達成できますか? 仮想オーディオ デバイスを作成し、すべてのソースのストリームをそれらに送信し、各ストリームを 3 回分割し、それらをミックスして、最終的にヘッドフォンに送信することを考えました。それは可能ですか?
c++ - Medooze のコンパイル - Ubuntu 14.04
Medooze をインストールしようとしていますが、多くの問題に直面しました! 私はこの指示に従って一歩一歩進みましたhttp://www.medooze.com/products/media-mixer-server/installation.aspx それらのほとんどは、ステップ9までエラーなしでインストールされました。「make」を使用すると、たくさんのエラー、私はそれらの多くを修正しましたが、これを修正しようとするとできません。
/usr/local/src/medooze/mcu/src/gsm/gsm.h:34:32: 致命的なエラー: GSM3CircularBuffer.h: そのようなファイルまたはディレクトリはありません #include GSM3CircularBuffer.h>
コンパイルが終了しました。make: *** [audio.o] エラー 1
このファイルを手動で作成しようとしましたが、うまくいきません。何か提案はありますか?
アップデート:
パスにダウンロードlibgsm1-dev
して解決しました/usr/local/src/
しかし今、私はこのエラーが表示されます:
/usr/local/src/medooze/mcu/src/cef/Browser.h:11:0 からインクルードされたファイルで、test/cef.cpp:2 から:
/usr/local/src/medooze/mcu/src/cef/include/cef_app.h:42:30: 致命的なエラー: include/cef_base.h: そのようなファイルまたはディレクトリはありません #include "include/cef_base.h" ^ コンパイル終了しました。make: *** [test/cef.o] エラー 1