問題タブ [pulseaudio]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
alsa - ALSA 経由で pulseaudio ストリーム名を設定するには?
2 つの出力ストリームを同時に開く ALSA (QAudioInput/Output 経由) を使用してオーディオ アプリケーションを作成しています。どちらの ALSA ストリームも pulseaudio ALSA プラグインを使用します。これも問題なく動作し、 で異なる出力デバイスに割り当てることができますpavucontrol
。
pulseaudio が特定の出力デバイスへのストリームの割り当てを記憶するように、これらのストリームに特定の名前 (および/またはその他のパラメーター) を設定するにはどうすればよいですか?
c - PulseAudio でエコー キャンセル モジュールを使用するには?
PulseAudio エコー キャンセラを機能させようとしています。
レコーダーとプレーヤーの 2 つのアプリケーションがあり、どちらも PulseAudio を使用しています。次のようにプレーヤーとレコーダーを作成します。
エコーキャンセルを除いて、すべてが機能しています。私はそれを有効にしました
しかし、そのモジュールの有無に違いはありません-エコーが存在します。私は PulseAudio を初めて使用し、エコー キャンセラの使用法に関する適切なマニュアルを見つけることができませんでした。動作させるには、デバイスのセットアップで何を追加または調整する必要がありますか?
OSはlinux、今はubuntuですが、最終的にはopenWrtになります
dbus - Dbusを介したPulseAudioへの接続
基本的なボリュームアプリケーションを作成しようとしています。これをRubyで書いているので、Cライブラリを拡張したり使用したりしたくありません。代わりに、プロパティを取得しffi
てこれを書き込もうとしましたが、アドレスが指すファイルが存在しません。Pulse Audioは適切に設定されていますか?ruby-dbus
Address
/org/pulse_audio/server_lookup1
dbus
python - Numpy/Scipy と PulseAudio を使用したオーディオ データ IO
私は少し掘り下げましたが、PulseAudio への Python インターフェイスのほとんどは、オーディオ データではなく、サウンド サーバー コントロールを扱っているようです。numpy 配列から PulseAudio を介してスピーカーにデータを取得し、同じ方法でマイク入力から numpy 配列にサウンドを取得したいと考えています。これにアプローチする方法について何か提案はありますか?
skype - pulseaudio を使用して Skype スピーカーと呼び出し音を別のデバイスに向ける方法はありますか?
サウンドに pulseaudio を使用する CentOS 5.5 から 6.3 にアップグレードしたところです。
CentOS 5.5 を使用すると、サウンド オプションごとにすべてのサウンド デバイスが表示されたので、デスクトップ スピーカーを呼び出し音に、ヘッドセットをスピーカー (会話中に聞くという用語) に選択できました。
CentOS 6.3 では、サウンド オプションとして Pulseaudio のみが表示されるため、すべてのオプション (スピーカー、マイク、呼び出し音) がヘッドセットに設定されます。その結果、ヘッドセットを常に装着しているわけではないので、呼び出し音は聞こえません。
CentOS 6.3 で Skype を構成して、リンギングをデスクトップ スピーカーに移動させたり、スピーカー (会話中に聞いている) をヘッドセットに移動させたりする方法はありますか?
ありがとう、-W。
vlc - RTPをインターネットに出力するPulseaudio
pulseaudio (リモート インスタンス) に、プライマリ alsa デバイスに送信されたオーディオをインターネット経由で直接 RTP にプッシュして、自宅のコンピューターの VLC で聞くことができるようにします。
私の /etc/pulse/default.pa で
xxxx はサーバーのインターネット IP です
pulseaudioを起動した後、netstatが表示されます(リモートVLCからこれに接続できません)
cvlc と連携して意図した結果を生成します (remove VLC からこれに接続できます)
生産する
そして、私はそれに接続できます。
だから私が理解していると思うのは、pulseaudioが正しく機能していて、オーディオをポート8080に送信しているということです。ただし、データをルーティングするための着信接続をリッスンしていません。pulseaudio にどのように通知するか、または受信接続が発生したときにポート 8080 が rtp によって提供されるオーディオを送信するようにルーティングを設定します。また、cvlc がソースとして rtsp を使用していることもわかります。
まだ少し混乱しています..
c - PulseAudio の録音と再生が失敗する
centOS 6.2でpulse audio APIを使って音声データを録音・再生しようとしています。しかし、それは何も記録および再生しません。pulseaudioのコードを使用しています。PC で動作させるには助けが必要です。私は何をすべきか?私のコードも以下に示します-
gstreamer - GStreamer: おそらくパルシンク モニター ソースを使用することによるノイズ リダクション
プログラミングの探求に出かける前に、Google が提供していないガイダンスを求めようと思いました。
私は現在、 filesrc、pulsesrcまたはudpsrcからサウンドを受け取り、 pulsesinkに再生する gstreamer パイプラインを持っています。マイクを使用すると、システム ノイズと思われるものが多く発生し、何らかのノイズ リダクションを行うことを考えました。udpsrcとマイクは大量のホワイト (ピンク?) ノイズを生成します。filesrc のサウンドは素晴らしいです。
それで、よく知られているgstreamerのノイズリダクション技術はありますか?
私が持っていた1つのアイデアは、パルスシンクに接続されたモニターソースをある種のサウンドインバーターへの入力として接続し、それを上または元のサウンドで再生してノイズキャンセリングを達成することでした。
Gstreamer 0.10.36、Xubuntu 12.04。Realtec チップセットに基づく独自のサウンド システム。
c++ - PulseAudioからシンプルなCプログラムを実行中にエラーが発生しました
再生と録音にパルスオーディオのシンプルなCコードを使用しましたが、問題なく動作しました。しかし、C++に変換すると機能しません。両方のコードを貼り付けています。助けてください。C ++コードはエラーを表示しませんが、サウンドを再生しません。ただし、C++コードは録音されたサウンドを再生します。注意:64ビットのCentOS6.2を使用しています
C ++コード:
Cコード:
c - 16 ビット リトルエンディアン バイト配列から整数配列へのデシベル値への変換
PulseAudio API を使用して、現在のマイク入力を「リアルタイム」で取得しています。バッファ データは、16 ビットのリトル エンディアン バイト配列として配信されます。私がやりたいことは、バッファ内の最大ピーク レベルを見つけて、それをデシベル値に変換することです。そのためには、2 つのバイト配列値をそれぞれ 1 つの整数値に変換する必要があります。同じループプロセスで、最大値も探しています。その後、最大値をデシベル値に変換します。Cコードは次のとおりです。
私の知る限り、PA_SAMPLE_S16LE の振幅値は 0 から 32768 の間である必要があります。しかし、デシベル変換前に 0 ~ 65536 の値を取得しています。変換に何か問題がありますか?
完全を期すために、pulseaudio のセットアップも投稿しています。