問題タブ [alsa]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c - ALSA チュートリアルが必要
私はオーディオプログラミングが初めてです。再生が可能で、ボリュームコントロールを提供する小さなアプリケーションを作成したいと考えています。alsa-lib を使用しています。
スイッチの目的(マスター再生スイッチなど)、ミキサー要素の列挙、およびこれらのスイッチに設定する必要がある値を知りたいです。
ミキサー設定とalsaプログラミングのチュートリアルを教えてください。
linux - CentOS 5.6 で複数の仮想サウンド カードを設定するには?
私はcmdsを使用します:
1 つの仮想サウンド カードのみが表示されます。
2~4個の仮想サウンドカードをセットアップする方法はありますか?
android - AndroidでALSAオーディオデバイスにアクセスするには? 彼らはどのように命名されていますか?
1. Android は、オーディオ デバイスのどのコンポーネントがマイクとして機能するかをどのように決定しますか。たとえば、デフォルトの ALSA デバイス hw:0,0 には入力として Line、CD、Mic1、および Mic2 があり、マイクの入力にアクセスしようとするときに使用されます。アプリから。または、init.rc で「alsa_amixer set line cap」などを使用して、起動時に入力チャネルとして設定されているものを使用しますか。何が何であるかを決定する構成ファイルは何ですか?イヤーピス、ヘッドフォン、スピーカーなどとして機能する構成ファイル.「asound.conf」ファイルを調べました.ファイルシステムに「asound.state」および「asound.names」ファイルはありませんか?
2.デバイスを音声通話アップリンクおよびダウンリンク オーディオのソースとして宣言するにはどうすればよいですか? アプリからはできないことは知っていますが、アンドロイドがどのようにそれを行うのか知りたいだけですか?
私はアンドロイドが初めてです。したがって、このばかげた質問です。
c - Linuxの音源のCコード
UbuntuのDACへの配列出力を使用してトーンを生成するACコードを書きたいです。(できればalsaドライバー)
例:トーンを生成できるようにするには、1100000などのように電圧出力をDACに送信できる必要があります。出来ますか?
PS私はトーンを見ました。bashコマンドではなくacコードを使用してそれを行うことは可能ですか?
linux - aplay コマンドの混乱。
ここで、このコマンドを理解したいと思います。
asound.conf
ファイルを使用した理由。
ハンズフリー デバイスでオーディオを再生するには、このファイルでハンズ フリー デバイスの Bluetooth アドレスを更新する必要がありますか?
誰でもaplay
コマンドとその仕組みを説明できますか?
なぜここ-D hw:0,0
でこれを使用したのですか?
なぜここで使わなかったの-Dplug:bluetooth hw:0,0
ですか?
================================================== ================
ここに私の /etc/asound.conf ファイルがあります
linux - ALSA オーディオと YouTube
YouTube の動画を再生し、Firefox のオーディオをプログラムで特定のサウンド カードに出力したいと考えています。
firefox | aplay -D hw:x,y.
私はYieldsのようなことをすると思います:
生データの再生 'stdin' : 符号なし 8 ビット、レート 8000 Hz、モノ aplay: set_params:1059: サンプル形式は利用できません
しようとしているfirefox | aplay -D hw:1,0 -f S16_LE -c 2
生データの再生 'stdin' : 符号付き 16 ビット リトル エンディアン、レート 8000 Hz、ステレオ 警告: レートが正確ではありません (要求 = 8000 Hz、取得 = 44100 Hz) プラグ プラグインを試してください
ついに、firefox | aplay -D plughw:1,0 -f S16_LE -c 2
生データの再生 'stdin' : 符号付き 16 ビット リトル エンディアン、レート 8000 Hz、ステレオ
コマンドラインはそれが機能したことを示していますが、オーディオは hw:0,0 (デフォルト) から出てきました。
独自のプラグインを作成する必要がありますか? それとも、alsa に 44100Hz を強制する必要がありますか?
また、メモリ リークのバグにより頻繁にクラッシュするため、pulse の使用を拒否します。
c++ - それ自体の中からコールバックを一時停止できますか?
SDLオーディオを使用してサウンドを再生しています。
SDL_LockAudioはこれを伝えます:
コールバック関数からこれを呼び出さないでください。デッドロックが発生します。
しかし、SDL_PauseAudioはそれを言いません、代わりにそれは言います:
この関数は、オーディオコールバック処理を一時停止および一時停止解除します
私のミキサーコールバックは次のようになります:
PlayingQueue
std::queue
静的オブジェクトへのアクセスを提供するクラスです。特別なことは何もありません。
これは、SDLおよびalsaライブラリを更新することを決定するまでは正常に機能しました(現在、元に戻すことはできません)。それ以来、私はこれを私のログに見ています:
ALSA lib pcm.c:7316:(snd_pcm_recover)アンダーランが発生しました
SDLまたはalsaライブラリにバグがないと仮定した場合(このメッセージをグーグルで検索した後、これはおそらく間違っています)、コードを変更して修正するか、少なくともアンダーランを回避できるはずです。
だから、問題は:それ自体からのコールバックを一時停止できますか?私が見ているアンダーランを引き起こす可能性はありますか?
audio - Visual C++ を使用して MFC でサウンドを再生するには?
マイク入力とスピーカー出力を使用して、PC にベースバンド信号処理アルゴリズムを実装したいと考えています。Windows 7 64 ビットでオープン/読み取り/書き込みオーディオ機器を使用するには、どのライブラリが必要ですか? MFC を使用できますか? またはオーディオ デバイスを操作するために DirectSound ラッパー クラスを使用する必要がありますか? また、GNU/Linux 環境の使用にもオープンです。
linux - Alsa の一時停止と再開
alsa オーディオを一時停止および一時停止解除しようとしています。を呼び出すとpcm_pause(alsaHandle,0)
オーディオはすぐに一時停止しますが、 を使用して一時停止を解除しても、が呼び出されるsnd_pcm_pause(alsaHandle,1)
までオーディオの再生は開始されません。snd_pcm_drain(alsaHandle)
ただしsnd_pcm_drain()
、バッファ内のすべてのオーディオが再生されるまで戻りません。そのため、必要に応じてオーディオを再び一時停止することはできません。オーディオを自由に一時停止/一時停止解除する方法があるかどうか知りたいです。
ssh - SSH 経由の ALSA (snd_pcm_open)?
ALSA (snd_pcm_open、snd_pcm_readi など) を使用してアプリケーションを作成しました。アプリケーションは、私のマシンでローカルに完璧に動作します。ただし、別のマシンに SSH 接続して SSH 接続を介して実行すると、snd_pcm_open へのすべての呼び出しが失敗し、「デバイスが存在しません」などのメッセージが表示されます。リモート マシンには、ローカル マシンと同じようにサウンドカードがあります。
ここで何が問題になる可能性がありますか?
ありがとう!
編集:リモート コンピューターでコンソールを使用してアプリケーションを実行すると (コンピューターに移動し、ログインし、アプリケーションを実行します)、アプリケーションは正常に動作します。