問題タブ [audio-recording]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
winapi - 再生中のオーディオをキャプチャするにはどうすればよいですか?
再生されているサウンド(つまり、マイクなどの入力デバイスではなく、サウンドカードからのすべてのもの)をプログラムでキャプチャする方法を知っている人はいますか?
c# - C#を使用してラインインから継続的にサンプリングする最も簡単な方法は何ですか?
C# を使用して PC のオーディオ ラインから継続的にサンプリングしたい (そのデータを処理する)。サンプリングを行う最良の方法は何ですか?
iphone - iPhone で AMR オーディオ形式を録音するにはどうすればよいですか?
ボイス レコーダーには、圧縮されていないリニア PCM オーディオは必要ありません。圧縮されAMR
ていれば問題ありません。オーディオを録音するために構築された iPhone フレームワークは非常にシンプルですが、オーディオ形式 (Apple から提供されたもの) をセットアップするために私が見つけた唯一の例は、LinearPCM を使用しています。他のさまざまな値の組み合わせを試しましたが、何も機能しないようです。
実際に記録するコードを持っている人はいますAMR
か?
編集: AMR 形式は、データ型を設定するためのオプションの 1 つですが、他のオプション (パケット サイズ、フレーム サイズなど) は、何を設定しても一致しないようです。
編集:これが私がPCMバージョンのために持っているものです:
shell - Shoutcast ストリームを 12 時間遅らせる (Linux/bash)
私は家から地球の反対側に住んでおり (現在は GMT+1、現在は GMT+13 です)、古い地上波ラジオ局が恋しいです。それにはShoutcastストリームがあり、タイムゾーンを私のタイムゾーンに同期させる方法で、聞きたいときにいつでも利用できるように、12時間だけ遅らせたいと思います.
これは、サーバー ホストで実行されるスクリプトとして想定しています。
単純なアプローチは、12 時間の遅延全体を保存するのに十分な RAM をリングバッファーに割り当て、streamripper からの出力をパイプすることです。しかし、ストリームは 128kbps の mp3 です。つまり、(128/8) * 60 * 60 = 1 時間あたり ~56MB、つまり 12 時間のバッファー全体で 675MB となり、あまり実用的ではありません。さらに、特定のタイムアウト後にプロセスを強制終了するだけで、サーバーホストに対処する必要がある場合があります。
では、実際に実行可能な戦略にはどのようなものがあるでしょうか?
java - Java でマルチチャンネル サウンド入力をサンプリングする方法
これは比較的ニッチなものかもしれないことに気付きましたが、とにかく質問するのが良い理由かもしれません. ハードウェアの複数入力レコーディング コンソール (Alesis IO 26 など) を検討しており、Adat ライトパイプ 8 チャネル入力を取り込んで信号処理を行います。私はまだデバイスを取得しておらず、これが実現可能かどうかを判断する必要があるため (予算の問題)、Java でこれら 8 つの入力すべてをデータにタップした経験がある人はいますか? Javax.sound.sampled ライブラリを使用してサウンドを録音する例をたくさん見てきましたが、2 を超えるマルチチャンネルに関する情報は見つかりませんでした。それらに対して簡単な DSP を実行します。ハードウェア デバイスは 1 つのミキサーとして扱われますか? 8 チャンネルは 8 本の線で表されますか? 用語が正しいことを願っています。
誰かが関連する情報を教えてくれれば幸いです。ありがとう!
linux - J2ME WTK エミュレーターで Linux を介してオーディオをキャプチャする
Linux プラットフォームの J2ME WTK エミュレータでオーディオをキャプチャすることはできますか? このフォーラムで成功した人はいますか?
java - J2ME を使用してファイルを削除すると IOException がスローされる
J2ME の FileConnection.delete() メソッドを使用してファイルを削除しようとしていますが、delete() メソッドを呼び出すたびに IOException がスローされます。ファイルの存在を確認する条件文を書きましたが、それにもかかわらず IOException がスローされます。
FileConnection APIによると、FileConnection オブジェクトで delete() が呼び出されると、そのオブジェクトに関連付けられたすべてのストリームが閉じられ、特定のファイルに関連付けられたストリームで後続のアクションが発生すると、IOException がスローされます。
削除しようとしているファイルは同じプログラム内に記録されていますが、delete() メソッドを呼び出した後、recordControl.reset() を呼び出します。これにより、IOException がスローされる可能性がありますか?
私の問題は何ですか?
winapi - サウンド処理: DirectSound または直接 Win32 API を使用する必要がありますか?
私はアプリケーションを作成しています:
- マイクから録音し、入力に対してリアルタイム処理を行います
- MP3 ファイル (通常の曲) を再生しますが、リアルタイムで出力を操作します
- 時々、この曲に追加のサウンドを再生する必要がありますが、バッファーを追加するだけでそれができると思います。
要するに、録音と再生の両方に循環バッファーが必要であり、再生しようとしている新しいデータを 20 ミリ秒ごとに出力バッファーに「フィード」する必要があります。
私は DirectSound を見てきましたが、あまり役に立たないようです。出力バッファへの読み取りと書き込みは Win32 と非常に似ているように見えますが、それが役立つと思われる唯一の場所は、メインの曲の上に「追加のサウンド」を再生することです。
DirectSound を使用する必要がありますか、それとも生の Windows API に直行する必要がありますか?
DirectSound は私のために何かをするつもりですか?
前もって感謝します!