問題タブ [audiobuffer]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
5604 参照

ios - iPhoneでAudioBufferを使用してマイクからローカルに録音されたオーディオファイルを書き込む方法は?

私はオーディオフレームワークを初めて使用しています。マイクからキャプチャして再生中のオーディオファイルを作成するのを手伝ってくれる人はいますか?

以下は、iPhone スピーカーを介してマイク入力を再生するコードです。今後使用するために音声を iPhone に保存したいと思います。

ここからコードを見つけて、マイクを使用してオーディオを録音しました http://www.stefanpopp.de/2011/capture-iphone-microphone/

-(void)prepareAudioFileToRecord{

}

前もってありがとうバラ

0 投票する
0 に答える
573 参照

ios - オーディオバッファxcode iosを増幅する

以下に示すように、AudioBufferがあります。スピーカーから再生できます。プレイする前にこれらのバッファを増幅する方法を知りたいです。どのように変更しますか?

0 投票する
4 に答える
7849 参照

ios - NSdata から AudioBuffer/Audio を作成する方法

私はストリーミング アプリケーションの初心者です。AudioBuffer から NSdata を作成し、nsdata をクライアント (レシーバー) に送信しています。しかし、NSdata を Audio Buffer に変換する方法がわかりません。

次のコードを使用して AudioBuffer を NSdata に変換しています (これはうまく機能しています)

これが適切な方法でない場合は、私を助けてください....ありがとう。

0 投票する
1 に答える
993 参照

c# - Android.Media.AudioTrack.GetMinBufferSize メソッド - Xamarin.Android (c#) でその構文を使用する方法は?

私は現在、csharp を使用して Xamarin スタジオで Android 用の音楽アプリを作成しています。私は単純なシンセサイザー アプリを作成していますが、現在 csharp で GetMinBufferSize メソッドを使用しています。

Xamarin.Android のドキュメントでは、GetMinBufferSize メソッドの次の構文が提供されています (リンクは次のとおりです: xamarin API audiotrack documentation :

public static int getMinBufferSize (int sampleRateInHz、int channelConfig、int audioFormat)

私が理解していないのは、これらのものとは何か、そしてそれらをどのように使用する必要があるかです: [Android.Runtime.Register("getMinBufferSize", "(III)I", "")] [Android.Runtime.GeneratedEnum] [Android. Runtime.GeneratedEnum]

Java のコードはより簡単でした。

ここで、_sampleRate は int _sampleRate = 44100; です。は度数率を表します。

したがって、少なくとも xamarin ドキュメントの括弧内の 3 行が何であるかを教えていただければ、とても感謝しています。

よろしくお願いいたします。良い一日をお過ごしください。

これまでの私のコード:

0 投票する
1 に答える
151 参照

visual-c++ - Wave オーディオ録音で必要な WAVEHDR Array/Buffer の数を推測する方法

win32 WAVE API を使用してオーディオ録音プログラムを作成し、それをストリーミングしたいと考えています。しかし、オーディオを録音するための WAVEHDR バッファの数を推測する方法を知りたいですか?

NUM の値が必要です。それは特別な式に基づいて選択されますか、それとも開発者のニーズによって完全に選択されますか?

0 投票する
1 に答える
113 参照

javascript - createAudioBuffer を Analyzer に複数回接続する


私は立ち往生しています。私の問題は、mp3 ファイルを 経由で初期化し、createAudioBufferすべてのオーディオ ファイルをアナライザーに接続したいということです。ただし、 audioSource[i].start(); を設定した場合のみ。最後のトラックはアナライザーを通過します。タグの再生ボタン (または外部ボタン) を押すと、すべてのオーディオ ファイルがそのアナライザーを通過するようにしたいと考えています。
その仕事を得る方法はありますか?

これが私のコードです:

0 投票する
1 に答える
127 参照

google-chrome - Chromeium Web アウディ API copyToChannel 未定義

node.js スピーカー モジュールから AudioBuffers を取得し、chromeium (ノード webkit) の Web アウディ API を介して再生したいと考えています。したがって、私の問題は、1 つのチャネルを (バッファーとして) 取得し、それを UDP 経由でクライアントに送信する必要があることです。このクライアントはそれを再生したいと考えていますが、chromeium は「myArrayBuffer.copyFromChannel(anotherArray,1,0);」メソッドをまだ実装していません。

このメソッドは私の問題を完全に解決しますが、未定義です。回避策はありますか。

前もって感謝します

0 投票する
0 に答える
62 参照

iphone - 左、中央、右のヘッドフォンをデフォルトのiPhoneとして設定する方法は?