2

私はAndroidプラットフォームを使用していますが、次の参照質問から、生データを返すAudioRecordクラスを使用すると、必要に応じて可聴周波数の範囲をフィルタリングできることがわかりましたが、そのためにはアルゴリズムが必要です。誰かが私を見つけるのを手伝ってくれますか?範囲b/w14,400bphおよび16,200bphをフィルタリングするアルゴリズム。

「JTransform」を試しましたが、JTransformで実現できるかわかりません。現在、私は「jfftpack」を使用して非常にうまく機能する視覚効果を表示していますが、これを使用してオーディオフィルターを実現することはできません。

ここで参照

よろしくお願いします。以下は、上記の私のコードです。「jfftpack」ライブラリを使用して表示しています。コード内にこのライブラリ参照が含まれている可能性があります。混乱しないでください。

private class RecordAudio extends AsyncTask<Void, double[], Void> {
        @Override
        protected Void doInBackground(Void... params) {
try {
    final AudioRecord audioRecord = findAudioRecord();
                    if(audioRecord == null){
                        return null;
                    }

                    final short[] buffer = new short[blockSize];
                    final double[] toTransform = new double[blockSize];

                    audioRecord.startRecording();


    while (started) {
                        final int bufferReadResult = audioRecord.read(buffer, 0, blockSize);

                        for (int i = 0; i < blockSize && i < bufferReadResult; i++) {
                            toTransform[i] = (double) buffer[i] / 32768.0; // signed 16 bit
                        }

                        transformer.ft(toTransform);
                        publishProgress(toTransform);

                    }
audioRecord.stop();
                audioRecord.release();
} catch (Throwable t) {
                Log.e("AudioRecord", "Recording Failed");
            }
            return null;

/**
         * @param toTransform
         */
        protected void onProgressUpdate(double[]... toTransform) {
            canvas.drawColor(Color.BLACK);
            for (int i = 0; i < toTransform[0].length; i++) {
                int x = i;
                int downy = (int) (100 - (toTransform[0][i] * 10));
                int upy = 100;
                canvas.drawLine(x, downy, x, upy, paint);
            }
            imageView.invalidate();
        }
4

1 に答える 1

3

このプロセスには、ここであなたをハングアップさせる可能性のある小さな詳細がたくさんあります. このコードはテストされておらず、私はオーディオ フィルタリングをあまり頻繁に行っていないため、ここでは非常に疑わしいと考えてください。これは、オーディオをフィルタリングするための基本的なプロセスです。

  1. オーディオ バッファを取得する
  2. 可能なオーディオ バッファ変換 (バイトからフロートへ)
  3. (オプション) ウィンドウ関数を適用します。つまり、Hanning です。
  4. FFTを取る
  5. フィルター周波数
  6. 逆FFTを取る

Android とオーディオ録音に関する基本的な知識があることを前提としているため、ここでは手順 4 ~ 6 について説明します。

//it is assumed that a float array audioBuffer exists with even length = to 
//the capture size of your audio buffer

//The size of the FFT will be the size of your audioBuffer / 2
int FFT_SIZE = bufferSize / 2;
FloatFFT_1D mFFT = new FloatFFT_1D(FFT_SIZE); //this is a jTransforms type

//Take the FFT
mFFT.realForward(audioBuffer);

//The first 1/2 of audioBuffer now contains bins that represent the frequency
//of your wave, in a way.  To get the actual frequency from the bin:
//frequency_of_bin = bin_index * sample_rate / FFT_SIZE

//assuming the length of audioBuffer is even, the real and imaginary parts will be
//stored as follows
//audioBuffer[2*k] = Re[k], 0<=k<n/2
//audioBuffer[2*k+1] = Im[k], 0<k<n/2

//Define the frequencies of interest
float freqMin = 14400;
float freqMax = 16200;

//Loop through the fft bins and filter frequencies
for(int fftBin = 0; fftBin < FFT_SIZE; fftBin++){        
    //Calculate the frequency of this bin assuming a sampling rate of 44,100 Hz
    float frequency = (float)fftBin * 44100F / (float)FFT_SIZE;

    //Now filter the audio, I'm assuming you wanted to keep the
    //frequencies of interest rather than discard them.
    if(frequency  < freqMin || frequency > freqMax){
        //Calculate the index where the real and imaginary parts are stored
        int real = 2 * fftBin;
        int imaginary = 2 * fftBin + 1;

        //zero out this frequency
        audioBuffer[real] = 0;
        audioBuffer[imaginary] = 0;
    }
}

//Take the inverse FFT to convert signal from frequency to time domain
mFFT.realInverse(audioBuffer, false);
于 2012-06-06T18:59:05.960 に答える