1

私はオーディオ処理に非常に慣れていません。オーディオを片方向に録音およびストリーミングし、もう一方の端では録音しないプログラムを作成しました。基本的に、ある場所で記録されたものは何でも別の場所に送信します。ただし、このプログラムが録音ソースと同じ場所にオーディオを出力する場合も多くあります。これにより、オーディオの遅延 (多くの要因に依存する) により、顕著な「エコー」が発生します。

他に何かあるかどうかわからないので、WebRTC のオーディオ処理モジュールをゲイン コントロールとアコースティック エコー キャンセレーションに使用しようとしています。ゲイン コントロールはうまく機能しているように見えますが、AEC はあまりうまく機能していません。正しいストリーム遅延を設定していないためか、これが AEC の目的ではない可能性があるためだと思います。

私が使用している現在のコードは、少なくとも最初に発生したエコーを取り除くために、ファイルから記録したものを読み取ります。ストリーム遅延を 0 に設定すると、現在のオーディオが完全にキャンセルされることが想像できます。さまざまな値を試してみましたが、あまり役に立ちませんでした。

私の質問は、これが十分に具体的であることを願っています。このモデルで何が間違っているのでしょうか?

void start( char *inFilename, char *outFilename )
{
    FILE *infile = fopen( inFilename, "rb" );
    FILE *outfile = fopen( outFilename, "wb" );

    // Our frame manager
    AudioFrame frame;
    frame._audioChannel = CHANNELS;
    frame._frequencyInHz = SAMPLERATE;
    frame._payloadDataLengthInSamples = SAMPLERATE/100; // Math for 20ms frames

    // Get the size of our frames
    const size_t frameLength = frame._payloadDataLengthInSamples*CHANNELS;


    AudioProcessing* apm = AudioProcessing::Create(0);
    //
    apm->set_sample_rate_hz( SAMPLERATE ); // Super-wideband processing.
    //
    // // Mono capture and stereo render.
    apm->set_num_channels(1, 1);
    apm->set_num_reverse_channels(1);
    //
    apm->high_pass_filter()->Enable(true);
    //
    //apm->echo_cancellation()->set_suppression_level( EchoCancellation::SuppressionLevel::kHighSuppression );
    apm->echo_cancellation()->enable_drift_compensation( false );
    apm->echo_cancellation()->Enable( true );
    //
    apm->noise_suppression()->set_level( NoiseSuppression::Level::kHigh );
    apm->noise_suppression()->Enable( true );
    //
    apm->gain_control()->set_analog_level_limits( 0, 255 );
    apm->gain_control()->set_mode( GainControl::Mode::kAdaptiveDigital );
    apm->gain_control()->Enable( true );
    //
    // apm->voice_detection()->Enable(true);
    //
    // // Start a voice call...

    while( fread(frame._payloadData, sizeof( int16_t ), frameLength, infile )==frameLength )
    {
        //apm->set_stream_delay_ms( 0 );

        apm->AnalyzeReverseStream( &frame );
        //
        // // ... Render frame arrives bound for the audio HAL ...
        //
        // // ... Capture frame arrives from the audio HAL ...
        // // Call required set_stream_ functions.
        // apm->gain_control()->set_stream_analog_level(analog_level);
        //

        apm->set_stream_delay_ms( 300 );

        int err = apm->ProcessStream( &frame );

        fprintf( stdout, "Output %i\n", err );
        //
        // // Call required stream_ functions.
        // analog_level = apm->gain_control()->stream_analog_level();
        // has_voice = apm->stream_has_voice();


        fwrite( frame._payloadData, sizeof( int16_t ), frameLength, outfile );
    }

    //
    // // Repeate render and capture processing for the duration of the call...
    // // Start a new call...
    // apm->Initialize();
    //
    // // Close the application...
    AudioProcessing::Destroy( apm );
    apm = NULL;

    fclose( infile );
    fclose( outfile );
}

次のインクルードとライブラリを使用: http://www.freedesktop.org/software/pulseaudio/webrtc-audio-processing/

4

1 に答える 1