3

AVAudioEngine を使用してオーディオ ファイルを録音しました。

[mainMixer installTapOnBus:0 bufferSize:4096 format:[mainMixer outputFormatForBus:0] block:^(AVAudioPCMBuffer *buffer, AVAudioTime *when) {
    NSError *error;
    // as AVAudioPCMBuffer's are delivered this will write sequentially. The buffer's frameLength signifies how much of the buffer is to be written
    // IMPORTANT: The buffer format MUST match the file's processing format which is why outputFormatForBus: was used when creating the AVAudioFile object above
    NSAssert([mixerOutputFile writeFromBuffer:buffer error:&error], @"error writing buffer data to file, %@", [error localizedDescription]);
}];

次に、そのファイルのサンプルを取得して、ファイルの最初と最後にある無音部分を削除します。ファイルを読み取るためにバッファを使用しています:

AVAudioFrameCount kBufferFrameCapacity = 128 * 1024L;
AVAudioPCMBuffer *readBuffer = [[AVAudioPCMBuffer alloc]initWithPCMFormat:audioFile.processingFormat frameCapacity:kBufferFrameCapacity];
[audioFile readIntoBuffer:readBuffer error: &error]

次に、audioFile のサンプルの float 値にアクセスしようとしています。

for (AVAudioChannelCount channelIndex = 0; channelIndex < readBuffer.format.channelCount; ++channelIndex)
{
    float *channelData = readBuffer.floatChannelData[channelIndex];

    for (AVAudioFrameCount frameIndex = 0; frameIndex < readBuffer.frameLength; ++frameIndex)
    {            
       float sampleLevel = channelData[frameIndex];
       .... 

I NSLog sampleLevel が常に 0.0 を返す場合。私は何を間違っていますか?audioFile のサンプルを正しい方法で取得していますか、それともここで完全に間違っていますか?

4

0 に答える 0