4

私は、ユーザーがオーディオフィルターを設計し、録音されたサウンドでテストできるiPhoneアプリを作成しています。私は次のことをしようとします:

  1. 「recordeAudio.aiff」と「filteredAudio.aiff」という2つのオーディオファイルを作成します
  2. マイクで音を録音して「recordedAudio.aiff」に保存します
  3. 「recordedAudio.aiff」からバッファにオーディオデータをコピーします
  4. 後で、この時点でバッファにあるデータに対してオーディオフィルタリングを実行しますが、テストの目的で、各サンプルの値を半分に減らしたい(つまり、音量を半分に減らす)だけなので、単一のサンプルを操作できることを確認してください
  5. 結果を2番目のバッファに書き込みます
  6. そのバッファのデータを2番目のファイル「filteredAudio.aiff」に書き込みます
  7. 2番目のファイルを再生します

問題は次のとおりです。あるバッファから別のバッファにデータをコピーしてから、それを2番目のオーディオファイルに書き込む限り、すべてが正常に機能します。しかし、サンプルに対して何らかの操作(2で割るなど)を実行しようとすると、結果は単なるランダムノイズになります。これにより、オーディオデータの値を正しく解釈していないのではないかと思われますが、5日間試してみたところ、取得できませんでした。単一のオーディオサンプルにアクセスして操作する方法を知っている場合は、これを手伝ってください。本当に感謝しています。ありがとう!

これは後でフィルタリングを実行するコードです(今のところ、すべてのオーディオサンプルを2で割るだけです)。

OSStatus status = noErr;
UInt32 propertySizeDataPacketCount;
UInt32 writabilityDataPacketCount;
UInt32 numberOfPackets;
UInt32 propertySizeMaxPacketSize;
UInt32 writabilityMaxPacketSize;
UInt32 maxPacketSize;
UInt32 numberOfBytesRead;
UInt32 numberOfBytesToWrite;
UInt32 propertySizeDataByteCount;
SInt64 currentPacket;
double x0;
double x1;


status = AudioFileOpenURL(audioFiles->recordedFile, 
                          kAudioFileReadPermission, 
                          kAudioFileAIFFType, 
                          &audioFiles->inputFile);
status = AudioFileOpenURL(audioFiles->filteredFile, 
                          kAudioFileReadWritePermission, 
                          kAudioFileAIFFType, 
                          &audioFiles->outputFile);

status = AudioFileGetPropertyInfo(audioFiles->inputFile, 
                                  kAudioFilePropertyAudioDataPacketCount, 
                                  &propertySizeDataPacketCount, 
                                  &writabilityDataPacketCount);

status = AudioFileGetProperty(audioFiles->inputFile, 
                              kAudioFilePropertyAudioDataPacketCount, 
                              &propertySizeDataPacketCount, 
                              &numberOfPackets);

status = AudioFileGetPropertyInfo (audioFiles->inputFile, 
                                   kAudioFilePropertyMaximumPacketSize, 
                                   &propertySizeMaxPacketSize, 
                                   &writabilityMaxPacketSize);

status = AudioFileGetProperty(audioFiles->inputFile, 
                              kAudioFilePropertyMaximumPacketSize, 
                              &propertySizeMaxPacketSize, 
                              &maxPacketSize);


SInt16 *inputBuffer = (SInt16 *)malloc(numberOfPackets * maxPacketSize);
SInt16 *outputBuffer = (SInt16 *)malloc(numberOfPackets * maxPacketSize);


currentPacket = 0;
status = AudioFileReadPackets(audioFiles->inputFile, 
                              false, &numberOfBytesRead, 
                              NULL, 
                              currentPacket, 
                              &numberOfPackets, 
                              inputBuffer);


for (int i = 0; i < numberOfPackets; i++) {

    x0 = (double)inputBuffer[i];
    x1 = 0.5 * x0; //This is supposed to reduce the value of the sample by half
    //x1 = x0;     //This just copies the value of the sample and works fine
    outputBuffer[i] = (SInt16)x1;
}



numberOfBytesToWrite = numberOfBytesRead;
currentPacket = 0;
status = AudioFileWritePackets(audioFiles->outputFile, 
                               false, 
                               numberOfBytesToWrite, 
                               NULL, 
                               currentPacket, 
                               &numberOfPackets, 
                               outputBuffer);

status = AudioFileClose(audioFiles->inputFile);
status = AudioFileClose(audioFiles->outputFile);

オーディオファイルを作成するには、次のコードを使用します。

 #import "AudioFiles.h"

 #define SAMPLE_RATE         44100

 #define FRAMES_PER_PACKET   1
 #define CHANNELS_PER_FRAME  1
 #define BYTES_PER_FRAME     2
 #define BYTES_PER_PACKET    2
 #define BITS_PER_CHANNEL    16

 @implementation AudioFiles

 -(void)setupAudioFormat:(AudioStreamBasicDescription *)format {
format->mSampleRate = SAMPLE_RATE;
format->mFormatID = kAudioFormatLinearPCM;
format->mFramesPerPacket = FRAMES_PER_PACKET;
format->mChannelsPerFrame = CHANNELS_PER_FRAME;
format->mBytesPerFrame = BYTES_PER_FRAME;
format->mBytesPerPacket = BYTES_PER_PACKET;
format->mBitsPerChannel = BITS_PER_CHANNEL;
format->mReserved = 0;
format->mFormatFlags = kLinearPCMFormatFlagIsBigEndian |
    kLinearPCMFormatFlagIsSignedInteger | kLinearPCMFormatFlagIsPacked;
 }


 - (id)init
 {
  self = [super init];
  if (self) {

    char path[256];
    NSArray *dirPaths;
    NSString *docsDir;

    dirPaths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES);
    docsDir = [dirPaths objectAtIndex:0];

    NSString *recordedFilePath = [docsDir    stringByAppendingPathComponent:@"/recordedAudio.aiff"];
    [recordedFilePath getCString:path maxLength:sizeof(path) encoding:NSUTF8StringEncoding];
    recordedFile = CFURLCreateFromFileSystemRepresentation(NULL, (UInt8 *)path, strlen(path), false);
    recordedFileURL = [NSURL fileURLWithPath:recordedFilePath];

    dirPaths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES);
    docsDir = [dirPaths objectAtIndex:0];

    NSString *filteredFilePath = [docsDir stringByAppendingPathComponent:@"/filteredAudio.aiff"];
    [filteredFilePath getCString:path maxLength:sizeof(path) encoding:NSUTF8StringEncoding];
    filteredFile = CFURLCreateFromFileSystemRepresentation(NULL, (UInt8 *)path, strlen(path), false);
    filteredFileURL = [NSURL fileURLWithPath:filteredFilePath];

    AudioStreamBasicDescription audioFileFormat;
    [self setupAudioFormat:&audioFileFormat];

    OSStatus status = noErr;
    status = AudioFileCreateWithURL(recordedFile, 
                                    kAudioFileAIFFType, 
                                    &audioFileFormat, 
                                    kAudioFileFlags_EraseFile, 
                                    &inputFile);
    status = AudioFileCreateWithURL(filteredFile, 
                                    kAudioFileAIFFType, 
                                    &audioFileFormat, 
                                    kAudioFileFlags_EraseFile, 
                                    &outputFile);

}

return self;
}
@end

録音には、次の設定でAVAudioRecorderを使用します。

 NSDictionary *recordSettings =
 [[NSDictionary alloc] initWithObjectsAndKeys:
 [NSNumber numberWithFloat: 8000.0], AVSampleRateKey,
 [NSNumber numberWithInt: kAudioFormatLinearPCM], AVFormatIDKey,
 [NSNumber numberWithInt: 1], AVNumberOfChannelsKey,
 [NSNumber numberWithInt: AVAudioQualityMax], AVEncoderAudioQualityKey,
 [NSNumber numberWithInt:16], AVEncoderBitRateKey,
 [NSNumber numberWithBool:YES],AVLinearPCMIsBigEndianKey,
 [NSNumber numberWithBool:NO],AVLinearPCMIsFloatKey,
 [NSNumber numberWithInt:16],AVLinearPCMBitDepthKey,
 [NSNumber numberWithBool:YES], AVLinearPCMIsNonInterleaved,
 nil];

NSError *error = nil;

audioRecorder = [[AVAudioRecorder alloc] initWithURL:audioFiles->recordedFileURL settings:recordSettings error:&error];

if (error)
{
    NSLog(@"error: %@", [error localizedDescription]);

} else {
    [audioRecorder prepareToRecord];
}
4

1 に答える 1

4

入力データは BigEndian ですが、LittleEndian であると想定しています。

これを処理する 1 つの方法は次のとおりです。

SInt16 inVal = OSSwapBigToHostInt16(inputBuffer[i]);
SInt16 outVal = inVal / 2;
outputBuffer[i] = OSSwapHostToBigInt16(outVal);
于 2011-12-06T15:43:37.587 に答える