私は、ユーザーがオーディオフィルターを設計し、録音されたサウンドでテストできるiPhoneアプリを作成しています。私は次のことをしようとします:
- 「recordeAudio.aiff」と「filteredAudio.aiff」という2つのオーディオファイルを作成します
- マイクで音を録音して「recordedAudio.aiff」に保存します
- 「recordedAudio.aiff」からバッファにオーディオデータをコピーします
- 後で、この時点でバッファにあるデータに対してオーディオフィルタリングを実行しますが、テストの目的で、各サンプルの値を半分に減らしたい(つまり、音量を半分に減らす)だけなので、単一のサンプルを操作できることを確認してください
- 結果を2番目のバッファに書き込みます
- そのバッファのデータを2番目のファイル「filteredAudio.aiff」に書き込みます
- 2番目のファイルを再生します
問題は次のとおりです。あるバッファから別のバッファにデータをコピーしてから、それを2番目のオーディオファイルに書き込む限り、すべてが正常に機能します。しかし、サンプルに対して何らかの操作(2で割るなど)を実行しようとすると、結果は単なるランダムノイズになります。これにより、オーディオデータの値を正しく解釈していないのではないかと思われますが、5日間試してみたところ、取得できませんでした。単一のオーディオサンプルにアクセスして操作する方法を知っている場合は、これを手伝ってください。本当に感謝しています。ありがとう!
これは後でフィルタリングを実行するコードです(今のところ、すべてのオーディオサンプルを2で割るだけです)。
OSStatus status = noErr;
UInt32 propertySizeDataPacketCount;
UInt32 writabilityDataPacketCount;
UInt32 numberOfPackets;
UInt32 propertySizeMaxPacketSize;
UInt32 writabilityMaxPacketSize;
UInt32 maxPacketSize;
UInt32 numberOfBytesRead;
UInt32 numberOfBytesToWrite;
UInt32 propertySizeDataByteCount;
SInt64 currentPacket;
double x0;
double x1;
status = AudioFileOpenURL(audioFiles->recordedFile,
kAudioFileReadPermission,
kAudioFileAIFFType,
&audioFiles->inputFile);
status = AudioFileOpenURL(audioFiles->filteredFile,
kAudioFileReadWritePermission,
kAudioFileAIFFType,
&audioFiles->outputFile);
status = AudioFileGetPropertyInfo(audioFiles->inputFile,
kAudioFilePropertyAudioDataPacketCount,
&propertySizeDataPacketCount,
&writabilityDataPacketCount);
status = AudioFileGetProperty(audioFiles->inputFile,
kAudioFilePropertyAudioDataPacketCount,
&propertySizeDataPacketCount,
&numberOfPackets);
status = AudioFileGetPropertyInfo (audioFiles->inputFile,
kAudioFilePropertyMaximumPacketSize,
&propertySizeMaxPacketSize,
&writabilityMaxPacketSize);
status = AudioFileGetProperty(audioFiles->inputFile,
kAudioFilePropertyMaximumPacketSize,
&propertySizeMaxPacketSize,
&maxPacketSize);
SInt16 *inputBuffer = (SInt16 *)malloc(numberOfPackets * maxPacketSize);
SInt16 *outputBuffer = (SInt16 *)malloc(numberOfPackets * maxPacketSize);
currentPacket = 0;
status = AudioFileReadPackets(audioFiles->inputFile,
false, &numberOfBytesRead,
NULL,
currentPacket,
&numberOfPackets,
inputBuffer);
for (int i = 0; i < numberOfPackets; i++) {
x0 = (double)inputBuffer[i];
x1 = 0.5 * x0; //This is supposed to reduce the value of the sample by half
//x1 = x0; //This just copies the value of the sample and works fine
outputBuffer[i] = (SInt16)x1;
}
numberOfBytesToWrite = numberOfBytesRead;
currentPacket = 0;
status = AudioFileWritePackets(audioFiles->outputFile,
false,
numberOfBytesToWrite,
NULL,
currentPacket,
&numberOfPackets,
outputBuffer);
status = AudioFileClose(audioFiles->inputFile);
status = AudioFileClose(audioFiles->outputFile);
オーディオファイルを作成するには、次のコードを使用します。
#import "AudioFiles.h"
#define SAMPLE_RATE 44100
#define FRAMES_PER_PACKET 1
#define CHANNELS_PER_FRAME 1
#define BYTES_PER_FRAME 2
#define BYTES_PER_PACKET 2
#define BITS_PER_CHANNEL 16
@implementation AudioFiles
-(void)setupAudioFormat:(AudioStreamBasicDescription *)format {
format->mSampleRate = SAMPLE_RATE;
format->mFormatID = kAudioFormatLinearPCM;
format->mFramesPerPacket = FRAMES_PER_PACKET;
format->mChannelsPerFrame = CHANNELS_PER_FRAME;
format->mBytesPerFrame = BYTES_PER_FRAME;
format->mBytesPerPacket = BYTES_PER_PACKET;
format->mBitsPerChannel = BITS_PER_CHANNEL;
format->mReserved = 0;
format->mFormatFlags = kLinearPCMFormatFlagIsBigEndian |
kLinearPCMFormatFlagIsSignedInteger | kLinearPCMFormatFlagIsPacked;
}
- (id)init
{
self = [super init];
if (self) {
char path[256];
NSArray *dirPaths;
NSString *docsDir;
dirPaths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES);
docsDir = [dirPaths objectAtIndex:0];
NSString *recordedFilePath = [docsDir stringByAppendingPathComponent:@"/recordedAudio.aiff"];
[recordedFilePath getCString:path maxLength:sizeof(path) encoding:NSUTF8StringEncoding];
recordedFile = CFURLCreateFromFileSystemRepresentation(NULL, (UInt8 *)path, strlen(path), false);
recordedFileURL = [NSURL fileURLWithPath:recordedFilePath];
dirPaths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES);
docsDir = [dirPaths objectAtIndex:0];
NSString *filteredFilePath = [docsDir stringByAppendingPathComponent:@"/filteredAudio.aiff"];
[filteredFilePath getCString:path maxLength:sizeof(path) encoding:NSUTF8StringEncoding];
filteredFile = CFURLCreateFromFileSystemRepresentation(NULL, (UInt8 *)path, strlen(path), false);
filteredFileURL = [NSURL fileURLWithPath:filteredFilePath];
AudioStreamBasicDescription audioFileFormat;
[self setupAudioFormat:&audioFileFormat];
OSStatus status = noErr;
status = AudioFileCreateWithURL(recordedFile,
kAudioFileAIFFType,
&audioFileFormat,
kAudioFileFlags_EraseFile,
&inputFile);
status = AudioFileCreateWithURL(filteredFile,
kAudioFileAIFFType,
&audioFileFormat,
kAudioFileFlags_EraseFile,
&outputFile);
}
return self;
}
@end
録音には、次の設定でAVAudioRecorderを使用します。
NSDictionary *recordSettings =
[[NSDictionary alloc] initWithObjectsAndKeys:
[NSNumber numberWithFloat: 8000.0], AVSampleRateKey,
[NSNumber numberWithInt: kAudioFormatLinearPCM], AVFormatIDKey,
[NSNumber numberWithInt: 1], AVNumberOfChannelsKey,
[NSNumber numberWithInt: AVAudioQualityMax], AVEncoderAudioQualityKey,
[NSNumber numberWithInt:16], AVEncoderBitRateKey,
[NSNumber numberWithBool:YES],AVLinearPCMIsBigEndianKey,
[NSNumber numberWithBool:NO],AVLinearPCMIsFloatKey,
[NSNumber numberWithInt:16],AVLinearPCMBitDepthKey,
[NSNumber numberWithBool:YES], AVLinearPCMIsNonInterleaved,
nil];
NSError *error = nil;
audioRecorder = [[AVAudioRecorder alloc] initWithURL:audioFiles->recordedFileURL settings:recordSettings error:&error];
if (error)
{
NSLog(@"error: %@", [error localizedDescription]);
} else {
[audioRecorder prepareToRecord];
}