AVFoundation フレームワークを使用して、AVCaptureSession でビデオをエンコードしています。
ビデオとオーディオは、ios7 (iPAD) では正常に記録され、カメラ ロールに保存されますが、私の ios 6 (iPOD TOUCH) では保存されません。
次のコードは、オーディオとビデオの AVAssetWriterInput にサンプル バッファーを追加します。
-(void) captureOutput:(AVCaptureOutput*)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection*)connection
{
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
CGSize imageSize = CVImageBufferGetEncodedSize(imageBuffer);
NSString *desc = [captureOutput description];
NSLog(@"Desc : %@",desc);
// also in the 'mediaSpecific' dict of the sampleBuffer
// UIImage *image = [self imageFromSampleBuffer:sampleBuffer];
if (CMSampleBufferDataIsReady(sampleBuffer) )
{
if (encoder._writer.status == AVAssetWriterStatusUnknown)
{
CMTime startTime = CMSampleBufferGetPresentationTimeStamp(sampleBuffer);
BOOL didStart = [encoder._writer startWriting];
[encoder._writer startSessionAtSourceTime:startTime];
}
if(captureOutput == outputDevice)
{
//To catch image Buffer
[encoder._writerInput appendSampleBuffer:sampleBuffer];
frameCount++;
}
if(captureOutput == audioOutput)
{
//To catch audio buffer
[encoder.audioWriterInput appendSampleBuffer:sampleBuffer];
}
}
NSLog( @"frame captured at %.fx%.f", imageSize.width, imageSize.height );
}
iPOD、つまり iOS 6 でキャプチャされたフレームのほとんどは、次のコードを使用して破棄されているという結論に達しました。
- (void)captureOutput:(AVCaptureOutput *)captureOutput didDropSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
if(captureOutput==outputDevice)
{
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
CGSize imageSize = CVImageBufferGetEncodedSize(imageBuffer);
NSLog( @"Discarded Frame at %.fx%.f", imageSize.width, imageSize.height );
}
}
助けてください。私はここで立ち往生しており、先に進むことができません。
いくつかの解決策を提案するか、少なくともこれらの状況に関する貴重な考えと仮定を教えてください.
よろしくお願いします。