0

一部のiOSデバイスには720P対応のカメラがあり、その他のデバイスは1080Pです。

画面サイズを固定したまま、同じ画面サイズでより多くのピクセルをフィッティングするので、明らかに1080Pの方がより良い画像を提供します。

しかし、以下を使用してピクセルを操作したい場合:

-(void) captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection 

議論のために、それらをどこにもレンダリングせず、計算を実行します。

明らかに、バッファの高さと幅は大きくなりますが、おそらくカメラの「視野」が広いため、1080Pカメラはより多くのピクセルをキャプチャします。したがって、品質の向上はないか、1080pカメラは同じ「視野」内で動作します。 720pカメラの「ビジョン」であり、1インチあたりより多くのピクセルをキャプチャしているだけなので、バッファを画像に出力しなくても、フレームバッファからより多くの「粒子/詳細」を期待する必要があります。

ありがとう

4

1 に答える 1

2

それらは同じ視野を持っていますが、唯一の違いは、1080が同じ領域からより多くのピクセルをキャプチャすることです。これがフレームが大きい理由です。生のフレームを印刷する場所を指定すると、1080の画像が720よりも大きいことがわかりますが、画像は同じです。したがって、これを同じウィンドウに表示すると、1080の方がきれいに見えます。ただし、必要なメモリは高く、フレームの取得速度は遅くなります。「遅延フレームのドロップ」オプションを有効にしている場合は、1080解像度でのフレームドロップが高くなることもあります。

計算の速度によっては、さらに下げる必要がある場合があります。たとえば、1080を使用してヘビーデューティーのOpenCVスタイルの画像処理を実行する場合、滑らかさが必要な場合は単純に不可能です。

ところで、これはiOSやOpenGLの質問ではありません。解像度がどのように機能するか。テレビ放送の品質も同じ原理で実行されます。

于 2013-01-10T01:31:47.537 に答える