問題タブ [avcapturedevice]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - iOS 7.1 を実行している iPhone 4 にカメラが焦点を合わせていない
iOS を 7.0.6 から 7.1.0 にアップグレードした後、問題が発生しています。iOS 7.1 を実行している iPhone 4s、5、5c、または 5s では、この問題は見られません。カメラの初期化コードを投稿しています:
どんな助けでも大歓迎です...
ios - ピクセル密度 (ppi) >300ppi のカメラからの iOS 画像キャプチャ
AVCaptureDeviceを使用して iPhone カメラから画像を取得する iOS アプリケーションを開発しています。
キャプチャされた画像のピクセル密度 (ppi) は 72ppi のようです。
1.これらの画像をさらに処理するために、画像の最小ピクセル密度が 300ppi であることを想定しているバックエンド クラウド サーバーに送信する必要があります。
2.また、iPhone 5 のネイティブ カメラで撮影した画像のピクセル密度も 72 ppi であることがわかります。
3.AVCapture
ファウンデーションに撮影した画像のピクセル密度を設定する設定があるかどうか、または撮影した画像のピクセル密度を 72 ppi から 300 ppi に増やす方法があるかどうかを知る必要があります。
どんな助けでも大歓迎です。
ios - ビデオ キャプチャ: iOS 6 でフレームが破棄される
AVFoundation フレームワークを使用して、AVCaptureSession でビデオをエンコードしています。
ビデオとオーディオは、ios7 (iPAD) では正常に記録され、カメラ ロールに保存されますが、私の ios 6 (iPOD TOUCH) では保存されません。
次のコードは、オーディオとビデオの AVAssetWriterInput にサンプル バッファーを追加します。
iPOD、つまり iOS 6 でキャプチャされたフレームのほとんどは、次のコードを使用して破棄されているという結論に達しました。
助けてください。私はここで立ち往生しており、先に進むことができません。
いくつかの解決策を提案するか、少なくともこれらの状況に関する貴重な考えと仮定を教えてください.
よろしくお願いします。
ios - AVCaptureDevice はバックカメラをキャプチャできません
でiPhoneのバックカメラを使用しようとしていますAVCaptureDevice
。私は両方を試しましAVCaptureDevicePositionBack
たAVCaptureDevicePositionFront
が、それでもFrontCameraを使用しています。
これは私のコードです:
ios - AVCaptureDevice から継承したクラスを作成することはできますか?
このような AVCaptureDevice から継承されたクラスを作成しようとしています
MyClass.h ファイル内
しかし、initメソッドでAVCaptureDeviceインスタンスを「self」に割り当てるにはどうすればよいですか?
これが私のアプローチです(うまくいきません...)
MyClass.m ファイル内
NSInvalidArgumentException
理由:「認識されないセレクターが-[AVCaptureFigVideoDevice test]:
インスタンスに送信されました」。test は AVCaptureDevice のメソッドではないため、これは理にかなっています。
以前に行った別のアプローチは、AVCaptureDevice を MyClass クラスに含めることで、これは機能します。
しかし、この考えを実装するための良いアプローチを見逃していないかどうかはまだ疑問です。
ありがとうございました。
ios - iOS: captureOutput:didOutputSampleBuffer:fromConnection は呼び出されません
AVCaptureSession のライブ フィードからフレームを取得したいのですが、Apple の AVCam をテスト ケースとして使用しています。AVCamへのリンクは次のとおりです。
https://developer.apple.com/library/ios/samplecode/AVCam/Introduction/Intro.html
それcaptureOutput:didOutputSampleBuffer:fromConnection
が呼び出されていないことがわかりました。なぜ、または何が間違っているのかを知りたいです。
これが私がやったことです:
(1)AVCamViewController
デリゲートにします
(2)AVCaptureVideoDataOutput
オブジェクトを作成し、セッションに追加しました
(3) デリゲート メソッドを追加し、ランダムな文字列をログに記録してテストします
テスト アプリケーションは動作しますが、captureOutput:didOutputSampleBuffer:fromConnection は呼び出されません。
(4) SO で、viewDidLoad でローカルにあるセッション変数がAVCaptureSession *session = [[AVCaptureSession alloc] init];
デリゲートが呼び出されない理由として考えられることを読み、それを AVCamViewController クラスのインスタンス変数にしましたが、まだ呼び出されていません。
これが私がテストしているviewDidLoadメソッドです(AVCamから取得)。メソッドの最後にAVCaptureDataOutputを追加しました:
誰かが理由とそれを修正する方法についての提案を教えてもらえますか?
ios - videoZoomFactor が AVCaptureSession で機能しない
私が苦労しているズームにはまだ問題があります。link1とlink2のコードに従って AVCaptureSession を使用して画像を取得しようとしました。
カメラのズームを実装しようとするとすぐに、思い通りに動作しないことを除いて、すべてが非常にうまく機能します。
以下のコードに見られるように、AVCaptureDevice オブジェクトで videoZoomFactor メソッドを使用しようとしています。
videoZoomFactor が効果がない理由について何か提案はありますか??
意図したとおりに AVCaptureSession を使用して、静止画像を取得するためのズームをどのように作成しますか??
ios - フォーカスのある画像の UIImage 部分
AVFoundation フレームワークの理解を深めようとしています。
焦点が合っている画像の領域の周りにベジエ パス (必ずしも高解像度のものである必要はありません) を追加したいと考えています。
では、UIImage が与えられた場合、UIImage のどのポイントがフォーカスされていて、どのポイントがフォーカスされていないかを知ることは可能ですか?
(GPUImage の「検出フィルター」のいずれかが、私が試みていることを達成するのに役立つかどうかはわかりません)。