問題タブ [avcapture]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - カメラから役立つ情報を入手できますか?
次のデリゲートメソッドを使用AVCaptureVideoDataOutputSampleBufferDelegate
して、カスタムでiPhoneカメラからのビデオを表示するためにを使用しています。UIView
露出、色、しきい値など、画像からいくつかの有用な情報を引き出すことができるようにしたいと思います。
この種の情報にアクセスするための最良の方法は何ですか?
ios - iOS: OpenGL を使用してビデオ上に描画する
カメラからのビデオに OpenGL グラフィックを描画しようとしています。Apple のGLCameraRippleサンプルを、いくつかのテクスチャ付き三角形を描画するコードで修正しました。このコードは、別の OpenGL プロジェクト (ただし GLKit なし) でうまく機能します。残念ながら、ここではそのようにしか機能しません。アプリを起動すると、ClearColor で塗りつぶされた画面にテクスチャ付きの三角形が表示されますが (ビデオは表示されません)、すぐに画面が黒くなり、何も表示されません。何が問題なのか説明していただけますか?
objective-c - 複数のAVCaptureSessionsを実行するか、複数の入力を追加します
iPad2の前面カメラと背面カメラのストリームを2つのUIViewに並べて表示したいと思います。1つのデバイスの画像をストリーミングするには、次のコードを使用します
これはどちらのカメラでも問題なく動作します。ストリームを並行して表示するために、別のセッションを作成しようとしましたが、2番目のセッションが確立されるとすぐに、最初のセッションがフリーズします。
次に、セッションに2つのAVCaptureDeviceInputを追加しようとしましたが、現時点では最大で1つの入力がサポートされているようです。
両方のカメラからストリーミングする方法について役立つアイデアはありますか?
objective-c - AVCaptureSession を使用して異常な値が返される
AVCapture セッションを使用してリアルタイムでいくつかの画像を検出し、アプリの XML データと SURF アルゴリズム (SURF コードはオープン ソースで利用可能) を介して画像データを照合しています。
現在、私の XML は Img Data (画像の特徴を表す浮動小数点数) と imgid (1 から 9 までの整数値) で構成されています。
ロジックは、カメラを画像に向けるたびに、rgb 値を検出し、画像の rgb 値が XML の特徴点データを使用して既に操作されている SURF アルゴリズムに送信する必要があるということです。特徴を照合し、その特定の画像の対応する img ID (1 から 9 の間) を返します。その画像 ID を使用して、一致 ID が返されます。一致 ID が正の値である場合、ゼロの場合は画像が一致したと見なされ、一致しません。
今、私はこの AVCaptureConnection のようなイメージ ID を取得しています: 0x59f3da0
avcapture セッション コードは、Apple のテクニカル Q&A で使用されているものと同じです。
iphone - AVCaptureVideoPreviewLayer をキャプチャできません
私のアプリでは、次のコードでビデオ プレビュー レイヤーを開いています。
この方法で画面をキャプチャしようとすると:
prevLayer がキャプチャされていません。何か不足していますか?
iphone - AVCapture と iPhone のカメラのデフォルトの違いは何ですか
私のアプリはキャプチャ画像に AVCapture を使用しています。これは私の監督者の理想です。しかし、インターネットで調査したところ、AVCapture と iPhone または iPop のデフォルトのカメラ (タブ フォーカスまたはカメラの品質など) の違いに関する情報を取得できません。AVFoundation フレームワークの進歩について教えてください...
iphone - 写真を撮った瞬間にビデオを一時停止するにはどうすればよいですか?
を介してAVFoundation
ビデオを表示するために使用しています。次に、のcaptureStillImageAsynchronouslyFromConnectionを使用して、プリセットを使用してビデオから静止画像をキャプチャし ます。UIView
AVCaptureVideoPreviewOverlay
AVStillImageOutput
-
:
AVCaptureSessionPresetPhoto
前述のcaptureStillImageAsynchronouslyFromConnection完了ブロックでAVCaptureSession
の-
stopRunningを使用してビデオをフリーズしています。-
ただし、手遅れで、静止画を撮影している間も動画が流れ続けているため、フリーズは1〜2秒後です。画像を表示するとジャンプがあります。
写真が撮られた瞬間にビデオをフリーズするにはどうすればよいですか?
ios - IOS、AVCam、キャプチャした画像をプレビューするにはどうすればよいですか?
AVCamサンプルを使用すると、AVCamViewController.mファイルの画像にアクセスする方法がわかりません。キャプチャした画像をプレビューしたいのですが、メソッドでこの画像にアクセスする方法がわかりません。- (IBAction)captureStillImage:(id)sender
行の後:[[self captureManager] captureStillImage];
次のようにプログラムでプレビューを追加したい:
私はこれについてここで助けを見つけようとしましたが、できませんでした。ここの誰かがいくつかのヒントを持っていますか?
ios - サンプル バッファが null でない場合に jpegStillImageNSDataRepresentation が例外をスローするのはなぜですか?
iOS では、次のように AVCaptureStillImageOutput からキャプチャするコードを使用しています。
[_captureStillOutput captureStillImageAsynchronouslyFromConnection: _captureConnection completionHandler: asyncCaptureCompletionHandler];
コードを簡略化するために、私の asyncCaptureCompletionHandler ブロックは次のようになります。
私はすべてのコードとクロス リファレンスをスタック オーバーフローで調べてきましたが、適切な JPEG でなくても有効なサンプル バッファがキャプチャされる理由を示唆するものは見つかりませんでした。
デバッガーには補足情報があります: * キャッチされない例外 'NSInvalidArgumentException' が原因でアプリを終了しています。
Google とスタック オーバーフローの両方で「JPEG サンプル バッファではない」を検索しても、結果はゼロでした。私は立ち往生しています。ああ。
ios - GPUImageWhiteBalanceFilter と uiElement ブレンドの両方をより効率的に実装するには?
GPUImage フレームワークを使用するアプリに取り組んでいます。GPUImageWhiteBalanceFilter を使用してホワイトバランスを調整し、いくつかのウォーターマークを記録して uiElement ブレンドを使用したいのですが、動作しますが、iphone 4s で 1080p ビデオをキャプチャするとフレームレートが低下します。コードは次のとおりです。どなたでも助けていただけますか。