問題タブ [avcapturesession]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - モノタッチ:WriteImageToSavedPhotosAlbumカメラからの保存の問題
ここで要点を参照してください:https ://gist.github.com/1387224
基本的に、私はから写真を保存しようとしています。AVCaptureSession
からの出力を取得し、それをUIImageに変換して、のメソッドにAVCaptureStillImageOutput
送信しようとしています。WriteImageToSavedPhotosAlbum
ALAssetLibrary
これを行う理由は、保存されたアセットのURLを取得できるようにするためです(UIImage.SaveToPhotosAlbum
正常に動作しますが、作成されたファイル名を抽出できません)
メソッドはエラーをスローしています
保存した写真の画像をエンコードできませんでした。
誰かがこれを修正する方法を知っていますか?NSData
から生のjpegストリームを渡すことも検討しましAVCaptureStillImageOutput
たが、メタデータを渡す方法がわかりませんNSDictionary
。
どうもありがとう
iphone - AVCaptureSessionを最適化する適切な方法は?
AVCaptureSessionを機能させ、Camera.app UIをほぼ完全に複製しましたが、数秒後にアプリケーションがクラッシュし、何が間違っているのかがわかりません。誰かがこれを最適化する方法を知っていることを本当に願っています!
私はARCを使用しています。繰り返しになりますが、セッション全体は正常に実行されますが、少しするとクラッシュします。AVCaptureSessionデリゲートメソッドは、毎秒のように呼び出されます。ユーザーが「写真を撮る」ボタンを押したときにのみそのメソッドを呼び出す方法がある場合、「ライブ」プレビューレイヤーを維持したまま、どうすればそれを行うことができますか?
前もって感謝します!
セッションの設定
呼び出されているAVCaptureSessionデリゲート:
サンプルバッファからUIImageを取得するメソッド
iphone - AVCaptureSession のグレースケール OpenGL ES テクスチャが移動するのはなぜですか?
ここに問題があります。私は、OpenGL ES を使用して iPhone で小さなプロジェクトに取り組んでいます。私は、Brad Larson のColorTracking アプリ(提供してくれた Brad に感謝します) から始めて、自分のニーズに合わせて調整しました。
すべてが正常に機能していますが、 で を使用するとkCVPixelFormatType_420YpCbCr8BiPlanarVideoRange
、グレースケールの画像で作業するので色は必要ないため、画面上の結果の画像は y 軸に沿って変換され、画面外に出る部分は上部にレンダリングされます:kCVPixelBufferPixelFormatTypeKey
AVCaptureVideoDataOutput
スクリーンショットは次のとおりです。
もちろん、これを機能させるには、呼び出しのデータ型を から に変更する必要がありglTexImage2D
ます。GL_RGBA
GL_LUMINANCE
この動作は、キャプチャ セッションのGL_RGBA
テクスチャを使用すると発生しません。kCVPixelFormatType_32BGRA
なぜこれが起こるのか、これを修正する方法を知っている人はいますか? どんな助けでも大歓迎です。
iphone - AVCaptureSessionからの画像のキャプチャ
AVCaptureSessionと、デリゲートメソッドを使用して複数の画像をキャプチャする方法について学習しています
私の目標は、1秒あたりの事前定義されたレートで1つまたは複数の画像をキャプチャすることです。たとえば、1秒あたり1枚または2枚の画像。だから私は設定しました
が[self.captureSession startRunning];
開始されると、ログファイルにデリゲートが1秒間に20回呼び出されていることが示されます。それはどこから来て、意図した間隔で画像をキャプチャする方法は?
ios - AVCaptureMovieFileOutput および AVMutableDataItems を介して QuickTime ファイルに任意のメタデータを保存する
全て:
AVCaptureMovieFileOutput を使用してムービーを録画しています。さまざまなイベントが発生するので、イベントのタイトル/時刻を、作成中の QuickTime ムービーに保存したいと考えています。したがって、特定の映画に関連付けたい 20 ~ 30 のデータ ポイントがあるとします。
私の戦略はメタデータを使用することですが、うまくいきませんでした。誰か教えてください、まず第一に:
a) 任意のメタデータ、または AVMetadataFormat.h で定義されているキーと値のみを保存できますか? 配列を格納できるようにしたいと思います。
b) 任意の配列を格納できる場合、どのキーがトリックを行いますか? そうでない場合、メタデータをコメント フィールドに保存できますか (見苦しいですが、20 ~ 30 ポイントを十分にすばやく解析できます)。
c) item.key (AVMetadataQuickTimeMetadataKeyArtist、AVMetadataCommonKeyArtist、またはその他のあらゆる種類のアーティストで終わるもの) に何を入力しても、iTune の [情報を見る] ウィンドウに何も表示されないため、以下に示すコードは機能していないようです。
}
アドバイスをいただければ幸いです。
ありがとう!
iphone - AVCaptureVideoPreviewLayer の方向が正しく応答しない
AVCaptureVideoPreviewLayer を使用して、「カメラ」のみを表示し、ビューを設計することにより、その上に拡張現実の概念を配置しました。しかし、向きの問題に直面しています。向きを変更すると、ビューの向きは正しく機能しますが、カメラ ビューの向きの動作がおかしくなります。通常、カメラ ビューは 90 度シフトされたビューを示します。ビューとカメラの両方の shouldAutoRotate メソッドで方向を変更しましたが、正常に動作することもあれば、奇妙な動作をすることもあります。この問題を解決してください。
iphone - UIViewフレーム境界は0,0として表示されます
環境:Xcode 4、ios 5、ipodtouch第4世代の網膜ディスプレイ
ビデオプレビューを表示して写真をキャプチャする簡単なアプリを作成しようとしています。プレビューを表示するために、次のコードを使用しています。
vPreviewをIBストーリーボードのUIViewに接続していて、全画面を占めています。ただし、フレームは常に0,0,0,0(x、y、h、w)として出力されます。誰かが何が悪いのか教えてもらえますか?
出力を設定してセッションを実行するコードはあと数行あります。しかし、この時点で、フレームはすでに間違っています。興味深いことに、ビデオプレビューを見ることができますが、アプリがすべて横向きであるのに対し、縦向きで表示されます。
ios - 同じ AVCaptureSession から多くの AVCaptureVideoPreviewLayer (IOS Camera) を作成し、それらを同じレイヤーに追加する
同じ AVCaptureSession から 3 つの AVCaptureVideoPreviewLayers を作成し、それらをビューのレイヤーに追加しましたが、最後に作成したものだけが表示されます
登場作品全部欲しいのですが、いかがでしょうか!!
ios - AVCaptureセッションが見つかりません。ビデオ入力を追加できませんでした
AVCaptureSessionを使用してカメラアプリを作成しようとしています。今のところ、ビデオ入力が機能するかどうかを確認したいだけです。しかし、入力がないようで、理由がわからないようです。
iphone - iOS SDK:AVCaptureVideoDataOutputをAVCaptureSessionに追加すると、メモリが無期限にゆっくりとリークします
AVCaptureVideoDataOutputとAVCaptureStillImageOutputを使用して設定された非常に基本的なAVCaptureSessionがあります。AVCaptureVideoDataOutputにはバッファーデリゲートがありません。標準的な問題のAVCaptureSessionを設定するだけで、特別なことは何も起こっていません。アプリをコンパイルして約10分間そのままにしておくと、使用可能なメモリは1分ごとに1MB程度減少します。私は72MBの空き容量でアプリを起動しましたが、机の上に置いただけで、空きメモリが33MBまで低下するのを確認しました。
AVCaptureVideoDataOutputをセッションに追加した部分をコメントアウトすると、使用可能なメモリは約70〜72MBのままになります。
そこで、セッションからAVCaptureVideoDataOutputを削除するボタンを設定しました。ボタンをタップすると、使用可能なメモリがすぐにアプリの最初の実行時(〜72mb)に戻ります。他の誰かがこれを見て、回避策を知っていますか?iPhoneにiOS5.0があり、最新のベータ版SDKがあります。
編集:AVCAptureVideoDataOutputを追加するコードは次のとおりです。
バッファデリゲートをコメントアウトしても、違いはないようです。
これをもう一度試してみると、6分以内に約70mbの空き容量から約54mbの空き容量になりました。:(