問題タブ [avcapture]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - カメラボタン付きの画像ピッカーをiOSアプリに追加する方法
デバイスに保存された画像のビューを開くボタンを追加していますが、カメラを開くボタンもあります。iOS Facebook アプリは現在これを行っています。
AVCapture を使用して独自のカメラ UI を作成し、UIImagePickerController を使用してデフォルトの UI を使用しましたが、保存された画像とカメラ ボタンの両方を表示するビューを見つけることができませんでした。
私の質問は、Facebook は独自のイメージ ピッカーを実装したのか、それとも Apple に含まれているライブラリなのかということです。
ありがとう!
ios - ビデオ キャプチャ: iOS 6 でフレームが破棄される
AVFoundation フレームワークを使用して、AVCaptureSession でビデオをエンコードしています。
ビデオとオーディオは、ios7 (iPAD) では正常に記録され、カメラ ロールに保存されますが、私の ios 6 (iPOD TOUCH) では保存されません。
次のコードは、オーディオとビデオの AVAssetWriterInput にサンプル バッファーを追加します。
iPOD、つまり iOS 6 でキャプチャされたフレームのほとんどは、次のコードを使用して破棄されているという結論に達しました。
助けてください。私はここで立ち往生しており、先に進むことができません。
いくつかの解決策を提案するか、少なくともこれらの状況に関する貴重な考えと仮定を教えてください.
よろしくお願いします。
ios - AVCaptureVideoDataOutput と AVCaptureAudioDataOutput を使用してビデオとオーディオを同時に書き込む方法は?
「AVFoundation」を使ってつるのような動画アプリを作ってみました。これで、ビデオを保存して再生AVCaptureVideoDataOutput
できるようになりましたが、どういうわけかオーディオが機能せず、理由がわかりません。iOSアプリ初心者なので分かりにくいかもしれません。私が言おうとしていることを理解し、いくつかのヒントを教えていただければ幸いです。
これは私が使用しているコードです。
セットアップAVCaptureVideoDataOutput
とAVCaptureAudioDataOutput
:
セットアップAVAssetWrite
とAVAssetWriterInput
:
そして最後にCaptureOutput
コード:
ios - ビデオ プレビュー レイヤー内に存在する画像のキャプチャ
ビデオ プレビュー レイヤー内の画像のみをキャプチャしたいと思います。現在、次のように設定しています。
現状では、プレビュー レイヤーはキャプチャしたいものを表していますが、カメラはそれらの境界の外にあるものもキャプチャします。画像の向きが上ではないため、写真を撮って後でトリミングすることはできず、CGImageRef
機能しません。プレビューレイヤーにあるものだけをキャプチャする方法はありますか?
macos - ビデオを avcapture 入力として使用する方法
アプリケーションに対してさまざまなカメラ入力をテストしようとしていますが、ウェブカメラに毎回まったく同じことをさせたり、レンズを交換したりするのは難しいため、ビデオを撮影してそれを入力として使用したいと考えています。
AVCapture デバイスの OSX を照会する方法はわかりますが、保存されたビデオ ファイルからフレームを供給しながら、OSX を作成してシステムに登録することは可能ですか?
ios - iOS: captureOutput:didOutputSampleBuffer:fromConnection は呼び出されません
AVCaptureSession のライブ フィードからフレームを取得したいのですが、Apple の AVCam をテスト ケースとして使用しています。AVCamへのリンクは次のとおりです。
https://developer.apple.com/library/ios/samplecode/AVCam/Introduction/Intro.html
それcaptureOutput:didOutputSampleBuffer:fromConnection
が呼び出されていないことがわかりました。なぜ、または何が間違っているのかを知りたいです。
これが私がやったことです:
(1)AVCamViewController
デリゲートにします
(2)AVCaptureVideoDataOutput
オブジェクトを作成し、セッションに追加しました
(3) デリゲート メソッドを追加し、ランダムな文字列をログに記録してテストします
テスト アプリケーションは動作しますが、captureOutput:didOutputSampleBuffer:fromConnection は呼び出されません。
(4) SO で、viewDidLoad でローカルにあるセッション変数がAVCaptureSession *session = [[AVCaptureSession alloc] init];
デリゲートが呼び出されない理由として考えられることを読み、それを AVCamViewController クラスのインスタンス変数にしましたが、まだ呼び出されていません。
これが私がテストしているviewDidLoadメソッドです(AVCamから取得)。メソッドの最後にAVCaptureDataOutputを追加しました:
誰かが理由とそれを修正する方法についての提案を教えてもらえますか?
ios - カスタム カメラは機能するが、ライブ プレビューは機能しない
カスタムカメラアプリを構築しようとしています。
タスク:
- ライブ画像プレビューを表示します。
- 画面の任意の場所をタップして画像をキャプチャできます。
- 結果の画像をライブ画像プレビューの上に表示します。
現在、タスク 1 を除いてすべてが機能します。カメラが動作していて、画面をタップすると画像が表示されても、ライブ画像プレビューを含むビューは背景色のままです (背景色が選択されていない場合は透明のままです)。何か案は?この以前のディスカッションを参照しましたが、すべてのベースをカバーしていると思います: AVFoundation カメラ プレビュー レイヤーが機能しない
私は何が欠けていますか?
ios8 - iOS8のメインスレッドでAVCaptureSessionがUIをブロックする
私たちのアプリはAVCaptureSession
、qr/バーコードのスキャンに使用します。iOS 8 で応答しなくなった単純な閉じるボタンがあります。
出力バッファがメイン UI スレッドをオーバーロードしているようです。
現在の出力はメイン スレッドにあるようです。
これをすべて別のスレッドで実行する必要がありますか? バックグラウンド スレッドで実行しようとする現在の試みは失敗しました。