問題タブ [avcapture]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - 写真撮影後の AVCapture 一時停止画面
私はavcaptureのデモ例を使用しました。写真を撮った後、viewcontrollerのimagviewに画像を表示したいのですが、コードを使用しています
フォトライブラリから最後の画像を取得しますが、最後から2番目の画像を取得しています
そして、私が書いた画像を選んだ後にviewControllerをリダイレクトする
このように使用しますが、これを解決する方法は? 写真を撮った後、画面を一時停止します
ios - "_vImagePermuteChannels_ARGB8888" を解決する方法: エラー?
RGBA を ARGB に変換するときは、次のコードを使用しました。
以下のエラーが表示されます: そのために と を追加Convertion.h
しましAccelerate.framework
た。
アーキテクチャ armv6 の未定義シンボル:
"_vImagePermuteChannels_ARGB8888"、参照先: -[CCOverlayView processImage] in CCOverlayView.o ld: アーキテクチャ armv6 collect2 のシンボルが見つかりません: ld は 1 つの終了ステータスを返しました
誰でも私を助けてもらえますか?
ios - AV Foundation カメラ キャプチャのカスタム フレーム サイズを設定するにはどうすればよいですか?
私は AV Foundation をカメラ キャプチャに使用する AVCam サンプル アプリケーションを使用しています。
次のプリセットを使用すると:
カメラから 480 x 360 のビデオ フレームを取得します。
ただし、320 x 192 のフレーム サイズが必要です。カスタム プリセットを設定して、このサイズのフレームを取得するにはどうすればよいですか? それが役立つ場合、私が対象としている iOS のバージョンは 4.2.1 です。
objective-c - Objective-C++コードのC++クラスでdispatch_syncを使用することはできません
iPhoneカメラからのビデオ録画で動作する継承されたC++クラスでObjective-C++コードを使用する必要があります(CMSampleBufferRef
他のnative-objective-cクラスWrapper
を使用して取得しCMSampleBufferDelegate
ます)。
私が持っているものはAVCaptureVideoOutput
それ自体dispatch_queue_t callbackQueue
で機能するので、クラスから最後のフレームを取得したい場合は、コピーが完了するまで待機させるために Wrapper
をロックする必要があります。callbackQueue
私が知っているように、それはdispatch_sync
、同期して行われcaptureOutput.callbackQueue
ます。しかし、私はこのコードを機能させることができません:
編集:
に変更したとき
最初のエラーは修正されましたが、2番目のエラーはまだここにあります。
これで立ち往生しました..どんな助けも大歓迎です!
iphone - カメラアプリのように明るいフラッシュをトリガーするにはどうすればよいですか?
私がフラッシュをしようとしている方法はこれです:
1)電話
2)0.1秒後に電話します
問題は、フラッシュが発生したときに、カメラアプリのフラッシュよりもはるかに暗いことです。そのLEDをそれほど明るく輝かせることができません。このフラッシュをできるだけ明るくする別の方法はありますか?
iphone - AVCaptureSession、複数の AVCaptureAudioDataOutputs
環境
- アイフォン
- arm7/sdk6.0
- xcode 4.5
使用事例
- AVCam サンプルに基づく
- AVCaptureMovieFileOutput を使用して A/V をファイルにキャプチャする
- 追加の AVCaptureAudioDataOutput を追加して、録音中にファイルに書き込まれるオーディオを傍受します
方法
- ビデオ入力を Capture セッションに追加する
- Capture セッションに音声入力を追加する
- Capture セッションにファイル出力を追加する
- Capture セッションにオーディオ出力を追加する
- 構成、設定
- 録音開始
問題
オーディオ出力は相互に排他的であるようです。したがって、ディスクに書き込まれるデータを取得するか、AVCaptureMovieFileOutput が追加されたときに (順序は関係ありません)、AVCaptureAudioDataOutput キャプチャ デリゲートが呼び出されます。AVCaptureAudioDataOutput デリゲートは呼び出されません。
- これはどのように解決できますか?「AVCaptureAudioDataOutput」がデリゲート/セレクターをトリガーすると同時に、「AVCaptureMovieFileOutput」がディスクにデータを書き込むために使用されるようにするにはどうすればよいですか?
- などの低レベル API を使用する以外の方法でこれを行うことができますか。AVAssetWriter 他 ?
どんな助けでも大歓迎です!
ios - AvCaptureVideoDataOutputの実際のNSStringを取得するavailableVideoCVPixelFormatTypes
AVFoundation出力で受け入れられるフォーマットを見つけようとしています:
次に、andの直後にブレークポイントを挿入します。
そして私はこれを手に入れます:
これらのフォーマットタイプの文字列値を取得するにはどうすればよいですか?
ありがとう
ios - CALayer でのコンテンツの配置
CALayer でコンテンツを配置して、幅に合わせて拡大縮小し (アスペクト比を維持)、レイヤーの上部に配置するにはどうすればよいですか?
より具体的には、AVCaptureVideoPreviewLayer を使用してこのポジショニングを達成しようとしています。プレビュー レイヤーの videoGravity を AVLayerVideoGravityResizeAspectFill に設定すると、幅がいっぱいになりますが、コンテンツがフレームの垂直方向の中央に配置されます (上部と下部が切り取られます)。
ios - プレビュー レイヤーに一致するサイズで AVCaptureSession ビデオをエクスポートする
AVCaptureSession
セッションプリセットを使用してビデオを録画していAVCaptureSessionPreset640x480
ます。AVCaptureVideoPreviewLayer
非標準サイズ (300 x 300) の を使用しており、録画中に重力をアスペクト フィルに設定しています。次のように設定されています。
ビデオを録画した後、quicktime 形式でファイルに書き込みたいと考えています。再生中に、300 x 300 の非標準サイズのレイヤーでビデオをもう一度再生しています。これらのビデオは最終的にネットワーク接続を介して転送されるため、640x480 の完全なビデオを保持するのは無駄に思えます。
300 x 300 のプレビュー レイヤーに一致するようにビデオをエクスポートする最良の方法は何ですか? 私は AVFoundation 初心者なので、間違った方法で行っている場合はお知らせください。録画中にプレビュー レイヤーに表示される録画済みビデオを、ディスクにエクスポートされたビデオと一致させたいだけです。
ios - AVCaptureVideoPreviewLayer の向き - 横向きが必要
私のアプリは横向きのみです。AVCaptureVideoPreviewLayer を次のように提示しています。
self.previewView には (0,0,568,320) のフレームがあり、これは正しいです。self.previewLayer は (0,0,568,320) のフレームをログに記録しますが、これは理論的には正しいです。ただし、カメラの表示は横画面の真ん中に縦長の長方形として表示され、カメラのプレビュー画像の向きは 90 度間違っています。私は何を間違っていますか?カメラ プレビュー レイヤーを横向きモードで全画面表示する必要があり、画像の向きを正しくする必要があります。