問題タブ [avcapturedevice]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - カメラアプリのように明るいフラッシュをトリガーするにはどうすればよいですか?
私がフラッシュをしようとしている方法はこれです:
1)電話
2)0.1秒後に電話します
問題は、フラッシュが発生したときに、カメラアプリのフラッシュよりもはるかに暗いことです。そのLEDをそれほど明るく輝かせることができません。このフラッシュをできるだけ明るくする別の方法はありますか?
iphone - iPhoneでAVCaptureSessionを使用してUIImagePickerControlのメソッドを呼び出さない
AVCaptureSession
iPhoneアプリケーションで写真をキャプチャするために使用しました。また、PhotosLibrary からも画像を取得したいと考えています。
UIImagePickerController
コントロールとそのすべてのメソッドを実装しました。
ライブラリを開くことはできますが、選択した写真を取得できません。PickerView のメソッドを呼び出さないだけでなく。これらのメソッドからの応答はありません。
写真ライブラリのUIImagePickerController
コントロールを実装する別の方法はありますか?AVCaptureSession
解決策を教えてください。
Overlay
または、動的コントロールを備えた両方の機能が必要なため、代わりの解決策を提案してください。
前もって感謝します。
ios - iOS デバイスのカメラ名を取得するには?
IOS キャプチャ デバイスと再生デバイスには名前またはパスがありますか? 通常、Windows では接続されたカメラのパスとその名前を取得できますが、Mac でもできると思います。IOS でキャプチャおよび再生デバイスの名前とパスを取得する方法を知っている人はいますか?
objective-c - ライブフィードカメラの向き-IOS6
私が抱えているこの問題の解決策を見つけるのに苦労しています。ふるいにかけたさまざまな例や他のSO投稿から頭や尾を作ることはできません。
私の問題は、iPadのライブビデオフィードから静止画像を撮りたいということです。ライブフィードを正常に表示し、静止画像を正常に撮影できますが、2つの問題があります。
ライブフィードの向きが間違っています。ランドスケープモードでのみ動作するようにiPadアプリを開発しています。表示されるライブフィードは、何らかの理由で右に90度傾いていますか?(明らかに、私は現時点でiPadを横向きに向けています)
撮影された静止画像は上下逆さまに反転します(ただし、横向きに傾斜しているため、逆さまに反転しているため、明らかに左に90度になります)。
私は他の投稿を調べましたが、提供された修正、それらを実装する方法がわかりません。誰かがここで助けてくれることを願っています。ありがとう。
コード:
ios - iOSカメラの720Pと1080Pのカメラバッファ
一部のiOSデバイスには720P対応のカメラがあり、その他のデバイスは1080Pです。
画面サイズを固定したまま、同じ画面サイズでより多くのピクセルをフィッティングするので、明らかに1080Pの方がより良い画像を提供します。
しかし、以下を使用してピクセルを操作したい場合:
議論のために、それらをどこにもレンダリングせず、計算を実行します。
明らかに、バッファの高さと幅は大きくなりますが、おそらくカメラの「視野」が広いため、1080Pカメラはより多くのピクセルをキャプチャします。したがって、品質の向上はないか、1080pカメラは同じ「視野」内で動作します。 720pカメラの「ビジョン」であり、1インチあたりより多くのピクセルをキャプチャしているだけなので、バッファを画像に出力しなくても、フレームバッファからより多くの「粒子/詳細」を期待する必要があります。
ありがとう
ios - ビデオ録画の露出、フォーカス、ホワイト バランスを指定するにはどうすればよいですか?
デフォルトのパラメーターでビデオを撮影するプログラムがあり、カメラを動かすと露出、フォーカス、ホワイト バランスが自動的に調整されます。プログラムに LOCK と PRESET の 2 つのボタンを追加したいと考えています。LOCK ボタンを押すと、露出、フォーカス、ホワイトバランスが固定され、その値がユーザー設定として保存されます。PRESET ボタンは、ユーザー設定をカメラに設定し、すべてのビデオを同じ露出、フォーカス、ホワイト バランス値で撮影できるようにするためのものです。
ロック部分は簡単で、モードを変更するだけなので、露出、フォーカス、ホワイトバランスの値を取得して設定する方法があれば教えてください。
露出を例にとると、デフォルトでは、exposureMode は AVCaptureExposureModeContinuousAutoExposure に設定されています。つまり、iPhone を持ってビデオを撮影すると、明るい環境でも暗い環境でもシーンがはっきりと見えるように、露出が自動的に調整されます。
LOCK ボタンが押されたら、exposureMode を AVCaptureExposureModeLocked に変更して、現在の露出値が変更されないようにします。
しかし、ボタンが押された瞬間の露出値を取得するにはどうすればよいでしょうか。さらに重要なことは、PRESET が押されたときに露出値を AVCaptureDevice に戻すにはどうすればよいかということです。
フォーラムを検索したところ、Michael Grinich の投稿: Accessing iOS 6 new APIs for camera Exposure and Shutter Speed のみが見つかりました。私は彼の発見に従い、プライベート API を使用して ExposureGain と ExposureDuration を取得および設定しようとしましたが、AVCaptureExposureModeContinuousAutoExposure モードでは、暗い環境から明るい環境にカメラを移動しても、これらの 2 つの値はまったく変わらないことがわかりました (exposureGain = 1.0 およびExposureDuration = {1, 30, 1, 0})。そして、それらを設定しても露出はまったく変わりませんでした。
誰でもこの問題を解決するのを手伝ってもらえますか? よろしくお願いします!
iphone - iPhone フレームレートを設定して速度を落とす方法 AVCapture didOutputSampleBuffer Delegate
didOutputSampleBuffer デリゲートがあまり頻繁に呼び出されないように、iPhone 4S のビデオ デバイスのフレーム レートを遅くしたいと考えています。これは、各フレームを処理し、詳細には大きなフレームが必要なため、パフォーマンスを向上させるためです。
AVSessionをセットアップするときに、次を使用してそうしようとしました:
しかし、これは何の効果もありません。CAPTURE_FRAMES_PER_SECOND を 1 から 60 に変更しても、パフォーマンスの違いやビデオ キャプチャの速度低下は見られません。なぜこれは効果がないのですか?ビデオ デバイスのキャプチャ フレーム レートを遅くするにはどうすればよいですか?
次のコードを使用してセッションをセットアップしました。
以下の「didOutputSampleBuffer」デリゲート実装を使用してフレームをキャプチャします。
ios - カメラセットアップロジックiOS
私はSOを検索し、、、、、、でドキュメントを何度も読んだことがありますが、…AVCaptureConnection
私 はまだこれらすべてのAVについて混乱しています。これに関して言えば、それは私にとって抽象的な言葉の大きな山の1つであり、あまり意味がありません。私はここで私のために主題にいくつかの光を当てるように求めています。AVCaptureSession
AVCaptureVideoPreviewLayer
AVCaptureDevice
AVCaptureInput/Output
それで、メディアデバイスの適切なセットアップと使用の論理を平易な英語で首尾一貫して説明できる人はいますか?AVCaptureVideoPreviewLayerとは何ですか?AVCaptureConnectionとは何ですか?入出力?
こういうものを作った人たちが作っている基本的な考え方を聞きたいです。
ありがとう