問題タブ [avcapturedevice]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - UIImagePickerController でフォーカス モードを設定する方法
実際、質問は質問のタイトルにあります。
AVCaptureDeviceには、Focus Mode というプロパティがあります。UIImagePickerControllerにはそのようなものはありません。
問題は、UIImagePickerController でフォーカス設定を管理するにはどうすればよいかということです。
ios - OCMock を使用した AVCaptureDevice のモック
に実装したタップしてフォーカスする方法のテストを作成しようとしていAVCaptureVideoPreviewLayer
ます。さまざまな条件を渡すためにモックを使用しAVCaptureDevice
、実際のフォーカスを処理するために期待されるメソッドが呼び出されるようにしたいと考えています。以下は私が使用しているコードです。
これは私がこれまでに持っているテストコードです:
3 つのテストを実行したいと思います。
- [AVCaptureDevice devices] は 0 デバイスを返し、何も起こりません
- [AVCaptureDevice devices] は互換性のないデバイスを返し、何も起こりません
- [AVCaptureDevice devices] は互換性のあるデバイスを返し、上記のテスト コードはパスします
私の質問は、[AVCaptureDevice devices]
クラスメソッドをスタブして返す簡単な方法はありますか? AVCaptureDevice
または、上記の条件に合格するのは1 つだけであると想定してiPhone/iPad
、デバイスをプロパティとして保存し、テストしているメソッドを書き直して、モックを注入できるようにしても安全AVCaptureDevice
ですか?
objective-c - AVCapture からムービーを保存する方法
ここ数日、AVCapture を理解しようとしていて、ビデオを保存するのに苦労しています。私の理解では、あなたが呼び出し[movieFileOutput startRecordingToOutputFileURL:outputURL recordingDelegate:self];
、後で呼び出すことができ、[movieFileOutput stopRecording];
それからデリゲートメソッドを呼び出す必要があり-(void)captureOutput:(AVCaptureFileOutput *)captureOutput didFinishRecordingToOutputFileAtURL:(NSURL *)outputFileURL fromConnections:(NSArray *)connections error:(NSError *)error{
ます。その後、次のような方法でムービーを保存できるはずですがUISaveVideoAtPathToSavedPhotosAlbum([outputFileURL path] ,nil,nil,nil);
、どうやら正しくやっていません。セッションを開始すると、startRecordingToOutputFile
すぐに delegate が呼び出されdidFinishRecording
ます。理由がわかりません。これが私のコードです:
長くなってすみません。このコードの多くが他の誰かに役立つことを願っています。
ios - AVCaptureSession のカスタム AVFrameRateRange を設定する
AVCaptureSession で毎秒 5 枚の写真を撮ろうとしていますが、AVFrameRange の意味がよくわかりません。現在、デバイスをセットアップするコードがいくつかあります。
activeVideoMinFrameDuration
とactiveVideoMaxFrameDuration
を のカスタム値に設定しようとしますCMTimeMake(1, 5)
。Apple は、提供された AVFrameRanges の 1 つしか使用できないと言っています。
それらを NSLogged すると、(2, 30)、(2,60)、および (2,24) が得られます。まず知りたいのはこれが何を意味するのか?これは、カメラが実行されるフレームレートですか、それともフレームをキャプチャする間隔ですか (つまり、私がやろうとしていること)?
そうでない場合、sampleBufferDelegate メソッドで毎秒 5 フレームを保存するにはどうすればよいですか? 現在、フレームがあるたびにメソッドが呼び出されるため、すべてのフレームが得られます。そのため、毎秒 5 つだけを取得する方法についてのポインターが必要です。
ios - 新しい iOS 7 API を使用したバーコードのスキャンが非常に遅いのはなぜですか?
現在、iOS 7 の最新の API を使用してコード 39 バーコードをスキャンしようとしていますが、気が狂いそうです。それを検出するために、電話を特定の方法で10秒ほど静止させる必要があります。Red LaserやZbarなどと比べてみたところ、少しずれても1秒で解析できました。キャプチャ セッションをロードする方法が原因なのか、それとも何なのかはわかりません。助けていただければ幸いです。パフォーマンスを改善する方法について何か提案はありますか?
viewDidLoad メソッドでスキャナーをロードする方法は次のとおりです。
と:
ios - AVCaptureSession とバックグラウンド オーディオ iOS 7
マイクを入力として実行している AVCaptureSession を開始すると、現在実行中のバックグラウンド ミュージック (たとえば iPod 音楽) がキャンセルされます。オーディオ入力を追加する行をコメントアウトすると、バックグラウンド オーディオが継続します。
バックグラウンドオーディオの再生を許可し続けながら、マイクでビデオクリップを記録する方法を知っている人はいますか? ビデオを録画しようとしていて、音楽が現在再生されているときにもエラーが発生します。
Aは次のようにしようとしました:
しかし 'AudioSessionSetProperty' is deprecated: first deprecated in iOS 7.0
だから私はこのようにしようとしました:
しかし、最終的にはうまくいきませんでした。手伝ってくれてありがとう!
ios7 - 運転免許証付きAVCaptureMetadataOutput
iOS7 の AVCaptureMetadataOutput を使用して、運転免許証の裏にある pdf417 2d バーコードからデータを取得しようとしています。他の pdf417 バーコードを認識するプログラムを持っていますが、FL DL の裏にあるバーコードを認識しません。これは、AVCaptureMetadataOutput を使用して実行できないことですか? 誰かがそれを機能させることに成功しましたか?
iphone - AVCaptureDevice モード iOS7 へのアクセスに成功しましたか?
これについて何か助けていただければ幸いです:
私の拡張現実アプリ (Vuforia SDK) では、AVFoundation フレームワークを使用して、iPhone 5 カメラの露出、フォーカス、およびホワイト バランスをロックしようとしています。次のビルド – ただし、使用する場合、カメラは気にしません:
はい、私は Objective-C を初めて使用するので、他の投稿からこれらすべてをまとめてコピーしました。しかし、これがビルドされてエラー メッセージがスローされないので、今はちょっと迷っています…</p>
ここにいる誰かが私の iOS の妖精になれますか? :)