問題タブ [avcapturesession]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - iPhoneでトーチ/フラッシュをオンにする
フラッシュをオンにしてiPhone4でオンのままにする唯一の方法は、ビデオカメラをオンにすることです。ただし、コードについてはよくわかりません。これが私が試していることです:
これがうまくいくかどうか誰かが知っていますか、それとも私は何かが足りませんか?(私はまだテストするiPhone 4を持っていません-新しいAPIのいくつかを試してみてください)。
ありがとう
iphone - ボタンでアプリを起動する
そこで、カスタム UIButton を作成してコードに追加し、interfacebuiler で接続を作成しました。ボタンをオンとオフのスイッチとして機能させたいのですが、どうすれば正しく機能しますか? 私はiPhone開発の初心者で、これは次の学期に有利なスタートを切るために夏に取っているこのクラスの学校のプロジェクト用です。
したがって、誰かがこれを正しい方法で行う方法を理解するのを手伝ってくれて、コードにコメントを書くことができれば. すべての助けをありがとう。デビッド H.
これが私のコードです:
ここに.mファイルがあります
iphone - AVCaptureSessionの実行中にカメラストリームを表示する
http://developer.apple.com/iphone/library/qa/qa2010/qa1702.htmlに従って、AVCaptureSessionを使用してカメラからビデオフレームをキャプチャすることができました。ただし、AVCaptureScreenは、画面にカメラストリームを表示せずに、カメラからフレームをキャプチャしているようです。UIImagePickerと同じようにカメラストリームも表示して、ユーザーがカメラの電源がオンになっていることを認識し、カメラが何を指しているかを確認できるようにします。ヘルプやポインタをいただければ幸いです。
iphone - AVCaptureSession はバックグラウンド オーディオをキャンセルします
マイクを入力として実行している AVCaptureSession を開始すると、現在実行中のバックグラウンド ミュージック (たとえば iPod 音楽) がキャンセルされます。オーディオ入力を追加する行をコメントアウトすると、バックグラウンド オーディオが継続します。
バックグラウンドオーディオの再生を許可し続けながら、マイクでビデオクリップを記録する方法を知っている人はいますか? 私はたくさん見回しましたが、この動作への参照を見つけることができないようです。
助けてくれてありがとう!
iphone - AVCaptureSession が間違った方向を出力するのはなぜですか?
そこで、Apple の指示に従って、 http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html を使用してビデオ セッションをキャプチャしAVCaptureSession
ました。私が直面している問題の 1 つは、カメラ/iPhone デバイスの向きが垂直 (および はAVCaptureVideoPreviewLayer
垂直カメラ ストリームを表示) であるにもかかわらず、出力画像が横向きモードになっているように見えることです。サンプルコード内の imageBuffer の width と height を確認したimageFromSampleBuffer:
ところ、それぞれ 640px と 480px でした。なぜこれが事実なのか誰か知っていますか?
ありがとう!
iphone - AVCaptureSessionはiPhone3gs用に1つのフレームのみを取得します
OpenCVを使用してフレームを処理するカメラからのキャプチャセッションを設定し、フレームから生成されたUIImageを使用してUIImageViewのimageプロパティを設定するコードがあります。アプリが起動すると、画像ビューの画像はnilになり、スタック上の別のView Controllerを押してからポップするまで、フレームは表示されません。その後、もう一度行うまで画像は同じままです。NSLogステートメントは、コールバックがほぼ正しいフレームレートで呼び出されることを示しています。なぜ表示されないのか、何か考えはありますか?フレームレートを1秒あたり2フレームに減らしました。処理速度が十分ではありませんか?
コードは次のとおりです。
ios4 - AVCaptureSession 一時停止?
Apple が iOS 4.0 をリリースした後、 http://developer.apple.com/iphone/library/qa/qa2010/qa1702.htmlで指定されたコードに従って、継続的に画像をキャプチャするために AV Foundation を使用しています。
ただし、「[session startRunning];」を呼び出すと、カメラのプレビューを開始するには、約 1 ~ 2 秒かかります。そのため、エンド ユーザーはしばらく待つ必要があるため、イライラさせられます。
プログラムの起動時にセッションを開始し、ユーザーがカメラ画面に移動してそこで実行を開始するまで一時停止できるため、セッションを停止する代わりに一時停止する方法はありますか? 助けてくれてありがとう。
iphone - AVFoundationカメラチュートリアル
どこでもカメラで使用するためのAVFoundationの基本的なチュートリアルはありますか?
UIImagePickerは私のアプリに適したツールではなく、このように見えますが、どのように実行するかがわかりません。
AVCaptureStillImageOutputを使用して写真を撮る方法はわかりますが、カメラビューを画面に表示する方法がわかりません。
どんな助けでも大歓迎です。
ありがとう
オリバー
iphone - UIImage を captureStillImageAsynchronouslyFromConnection から取得する
カメラ用に AVFoundation を使用する iPhone アプリを作成しており、カメラの UIImage をカメラ ロールに保存しようとしています。
現在、このようにしています...
私は WWDC チュートリアル ビデオを見てきましたが、2 行 (NSData... と UIImage...) は imageDataSampleBuffer から UIImage への長い道のりだと思います。
画像をライブラリに保存するのに時間がかかりすぎるようです。
これからUIImageを取得するための1行の遷移があるかどうかは誰にも分かりますか?
助けてくれてありがとう!
オリバー
objective-c - AVCaptureSession クラスの存在を確認する iPhone
AVCaptureSession を使用してカメラから写真をキャプチャするライブラリを統合しました。AVCaptureSession はiOS 4 デバイスでのみ使用できるため、古いデバイスではこの統合機能を無効にしたいと考えています。
AVFoundation フレームワークを弱リンクし、関数の存在を確認することで実行する必要があることはわかっています。ウィークリンクは簡単にできますが、ここでどの関数の存在を確認すればよいでしょうか? AVCaptureSession はクラスであり、関数ではありません。
利用可能なサンプルコードはありますか?