問題タブ [ios-camera]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - Swift - captureOutput フレームで抽出された色が常に黒に近づいている
ビデオフレームを処理して、そこから集中した色を抽出しようとしています。を使用してAVCaptureStillImageOutput
いましたが、処理のためにフレームを取得するたびにシャッター音がしていたので、フレームAVCaptureVideoDataOutput
ごとに処理するように切り替えました。
私が使用しているコードは次のとおりです。
を使用するAVCaptureStillImageOutput
と、ほぼ正しい出力が得られましたがAVCaptureVideoDataOutput
、カメラ ビューが明るい光の中にある場合でも、値は常に黒に近くなります。問題はフレームレートか何かにあると推測していますが、それを理解することはできません。
最後の数回のテスト実行で、これは私が得た唯一のカラーコードです#1b1f01
元のコードを使用したいのAVCaptureStillImageOutput
ですが、シャッター音を鳴らすべきではなく、無効にすることもできません。
ios - iOS : AVCaptureSession で画像安定化を有効にする方法は?
アプリで安定した画像をキャプチャしたいのですが、それを達成するために必要な構成が見つかりません。
これは私のコードです:
したがって、セッション プリセットは正しく設定されていますが、画像安定化はサポートされていません。
画像安定化をサポートするにはどうすればよいですか?
**リズミック フィストマンの反応後の 2 回目の試行 : **
背面カメラに切り替えました。設定する前に出力を captureSession に追加しましたが、まだ画像が安定していません。
結果:
安定化はサポートされていません
安定化はアクティブではありません
ios - Objective-C のライブカメラの写真をトリミングしてギャラリーに保存するにはどうすればよいですか?
私はカメラアプリケーションを作成しました。写真をキャプチャするときに写真をトリミングしたい。
写真のトリミングを使用して、中間部分のみをキャプチャするか、中間部分のみをギャラリーに保存しようとしています。
私はまた、4枚の写真を連続してキャプチャし、そのような写真にフレームを追加する機能を追加しています:
最後に上の画像をギャラリーに保存します。
写真の中央部分をトリミングできないという問題が1つだけあります。画像を簡単にトリミングする方法、またはカメラの中央部分のみをキャプチャする方法を教えてください。
そして、上のスクリーンショットに表示されている中央部分だけをキャプチャできますか? それとも、最初にキャプチャしてから画像をトリミングする必要がありますか?
私に提案してください
ありがとうございました
ios - $cordovaCamera からのファイルのアップロード後に iOS コールバックがトリガーされない
コードバ上で実行されるイオンでハイブリッドアプリを構築しています。$cordovaCamera プラグインを使用して、電話のギャラリーから選択するか、カメラを使用して写真を撮ることにより、電話から画像をキャプチャします。
次に、 Restangularを使用してその画像をサーバーに送信し、そのアクションが終了したら、画面にステータス メッセージを表示したいと考えています。
私の問題:上記のすべてがAndroidで完全に機能します。iOS では、画像がギャラリーから選択された場合にのみ機能しますが、画像が電話から直接キャプチャされた場合には機能しません。その場合、画像はサーバーに正しく転送され、リクエストは本来あるべき 201 Created を返しますが、then()
コールバック関数は入力されません。
誰かがこの動作を説明できるなら、それは素晴らしいことです...私の次善の策は、iPhoneで画像をキャプチャし、ギャラリーに保存してから、最後に保存された画像を取得しようとすることですが、私には理解できませんでした方法はまだありませんが、これを機能させたいだけです。
更新: Restangular 部分に絞り込みました。Restangular アップロード関数を呼び出す代わりに $http を使用すると、コールバックが期待どおりにトリガーされ、すべて問題ありません...それが私がやろうとしていることです。しかし、誰かが私に問題が何であったかを教えてくれれば、私は感謝します.
関連コード:
ios - Qt iOS: カメラから受信したフレームの形式を変更する
QVideoFilterRunnable::runメソッドから受信したフレームの形式はQVideoFrame::Format_NV12であるため、使用して GPU テクスチャにロードする前に、最初glTexImage
に変換する必要があります。BGRA
カメラの出力形式を変更する方法はありますか?
元の問題は次のとおりです。
ios - iOS アプリの開発で、カメラが写真を撮ったかどうかを検出することは可能ですか?
私は iPhone 用の iOS アプリを作成しています。このアプリは、プリインストールされている/汎用のカメラ アプリを使用して誰かが写真を撮るたびに、さまざまなアクションでアラートを作成するのが理想的です。写真やビデオが撮影されたかどうかを検出することはできますか? もしそうなら、どのように?(私は Swift と Xcode 7 を使用しています - 可能であれば、迅速に支援していただければ幸いです。)
ios - Camera ios から複数の画像を取得する方法
カメラから写真を撮り、ライブラリから写真を選択するための実装を1つ作成しています。
ライブラリから写真を撮るには、ELCImagePickerController を使用し、スクロールビューで画像を設定しています。
私がやりたいのは、カメラからいくつかの画像を取得し、これを同じスクロール ビューに設定することです。
現在の私の実装は次のとおりです。
これを使用すると、一度に1枚の写真を撮ることができ、これを再度設定すると、他の写真が置き換えられます。どうすればサーバルを摂取できますか? そして、私はそれをどのように行うと思いますか?