問題タブ [gpuimagestillcamera]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
objective-c - GPUImage のデバイス タイプを確認する
GPUImage には、iPhone 4 以前の場合、2048 ピクセルより小さい画像が必要です。4S以上はもっと大きなものを扱うことができます。アプリが現在どのデバイスで実行されているかを確認するにはどうすればよいですか? UIDevice
私が探しているものを実行するものは何も見つかりませんでした。提案/回避策はありますか?
ios - GPUImageView のフレーム レートを取得する
GPUImageFilters のスタックがターゲットとする GPUImageView があり、ベースに GPUImageVideoCamera があります。パフォーマンス テストのために、その特定のビューのフレーム レートを取得するにはどうすればよいですか。GPUImageView だけで、ウィンドウ スタック全体のフレーム レートは必要ありません。
ios - GPUImageNormalBlendFilter の問題
私は GPUImage Famewark を使用していますが、静止カメラで GPUImageNormalBlendFilter を使用すると、画像がカメラに表示されずにビデオが録画されますが、オーバーレイ、追加などの他のブレンドを使用すると...画像はブレンドで完全に表示されます。 ..
私のコードは以下の通りです:
この問題の継承はできますか....???
ありがとう
ios - didBecomeActive の前に ViewDidLoad が呼び出されるシナリオはありますか?
ばかげているように聞こえるかもしれませんが、要点を明確にするためです。ビューのロードが didBecomeActive の前に呼び出される可能性はありますか? 全然無理ですか?
編集
ユーザーがバックグラウンドからアプリに戻ってきて、openGL の使用を開始すると、クラッシュが発生します。クラッシュ エラーは、バックグラウンドで openGL を使用しようとしたことを示しています。
私たちのアプリは VOIP アプリとしてバックグラウンドで動作していると言うことが重要です。
アプリがバックグラウンドでopenGlを再起動する原因となる何かをバックグラウンドでトリガーしている可能性があるかどうかを把握しようとします。
スタックには次のように表示されます。
そしてその後数行:
そして最後に:
[VideoCallViewController viewDidLoad]
バックグラウンドで呼び出された方法があるかどうか、またはフォアグラウンドにいると仮定して、何らかの形で?の直後にバックグラウンドに移動する必要があるかどうかを把握しようとしています。viewDidLoad
2
番目のオプション 2 番目のオプションは、実際に の直後に背景に移動することviewDidLoad
です。ここでのポイントは、AppWillResignActive をリッスンし、GPUIMage を一時停止することです。では、なぜクラッシュするのか理解できませんか?
ありがとう
ありがとう
objective-c - GPUImage capturePhotoAsImageProcessedUpToFilter は最後のフィルターでのみ機能します
私のアプリケーションでは、3 つのフィルターのスタックを使用し、それを stillCamera に追加しています。filter1 から画像を取得しようとしています。これは空のフィルターであるため、実際の画像が返されます。
capturePhotoAsImageProcessedUpToFilter を呼び出すと、以下のように filter3 を渡したときにのみ画像が返されます。
以下の 2 つの例では、画像は返されません
私は何か間違ったことをしていますか?私が使用している修正として:
capturePhotoAsImageProcessedUpToFilter と imageFromCurrentlyProcessedOutput の呼び出しに違いはありますか?
ios - GPUImage を使用した iOS フォト キャプチャでのフラッシュ タイミングの問題
フラッシュを使用すると、キャプチャされた写真が完全に暗くなることが半分あります - iOSカメラアプリはこのように失火しません.
上記の gpuimage コードは https://github.com/BradLarson/GPUImage/blob/master/framework/Source/GPUImageStillCamera.mにあります。
ios - カメラが GPUImage で実行されているかどうかを検出できますか?
GPUImage の使用中にカメラが動作しているかどうかを検出する簡単な方法はありますか?
現在、私が実行しているカメラを起動するには:
と
それを止めるために。
startCameraCapture を数回続けて実行すると、メモリの問題が発生することがわかりました。
これは、設定された手順でアプリを構成して、開始後に停止のみできるようにするか、カメラが実行されているかどうかを判断し、実行されている場合にのみ停止する必要があることを意味します (逆も同様です)。
現在、私は使用しています
しかし、これらは理想的ではありません。複雑さが増すと、順列が多すぎて、再開が常に一時停止の後に続くようにすることができなくなります。
どんな助けでも大歓迎です
gpuimage - GPUImageHistogramFilter と GPUImageFilterPipeline
写真アプリで GPUImage を使用して、いくつかの画像フィルター オプションを作成しています。アプリでは、画像のキャプチャ中に複数のフィルターを追加するオプションがあるため、複数のフィルターを処理するために、GPUImageFilterPipeline を使用しました。私が追加したすべてのフィルター効果は、GPUImageHistogramFilter を除くパイプラインでうまく機能します。GPUImageHistogramFilter は、他のフィルターと比較してより多くのステップが必要であることを知っています (ここで述べたように)。しかし、これはパイプラインでは機能しません。GPUImageFilterPipeline でヒストグラムを作成するには?