問題タブ [ciimage]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - ストリームでアフィン変換を実行するには?
memoryStream から取得した画像を回転させたい。
私はUIViewを使用しようとしました:
ただし、グラフィック キャンバス内の UIView では常に適用されるため、変換は適用されません。
ApplyTransform を CIImage に直接使用して動作する場所を見つけました
しかし、UIImage はストリームに変換するために AsPng() に変換したくありません。この場合、CGImage が空で、ほとんどのプロパティが 0 に設定されていることに気付きました。おそらく、ラップせずに CIImage 自体を変換する方法はありますか?
何をすべきか、もう手がかりがありません。
ios - Core Image を使用して UIImage をぼかしようとするとメモリ リークが発生する
そのため、ここ数日、コア イメージを使用してイメージをぼかす試みをしながら、メモリ リークにパッチを当てようと頭を悩ませていました。このコード ブロックまでメモリ リークを追跡しました。
このコードは 2 つのことを行います。まず、その時点で画面のスクリーン ショットをキャプチャし、次にその画像をぼかして、スーパービューの背景にある画像ビューに int を設定します。
バックグラウンドで実行するセレクターを使用して、このコードブロックを呼び出しています
このコードに関連する 3 つのメモリ リークが発生しています
これは私が言及したリークです: CoreImage CI::GLESContext::program_for_name(__CFString const*)
私が間違っていることについて混乱しています誰かが私を啓発できますか?
ios - CIImage にテキストを追加するには?
写真フレームワークを使用しており、画像にフィルターを適用するアプリを作成しました。フィルターを適用する代わりに、画像の上にテキストを追加します。この API はCIImage
、出力の作成に使用できる を提供しますCIImage
。の特定の場所にテキストを追加する方法がわかりませんCIImage
。私が正しければ、CGImage
パフォーマンスが低下するため、に変換してからテキストを追加することはお勧めしません。
CIImage
特定の場所の上にテキストを配置して、まったく同じCIImage
(元の画質を維持する)出力を既存のもので行うにはどうすればよいでしょうか。
ios - YUV から iOS 用 CIImage に変換する方法
YUV イメージを CIIMage に変換し、最終的に UIImage に変換しようとしています。私はこれらにかなり初心者であり、それを行う簡単な方法を見つけようとしています. 私が学んだことから、iOS6 から YUV を直接使用して CIImage を作成できますが、作成しようとしているときに CIImage は nil 値しか保持していません。私のコードはこのようなものです - >
ここで、lpData は符号なし文字の配列である YUV データです。
これも興味深いようです:vImageMatrixMultiply、これに関する例は見つかりません。誰でもこれで私を助けることができますか?
ios - UIImage imagenamed: to CIImage 一貫性のない結果
次のコードに問題があります。
imageName は NSString プロパティであり、常に正しくログに記録されます。私のプロジェクトでは、CIImage 行の直後にブレークポイントを配置すると、UIImage は取得されますが、CIImage は取得されません。また、いくつかの uiimage プロパティが奇妙に見えることに気付きました (スケールは常に小さく、0.0000002 と _imageFlags は空に見えます)。最近別のプロジェクトでコードをビルドしましたが、正常に動作します (CIImage が作成され、CIFiltering などに使用できます) が、このプロジェクトでは動作しません。プロジェクト間の唯一の違いは、元の (問題のある) プロジェクトには OpenGLES が実装されていたのに対し、新しいプロジェクトでは CoreImage のみが使用されていることです。また、古いプロジェクトは iOS 6 SDK から作成され、新しいプロジェクトは iOS 8 SDK から作成されました。CIImage を作成する他のいくつかの方法 (origimage.ciimage および origimage.cgimage 経由) を試しましたが、どれも機能しません。
どんなアイデアでも大歓迎です。
ありがとう、ダンガ。
ios - PHAsset の編集時に元の写真のメタデータを保持するにはどうすればよいですか?
PhotoKit で写真を編集していますが、元の写真のメタデータが保持されないことがわかりました。これは、Apple が提供する SamplePhotosApp でも、Sepia または Chrome フィルターを適用すると発生します。私の質問は、元の写真のメタデータがすべて確実に保持されるようにするにはどうすればよいですか?
元の画像のメタデータを取得する方法を発見し、そのメタデータをCIImage
作成した最終版に保存できましたが、編集がコミットされるとまだ削除されています. CIImage
を からにに変換CGImage
する方法、またはディスクに書き込む方法に問題があるはずです。UIImage
NSData
オリジナル - [GPS] タブに注意してください。
写真の編集後:
ios - CIImage を作成できません
ここで何が間違っているのか理解できませんが、どういうわけか、どうやってもCIImageを作成できません
このコードの最後のブレークポイントは、UIImage、文字列、および URL を示していますが、これらはすべて期待どおりです。ヘッダーには CoreImage.h と UIKit が含まれています。_originalImage は、以前に割り当てられた UIImage プロパティです。
これに数日間困惑しましたが、どんな助けも本当に感謝しています。ありがとう。
objective-c - GPUImage の個々のカメラ ロジック
私のアプリには、非常に多くのカメラ論理関数があります。
AVCaptureOutput で CoreImage フィルターを使用し、今まで GLKView で CIImage を表示してきました。
ここで、CIImage を CIFilter とブレンドしたいと考えています。しかし、「AVCaptureOutput-Loop」では、CoreImage フィルター チェーンが終了することはありません。
そこで、GPUImage を使用して CoreImage 関数を置き換えたいと考えています。
GPUImageVideoCamera または GPUImageStillCamera を使用せずに独自の AVCaptureOutput を作成する方法はありますか?
ありがとう
PS: 下手な英語で申し訳ありません;)
ios - CIImage(IOS): モノクロ フィルターの後に 3x3 コンボリューションを追加すると、何らかの方法で色が復元されます
ciimage をモノクロに変換し、CICrop でクリッピングし、sobel を実行してエッジを検出しています。下部の #if セクションを使用して結果を表示しています
3x3 畳み込みが ciimage パイプラインの一部ではない場合は常に、エッジ検出を実行する画像の部分が灰色で表示されますが、CIConvolution3X3 ポストフィックスが処理パイプラインの一部である場合は、魔法のように色が戻ってきます。これは、CIColorMonochrome または CIPhotoEffectMono プレフィックスを使用して色を削除しても発生します。パイプラインの底まで色を保つ方法はありますか? tnx
UPD: 当然のことながら、このような粗雑なカスタム モノクロ カーネルを実行しています
Apple の標準的なモノラル フィルターを使用する代わりに、3x3 畳み込みが ci パイプラインの一部である場合に色が戻ってくるというまったく同じ問題が発生します。