問題タブ [ciimage]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - CIImage のプロパティ メソッドが nil を返す理由
CoreImage フレームワークを使用してアプリケーションを開発しています。UIImage から CIImage を作成しました。
ここで self.canvasImage は UIImage です。これをデバッグすると、メモリを使用してコンパイラによってオブジェクト イメージが作成されます。
次のコードを使用して、プロパティ メソッドによって返される NSDictionary オブジェクトを作成しています。
ここで私の opts オブジェクトはnil valueで割り当てられています。
私はそれを検索しましたが、解決策が見つかりませんでした。プロパティメソッドがnil値を返すのはなぜですか?
ios - カメラを使用して写真を撮り、写真に画像フィルターを適用しますが、フィルターは画像に適用するのに時間がかかります
カメラを使って写真を撮り、写真に画像フィルターを適用する しかし、フィルターは画像に適用するのに時間がかかります。フィルタは非常に遅いです。フィルタにかかる時間を短縮する方法は、誰でも提案できます。
次のリンクを使用してフィルターを実装しました。 https://github.com/esilverberg/ios-image-filters .
Instagram フィルターのような最速の方法を教えてください。
ios - CGImageCreateWithMaskingColors は null を返します
白い「グロー」を作成したい黒いテキストのビューがあります。スクリーンショットを取得し、色を反転し(白黒のみ)、黒を透明にマスクしてから、結果の画像を各方向に「ジッタリング」することでこれを行うことができると思います. CGImageCreateWithMaskingColors で黒をマスクしようとすると、null CGImageRef が返されます。これまでのところ、これは私が持っているものです。
アルファチャンネルが作品を台無しにする可能性があることは知っていますが、ここにアルファチャンネルがあるとは本当に思いません。私が行っCGImageGetColorSpace(ref)
て取得したことを確認するためにkCGColorSpaceDeviceRGB
、アルファチャンネルはありません。
誰かが私が間違っているところを教えてもらえますか? 必要に応じて、UIImage、CIImage、および CGImage の違いを理解するのに役立つ簡単なコメントをいただければ幸いです。
ios - CIImage メモリ リーク
以下の方法を使用して、いくつかの画像をぼかしています。楽器を使用すると、CIImage が漏れています。@autoreleasepool でそれらをラップしようとしましたが、うまくいきませんでした。何か案は?
objective-c - 白黒フィルターを UIImage に適用する
UIImage に白黒フィルターを適用する必要があります。ユーザーが撮影した写真があるビューがありますが、画像の色を変換するアイデアはありません。
どうやってやるの?
ios - 顔検出用の kCGImagePropertyOrientation とは何ですか?
@ リスト 2-1 顔検出器の作成
4.顔を見つけるためのオプション辞書を設定します。Core Image に画像の向きを知らせることが重要です。これにより、ディテクタはどこで直立した顔を見つけることができるかを知ることができます。ほとんどの場合、画像自体から画像の向きを読み取り、その値をオプション ディクショナリに提供します。
この画像プロップの向きは何ですか?
どんなオブジェクト?
設定方法を教えてください。
objective-c - NSURL からの CGImage は機能しますが、UIImage からは機能しません
画像にフィルターを適用する際に問題が発生します。次のコードは、CIImage:imageWithContentsOfURL を使用する場合に完全に機能します。
Filter は、フィルター名と CIFilter を保持する単なるモデルです。
しかし、次のコードでローカル UIImage をロードしようとすると:
フィルタリングされた画像は白くなる (または消える) だけです。私は何を間違っていますか?
macos - AVFoundation (OSX) を使用してビデオにフィルターを追加する - 結果の画像を AVWriter に書き戻すにはどうすればよいですか?
シーンの設定
コマンドラインから実行してビデオを読み込み、処理してからエクスポートするビデオ処理アプリに取り組んでいます。私は4つのトラックで作業しています。
- 1 つのビデオを作成するために 1 つのトラックに追加する多数のクリップ。これを ugcVideoComposition と呼びましょう。
- 2 番目のトラックに配置され、レイヤー命令を使用するアルファ付きのクリップは、エクスポート時に合成され、ugcVideoComposition の上で再生されるように設定されます。
- 音楽のオーディオ トラック。
- 1 つのトラックに追加されたクリップからのオーディオを含む ugcVideoComposition のオーディオ トラック。
AVExportSessionを使用して、これをすべて機能させ、合成して正しくエクスポートできます。
問題
ここでやりたいことは、フィルターとグラデーションを ugcVideoComposition に適用することです。
私のこれまでの調査によると、これは AVReader と AVWriter を使用して CIImage を抽出し、それをフィルターで操作してから書き出すことによって行われることが示唆されています。
上記のすべての機能がまだ動作していませんが、アセットリーダーとアセットライターを使用して、ugcVideoComposition を読み込んでディスクに書き戻すことができました。
ご覧のとおり、CMSampleBuffer から CIImage を取得することもできます。イメージを操作して、必要な効果などを適用する方法を理解できると確信しています。どうすればよいかわからないのは、結果の操作された画像を SampleBuffer に戻して、もう一度書き出せるようにすることです。
質問
CIImage が与えられた場合、それを sampleBuffer に入れて assetWriter に追加するにはどうすればよいですか?
助けていただければ幸いです - AVFoundation のドキュメントはひどいものであり、重要なポイント (画像を抽出した後に画像を元に戻す方法など) が欠けているか、または私がやりたいことではない iPhone 画面への画像のレンダリングに焦点を当てています。
ありがとうございます!