問題タブ [image-enhancement]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
image - ピラミッドとして保存された画像の機能強化
ピラミッドの形式で保存されている画像に強調 (または画像を変更する操作) を適用する方法。最初に特定のピラミッド レイヤー (現在のズーム レベル) に適用され、次にユーザーがズームした場合に別のレイヤーに再適用されます。インまたはズームアウト、または強化はピラミッド全体に一度に適用されます、または強化の効果を他のピラミッド層に効率的に伝播できるアルゴリズムはありますか。
これを行う最善の方法を知りたいです。
python - Python ImageEnhance モジュールを使用して画像を保存できません
私は新しい Python プログラマーで、ImageEnhance モジュールを使用して、時間の経過とともにシャープネスを高める一連の画像を作成しようとしています。
以下のスクリプトには、1 つの問題があります。新しい画像が一時ディレクトリに保存され、ファイルがすぐに削除されます。
適切なディレクトリを指すように保存機能を変更するにはどうすればよいですか?
前もって感謝します。
matlab - 2 つの画像の品質を比較するにはどうすればよいですか?
特定の画像に2つの異なる画像強調アルゴリズムを適用し、2つの結果の画像を取得しました。これら2つの画像の品質を比較して、これら2つのアルゴリズムの有効性を見つけ、比較に基づいてより適切なものを見つけたいと思いますこれらの2つの画像の特徴ベクトル.では、この場合、どの適切な特徴ベクトルを比較する必要がありますか?
画像のテクスチャ機能と、どの機能ベクトルがより適しているかを比較するコンテキストで質問しています。
たとえば、Constrast と Variance を使用した画像の評価に基づいて、任意のアルゴリズムの有効性を検証するための数学的なサポートが必要です。
matlab - ラプラシアン フィルターを使用した画像の鮮鋭化で灰色がかった画像
私は画像処理が初めてです。
現在、ラプラシアン先鋭化法について勉強しています。しかし、私には理解できなかったことがあります。あなたが私を助けてくれることを願っています。
ご存知のように、元の画像にラプラシアン フィルター処理された画像を追加すると、シャープな画像が生成されます。
しかし、ラプラシアン フィルター処理された画像を取得した後、私の参考書は、このラプラシアン フィルター処理された画像を表示目的でスケーリングし、灰色がかった画像を取得します。そして、この灰色がかったものを元の画像に追加すると、最終的にシャープな画像が得られます.
私の問題は、この灰色がかった画像をどのように取得できるかです。
これが私のコードです:
f1 はラプラシアン フィルター処理されたイメージです。しかし、ご存知のように灰色ではありません。この灰色がかったものはどうやって手に入れることができますか?
編集:
http://i.imgur.com/9qqXX.jpg (1枚目は原画、2枚目はグレーっぽい画像、3枚目はシャープにした画像)
ご協力ありがとうございました。
ios - 堅牢なカラー トラッキングと露出およびホワイト バランスの変更
露出設定とホワイトバランスが絶えず変化しているときに、ビデオのカラーマッチングとフレーム間の追跡を経験した人はいますか?
iPad 2 正面カメラを使用してビデオをキャプチャするカラー トラッキング アプリに取り組んでいます。各フレームで色付きのオブジェクト (前に取得した定義済みの色) を検出する必要があります。私の問題は、カメラ ソフトウェアがフレームごとに WB と Exposure を調整するようになっていることです。したがって、フレーム N で 1 つの色を覚えている場合、N+10 フレームでは WB が異なり、これが色の大きな違いにつながる可能性があります。
色距離の計算には、LAB色空間とCIE76式を使用しています。
はい、はるかに優れた CIEDE2000 距離関数があることは知っていますが、私は ARM プロセッサを使用しており、既に使用している ARM NEON 手動で最適化されたアセンブリ コードでも、この式は重すぎるのではないかと心配しています。
CIE76 は一般的に良好な結果を提供しますが、照明が不十分または非常に明るいシーンでは、カメラが生成するノイズが多すぎるか、画像が過度に飽和するため、色が元の色から離れすぎます。色距離を使用した単純なしきい値処理に加えて、キャリブレーションされた色の標準偏差に基づいて、LAB ピクセル値のコンポーネントごとのしきい値処理を実装しました。これにより、検出の精度も向上しましたが、これは主な問題の解決にはなりません。
カメラ自体は RGB 色空間のフレームを提供しますが、API は現在のフレームの白色点または色温度を取得する関数を提供しません。現在、RGB -> LAB 変換を実行するために D50 光源を想定しています。
そして、これが私の主な疑問です。私の考えは、与えられた RGB 画像の白色点を計算し、それを XYZ 色空間に変換してから、計算された白色点を使用して XYZ を LAB に変換することです。出来ますか?
ウィキペディアから: ホワイト ポイント
色を LMS 色空間の三刺激座標として表現すると、両方の白色点での三刺激値の最大値の比率で LMS 座標をスケーリングするだけで、フォン クリース変換に従ってオブジェクトの色を「変換」できます。これにより、単純ですが大まかな見積もりが得られます。
http://en.wikipedia.org/wiki/White_point
これはうまくいきますか?または、白色点を計算するより良い方法がありますか (大まかにでも)? ところで、私はRetinexアルゴリズムに出くわしました。これは、影の色の強調が優れていることを示しています。誰かがそれを使用しましたか? その長所と短所は何ですか?
opencv - OpenCV による手のひら静脈の強化
手のひらの静脈パターンの詳細を引き出すアルゴリズムを OpenCV に実装しようとしています。私は、インターネットで見つけた「手のひら印刷と手のひら静脈機能を使用した非接触バイオメトリック システム」という論文に基づいています。私が興味を持っているのは、章3.2 Pre-processingです。関連する手順がそこに示されています。
OpenCV を使用して実装を行いたいのですが、今のところ苦労しています。特に、彼らはローパス フィルターの応答にラプラシアン フィルターを使用して主要な静脈を分離しますが、私の結果は、私が試したパラメーターに関係なく、非常にノイズが多くなります!
どんな助けでも大歓迎です!
java - JavaでFFTを使用した画像強調
高速フーリエ変換による指紋画像の強調に取り組んでいます。このサイトから着想を得ました。
私は32 * 32ウィンドウを使用して関数を実装しました。FFT
その後、紹介サイトが示唆したようにpower spectrum
、FFT
. 届かないけど、
画像のパワー スペクトルを計算するにはどうすればよいですか? または、 Power Spectrum の理想的な値はありますか?
FFT のコード:
image - ガウス フィルタを適用した後の画像のノイズ レベルを測定する
私は現在、内視鏡胃炎画像の画像処理に取り組んでいます。私が行う最初のステップは、画像にガウス フィルターを適用することです。異なるサイズのカーネルを適用しました。しかし、強化された画像が改善されたかどうかを測定する方法がわかりません。
PSNRのようないくつかのテクニックを見つけました。ただし、元の画像が必要です。今、私は内視鏡画像とガウスフィルターによる強調画像しか持っていません。
強化された画像が良いかどうかを測定する方法を教えてもらえますか?
ありがとうございました。