9

パラダイム「信号分離」を使用して問題にアプローチする画像セグメンテーションの論文を読んでいます。これは、信号(この場合は画像)が複数の信号(画像内のオブジェクト)とノイズで構成されているという考えです。 、タスクは信号を分離することです(画像をセグメント化します)。

S \in R^{MxT}アルゴリズムの出力は、画像を M 個のコンポーネントに分割した行列 です。T は画像内の総ピクセル数で、s_{ij} ピクセル j におけるソース コンポーネント (/信号/オブジェクト) i の値です。

私が読んでいる論文では、著者は、m \in [1,M] 特定の滑らかさとエントロピーの基準に一致するコンポーネント m を選択したいと考えています。しかし、この場合のエントロピーとは何かを理解できていません。

エントロピーは次のように定義されます。

H(s_m) = - \sum_{n=1}^{256} p_n (s_m) \cdot log_2 (p_n (s_m)), m= 1,..., M

そして彼らは、「」は「」{p_n(s_m)}_ {n=1}^{256}のヒストグラムのビンに関連付けられた確率であると言いますs_m

ターゲット コンポーネントは腫瘍であり、論文には次のように書かs_mれています。

しかし、この文脈で低エントロピーとは何を意味するのでしょうか? 各ビンは何を表していますか? エントロピーの低いベクトルはどのように見えますか?

紙へのリンク

4

3 に答える 3

12

彼らはシャノンのエントロピーについて話している. エントロピーを表示する 1 つの方法は、エントロピーを、特定の確率分布に関連付けられたイベントに関する不確実性の量に関連付けることです。エントロピーは「無秩序」の尺度として役立ちます。無秩序のレベルが上がるにつれて、エントロピーが上昇し、イベントの予測が難しくなります。

論文のエントロピーの定義に戻ります。

論文におけるエントロピーの定義

H(s_m) は確率変数 s_m のエントロピーです。結果s_m確率項が発生する確率は次のとおりです。m はすべての可能な結果です。確率密度 p_n は、グレー レベル ヒストグラムを使用して計算されます。これが、合計が 1 ~ 256 になる理由です。ビンは、可能な状態を表します。

では、これはどういう意味ですか?画像処理では、エントロピーを使用してテクスチャを分類する場合があります。特定のパターンがほぼ特定の方法で繰り返されるため、特定のテクスチャが特定のエントロピーを持つ場合があります。論文の文脈では、低エントロピー (H(s_m) は、成分 m 内の低無秩序、低分散を意味します。低エントロピーの成分は、高エントロピーの成分よりも均質であり、分類するために平滑基準と組み合わせて使用​​します。コンポーネント。

エントロピーを見るもう 1 つの方法は、それを情報量の尺度と見なすことです。エントロピーが比較的「低い」ベクトルは、情報量が比較的少ないベクトルです。[0 1 0 1 1 1 0] かもしれません。エントロピーが比較的「高い」ベクトルは、情報量が比較的多いベクトルです。[0 242 124 222 149 13] かもしれません。

これは、1 つの記事にまとめることのできない、魅力的で複雑なテーマです。

于 2016-11-17T16:39:33.170 に答える