3

簡単な質問です。

次のような一連のデータがある場合:

Classification  attribute-1  attribute-2

Correct         dog          dog 
Correct         dog          dog
Wrong           dog          cat 
Correct         cat          cat
Wrong           cat          dog
Wrong           cat          dog

では、属性 1 に対する属性 2 の情報利得は何ですか?

データセット全体のエントロピーを計算しました: -(3/6)log2(3/6)-(3/6)log2(3/6)=1

それから私は立ち往生しています!attribute-1 と attribute-2 のエントロピーも計算する必要があると思いますか? では、これらの 3 つの計算を情報利得の計算に使用しますか?

どんな助けでも素晴らしいでしょう、

ありがとうございました :)。

4

1 に答える 1

8

まず、各属性のエントロピーを計算する必要があります。その後、情報利得を計算します。ちょっと待ってください。それがどのように行われるべきかを示します。

属性 1 の場合

attr-1=dog:
info([2c,1w])=entropy(2/3,1/3)

attr-1=cat
info([1c,2w])=entropy(1/3,2/3)

属性 1 の値:

info([2c,1w],[1c,2w])=(3/6)*info([2c,1w])+(3/6)*info([1c,2w])

属性 1 のゲイン:

gain("attr-1")=info[3c,3w]-info([2c,1w],[1c,2w])

次の属性についても同じことを行う必要があります。

于 2011-03-28T21:51:32.680 に答える