4

pybrain を使用してこの例を作成します。

from pybrain.tools.shortcuts import buildNetwork
from pybrain.datasets import SupervisedDataSet
from pybrain.supervised.trainers import BackpropTrainer

net = buildNetwork(3, 3, 1)

dataSet = SupervisedDataSet(3, 1)
dataSet.addSample((0, 0, 0), (0))
dataSet.addSample((1, 1, 1), (0))
dataSet.addSample((1, 0, 0), (1))
dataSet.addSample((0, 1, 0), (1))
dataSet.addSample((0, 0, 1), (1))

trainer = BackpropTrainer(net, dataSet)

trainer.trainUntilConvergence()

result = net.activate([0, 0, 0])
print result

出力: [ 0.10563189]

activate() の出力がわかりません。ネットワークがトレーニングされ、トレーニング サンプルの 1 つを使用して出力をテストするので、トレーニング サンプルとまったく同じ値を期待します。入力 [0, 0, 0] は出力 0 を取得する必要があります。ここで何が欠けていますか? 有効な結果を得るにはどうすればよいですか?

さらにややこしいのは、このコードを実行するたびに異なる結果が得られることです。私は明らかに何か間違ったことをしています。それは何ですか?

4

1 に答える 1

7

Training a network until convergence does not imply that the training set is remembered perfectly. There are many reasons: size of hidden layer, activation function, learning rate, etc. All these parameters need to be tuned.

于 2013-01-28T11:00:45.320 に答える