Pylearn2 は通常、ニューラル ネットワークの Python リソースとして提案されています。
単一の隠れ層ニューラル ネットワークを作成し、バックプロパゲーション アルゴリズムでトレーニングしたいと考えています。
これは基本的なことのはずですが、pylearn2 でそれを行う方法がわかりません。多層パーセプトロンに関するこのチュートリアルを見つけましたが、それでもまだ迷っています。( http://nbviewer.ipython.org/github/lisa-lab/pylearn2/blob/master/pylearn2/scripts/tutorials/multilayer_perceptron/multilayer_perceptron.ipynb )
n = 200
p = 20
X = np.random.normal(0, 1, (n, p))
y = X[:,0]* X[:, 1] + np.random.normal(0, .1, n)
40 個の隠しノードとシグモイド活性化関数を備えた単層ニューラル ネットワークを作成したいと考えています。
誰かが私を助けることができますか?
編集:
私はこのコードを書くことができましたが、まだ機能していません
ds = DenseDesignMatrix(X=X, y=y)
hidden_layer = mlp.Sigmoid(layer_name='hidden', dim=10, irange=.1, init_bias=1.)
output_layer = mlp.Linear(1, 'output', irange=.1)
trainer = sgd.SGD(learning_rate=.05, batch_size=10,
termination_criterion=EpochCounter(200))
layers = [hidden_layer, output_layer]
ann = mlp.MLP(layers, nvis=1)
trainer.setup(ann, ds)
while True:
trainer.train(dataset=ds)
ann.monitor.report_epoch()
ann.monitor()
if not trainer.continue_learning(ann):
break