これらのメモに基づいて、Matlab でバックプロパゲーション アルゴリズムをコーディングしました: http://dl.dropbox.com/u/7412214/BackPropagation.pdf
私のネットワークは、長さ 43 の入力/特徴ベクトルを取り、隠れ層に 20 個のノード (変更可能な任意のパラメーターの選択) を持ち、単一の出力ノードを持ちます。43 個の特徴を取り、0 から 100 までの単一の値を出力するようにネットワークをトレーニングしたいと考えています。入力データはゼロ平均と単位標準偏差に正規化され (z = x - 平均 / 標準偏差を介して)、「1バイアスを表すベクトルを入力する項。私の targetValues は、0 から 100 までの単一の数値です。
私のコードの関連部分は次のとおりです。
(慣例により、層 I (i) は入力層を指し、J (j) は隠れ層を指し、K (k) は出力層を指します。この場合、単一ノードです。)
for train=1:numItrs
for iterator=1:numTrainingSets
%%%%%%%% FORWARD PROPAGATION %%%%%%%%
% Grab the inputs, which are rows of the inputFeatures matrix
InputLayer = inputFeatures(iterator, :)'; %don't forget to turn into column
% Calculate the hidden layer outputs:
HiddenLayer = sigmoidVector(WeightMatrixIJ' * InputLayer);
% Now the output layer outputs:
OutputLayer = sigmoidVector(WeightMatrixJK' * HiddenLayer);
%%%%%%% Debug stuff %%%%%%%% (for single valued output)
if (mod(train+iterator, 100) == 0)
str = strcat('Output value: ', num2str(OutputLayer), ' | Test value: ', num2str(targetValues(iterator, :)'));
disp(str);
end
%%%%%%%% BACKWARDS PROPAGATION %%%%%%%%
% Propagate backwards for the hidden-output weights
currentTargets = targetValues(iterator, :)'; %strip off the row, make it a column for easy subtraction
OutputDelta = (OutputLayer - currentTargets) .* OutputLayer .* (1 - OutputLayer);
EnergyWeightDwJK = HiddenLayer * OutputDelta'; %outer product
% Update this layer's weight matrix:
WeightMatrixJK = WeightMatrixJK - epsilon*EnergyWeightDwJK; %does it element by element
% Propagate backwards for the input-hidden weights
HiddenDelta = HiddenLayer .* (1 - HiddenLayer) .* WeightMatrixJK*OutputDelta;
EnergyWeightDwIJ = InputLayer * HiddenDelta';
WeightMatrixIJ = WeightMatrixIJ - epsilon*EnergyWeightDwIJ;
end
end
また、重み行列は次のように初期化されます。
WeightMatrixIJ = rand(numInputNeurons, numHiddenNeurons) - 0.5;
WeightMatrixJK = rand(numHiddenNeurons, numOutputNeurons) - 0.5;
%randoms b/w (-0.5, 0.5)
「sigmoidVector」関数は、ベクトル内のすべての要素を取り、適用しますy = 1 / (1 + exp(-x))
。
コードの最初から、デバッグ メッセージは次のようになります。
Output value:0.99939 | Test value:20
Output value:0.99976 | Test value:20
Output value:0.99985 | Test value:20
Output value:0.99989 | Test value:55
Output value:0.99991 | Test value:65
Output value:0.99993 | Test value:62
Output value:0.99994 | Test value:20
Output value:0.99995 | Test value:20
Output value:0.99995 | Test value:20
Output value:0.99996 | Test value:20
Output value:0.99996 | Test value:20
Output value:0.99997 | Test value:92
Output value:0.99997 | Test value:20
Output value:0.99997 | Test value:20
Output value:0.99997 | Test value:20
Output value:0.99997 | Test value:20
Output value:0.99998 | Test value:20
Output value:0.99998 | Test value:20
Output value:0.99999 | Test value:20
Output value:0.99999 | Test value:20
Output value:1 | Test value:20
Output value:1 | Test value:62
Output value:1 | Test value:70
Output value:1 | Test value:77
Output value:1 | Test value:20
** stays saturated at 1 **
明らかに、出力値が 0 から 100 の間になるようにネットワークをトレーニングして、それらのターゲット値に一致させたいと考えています。
さらに情報が必要な場合は、できる限り提供します。