再帰的な性質のため、一度に 1 つの項目を入力することで、入力ニューロンが 1 つしかない lstm をシーケンスでアクティブにすることができました。
ただし、同じ手法でネットワークをトレーニングしようとすると、収束しません。トレーニングは永遠に続きます。
これが私がやっていることです。自然言語の文字列をバイナリに変換してから、1桁ずつ入力しています。バイナリに変換する理由は、ネットワークが 0 から 1 の間の値しかとらないためです。
入力ニューロンと同じ数の値の配列 (この場合は [0]) でトレーニングすると、トレーニングがうまくいくことがわかります。
各桁を個別に渡すことができると思いますが、各桁に対して個別の理想的な出力が得られます。そして、別のトレーニング セットの別の理想的な出力で数字が再び表示されると、たとえば 0 がクラス 0 と 1 になる可能性があるため、収束しません。この仮定が間違っているかどうか教えてください。
アクティブ化されたときに同様のシーケンスが同様に分類されるように、この lstm をシーケンスでトレーニングするにはどうすればよいですか?
これが私のトレーナーファイル全体です: https://github.com/theirf/synaptic/blob/master/src/trainer.js
ワーカーでネットワークをトレーニングするコードは次のとおりです。
workerTrain: function(set, callback, options) {
var that = this;
var error = 1;
var iterations = bucketSize = 0;
var input, output, target, currentRate;
var length = set.length;
var start = Date.now();
if (options) {
if (options.shuffle) {
function shuffle(o) { //v1.0
for (var j, x, i = o.length; i; j = Math.floor(Math.random() *
i), x = o[--i], o[i] = o[j], o[j] = x);
return o;
};
}
if(options.iterations) this.iterations = options.iterations;
if(options.error) this.error = options.error;
if(options.rate) this.rate = options.rate;
if(options.cost) this.cost = options.cost;
if(options.schedule) this.schedule = options.schedule;
if (options.customLog){
// for backward compatibility with code that used customLog
console.log('Deprecated: use schedule instead of customLog')
this.schedule = options.customLog;
}
}
// dynamic learning rate
currentRate = this.rate;
if(Array.isArray(this.rate)) {
bucketSize = Math.floor(this.iterations / this.rate.length);
}
// create a worker
var worker = this.network.worker();
// activate the network
function activateWorker(input)
{
worker.postMessage({
action: "activate",
input: input,
memoryBuffer: that.network.optimized.memory
}, [that.network.optimized.memory.buffer]);
}
// backpropagate the network
function propagateWorker(target){
if(bucketSize > 0) {
var currentBucket = Math.floor(iterations / bucketSize);
currentRate = this.rate[currentBucket];
}
worker.postMessage({
action: "propagate",
target: target,
rate: currentRate,
memoryBuffer: that.network.optimized.memory
}, [that.network.optimized.memory.buffer]);
}
// train the worker
worker.onmessage = function(e){
// give control of the memory back to the network
that.network.optimized.ownership(e.data.memoryBuffer);
if(e.data.action == "propagate"){
if(index >= length){
index = 0;
iterations++;
error /= set.length;
// log
if(options){
if(this.schedule && this.schedule.every && iterations % this.schedule.every == 0)
abort_training = this.schedule.do({
error: error,
iterations: iterations
});
else if(options.log && iterations % options.log == 0){
console.log('iterations', iterations, 'error', error);
};
if(options.shuffle) shuffle(set);
}
if(!abort_training && iterations < that.iterations && error > that.error){
activateWorker(set[index].input);
}
else{
// callback
callback({
error: error,
iterations: iterations,
time: Date.now() - start
})
}
error = 0;
}
else{
activateWorker(set[index].input);
}
}
if(e.data.action == "activate"){
error += that.cost(set[index].output, e.data.output);
propagateWorker(set[index].output);
index++;
}
}