0

pybrain LSTM レイヤーには、値を格納するために使用されるこれらのバッファーがあります。

 'bufferlist': [   ('ingate', 20),
                      ('outgate', 20),
                      ('forgetgate', 20),
                      ('ingatex', 20),
                      ('outgatex', 20),
                      ('forgetgatex', 20),
                      ('state', 20),
                      ('ingateError', 20),
                      ('outgateError', 20),
                      ('forgetgateError', 20),
                      ('stateError', 20),
                      ('inputbuffer', 80),
                      ('inputerror', 80),
                      ('outputbuffer', 20),
                      ('outputerror', 20)],

これらの変数の目的を説明できる人はいますか? LSTM レイヤーのアクティベーションを取得しようとしています。どの変数を使用する必要がありますか?

4

1 に答える 1

2

アクティベーションは「outputbuffer」にあります。

変数の目的については (あなたの質問は少し不明確です)、元の論文を読む方が簡単でしょう。モデルでの使用ではなく、実装での特定の使用を意味する場合は、これらの変数を使用するLSTMLayer実装を調べる必要があります。

ほとんどの変数は、論文とまったく同じように命名されています。概念を理解していれば、それは非常に簡単です。追加する唯一のことは、「x」で終わるゲート (outgatex、forgetgatex、ingatex) はピープホール接続から計算された値であり、(outgate、forgetgate、ingate) は合計ゲート値であることです。

于 2014-12-05T13:20:07.740 に答える