tf.keras を使用して再帰型ニューラル ネットワークに層の正規化を適用したいと考えています。TensorFlow 2.0 では、 にLayerNormalization
クラスがありますが、各時間ステップで (使用されるように設計されているため)のような再帰レイヤー内tf.layers.experimental
で使用する方法が不明です。カスタム セルを作成する必要がありますか、それとももっと簡単な方法がありますか?LSTM
たとえば、各タイム ステップでドロップアウトを適用するのは、レイヤーrecurrent_dropout
を作成するときに引数を設定するのと同じくらい簡単ですが、引数LSTM
はありませんrecurrent_layer_normalization
。