1

CNN に畳み込み層が 2 つしかない場合に BatchNormalization を使用するのは問題ではないでしょうか。これは分類のパフォーマンスに悪影響を及ぼす可能性がありますか? トレーニング時間のことではなく、正確さのことですか?不要なレイヤーでネットワークが過負荷になっていませんか? 小さなデータセットでネットワークをトレーニングしたいと考えています。

model = Sequential()
model.add(Conv2D(32, kernel_size=(3,3), input_shape=(28,28,1), padding = 'same'))
model.add(BatchNormalization())
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Dropout(0.2))
model.add(Conv2D(64, kernel_size=(3,3), padding='same'))
model.add(BatchNormalization())
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Dropout(0.2))
model.add(Flatten())
model.add(Dense(128))
model.add(BatchNormalization())
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(10, activation='softmax'))
model.compilke(optimizer="Adam", loss='categorical_crossentropy, metrics =['accuracy'])

どうもありがとう。

4

1 に答える 1