元の VGG ネットワークは、サイズ 256x256x3 の入力を受け入れます。Cifar-10 データをトレーニングするには、データのサイズを 256x256x3 に変更する必要がありますか? それとも他に方法はありますか?
サイズが 32x32x3 の Cifar-10 データを使用して VGG ネットワークを微調整しようとしています。
元の VGG ネットワークは、サイズ 256x256x3 の入力を受け入れます。Cifar-10 データをトレーニングするには、データのサイズを 256x256x3 に変更する必要がありますか? それとも他に方法はありますか?
サイズが 32x32x3 の Cifar-10 データを使用して VGG ネットワークを微調整しようとしています。
VGG-16 は小さな画像には複雑すぎるため、小さな画像には縮小版の VGG を使用する必要があります。
このモデルはあなたの問題により適していると思います.GPUですべてを訓練することは難しくありません:
model = Sequential()
model.add(Conv2D(32, (3, 3), padding='same',
input_shape=x_train.shape[1:]))
model.add(Activation('relu'))
model.add(Conv2D(32, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))
model.add(Conv2D(64, (3, 3), padding='same'))
model.add(Activation('relu'))
model.add(Conv2D(64, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(512))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(num_classes))
model.add(Activation('softmax'))
VGG で Cifar-10 データをトレーニングするには、サイズ 256x256x3 の入力データを指定する必要があります。さまざまな入力レイヤーには、この画像のサイズ変更を処理するための変換パラメーターがあります。
しかし、32x32 画像を 256x256 にアップスケーリングするのは、画像データの大部分が利用可能な 32x32 画像データからの近似によって作成されるため、適切な方法ではありません。したがって、これを行うことはお勧めしません。しかし、これが VGG の微調整のデモを試すだけの場合は、変換パラメータを設定することで実行できます。