1

信号処理のために Keras でオートエンコーダーをトレーニングしようとしていますが、どういうわけか失敗しています。

私の入力は、6 つのメジャー (acceleration_x/y/z、gyro_x/y/z) に対して 128 フレームの長さのセグメントであるため、データセットの全体的な形状は(22836, 128, 6)22836 がサンプル サイズです。

これは、オートエンコーダーに使用しているサンプル コードです。

X_train, X_test, Y_train, Y_test = load_dataset()

# reshape the input, whose size is (22836, 128, 6)
X_train = X_train.reshape(X_train.shape[0], np.prod(X_train.shape[1:]))
X_test = X_test.reshape(X_test.shape[0], np.prod(X_test.shape[1:]))
# now the shape will be (22836, 768)

### MODEL ###
input_shape = [X_train.shape[1]]
X_input = Input(input_shape)

x = Dense(1000, activation='sigmoid', name='enc0')(X_input)
encoded = Dense(350, activation='sigmoid', name='enc1')(x)
x = Dense(1000, activation='sigmoid', name='dec0')(encoded)
decoded = Dense(input_shape[0], activation='sigmoid', name='dec1')(x)

model = Model(inputs=X_input, outputs=decoded, name='autoencoder')

model.compile(optimizer='rmsprop', loss='mean_squared_error')
print(model.summary())

の出力model.summary()

Model summary
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
input_55 (InputLayer)        (None, 768)               0         
_________________________________________________________________
enc0 (Dense)                 (None, 1000)              769000    
_________________________________________________________________
enc1 (Dense)                 (None, 350)               350350    
_________________________________________________________________
dec1 (Dense)                 (None, 1000)              351000    
_________________________________________________________________
dec0 (Dense)                 (None, 768)               768768    
=================================================================
Total params: 2,239,118
Trainable params: 2,239,118
Non-trainable params: 0

トレーニングは次の方法で行われます

# train the model
history = model.fit(x = X_train, y = X_train,
                    epochs=5,
                    batch_size=32,
                    validation_data=(X_test, X_test))

ここで、次の結果が得られる恒等関数を学習しようとしています。

Train on 22836 samples, validate on 5709 samples
Epoch 1/5
22836/22836 [==============================] - 27s 1ms/step - loss: 0.9481 - val_loss: 0.8862
Epoch 2/5
22836/22836 [==============================] - 24s 1ms/step - loss: 0.8669 - val_loss: 0.8358
Epoch 3/5
22836/22836 [==============================] - 25s 1ms/step - loss: 0.8337 - val_loss: 0.8146
Epoch 4/5
22836/22836 [==============================] - 25s 1ms/step - loss: 0.8164 - val_loss: 0.7960
Epoch 5/5
22836/22836 [==============================] - 25s 1ms/step - loss: 0.8004 - val_loss: 0.7819

この時点で、パフォーマンスの良さを理解するために、いくつかの実際の入力と予測された入力のプロットを確認します。

prediction = model.predict(X_test)
for i in np.random.randint(0, 100, 7):
    pred = prediction[i, :].reshape(128,6)
    # getting only values for acceleration_x
    pred = pred[:, 0]
    true = X_test[i, :].reshape(128,6)
    # getting only values for acceleration_x
    true = true[:, 0]
    # plot original and reconstructed
    fig, (ax1, ax2) = plt.subplots(2, 1, figsize=(20, 6))
    ax1.plot(true, color='green')
    ax2.plot(pred, color='red')

そして、これらは完全に間違っているように見えるいくつかのプロットです:

プロット1

プロット2

プロット3

少数のエポック(実際には違いがないように見える)を除いて、何が悪いのかについて何か提案はありますか?

4

1 に答える 1