0

2 つの隠れ層と 3 つの出力クラスを持つ単純な MLP を構築しようとしました。私がモデルで行ったことは次のとおりです。

  • 入力画像は 120x120 RGB 画像です。平置きサイズ(3×120×120)

  • サイズ 100 の 2 つの非表示レイヤー。

  • Reluアクティベーションが使用されます

  • 出力層には 3 つのニューロンがあります

コード

def model(input, weights, biases):
   
    l_1 = tf.add(tf.matmul(x, weights['h1']), biases['b1'])
    l_1 = tf.nn.relu(l_1)

    l_2 = tf.add(tf.matmul(l_1, weights['h2']), biases['b2'])
    l_2 = tf.nn.relu(l_2)

    out = tf.matmul(l_2, weights['out']) + biases['out']
    return out

オプティマイザ

pred = model(input_batch, weights, biases)
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y))
optimizer =   tf.train.GradientDescentOptimizer(rate).minimize(cost)

ただし、モデルは機能しません。精度は、ランダム モデルの精度と同等です。次の例は次のとおりです: https://github.com/aymericdamien/TensorFlow-Examples/blob/master/examples/3_NeuralNetworks/multilayer_perceptron.py

4

1 に答える 1