2 つの隠れ層と 3 つの出力クラスを持つ単純な MLP を構築しようとしました。私がモデルで行ったことは次のとおりです。
入力画像は 120x120 RGB 画像です。平置きサイズ(3×120×120)
サイズ 100 の 2 つの非表示レイヤー。
Reluアクティベーションが使用されます
出力層には 3 つのニューロンがあります
コード
def model(input, weights, biases):
l_1 = tf.add(tf.matmul(x, weights['h1']), biases['b1'])
l_1 = tf.nn.relu(l_1)
l_2 = tf.add(tf.matmul(l_1, weights['h2']), biases['b2'])
l_2 = tf.nn.relu(l_2)
out = tf.matmul(l_2, weights['out']) + biases['out']
return out
オプティマイザ
pred = model(input_batch, weights, biases)
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y))
optimizer = tf.train.GradientDescentOptimizer(rate).minimize(cost)
ただし、モデルは機能しません。精度は、ランダム モデルの精度と同等です。次の例は次のとおりです: https://github.com/aymericdamien/TensorFlow-Examples/blob/master/examples/3_NeuralNetworks/multilayer_perceptron.py