3

TensorFlow slim を使用して事前トレーニング済みの ResNet-50 モデルを再トレーニングし、後で分類目的で使用したいと考えています。

ResNet-50 は 1000 クラス用に設計されていますが、出力として 10 クラス (土地被覆タイプ) だけが必要です。

最初に、後で一般化できるように、1 つの画像だけをコード化しようとします。これは私のコードです:

from tensorflow.contrib.slim.nets import resnet_v1
import tensorflow as tf
import tensorflow.contrib.slim as slim
import numpy as np

batch_size = 1
height, width, channels = 224, 224, 3
# Create graph
inputs = tf.placeholder(tf.float32, shape=[batch_size, height, width, channels])
with slim.arg_scope(resnet_v1.resnet_arg_scope()):
    logits, end_points = resnet_v1.resnet_v1_50(inputs, is_training=False)

saver = tf.train.Saver()    

with tf.Session() as sess:
    saver.restore(sess, 'd:/bitbucket/cnn-lcm/data/ckpt/resnet_v1_50.ckpt')
    representation_tensor = sess.graph.get_tensor_by_name('resnet_v1_50/pool5:0')
    #  list of files to read
    filename_queue = tf.train.string_input_producer(['d:/bitbucket/cnn-lcm/data/train/AnnualCrop/AnnualCrop_735.jpg']) 
    reader = tf.WholeFileReader()
    key, value = reader.read(filename_queue)
    img = tf.image.decode_jpeg(value, channels=3)    

    im = np.array(img)
    im = im.reshape(1,224,224,3)
    predict_values, logit_values = sess.run([end_points, logits], feed_dict= {inputs: im})
    print (np.max(predict_values), np.max(logit_values))
    print (np.argmax(predict_values), np.argmax(logit_values))

    #img = ...  #load image here with size [1, 224,224, 3]
    #features = sess.run(representation_tensor, {'Placeholder:0': img})

次に何が来るのか少し混乱しています (グラフを開くか、ネットワークの構造をロードして重みをロードするか、バッチをロードする必要があります。画像の形状にも問題があります。たくさんあります解釈が容易ではない多目的なドキュメント:/

私の目的に合うようにコードを修正する方法について何かアドバイスはありますか?

テスト画像: AnnualCrop735

年次作物735

4

1 に答える 1

0

kwargs を指定すると、resnet レイヤーが予測を提供しnum_classesます。resnet_v1のドキュメントとコードを見てください。

resnet_v1 を再利用して微調整するには、その上に損失関数とトレーニング操作を追加する必要があります

...
with slim.arg_scope(resnet_v1.resnet_arg_scope()):
    logits, end_points = resnet_v1.resnet_v1_50(
        inputs,
        num_classes=10,
        is_training=True,
        reuse=tf.AUTO_REUSE)
...
...
    classification_loss = slim.losses.softmax_cross_entropy(
        predict_values, im_label)

    regularization_loss = tf.add_n(slim.losses.get_regularization_losses())
    total_loss = classification_loss + regularization_loss

    train_op = slim.learning.create_train_op(classification_loss, optimizer)
    optimizer = tf.train.GradientDescentOptimizer(learning_rate)

    slim.learning.train(
        train_op,
        logdir='/tmp/',
        number_of_steps=1000,
        save_summaries_secs=300,
        save_interval_secs=600)
于 2018-03-06T23:43:56.440 に答える