0

他の主流の深層学習フレームワークとのベンチマークを作成するために、ソフトマックス回帰モデルをテンソルフローに実装しようとしています。tensorflow のfeed_dict の問題により、公式ドキュメントのコードは遅くなります。データをテンソルフロー定数として提供しようとしていますが、それを行う最も効率的な方法がわかりません。今のところ、単一のバッチを定数として使用し、そのバッチでトレーニングします。そのコードのミニバッチ ソリューションを作成する効率的なソリューションは何ですか? これが私のコードです:

from tensorflow.examples.tutorials.mnist import input_data

import tensorflow as tf
import numpy as np

mnist = input_data.read_data_sets(FLAGS.data_dir, one_hot=True)
batch_xs, batch_ys = mnist.train.next_batch(100)

x = tf.constant(batch_xs, name="x")
W = tf.Variable(0.1*tf.random_normal([784, 10]))
b = tf.Variable(tf.zeros([10]))
logits = tf.matmul(x, W) + b

batch_y = batch_ys.astype(np.float32)
y_ = tf.constant(batch_y, name="y_")

loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits, y_))
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(loss)
....
# Minitbatch is never updated during that for loop
for i in range(5500):
    sess.run(train_step)
4

1 に答える 1

1

以下の通りです。

from tensorflow.examples.tutorials.mnist import input_data

import tensorflow as tf
import numpy as np

batch_size = 32 #any size you want

mnist = input_data.read_data_sets(FLAGS.data_dir, one_hot=True)


x = tf.placeholder(tf.float32, shape = [None, 784])
y = tf.placeholder(tf.float32, shape = [None, 10])

W = tf.Variable(0.1*tf.random_normal([784, 10]))
b = tf.Variable(tf.zeros([10]))

logits = tf.matmul(x, W) + b

loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits, y))
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(loss)
....
# Minitbatch is never updated during that for loop
for i in range(1000):
    batch_xs, batch_ys = mnist.train.next_batch(batch_size)
    l, _ = sess.run([loss, train_step], feed_dict = {x: batch_x, y: batch_ys})
    print l #loss for every minibatch

[None, 784] のような形状では、形状 [?, 784] の任意の値をフィードできます。

このコードはテストしていませんが、うまくいくことを願っています。

于 2016-09-29T19:59:59.083 に答える