MNIST 畳込みニューラルネットワーク 準備編

ネットワークの構成:

入力データ → ソフトマックス関数

サンプルコード:

# coding:utf-8
import numpy as np
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data

# 結果が同じになるように、乱数のシードを設定する
tf.set_random_seed(20200724)
np.random.seed(20200724)

# MNISTデータセットの読み込み
mnist = input_data.read_data_sets('MNIST_data', one_hot=True)

### モデルの実装
# ラベル(正解データ) Nx10行列
# Nはデータ数, 10はクラス数
t = tf.placeholder(tf.float32, shape=(None,10))
# 入力データ Nx784行列
# Nはデータ数, 28x28=784
X = tf.placeholder(tf.float32, shape=(None,784))
# 重み 784x10行列
W = tf.Variable(tf.zeros([784,10]),trainable=True)
# バイアス
b = tf.Variable(tf.zeros([10]),trainable=True)
# Nx10行列
# Nはデータ数
y = tf.matmul(X,W) + b

### 交差エントロピーコスト関数
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=y,labels=t))
### 学習アルゴリズム
# 勾配降下法 学習率:0.5
optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.5)
train_step = optimizer.minimize(loss)

### モデルの評価
correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(t,1))
# 精度
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

### 学習の実行
sess = tf.Session()
sess.run(tf.global_variables_initializer())
i = 0
for _ in range(2000):
    i += 1
    batch = mnist.train.next_batch(100)
    sess.run(train_step, feed_dict={X:batch[0],t:batch[1]})
    if i % 200 == 0:
        train_acc, train_loss = sess.run([accuracy,loss], feed_dict={X:batch[0],t:batch[1]})
        print "[Train] step: %d, loss: %f, acc: %f" % (i, train_loss, train_acc)

# テストデータによるモデルの評価
test_acc = sess.run(accuracy, feed_dict={X:mnist.test.images,t: mnist.test.labels})
print "[Test] acc: %f" % test_acc

sess.close()

実行結果 :

Extracting MNIST_data/train-images-idx3-ubyte.gz
Extracting MNIST_data/train-labels-idx1-ubyte.gz
Extracting MNIST_data/t10k-images-idx3-ubyte.gz
Extracting MNIST_data/t10k-labels-idx1-ubyte.gz
[Train] step: 200, loss: 0.407333, acc: 0.890000
[Train] step: 400, loss: 0.243457, acc: 0.910000
[Train] step: 600, loss: 0.361597, acc: 0.900000
[Train] step: 800, loss: 0.315523, acc: 0.920000
[Train] step: 1000, loss: 0.269812, acc: 0.940000
[Train] step: 1200, loss: 0.353051, acc: 0.880000
[Train] step: 1400, loss: 0.243116, acc: 0.950000
[Train] step: 1600, loss: 0.158794, acc: 0.980000
[Train] step: 1800, loss: 0.271256, acc: 0.930000
[Train] step: 2000, loss: 0.207677, acc: 0.930000
[Test] acc: 0.919700