如何使用TensorFlow創(chuàng)建CNN

這篇文章主要介紹“如何使用TensorFlow創(chuàng)建CNN”,在日常操作中,相信很多人在如何使用TensorFlow創(chuàng)建CNN問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”如何使用TensorFlow創(chuàng)建CNN”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

成都創(chuàng)新互聯(lián)公司堅持“要么做到,要么別承諾”的工作理念,服務領域包括:成都網(wǎng)站建設、網(wǎng)站制作、企業(yè)官網(wǎng)、英文網(wǎng)站、手機端網(wǎng)站、網(wǎng)站推廣等服務,滿足客戶于互聯(lián)網(wǎng)時代的岳陽樓網(wǎng)站設計、移動媒體設計的需求,幫助企業(yè)找到有效的互聯(lián)網(wǎng)解決方案。努力成為您成熟可靠的網(wǎng)絡建設合作伙伴!

使用TensorFlow創(chuàng)建CNN
# -*- coding:utf-8 -*-
import tensorflow as tf
import numpy as np

# 下載mnist數(shù)據(jù)集
from tensorflow.examples.tutorials.mnist import input_data

mnist = input_data.read_data_sets('./mnist_data/', one_hot=True)

# from tensorflow.contrib.learn.python.learn.datasets.mnist import read_data_sets
#
# mnist = read_data_sets('./mnist_data/', one_hot=True)

n_output_layer = 10


# 定義待訓練的神經(jīng)網(wǎng)絡
def convolutional_neural_network(data):
    weights = {'w_conv1': tf.Variable(tf.random_normal([5, 5, 1, 32])),
               'w_conv2': tf.Variable(tf.random_normal([5, 5, 32, 64])),
               'w_fc': tf.Variable(tf.random_normal([7 * 7 * 64, 1024])),
               'out': tf.Variable(tf.random_normal([1024, n_output_layer]))}

    biases = {'b_conv1': tf.Variable(tf.random_normal([32])),
              'b_conv2': tf.Variable(tf.random_normal([64])),
              'b_fc': tf.Variable(tf.random_normal([1024])),
              'out': tf.Variable(tf.random_normal([n_output_layer]))}

    data = tf.reshape(data, [-1, 28, 28, 1])

    conv1 = tf.nn.relu(
        tf.add(tf.nn.conv2d(data, weights['w_conv1'], strides=[1, 1, 1, 1], padding='SAME'), biases['b_conv1']))
    conv1 = tf.nn.max_pool(conv1, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')

    conv2 = tf.nn.relu(
        tf.add(tf.nn.conv2d(conv1, weights['w_conv2'], strides=[1, 1, 1, 1], padding='SAME'), biases['b_conv2']))
    conv2 = tf.nn.max_pool(conv2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')

    fc = tf.reshape(conv2, [-1, 7 * 7 * 64])
    fc = tf.nn.relu(tf.add(tf.matmul(fc, weights['w_fc']), biases['b_fc']))

    # dropout剔除一些"神經(jīng)元"
    # fc = tf.nn.dropout(fc, 0.8)

    output = tf.add(tf.matmul(fc, weights['out']), biases['out'])
    return output


# 每次使用100條數(shù)據(jù)進行訓練
batch_size = 100

X = tf.placeholder('float', [None, 28 * 28])
Y = tf.placeholder('float')


# 使用數(shù)據(jù)訓練神經(jīng)網(wǎng)絡
def train_neural_network(X, Y):
    predict = convolutional_neural_network(X)
    # cost_func = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=predict,labels=Y))
    cost_func = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits_v2(logits=predict, labels=Y))
    optimizer = tf.train.AdamOptimizer().minimize(cost_func)  # learning rate 默認 0.001

    epochs = 1
    with tf.Session() as session:
        # session.run(tf.initialize_all_variables())
        session.run(tf.global_variables_initializer())
        epoch_loss = 0
        for epoch in range(epochs):
            for i in range(int(mnist.train.num_examples / batch_size)):
                x, y = mnist.train.next_batch(batch_size)
                _, c = session.run([optimizer, cost_func], feed_dict={X: x, Y: y})
                epoch_loss += c
            print(epoch, ' : ', epoch_loss)

        correct = tf.equal(tf.argmax(predict, 1), tf.argmax(Y, 1))
        accuracy = tf.reduce_mean(tf.cast(correct, 'float'))
        print('準確率: ', accuracy.eval({X: mnist.test.images, Y: mnist.test.labels}))


train_neural_network(X, Y)

執(zhí)行結果:

準確率:  0.9789

tflearn

下面使用tflearn重寫上面代碼,tflearn是TensorFlow的高級封裝,類似Keras。

tflearn提供了更簡單、直觀的接口。和scikit-learn差不多,代碼如下:

# -*- coding:utf-8 -*-
import tflearn
from tflearn.layers.conv import conv_2d, max_pool_2d
from tflearn.layers.core import input_data, dropout, fully_connected
from tflearn.layers.estimator import regression


train_x, train_y, test_x, test_y = tflearn.datasets.mnist.load_data(
    data_dir="./mnist_data/",one_hot=True)

train_x = train_x.reshape(-1, 28, 28, 1)
test_x = test_x.reshape(-1, 28, 28, 1)

# 定義神經(jīng)網(wǎng)絡模型
conv_net = input_data(shape=[None, 28, 28, 1], name='input')
conv_net = conv_2d(conv_net, 32, 2, activation='relu')
conv_net = max_pool_2d(conv_net, 2)
conv_net = conv_2d(conv_net, 64, 2, activation='relu')
conv_net = max_pool_2d(conv_net, 2)
conv_net = fully_connected(conv_net, 1024, activation='relu')
conv_net = dropout(conv_net, 0.8)
conv_net = fully_connected(conv_net, 10, activation='softmax')
conv_net = regression(conv_net, optimizer='adam', loss='categorical_crossentropy', name='output')

model = tflearn.DNN(conv_net)

# 訓練
model.fit({'input': train_x}, {'output': train_y}, n_epoch=13,
          validation_set=({'input': test_x}, {'output': test_y}),
          snapshot_step=300, show_metric=True, run_id='mnist')

model.save('./mnist.model')  # 保存模型

"""
model.load('mnist.model')   # 加載模型
model.predict([test_x[1]])  # 預測
"""

如何使用TensorFlow創(chuàng)建CNN

如何使用TensorFlow創(chuàng)建CNN

到此,關于“如何使用TensorFlow創(chuàng)建CNN”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續(xù)學習更多相關知識,請繼續(xù)關注創(chuàng)新互聯(lián)網(wǎng)站,小編會繼續(xù)努力為大家?guī)砀鄬嵱玫奈恼拢?/p>

本文題目:如何使用TensorFlow創(chuàng)建CNN
標題路徑:http://muchs.cn/article44/jiosee.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站改版域名注冊、網(wǎng)頁設計公司、商城網(wǎng)站、定制開發(fā)、網(wǎng)站制作

廣告

聲明:本網(wǎng)站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經(jīng)允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

成都定制網(wǎng)站建設