欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

TensorFlow實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)-創(chuàng)新互聯(lián)

本文實(shí)例為大家分享了TensorFlow實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)的具體代碼,供大家參考,具體內(nèi)容如下

創(chuàng)新互聯(lián)建站專注于企業(yè)營銷型網(wǎng)站建設(shè)、網(wǎng)站重做改版、南鄭網(wǎng)站定制設(shè)計、自適應(yīng)品牌網(wǎng)站建設(shè)、HTML5、成都做商城網(wǎng)站、集團(tuán)公司官網(wǎng)建設(shè)、外貿(mào)網(wǎng)站制作、高端網(wǎng)站制作、響應(yīng)式網(wǎng)頁設(shè)計等建站業(yè)務(wù),價格優(yōu)惠性價比高,為南鄭等各大城市提供網(wǎng)站開發(fā)制作服務(wù)。

代碼(源代碼都有詳細(xì)的注釋)和數(shù)據(jù)集可以在github下載:

# -*- coding: utf-8 -*-
'''卷積神經(jīng)網(wǎng)絡(luò)測試MNIST數(shù)據(jù)'''

#########導(dǎo)入MNIST數(shù)據(jù)########
from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
mnist = input_data.read_data_sets('MNIST_data/', one_hot=True)

# 創(chuàng)建默認(rèn)InteractiveSession
sess = tf.InteractiveSession()


#########卷積網(wǎng)絡(luò)會有很多的權(quán)重和偏置需要創(chuàng)建,先定義好初始化函數(shù)以便復(fù)用########
# 給權(quán)重制造一些隨機(jī)噪聲打破完全對稱(比如截斷的正態(tài)分布噪聲,標(biāo)準(zhǔn)差設(shè)為0.1)
def weight_variable(shape):
 initial = tf.truncated_normal(shape, stddev=0.1)
 return tf.Variable(initial)
# 因?yàn)槲覀円褂肦eLU,也給偏置增加一些小的正值(0.1)用來避免死亡節(jié)點(diǎn)(dead neurons)
def bias_variable(shape):
 initial = tf.constant(0.1, shape=shape)
 return tf.Variable(initial)


########卷積層、池化層接下來重復(fù)使用的,分別定義創(chuàng)建函數(shù)########
# tf.nn.conv2d是TensorFlow中的2維卷積函數(shù)
def conv2d(x, W):
 return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')
# 使用2*2的大池化
def max_pool_2x2(x):
 return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],strides=[1, 2, 2, 1], padding='SAME')


########正式設(shè)計卷積神經(jīng)網(wǎng)絡(luò)之前先定義placeholder########
# x是特征,y_是真實(shí)label。將圖片數(shù)據(jù)從1D轉(zhuǎn)為2D。使用tensor的變形函數(shù)tf.reshape
x = tf.placeholder(tf.float32, shape=[None, 784])
y_ = tf.placeholder(tf.float32, shape=[None, 10])
x_image = tf.reshape(x,[-1,28,28,1])


########設(shè)計卷積神經(jīng)網(wǎng)絡(luò)########
# 第一層卷積
# 卷積核尺寸為5*5,1個顏色通道,32個不同的卷積核
W_conv1 = weight_variable([5, 5, 1, 32])
# 用conv2d函數(shù)進(jìn)行卷積操作,加上偏置
b_conv1 = bias_variable([32])
# 把x_image和權(quán)值向量進(jìn)行卷積,加上偏置項(xiàng),然后應(yīng)用ReLU激活函數(shù),
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
# 對卷積的輸出結(jié)果進(jìn)行池化操作
h_pool1 = max_pool_2x2(h_conv1)

# 第二層卷積(和第一層大致相同,卷積核為64,這一層卷積會提取64種特征)
W_conv2 = weight_variable([5, 5, 32, 64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
h_pool2 = max_pool_2x2(h_conv2)

# 全連接層。隱含節(jié)點(diǎn)數(shù)1024。使用ReLU激活函數(shù)
W_fc1 = weight_variable([7 * 7 * 64, 1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)

# 為了防止過擬合,在輸出層之前加Dropout層
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)

# 輸出層。添加一個softmax層,就像softmax regression一樣。得到概率輸出。
W_fc2 = weight_variable([1024, 10])
b_fc2 = bias_variable([10])
y_conv=tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)


########模型訓(xùn)練設(shè)置########
# 定義loss function為cross entropy,優(yōu)化器使用Adam,并給予一個比較小的學(xué)習(xí)速率1e-4
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_*tf.log(y_conv),reduction_indices=[1]))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

# 定義評測準(zhǔn)確率的操作
correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))


########開始訓(xùn)練過程########
# 初始化所有參數(shù)
tf.global_variables_initializer().run()

# 訓(xùn)練(設(shè)置訓(xùn)練時Dropout的kepp_prob比率為0.5。mini-batch為50,進(jìn)行2000次迭代訓(xùn)練,參與訓(xùn)練樣本5萬)
# 其中每進(jìn)行100次訓(xùn)練,對準(zhǔn)確率進(jìn)行一次評測keep_prob設(shè)置為1,用以實(shí)時監(jiān)測模型的性能
for i in range(1000):
 batch = mnist.train.next_batch(50)
 if i%100 == 0:
  train_accuracy = accuracy.eval(feed_dict={x:batch[0], y_: batch[1], keep_prob: 1.0})
  print "-->step %d, training accuracy %.4f"%(i, train_accuracy)
 train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})
# 全部訓(xùn)練完成之后,在最終測試集上進(jìn)行全面測試,得到整體的分類準(zhǔn)確率
print "卷積神經(jīng)網(wǎng)絡(luò)在MNIST數(shù)據(jù)集正確率: %g"%accuracy.eval(feed_dict={
  x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0})

另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價比高”等特點(diǎn)與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。

名稱欄目:TensorFlow實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)-創(chuàng)新互聯(lián)
標(biāo)題URL:http://aaarwkj.com/article34/ccdese.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供品牌網(wǎng)站建設(shè)用戶體驗(yàn)營銷型網(wǎng)站建設(shè)、網(wǎng)站策劃、商城網(wǎng)站品牌網(wǎng)站制作

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

h5響應(yīng)式網(wǎng)站建設(shè)
国产精品天天影视久久| 高清不卡日本一区二区| 国产一区二区伦理视频| 亚洲精品日韩av专区| 久久99热这里只频精品| 亚洲午夜福利影院在线免费观看| 久久精品亚洲夜色国产av| 日本不卡一区二区在线观看| 日本中文字幕免费专区| 九九99九九99九九精品在线观看| 亚洲精品一区二区毛豆| 久久香蕉国产线看观看av| 99久久免费中文字幕| 日韩 欧美 国产 亚洲 综合| 欧美口爆吞精在线观看| 99久久免费中文字幕| 日本束缚人妻一区二区三区| 日本中文字幕区二区三区电影| 亚洲丰满一区二区三区在线| 日本色网一区二区三区四区| 97国产免费全部免费观看| 99麻豆久久久精品国产| 色呦呦视频在线免费看| 91超碰这里只有精品国产| 精品国产不卡在线观看| 久久99精品国产99久久无| 乱码日本欧美一区二区| 亚洲熟妇精品一区二区| 女性裸体无遮挡啪啪网站| 久久成人综合亚洲精品欧美| 日韩精品中文字幕欧美激情 | 亚洲欧美日韩国产桃色| 亚洲香蕉av在线一区二区三区| 久久精品少妇人妻视频| 老牛av一区二区三区| 亚洲黄片在线免费播放观看| 国产av白浆一区二区色爽黄| 久久国产精品亚洲欧美| 在线看黄色片播放器日韩| 日韩一区二区中文字幕| 国产亚洲理论片在线观看|