欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

TensorFlow實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)-創(chuàng)新互聯(lián)

本文實(shí)例為大家分享了TensorFlow實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)的具體代碼,供大家參考,具體內(nèi)容如下

創(chuàng)新互聯(lián)建站專注于企業(yè)營銷型網(wǎng)站建設(shè)、網(wǎng)站重做改版、南鄭網(wǎng)站定制設(shè)計、自適應(yīng)品牌網(wǎng)站建設(shè)、HTML5、成都做商城網(wǎng)站、集團(tuán)公司官網(wǎng)建設(shè)、外貿(mào)網(wǎng)站制作、高端網(wǎng)站制作、響應(yīng)式網(wǎng)頁設(shè)計等建站業(yè)務(wù),價格優(yōu)惠性價比高,為南鄭等各大城市提供網(wǎng)站開發(fā)制作服務(wù)。

代碼(源代碼都有詳細(xì)的注釋)和數(shù)據(jù)集可以在github下載:

# -*- coding: utf-8 -*-
'''卷積神經(jīng)網(wǎng)絡(luò)測試MNIST數(shù)據(jù)'''

#########導(dǎo)入MNIST數(shù)據(jù)########
from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
mnist = input_data.read_data_sets('MNIST_data/', one_hot=True)

# 創(chuàng)建默認(rèn)InteractiveSession
sess = tf.InteractiveSession()


#########卷積網(wǎng)絡(luò)會有很多的權(quán)重和偏置需要創(chuàng)建,先定義好初始化函數(shù)以便復(fù)用########
# 給權(quán)重制造一些隨機(jī)噪聲打破完全對稱(比如截斷的正態(tài)分布噪聲,標(biāo)準(zhǔn)差設(shè)為0.1)
def weight_variable(shape):
 initial = tf.truncated_normal(shape, stddev=0.1)
 return tf.Variable(initial)
# 因?yàn)槲覀円褂肦eLU,也給偏置增加一些小的正值(0.1)用來避免死亡節(jié)點(diǎn)(dead neurons)
def bias_variable(shape):
 initial = tf.constant(0.1, shape=shape)
 return tf.Variable(initial)


########卷積層、池化層接下來重復(fù)使用的,分別定義創(chuàng)建函數(shù)########
# tf.nn.conv2d是TensorFlow中的2維卷積函數(shù)
def conv2d(x, W):
 return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')
# 使用2*2的大池化
def max_pool_2x2(x):
 return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],strides=[1, 2, 2, 1], padding='SAME')


########正式設(shè)計卷積神經(jīng)網(wǎng)絡(luò)之前先定義placeholder########
# x是特征,y_是真實(shí)label。將圖片數(shù)據(jù)從1D轉(zhuǎn)為2D。使用tensor的變形函數(shù)tf.reshape
x = tf.placeholder(tf.float32, shape=[None, 784])
y_ = tf.placeholder(tf.float32, shape=[None, 10])
x_image = tf.reshape(x,[-1,28,28,1])


########設(shè)計卷積神經(jīng)網(wǎng)絡(luò)########
# 第一層卷積
# 卷積核尺寸為5*5,1個顏色通道,32個不同的卷積核
W_conv1 = weight_variable([5, 5, 1, 32])
# 用conv2d函數(shù)進(jìn)行卷積操作,加上偏置
b_conv1 = bias_variable([32])
# 把x_image和權(quán)值向量進(jìn)行卷積,加上偏置項(xiàng),然后應(yīng)用ReLU激活函數(shù),
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
# 對卷積的輸出結(jié)果進(jìn)行池化操作
h_pool1 = max_pool_2x2(h_conv1)

# 第二層卷積(和第一層大致相同,卷積核為64,這一層卷積會提取64種特征)
W_conv2 = weight_variable([5, 5, 32, 64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
h_pool2 = max_pool_2x2(h_conv2)

# 全連接層。隱含節(jié)點(diǎn)數(shù)1024。使用ReLU激活函數(shù)
W_fc1 = weight_variable([7 * 7 * 64, 1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)

# 為了防止過擬合,在輸出層之前加Dropout層
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)

# 輸出層。添加一個softmax層,就像softmax regression一樣。得到概率輸出。
W_fc2 = weight_variable([1024, 10])
b_fc2 = bias_variable([10])
y_conv=tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)


########模型訓(xùn)練設(shè)置########
# 定義loss function為cross entropy,優(yōu)化器使用Adam,并給予一個比較小的學(xué)習(xí)速率1e-4
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_*tf.log(y_conv),reduction_indices=[1]))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

# 定義評測準(zhǔn)確率的操作
correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))


########開始訓(xùn)練過程########
# 初始化所有參數(shù)
tf.global_variables_initializer().run()

# 訓(xùn)練(設(shè)置訓(xùn)練時Dropout的kepp_prob比率為0.5。mini-batch為50,進(jìn)行2000次迭代訓(xùn)練,參與訓(xùn)練樣本5萬)
# 其中每進(jìn)行100次訓(xùn)練,對準(zhǔn)確率進(jìn)行一次評測keep_prob設(shè)置為1,用以實(shí)時監(jiān)測模型的性能
for i in range(1000):
 batch = mnist.train.next_batch(50)
 if i%100 == 0:
  train_accuracy = accuracy.eval(feed_dict={x:batch[0], y_: batch[1], keep_prob: 1.0})
  print "-->step %d, training accuracy %.4f"%(i, train_accuracy)
 train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})
# 全部訓(xùn)練完成之后,在最終測試集上進(jìn)行全面測試,得到整體的分類準(zhǔn)確率
print "卷積神經(jīng)網(wǎng)絡(luò)在MNIST數(shù)據(jù)集正確率: %g"%accuracy.eval(feed_dict={
  x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0})

另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價比高”等特點(diǎn)與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。

名稱欄目:TensorFlow實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)-創(chuàng)新互聯(lián)
標(biāo)題URL:http://aaarwkj.com/article34/ccdese.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供品牌網(wǎng)站建設(shè)用戶體驗(yàn)營銷型網(wǎng)站建設(shè)、網(wǎng)站策劃、商城網(wǎng)站品牌網(wǎng)站制作

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

h5響應(yīng)式網(wǎng)站建設(shè)
日本不卡一区二区视频| 四虎在线免费视频播放| 最新日本欧美一区二区| 精品国产91久久粉嫩| 亚洲一区二区精品偷拍| 亚洲理论在线观看电影| 国产一区二区高清在线| 欧美护士激情第一欧美精品| 亚洲最大午夜福利视频| 青青草原在线视频伊人| 午夜精品久久99蜜桃| 久久九九亚洲欧美中文字幕| 国产一区二区三区不卡av| 免费观看毛片一区二区三区| 久久亚洲中文字幕精品熟女| 亚洲黄色片大奶子水多| 亚洲精品一区二区影院| 亚洲男人天堂最新地址| 国产亚洲精品热视频在线观看 | 青青草日韩欧美在线观看| 日韩精品视频在线观看| 国产无人区码一区二区| 国产婷婷综合一区二区| 亚洲欧美久久一区二区三区 | 国产视频在线一区二区| 久久re这里只有精品6| 一本在线不卡中文字幕| 亚洲国产视频不卡一区| 国产我和子的乱视频亲生| 韩国三级网站在线观看视频 | 美女高潮呻吟免费观看久久久| 蜜桃视频中文字幕二区三区| 91日本视频在线播放| 91久久亚洲综合精品日本| 国产av剧情同事肉体秘密| 亚洲精品一区av在线观看| 日韩精品中文一区二区| 午夜一区二区精品视频国产| 国产精品美女露脸av毛片| 久久精品国产视频在热| 国产情侣自拍在线观看|