小編給大家分享一下pytorch如何實(shí)現(xiàn)MNIST手寫(xiě)體識(shí)別,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
專(zhuān)業(yè)成都網(wǎng)站建設(shè)公司,做排名好的好網(wǎng)站,排在同行前面,為您帶來(lái)客戶(hù)和效益!創(chuàng)新互聯(lián)公司為您提供成都網(wǎng)站建設(shè),五站合一網(wǎng)站設(shè)計(jì)制作,服務(wù)好的網(wǎng)站設(shè)計(jì)公司,成都網(wǎng)站制作、網(wǎng)站設(shè)計(jì)負(fù)責(zé)任的成都網(wǎng)站制作公司!實(shí)驗(yàn)環(huán)境
pytorch 1.4
Windows 10
python 3.7
cuda 10.1(我筆記本上沒(méi)有可以使用cuda的顯卡)
實(shí)驗(yàn)過(guò)程
1. 確定我們要加載的庫(kù)
import torch import torch.nn as nn import torchvision #這里面直接加載MNIST數(shù)據(jù)的方法 import torchvision.transforms as transforms # 將數(shù)據(jù)轉(zhuǎn)為T(mén)ensor import torch.optim as optim import torch.utils.data.dataloader as dataloader
2. 加載數(shù)據(jù)
這里使用所有數(shù)據(jù)進(jìn)行訓(xùn)練,再使用所有數(shù)據(jù)進(jìn)行測(cè)試
train_set = torchvision.datasets.MNIST( root='./data', # 文件存儲(chǔ)位置 train=True, transform=transforms.ToTensor(), download=True ) train_dataloader = dataloader.DataLoader(dataset=train_set,shuffle=False,batch_size=100)# dataset可以省 ''' dataloader返回(images,labels) 其中, images維度:[batch_size,1,28,28] labels:[batch_size],即圖片對(duì)應(yīng)的 ''' test_set = torchvision.datasets.MNIST( root='./data', train=False, transform=transforms.ToTensor(), download=True ) test_dataloader = dataloader.DataLoader(test_set,batch_size=100,shuffle=False) # dataset可以省
3. 定義神經(jīng)網(wǎng)絡(luò)模型
這里使用全神經(jīng)網(wǎng)絡(luò)作為模型
class NeuralNet(nn.Module): def __init__(self,in_num,h_num,out_num): super(NeuralNet,self).__init__() self.ln1 = nn.Linear(in_num,h_num) self.ln2 = nn.Linear(h_num,out_num) self.relu = nn.ReLU() def forward(self,x): return self.ln2(self.relu(self.ln1(x)))
4. 模型訓(xùn)練
in_num = 784 # 輸入維度 h_num = 500 # 隱藏層維度 out_num = 10 # 輸出維度 epochs = 30 # 迭代次數(shù) learning_rate = 0.001 USE_CUDA = torch.cuda.is_available() # 定義是否可以使用cuda model = NeuralNet(in_num,h_num,out_num) # 初始化模型 optimizer = optim.Adam(model.parameters(),lr=learning_rate) # 使用Adam loss_fn = nn.CrossEntropyLoss() # 損失函數(shù) for e in range(epochs): for i,data in enumerate(train_dataloader): (images,labels) = data images = images.reshape(-1,28*28) # [batch_size,784] if USE_CUDA: images = images.cuda() # 使用cuda labels = labels.cuda() # 使用cuda y_pred = model(images) # 預(yù)測(cè) loss = loss_fn(y_pred,labels) # 計(jì)算損失 optimizer.zero_grad() loss.backward() optimizer.step() n = e * i +1 if n % 100 == 0: print(n,'loss:',loss.item())
訓(xùn)練模型的loss部分截圖如下:
5. 測(cè)試模型
with torch.no_grad(): total = 0 correct = 0 for (images,labels) in test_dataloader: images = images.reshape(-1,28*28) if USE_CUDA: images = images.cuda() labels = labels.cuda() result = model(images) prediction = torch.max(result, 1)[1] # 這里需要有[1],因?yàn)樗祷亓烁怕蔬€有標(biāo)簽 total += labels.size(0) correct += (prediction == labels).sum().item() print("The accuracy of total {} images: {}%".format(total, 100 * correct/total))
實(shí)驗(yàn)結(jié)果
最終實(shí)驗(yàn)的正確率達(dá)到:98.22%
1.PyTorch是相當(dāng)簡(jiǎn)潔且高效快速的框架;2.設(shè)計(jì)追求最少的封裝;3.設(shè)計(jì)符合人類(lèi)思維,它讓用戶(hù)盡可能地專(zhuān)注于實(shí)現(xiàn)自己的想法;4.與google的Tensorflow類(lèi)似,F(xiàn)AIR的支持足以確保PyTorch獲得持續(xù)的開(kāi)發(fā)更新;5.PyTorch作者親自維護(hù)的論壇 供用戶(hù)交流和求教問(wèn)題6.入門(mén)簡(jiǎn)單
以上是“pytorch如何實(shí)現(xiàn)MNIST手寫(xiě)體識(shí)別”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)成都網(wǎng)站設(shè)計(jì)公司行業(yè)資訊頻道!
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無(wú)理由+7*72小時(shí)售后在線(xiàn),公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國(guó)服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡(jiǎn)單易用、服務(wù)可用性高、性?xún)r(jià)比高”等特點(diǎn)與優(yōu)勢(shì),專(zhuān)為企業(yè)上云打造定制,能夠滿(mǎn)足用戶(hù)豐富、多元化的應(yīng)用場(chǎng)景需求。
本文題目:pytorch如何實(shí)現(xiàn)MNIST手寫(xiě)體識(shí)別-創(chuàng)新互聯(lián)
文章分享:http://aaarwkj.com/article42/iccec.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供商城網(wǎng)站、網(wǎng)頁(yè)設(shè)計(jì)公司、網(wǎng)站建設(shè)、面包屑導(dǎo)航、做網(wǎng)站、微信小程序
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶(hù)投稿、用戶(hù)轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀(guān)點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話(huà):028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容