欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

PyTorch模型的保存與加載是怎么樣的

PyTorch模型的保存與加載是怎么樣的,針對(duì)這個(gè)問題,這篇文章詳細(xì)介紹了相對(duì)應(yīng)的分析和解答,希望可以幫助更多想解決這個(gè)問題的小伙伴找到更簡單易行的方法。

成都創(chuàng)新互聯(lián)公司是專業(yè)的鄂溫克網(wǎng)站建設(shè)公司,鄂溫克接單;提供網(wǎng)站設(shè)計(jì)、成都網(wǎng)站建設(shè),網(wǎng)頁設(shè)計(jì),網(wǎng)站設(shè)計(jì),建網(wǎng)站,PHP網(wǎng)站建設(shè)等專業(yè)做網(wǎng)站服務(wù);采用PHP框架,可快速的進(jìn)行鄂溫克網(wǎng)站開發(fā)網(wǎng)頁制作和功能擴(kuò)展;專業(yè)做搜索引擎喜愛的網(wǎng)站,專業(yè)的做網(wǎng)站團(tuán)隊(duì),希望更多企業(yè)前來合作!

torch.save()和torch.load():

torch.save()和torch.load()配合使用,
分別用來保存一個(gè)對(duì)象(任何對(duì)象,
不一定要是PyTorch中的對(duì)象)到文件,和從文件中加載一個(gè)對(duì)象.
加載的時(shí)候可以指明是否需要數(shù)據(jù)在CPU和GPU中相互移動(dòng).

Module.state_dict()和Module.load_state_dict():

Module.state_dict()返回一個(gè)字典,
該字典以鍵值對(duì)的方式保存了Module的整個(gè)狀態(tài).

Module.load_state_dict()可以從一個(gè)字典中加載參數(shù)到這個(gè)module和其后代,
如果strict是True,
那么所加載的字典和該module本身state_dict()方法返回的關(guān)鍵字必須嚴(yán)格確切的匹配上.
If strict is True, 
then the keys of state_dict must exactly match the keys returned by this module’s state_dict() function.
返回值是一個(gè)命名元組:
NamedTuple with missing_keys and unexpected_keys fields,
分別保存缺失的關(guān)鍵字和未預(yù)料到的關(guān)鍵字.
如果自己的模型跟預(yù)訓(xùn)練模型只有部分層是相同的,
那么可以只加載這部分相同的參數(shù),
只要設(shè)置strict參數(shù)為False來忽略那些沒有匹配到的keys即可。
# 方式1:# model_path = 'model_name.pth'# model_params_path = 'params_name.pth'# ----保存----# torch.save(model, model_path)# ----加載----# model = torch.load(model_path)# 方式2:#----保存----# torch.save(model.state_dict(), model_params_path) #保存的文件名后綴一般是.pt或.pth
#----加載----# model=Model().cuda() #定義模型結(jié)構(gòu)
# model.load_state_dict(torch.load(model_params_path))  #加載模型參數(shù)

說明:

# 保存/加載整個(gè)模型
torch.save(model, PATH)
model = torch.load(PATH)
model.eval()
這種保存/加載模型的過程使用了最直觀的語法,
所用代碼量少。這使用Python的pickle保存所有模塊。
這種方法的缺點(diǎn)是,保存模型的時(shí)候,
序列化的數(shù)據(jù)被綁定到了特定的類和確切的目錄。
這是因?yàn)閜ickle不保存模型類本身,而是保存這個(gè)類的路徑,
并且在加載的時(shí)候會(huì)使用。因此,
當(dāng)在其他項(xiàng)目里使用或者重構(gòu)的時(shí)候,加載模型的時(shí)候會(huì)出錯(cuò)。




# 保存/加載 state_dict(推薦)
torch.save(model.state_dict(), PATH)
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.eval()

自己選擇要保存的參數(shù),設(shè)置checkpoint:

#----保存----torch.save({
   
   
   'epoch': epoch + 1,'arch': args.arch,'state_dict': model.state_dict(),'optimizer_state_dict': optimizer.state_dict(),
  	'loss': loss,'best_prec1': best_prec1,}, 'checkpoint_name.tar' )#----加載----checkpoint = torch.load('checkpoint_name.tar')#按關(guān)鍵字獲取保存的參數(shù)
start_epoch = checkpoint['epoch']best_prec1 = checkpoint['best_prec1']state_dict=checkpoint['state_dict']model=Model()#定義模型結(jié)構(gòu)
model.load_state_dict(state_dict)

保存多個(gè)模型到同一個(gè)文件:

#----保存----torch.save({
   
   
   
  'modelA_state_dict': modelA.state_dict(),
  'modelB_state_dict': modelB.state_dict(),
  'optimizerA_state_dict': optimizerA.state_dict(),
  'optimizerB_state_dict': optimizerB.state_dict(),
  ...
  }, PATH)#----加載----modelA = TheModelAClass(*args, **kwargs)modelB = TheModelAClass(*args, **kwargs)optimizerA = TheOptimizerAClass(*args, **kwargs)optimizerB = TheOptimizerBClass(*args, **kwargs)checkpoint = torch.load(PATH)modelA.load_state_dict(checkpoint['modelA_state_dict']modelB.load_state_dict(checkpoint['modelB_state_dict']optimizerA.load_state_dict(checkpoint['optimizerA_state_dict']optimizerB.load_state_dict(checkpoint['optimizerB_state_dict']modelA.eval()modelB.eval()# or
modelA.train()modelB.train()# 在這里,保存完模型后加載的時(shí)候有時(shí)會(huì)
# 遇到CUDA out of memory的問題,
# 我google到的解決方法是加上map_location=‘cpu’

checkpoint = torch.load(PATH,map_location='cpu')

加載預(yù)訓(xùn)練模型的部分:

resnet152 = models.resnet152(pretrained=True) #加載模型結(jié)構(gòu)和參數(shù)
pretrained_dict = resnet152.state_dict()"""加載torchvision中的預(yù)訓(xùn)練模型和參數(shù)后通過state_dict()方法提取參數(shù)
   也可以直接從官方model_zoo下載:
   pretrained_dict = model_zoo.load_url(model_urls['resnet152'])"""
model_dict = model.state_dict()# 將pretrained_dict里不屬于model_dict的鍵剔除掉
pretrained_dict = {
   
   
   k: v for k, v in pretrained_dict.items() if k in model_dict}# 更新現(xiàn)有的model_dict
model_dict.update(pretrained_dict)# 加載我們真正需要的state_dict
model.load_state_dict(model_dict)

或者寫詳細(xì)一點(diǎn):

model_dict = model.state_dict()state_dict = {
   
   
   }for k, v in pretrained_dict.items():if k in model_dict.keys():# state_dict.setdefault(k, v)state_dict[k] = velse:print("Missing key(s) in state_dict :{}".format(k))model_dict.update(state_dict)model.load_state_dict(model_dict)

關(guān)于PyTorch模型的保存與加載是怎么樣的問題的解答就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道了解更多相關(guān)知識(shí)。

當(dāng)前標(biāo)題:PyTorch模型的保存與加載是怎么樣的
瀏覽地址:http://aaarwkj.com/article22/gooecc.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站建設(shè)、建站公司響應(yīng)式網(wǎng)站、Google、外貿(mào)網(wǎng)站建設(shè)、手機(jī)網(wǎng)站建設(shè)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

網(wǎng)站托管運(yùn)營
精品视频一区二区三区在线观看| 国产美女自拍视频一区| 国产免费高清视频成人| 麻豆国产97在线精品一区| 日本中文有码视频在线观看| 日本东京一区二区三区| 蜜臀av成人精品蜜臀av| 精品久久久久久蜜臀av| 午夜福利激情视频在线| 精品一区二区三区乱码中文| 久久人热视频这里只有精品 | 人妻日韩精品综合一二三四| 日本激情人妻一区二区| 日本一区二区视频播放网站| 欧美日韩在线精品1区2区| 夜夜春国产精品不卡一区二区| 免费看欧美粗又大爽老| 欧洲一区二区三区黄色| 九九九视频在线观看免费| 久国产精品久久久极品| 亚洲老司机深夜福利| 亚洲精品一区二区三区高潮| 国产精品亚洲欧美在线| 日韩欧美一区二区三区在线| 丝袜美腿亚洲综合第一区| 国产精品一区波多野结衣| 国产呦精品一区二区三区| 男女做爰高清无遮挡免费 | 婷婷国产成人久久精品激情| 国产产品在线免费看91| 亚洲综合偷拍日韩av| 亚洲免费av一区二区| 麻豆国产精品原创av男女| 护士一级特黄特色大片| 91国产性感美女视频| 亚洲国产精品热久久网站| 亚洲黄色暴力一区视频| 国产高清亚洲一区亚洲二区| 美女口爆吞精一区二区| 在线观看一区二区三区国产视频 | 精品女同一区二区三区久久|