校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > pytorch模型的保存和加載、checkpoint操作

pytorch模型的保存和加載、checkpoint操作

熱門標簽:騰訊地圖標注沒法顯示 海外網吧地圖標注注冊 地圖標注自己和別人標注區別 南陽打電話機器人 打電話機器人營銷 ai電銷機器人的優勢 孝感營銷電話機器人效果怎么樣 聊城語音外呼系統 商家地圖標注海報

其實之前筆者寫代碼的時候用到模型的保存和加載,需要用的時候就去度娘搜一下大致代碼,現在有時間就來整理下整個pytorch模型的保存和加載,開始學習把~

pytorch的模型和參數是分開的,可以分別保存或加載模型和參數。所以pytorch的保存和加載對應存在兩種方式:

1. 直接保存加載模型

(1)保存和加載整個模型

# 保存模型
torch.save(model, 'model.pth\pkl\pt')    #一般形式torch.save(net, PATH) 
# 加載模型
model = torch.load('model.pth\pkl\pt')   #一般形式為model_dict=torch.load(PATH)

(2)僅保存和加載模型參數(推薦使用,需要提前手動構建模型)

速度快,占空間少

# 保存模型參數
torch.save(model.state_dict(), 'model.pth\pkl\pt')  #一般形式為torch.save(net.state_dict(),PATH)
# 加載模型參數
model.load_state_dict(torch.load('model.pth\pkl\pt') #一般形式為model_dict=model.load_state_dict(torch.load(PATH))

state_dict() 是一個Python字典,將每一層映射成它的參數張量。注意只有帶有可學習參數的層(卷積層、全連接層等),以及注冊的緩存(batchnorm的運行平均值)在state_dict 中才有記錄。state_dict同樣包含優化器對象,存儲了優化器的狀態,所使用到的超參數。

然而,在實驗中往往需要保存更多的信息,比如優化器的參數,那么可以采取下面的方法保存:

torch.save({'epoch': epochID + 1, 'state_dict': model.state_dict(), 'best_loss': lossMIN,
        'optimizer': optimizer.state_dict(),'alpha': loss.alpha, 'gamma': loss.gamma},
        checkpoint_path + '/m-' + launchTimestamp + '-' + str("%.4f" % lossMIN) + '.pth.tar')

如下一個完整的使用model.state_dict()和optimizer.state_dict()例子:

# 定義模型
class TheModelClass(nn.Module):        #定義一個神經網絡模型 TheModelClass
    def __init__(self):
        super(TheModelClass, self).__init__()
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16 * 5 * 5, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 * 5 * 5)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

# 初始化模型
model = TheModelClass()

# 初始化優化器
optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)

# 打印模型的 state_dict
print("Model's state_dict:")
for param_tensor in model.state_dict():        # param_tensor 為參數名稱
    print(param_tensor, "\t", model.state_dict()[param_tensor].size())

# 打印優化器的 state_dict
print("Optimizer's state_dict:")
for var_name in optimizer.state_dict():
    print(var_name, "\t", optimizer.state_dict()[var_name])

輸出結果:

Model's state_dict:
conv1.weight torch.Size([6, 3, 5, 5])
conv1.bias torch.Size([6])
conv2.weight torch.Size([16, 6, 5, 5])
conv2.bias torch.Size([16])
fc1.weight torch.Size([120, 400])
fc1.bias torch.Size([120])
fc2.weight torch.Size([84, 120])
fc2.bias torch.Size([84])
fc3.weight torch.Size([10, 84])
fc3.bias torch.Size([10])

Optimizer's state_dict:
state {}
param_groups [{'lr': 0.001, 'momentum': 0.9, 'dampening': 0, 'weight_decay': 0, 'nesterov': False, 'params': [4675713712, 4675713784, 4675714000, 4675714072, 4675714216, 4675714288, 4675714432, 4675714504, 4675714648, 4675714720]}]

(3)load提供了很多重載的功能,其可以把在GPU上訓練的權重加載到CPU上跑

torch.load('tensors.pt')
# 強制所有GPU張量加載到CPU中
torch.load('tensors.pt', map_location=lambda storage, loc: storage)  #或者model.load_state_dict(torch.load('model.pth', map_location='cpu'))
# 把所有的張量加載到GPU 1中
torch.load('tensors.pt', map_location=lambda storage, loc: storage.cuda(1))
# 把張量從GPU 1 移動到 GPU 0
torch.load('tensors.pt', map_location={'cuda:1':'cuda:0'})

上述代碼只有在模型在一個GPU上訓練時才起作用。如果我在多個GPU上訓練模型并且保存它,然后嘗試在CPU上加載,會得到錯誤:KeyError: ‘unexpected key “module.conv1.weight” in state_dict' 如何解決?

因為此時已經使用模型保存了模型nn.DataParallel,該模型將模型存儲在該模型中module,而現在您正試圖加載模型DataParallel。您可以nn.DataParallel在網絡中暫時添加一個加載目的,也可以加載權重文件,創建一個沒有module前綴的新的有序字典,然后加載它。看第(4)點

(4)通過DataParalle使用多GPU時的保存和加載

odel=DataParalle(model)
#保存參數
torch.save(model.module.state_dict(), 'model.pth')

由此看出多個GPU時多了一個該模型中module,加載再cpu時,創建一個沒有module前綴的新的有序字典,然后加載它。

補充:一般來說,PyTorch的模型以.pt或者.pth文件格式保存。

2. 保存加載用于推理的常規Checkpoint/或繼續訓練**

checkpoint檢查點:不僅保存模型的參數,優化器參數,還有loss,epoch等(相當于一個保存模型的文件夾)

if (epoch+1) % checkpoint_interval == 0:

        checkpoint = {"model_state_dict": net.state_dict(),
                      "optimizer_state_dict": optimizer.state_dict(),
                      "epoch": epoch}
        path_checkpoint = "./checkpoint_{}_epoch.pkl".format(epoch)
        torch.save(checkpoint, path_checkpoint)
#或者
#保存
torch.save({
            'epoch': epoch,
            'model_state_dict': model.state_dict(),
            'optimizer_state_dict': optimizer.state_dict(),
            'loss': loss,
            ...
            }, PATH)
#加載
model = TheModelClass(*args, **kwargs)
optimizer = TheOptimizerClass(*args, **kwargs)

checkpoint = torch.load(PATH)
model.load_state_dict(checkpoint['model_state_dict'])
optimizer.load_state_dict(checkpoint['optimizer_state_dict'])
epoch = checkpoint['epoch']
loss = checkpoint['loss']

model.eval()
# - 或者 -
model.train()

注意:

在保存用于推理或者繼續訓練的常規檢查點的時候,除了模型的state_dict之外,還必須保存其他參數。保存優化器的state_dict也非常重要,因為它包含了模型在訓練時候優化器的緩存和參數。除此之外,還可以保存停止訓練時epoch數,最新的模型損失,額外的torch.nn.Embedding層等。

要保存多個組件,則將它們放到一個字典中,然后使用torch.save()序列化這個字典。一般來說,使用.tar文件格式來保存這些檢查點。

加載各個組件,首先初始化模型和優化器,然后使用torch.load()加載保存的字典,然后可以直接查詢字典中的值來獲取保存的組件。

同樣,評估模型的時候一定不要忘了調用model.eval()。

是不是很簡單!!以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • pytorch 搭建神經網路的實現
  • 手把手教你實現PyTorch的MNIST數據集
  • Python機器學習之基于Pytorch實現貓狗分類
  • 總結近幾年Pytorch基于Imgagenet數據集圖像分類模型

標簽:揚州 聊城 南寧 迪慶 六盤水 撫州 楊凌 牡丹江

巨人網絡通訊聲明:本文標題《pytorch模型的保存和加載、checkpoint操作》,本文關鍵詞  pytorch,模型,的,保存,和,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《pytorch模型的保存和加載、checkpoint操作》相關的同類信息!
  • 本頁收集關于pytorch模型的保存和加載、checkpoint操作的相關信息資訊供網民參考!
  • 推薦文章
    校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃
    乱一区二区av| 婷婷久久综合九色国产成人| 99国产精品久久久久久久久久久| 久久精品网站免费观看| av一区二区三区四区| 亚洲激情自拍偷拍| 日韩午夜激情视频| 韩国欧美国产一区| 亚洲视频一二三| 91精品国产综合久久香蕉的特点| 另类调教123区| 国产精品午夜电影| 91精品欧美久久久久久动漫| 国产精品99久久久久久宅男| 亚洲久本草在线中文字幕| 51精品秘密在线观看| 成人一级片在线观看| 亚洲激情av在线| 久久女同性恋中文字幕| 欧美视频一区二区三区| 国产精品影音先锋| 亚洲国产精品久久不卡毛片| 国产欧美精品一区二区色综合| 在线免费精品视频| 国产91综合网| 久久精品国产亚洲a| 亚洲二区在线观看| 中文字幕一区在线| 久久久美女毛片| 欧美一区二区三区在线观看| 在线视频你懂得一区| 国产在线播放一区| 日韩精品国产精品| 精品盗摄一区二区三区| 亚洲精品一二三| 欧美日本一道本| 久久国产精品免费| 丝袜诱惑制服诱惑色一区在线观看 | 欧美美女黄视频| 91在线观看下载| 国产精品一级在线| 久久99精品久久久久久| 日韩影院在线观看| 视频在线观看国产精品| 亚洲一区视频在线| 亚洲一区在线免费观看| 亚洲精品国产a| 一区二区三区蜜桃| 亚洲一区二区三区四区在线| 亚洲自拍欧美精品| 午夜精品久久一牛影视| 亚洲国产精品一区二区尤物区| 亚洲综合网站在线观看| 亚洲激情av在线| 婷婷综合另类小说色区| 日产国产欧美视频一区精品| 婷婷激情综合网| 久久99精品网久久| 国模一区二区三区白浆| 国产一区欧美二区| 成人爱爱电影网址| 99久久99久久精品国产片果冻| 97超碰欧美中文字幕| 欧美一区二区在线视频| 欧美一级欧美三级在线观看| 精品国产凹凸成av人网站| 国产欧美日韩精品一区| 亚洲精品成人a在线观看| 视频一区二区不卡| 国产精品亚洲专一区二区三区 | 欧美高清性hdvideosex| 日韩一区二区精品| 国产区在线观看成人精品| 亚洲欧美激情小说另类| 看电影不卡的网站| av激情亚洲男人天堂| 91精品国产一区二区| 国产精品美女久久久久久| 日本美女视频一区二区| 国产不卡视频在线播放| 欧美在线一二三| 国产亚洲精品免费| 日韩电影免费在线看| 成人黄色免费短视频| 欧美一区二区视频在线观看2020| 国产视频一区二区在线观看| 亚洲第一主播视频| 成人avav影音| 精品久久久久久久久久久久久久久 | 亚洲精品国产精华液| 成人污污视频在线观看| 日韩天堂在线观看| 青青国产91久久久久久| jvid福利写真一区二区三区| 久久综合久久鬼色中文字| 亚洲一二三专区| 91成人国产精品| 亚洲欧美一区二区不卡| 国产乱人伦偷精品视频免下载| 欧美日韩国产高清一区二区三区 | 欧美高清视频www夜色资源网| 国产精品久久久久久久久免费相片 | 日韩和欧美一区二区| 欧美婷婷六月丁香综合色| 国产精品久久久久久久岛一牛影视 | 在线这里只有精品| 亚洲一区二区三区视频在线播放| 成人天堂资源www在线| 久久精品欧美日韩精品| 极品瑜伽女神91| 精品欧美一区二区在线观看 | 国产99久久久久久免费看农村| 26uuu亚洲综合色| 国产精品1区二区.| 国产日韩欧美制服另类| 粉嫩av一区二区三区| 国产精品天天看| 色婷婷av久久久久久久| 午夜国产精品一区| 欧美一区二区在线不卡| 精品中文字幕一区二区| 国产欧美一区二区精品性色超碰| 丰满亚洲少妇av| 亚洲免费av高清| 欧美久久久久中文字幕| 精品一区二区三区av| 欧美国产精品专区| 在线亚洲免费视频| 蜜桃精品视频在线| 国产精品国产三级国产aⅴ入口| 一本久久综合亚洲鲁鲁五月天| 亚洲成人午夜影院| 精品对白一区国产伦| 不卡一区二区三区四区| 日韩综合一区二区| 国产精品美日韩| 欧美日韩黄色影视| 国产精品一区二区91| 一区二区三区在线免费| 精品国产乱码久久久久久蜜臀 | 亚洲福利电影网| 欧美激情综合五月色丁香小说| 欧美在线一二三四区| 成人午夜激情影院| 日韩在线一区二区三区| 国产精品电影一区二区| 日韩欧美色电影| 欧美少妇性性性| 99在线热播精品免费| 麻豆成人综合网| 亚洲午夜久久久久久久久电影网 | 欧美久久高跟鞋激| 91蜜桃传媒精品久久久一区二区| 麻豆91免费看| 五月婷婷综合激情| 亚洲欧美国产三级| 日本一区二区三区dvd视频在线| 欧美电影在线免费观看| 色偷偷久久一区二区三区| 福利视频网站一区二区三区| 精品一区二区三区视频在线观看| 亚洲超碰精品一区二区| 一区二区三区在线免费| 亚洲三级免费电影| 国产精品国产三级国产aⅴ中文 | 香蕉久久夜色精品国产使用方法| 色婷婷综合久久久久中文| 午夜视频一区二区| 国产日韩欧美综合在线| 精品国产伦一区二区三区观看体验| 欧美日韩黄视频| 欧美日韩精品欧美日韩精品| 欧美午夜精品免费| 欧美系列亚洲系列| 欧美日本免费一区二区三区| 欧美日韩国产在线播放网站| 欧美日韩亚州综合| 91精品国产综合久久精品性色| 欧美日韩免费一区二区三区视频| 欧美日韩国产成人在线91| 91麻豆精品国产91久久久资源速度| 欧美日韩中字一区| 欧美日韩精品是欧美日韩精品| 日韩一区二区影院| 久久一区二区视频| 国产精品久久久久久久久快鸭| 国产精品人成在线观看免费| 自拍偷拍国产精品| 亚洲成人中文在线| 久久99精品视频| 成人国产在线观看| 欧美视频一区二区在线观看| 日韩欧美一区中文| 国产精品午夜电影| 日韩国产欧美三级| 成人性生交大片免费看中文 | 高清国产一区二区| 91电影在线观看| 久久午夜老司机| 一区二区三区四区激情 |