有時候我們訓練了一個模型, 希望保存它下次直接使用,不需要下次再花時間去訓練 ,本節我們來講解一下PyTorch快速搭建神經網絡及其保存提取方法詳解
一、PyTorch快速搭建神經網絡方法
先看實驗代碼:
import torch import torch.nn.functional as F # 方法1,通過定義一個Net類來建立神經網絡 class Net(torch.nn.Module): def __init__(self, n_feature, n_hidden, n_output): super(Net, self).__init__() self.hidden = torch.nn.Linear(n_feature, n_hidden) self.predict = torch.nn.Linear(n_hidden, n_output) def forward(self, x): x = F.relu(self.hidden(x)) x = self.predict(x) return x net1 = Net(2, 10, 2) print('方法1:/n', net1) # 方法2 通過torch.nn.Sequential快速建立神經網絡結構 net2 = torch.nn.Sequential( torch.nn.Linear(2, 10), torch.nn.ReLU(), torch.nn.Linear(10, 2), ) print('方法2:/n', net2) # 經驗證,兩種方法構建的神經網絡功能相同,結構細節稍有不同 ''''' 方法1: Net ( (hidden): Linear (2 -> 10) (predict): Linear (10 -> 2) ) 方法2: Sequential ( (0): Linear (2 -> 10) (1): ReLU () (2): Linear (10 -> 2) ) ''' 先前學習了通過定義一個Net類來構建神經網絡的方法,classNet中首先通過super函數繼承torch.nn.Module模塊的構造方法,再通過添加屬性的方式搭建神經網絡各層的結構信息,在forward方法中完善神經網絡各層之間的連接信息,然后再通過定義Net類對象的方式完成對神經網絡結構的構建。
構建神經網絡的另一個方法,也可以說是快速構建方法,就是通過torch.nn.Sequential,直接完成對神經網絡的建立。
兩種方法構建得到的神經網絡結構完全相同,都可以通過print函數來打印輸出網絡信息,不過打印結果會有些許不同。
二、PyTorch的神經網絡保存和提取
在學習和研究深度學習的時候,當我們通過一定時間的訓練,得到了一個比較好的模型的時候,我們當然希望將這個模型及模型參數保存下來,以備后用,所以神經網絡的保存和模型參數提取重載是很有必要的。
首先,我們需要在需要保存網路結構及其模型參數的神經網絡的定義、訓練部分之后通過torch.save()實現對網絡結構和模型參數的保存。有兩種保存方式:一是保存年整個神經網絡的的結構信息和模型參數信息,save的對象是網絡net;二是只保存神經網絡的訓練模型參數,save的對象是net.state_dict(),保存結果都以.pkl文件形式存儲。
對應上面兩種保存方式,重載方式也有兩種。對應第一種完整網絡結構信息,重載的時候通過torch.load(‘.pkl')直接初始化新的神經網絡對象即可。對應第二種只保存模型參數信息,需要首先搭建相同的神經網絡結構,通過net.load_state_dict(torch.load('.pkl'))完成模型參數的重載。在網絡比較大的時候,第一種方法會花費較多的時間。
新聞熱點
疑難解答