PyTorch快速建構神經網路及其保存擷取方法詳解

不言
發布: 2018-04-28 10:56:06
原創
2536 人瀏覽過

本篇主要介紹了PyTorch快速搭建神經網路及其保存擷取方法詳解,現在分享給大家,也給大家做個參考。一起過來看看吧

有時候我們訓練了一個模型, 希望保存它下次直接使用,不需要下次再花時間去訓練,本節我們來講解一下PyTorch快速搭建神經網路及其保存擷取方法詳解

一、PyTorch快速搭建神經網路方法

先看實驗程式碼:

import torch 
import torch.nn.functional as F 
 
# 方法1,通过定义一个Net类来建立神经网络 
class Net(torch.nn.Module): 
  def __init__(self, n_feature, n_hidden, n_output): 
    super(Net, self).__init__() 
    self.hidden = torch.nn.Linear(n_feature, n_hidden) 
    self.predict = torch.nn.Linear(n_hidden, n_output) 
 
  def forward(self, x): 
    x = F.relu(self.hidden(x)) 
    x = self.predict(x) 
    return x 
 
net1 = Net(2, 10, 2) 
print('方法1:\n', net1) 
 
# 方法2 通过torch.nn.Sequential快速建立神经网络结构 
net2 = torch.nn.Sequential( 
  torch.nn.Linear(2, 10), 
  torch.nn.ReLU(), 
  torch.nn.Linear(10, 2), 
  ) 
print('方法2:\n', net2) 
# 经验证,两种方法构建的神经网络功能相同,结构细节稍有不同 
 
''''' 
方法1: 
 Net ( 
 (hidden): Linear (2 -> 10) 
 (predict): Linear (10 -> 2) 
) 
方法2: 
 Sequential ( 
 (0): Linear (2 -> 10) 
 (1): ReLU () 
 (2): Linear (10 -> 2) 
) 
'''
登入後複製

先前學習了透過定義一個Net類別來建構神經網路的方法,classNet中首先透過super函數繼承torch.nn.Module模組的建構方法,再透過增加屬性的方式建構神經網路各層的結構訊息,在forward方法中完善神經網路各層之間的連接訊息,然後再透過定義Net類別物件的方式完成對神經網路結構的建構。

建構神經網路的另一個方法,也可以說是快速建構方法,就是透過torch.nn.Sequential,直接完成對神經網路的建立。

兩種方法建構得到的神經網路結構完全相同,都可以透過print函數來列印輸出網路訊息,不過列印結果會有些許不同。

二、PyTorch的神經網路保存和提取

#在學習和研究深度學習的時候,當我們經過一定時間的訓練,得到了一個比較好的模型的時候,我們當然希望將這個模型及模型參數保存下來,以備後用,所以神經網路的保存和模型參數提取重載是很有必要的。

首先,我們需要在需要保存網路結構及其模型參數的神經網路的定義、訓練部分之後透過torch.save()實現網路結構和模型參數的保存。有兩種保存方式:一是保存年整個神經網路的的結構資訊和模型參數訊息,save的物件是網路net;二是只保存神經網路的訓練模型參數,save的物件是net.state_dict(),保存結果都以.pkl檔案形式儲存。

對應上面兩種保存方式,重載方式也有兩種。對應第一種完整網路結構訊息,重載的時候透過torch.load(‘.pkl')直接初始化新的神經網路物件即可。對應第二種只保存模型參數訊息,需要先搭建相同的神經網路結構,透過net.load_state_dict(torch.load('.pkl'))完成模型參數的重載。在網路比較大的時候,第一種方法會花費較多的時間。

程式碼實作:

import torch 
from torch.autograd import Variable 
import matplotlib.pyplot as plt 
 
torch.manual_seed(1) # 设定随机数种子 
 
# 创建数据 
x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1) 
y = x.pow(2) + 0.2*torch.rand(x.size()) 
x, y = Variable(x, requires_grad=False), Variable(y, requires_grad=False) 
 
# 将待保存的神经网络定义在一个函数中 
def save(): 
  # 神经网络结构 
  net1 = torch.nn.Sequential( 
    torch.nn.Linear(1, 10), 
    torch.nn.ReLU(), 
    torch.nn.Linear(10, 1), 
    ) 
  optimizer = torch.optim.SGD(net1.parameters(), lr=0.5) 
  loss_function = torch.nn.MSELoss() 
 
  # 训练部分 
  for i in range(300): 
    prediction = net1(x) 
    loss = loss_function(prediction, y) 
    optimizer.zero_grad() 
    loss.backward() 
    optimizer.step() 
 
  # 绘图部分 
  plt.figure(1, figsize=(10, 3)) 
  plt.subplot(131) 
  plt.title('net1') 
  plt.scatter(x.data.numpy(), y.data.numpy()) 
  plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5) 
 
  # 保存神经网络 
  torch.save(net1, '7-net.pkl')           # 保存整个神经网络的结构和模型参数 
  torch.save(net1.state_dict(), '7-net_params.pkl') # 只保存神经网络的模型参数 
 
# 载入整个神经网络的结构及其模型参数 
def reload_net(): 
  net2 = torch.load('7-net.pkl') 
  prediction = net2(x) 
 
  plt.subplot(132) 
  plt.title('net2') 
  plt.scatter(x.data.numpy(), y.data.numpy()) 
  plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5) 
 
# 只载入神经网络的模型参数,神经网络的结构需要与保存的神经网络相同的结构 
def reload_params(): 
  # 首先搭建相同的神经网络结构 
  net3 = torch.nn.Sequential( 
    torch.nn.Linear(1, 10), 
    torch.nn.ReLU(), 
    torch.nn.Linear(10, 1), 
    ) 
 
  # 载入神经网络的模型参数 
  net3.load_state_dict(torch.load('7-net_params.pkl')) 
  prediction = net3(x) 
 
  plt.subplot(133) 
  plt.title('net3') 
  plt.scatter(x.data.numpy(), y.data.numpy()) 
  plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5) 
 
# 运行测试 
save() 
reload_net() 
reload_params()
登入後複製

實驗結果:

相關推薦:

PyTorch上實作卷積神經網路CNN的方法

#詳解PyTorch批訓練及最佳化器比較

Pytorch入門之mnist分類實例

#

以上是PyTorch快速建構神經網路及其保存擷取方法詳解的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:php.cn
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
作者最新文章
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板