您好,登錄后才能下訂單哦!
小編給大家分享一下python中的Pytorch建模流程是什么,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
一般我們訓練神經網絡有以下步驟:
導入庫
設置訓練參數的初始值
導入數據集并制作數據集
定義神經網絡架構
定義訓練流程
訓練模型
以下,我就將上述步驟使用代碼進行注釋講解:
import torch from torch import nn from torch.nn import functional as F from torch import optim from torch.utils.data import DataLoader, DataLoader import torchvision import torchvision.transforms as transforms
# 學習率 lr = 0.15 # 優化算法參數 gamma = 0.8 # 每次小批次訓練個數 bs = 128 # 整體數據循環次數 epochs = 10
本次我們使用FashionMNIST
圖像數據集,每個圖像是一個28*28的像素數組,共有10個衣物類別,比如連衣裙、運動鞋、包等。
注:初次運行下載需要等待較長時間。
# 導入數據集 mnist = torchvision.datasets.FashionMNIST( root = './Datastes' , train = True , download = True , transform = transforms.ToTensor()) # 制作數據集 batchdata = DataLoader(mnist , batch_size = bs , shuffle = True , drop_last = False)
我們可以對數據進行檢查:
for x, y in batchdata: print(x.shape) print(y.shape) break # torch.Size([128, 1, 28, 28]) # torch.Size([128])
可以看到一個batch
中有128個樣本,每個樣本的維度是1*28*28。
之后我們確定模型的輸入維度與輸出維度:
# 輸入的維度 input_ = mnist.data[0].numel() # 784 # 輸出的維度 output_ = len(mnist.targets.unique()) # 10
先使用一個128個神經元的全連接層,然后用relu激活函數,再將其結果映射到標簽的維度,并使用softmax
進行激活。
# 定義神經網絡架構 class Model(nn.Module): def __init__(self, in_features, out_features): super().__init__() self.linear1 = nn.Linear(in_features, 128, bias = True) self.output = nn.Linear(128, out_features, bias = True) def forward(self, x): x = x.view(-1, 28*28) sigma1 = torch.relu(self.linear1(x)) sigma2 = F.log_softmax(self.output(sigma1), dim = -1) return sigma2
在實際應用中,我們一般會將訓練模型部分封裝成一個函數,而這個函數可以繼續細分為以下幾步:
定義損失函數與優化器
完成向前傳播
計算損失
反向傳播
梯度更新
梯度清零
在此六步核心操作的基礎上,我們通常還需要對模型的訓練進度、損失值與準確度進行監視。
注釋代碼如下:
# 封裝訓練模型的函數 def fit(net, batchdata, lr, gamma, epochs): # 參數:模型架構、數據、學習率、優化算法參數、遍歷數據次數 # 5.1 定義損失函數 criterion = nn.NLLLoss() # 5.1 定義優化算法 opt = optim.SGD(net.parameters(), lr = lr, momentum = gamma) # 監視進度:循環之前,一個樣本都沒有看過 samples = 0 # 監視準確度:循環之前,預測正確的個數為0 corrects = 0 # 全數據訓練幾次 for epoch in range(epochs): # 對每個batch進行訓練 for batch_idx, (x, y) in enumerate(batchdata): # 保險起見,將標簽轉為1維,與樣本對齊 y = y.view(x.shape[0]) # 5.2 正向傳播 sigma = net.forward(x) # 5.3 計算損失 loss = criterion(sigma, y) # 5.4 反向傳播 loss.backward() # 5.5 更新梯度 opt.step() # 5.6 梯度清零 opt.zero_grad() # 監視進度:每訓練一個batch,模型見過的數據就會增加x.shape[0] samples += x.shape[0] # 求解準確度:全部判斷正確的樣本量/已經看過的總樣本量 # 得到預測標簽 yhat = torch.max(sigma, -1)[1] # 將正確的加起來 corrects += torch.sum(yhat == y) # 每200個batch和最后結束時,打印模型的進度 if (batch_idx + 1) % 200 == 0 or batch_idx == (len(batchdata) - 1): # 監督模型進度 print("Epoch{}:[{}/{} {: .0f}%], Loss:{:.6f}, Accuracy:{:.6f}".format( epoch + 1 , samples , epochs*len(batchdata.dataset) , 100*samples/(epochs*len(batchdata.dataset)) , loss.data.item() , float(100.0*corrects/samples)))
# 設置隨機種子 torch.manual_seed(51) # 實例化模型 net = Model(input_, output_) # 訓練模型 fit(net, batchdata, lr, gamma, epochs) # Epoch2:[25600/600000 4%], Loss:0.524430, Accuracy:69.570312 # Epoch2:[51200/600000 9%], Loss:0.363422, Accuracy:74.984375 # ...... # Epoch20:[600000/600000 100%], Loss:0.284664, Accuracy:85.771835
現在我們已經用Pytorch
訓練了最基礎的神經網絡,并且可以查看其訓練成果。大家可以將代碼復制進行運行!
雖然沒有用到復雜的模型,但是我們在每次建模時的基本思想都是一致的
以上是“python中的Pytorch建模流程是什么”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。