亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

pytorch Variable與Tensor合并后requires_grad()默認與修改方法

發布時間:2022-02-25 15:56:11 來源:億速云 閱讀:352 作者:iii 欄目:開發技術

本篇內容介紹了“pytorch Variable與Tensor合并后requires_grad()默認與修改方法”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!

pytorch更新完后Variable與Tensor合并了。現在torch.Tensor()能像Variable一樣進行反向傳播的更新,返回值為Tensor,Variable自動創建tensor,且返回值為Tensor,(所以以后不需要再用Variable)。Tensor創建后,默認requires_grad=Flase,可以通過xxx.requires_grad_()將默認的Flase修改為True。來看看官方文檔是怎么介紹的吧。

下面附代碼及官方文檔代碼:

import torch
from torch.autograd import Variable #使用Variabl必須調用庫
lis=torch.range(1,6).reshape((-1,3))#創建1~6 形狀 
#行不指定(-1意為由計算機自己計算)列為3的floattensor矩陣

print(lis)
print(lis.requires_grad) #查看默認的requires_grad是否是Flase

lis.requires_grad_() #使用.requires_grad_()修改默認requires_grad為true
print(lis.requires_grad)

結果如下:

tensor([[1., 2., 3.],
[4., 5., 6.]])
False
True

創建一個Variable,Variable必須接收Tensor數據 不能直接寫為 a=Variable(range(6)).reshape((-1,3))

否則報錯 Variable data has to be a tensor, but got range

正確如下:

import torch
from torch.autograd import Variable
tensor=torch.FloatTensor(range(8)).reshape((-1,4))
my_ten=Variable(tensor)
print(my_ten)
print(my_ten.requires_grad)

my_ten.requires_grad_()
print(my_ten.requires_grad)

結果:

tensor([[0., 1., 2., 3.],
[4., 5., 6., 7.]])
False
True

由上面可以看出,Tensor完全可以取代Variable。

下面給出官方文檔:

# 默認創建requires_grad = False的Tensor  
x = torch . ones ( 1 ) # create a tensor with requires_grad=False (default)
x . requires_grad
# out: False

# 創建另一個Tensor,同樣requires_grad = False
y = torch . ones ( 1 ) # another tensor with requires_grad=False
# both inputs have requires_grad=False. so does the output
z = x + y
# 因為兩個Tensor x,y,requires_grad=False.都無法實現自動微分,
# 所以操作(operation)z=x+y后的z也是無法自動微分,requires_grad=False
z . requires_grad
# out: False

# then autograd won't track this computation. let's verify!
# 因而無法autograd,程序報錯
z . backward ( ) 
# out:程序報錯:RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn

# now create a tensor with requires_grad=True
w = torch . ones ( 1 , requires_grad = True ) 
w . requires_grad
# out: True

# add to the previous result that has require_grad=False
# 因為total的操作中輸入Tensor w的requires_grad=True,因而操作可以進行反向傳播和自動求導。
total = w + z
# the total sum now requires grad!
total . requires_grad
# out: True
# autograd can compute the gradients as well
total . backward ( ) 
w . grad
#out: tensor([ 1.])

# and no computation is wasted to compute gradients for x, y and z, which don't require grad
# 由于z,x,y的requires_grad=False,所以并沒有計算三者的梯度
z . grad == x . grad == y . grad == None 
# True
existing_tensor . requires_grad_ ( ) 
existing_tensor . requires_grad
# out:True

或者直接用Tensor創建時給定requires_grad=True

my_tensor = torch.zeros(3,4,requires_grad = True) 
my_tensor.requires_grad
# out: True
lis=torch.range(1,6,requires_grad=True).reshape((-1,3))
print(lis)
print(lis.requires_grad)
lis.requires_grad_()
print(lis.requires_grad)

結果

tensor([[1., 2., 3.],
[4., 5., 6.]], requires_grad=True)
True
True

補充:volatile 和 requires_grad在pytorch中的意思

Backward過程中排除子圖

pytorch的BP過程是由一個函數決定的,loss.backward(), 可以看到backward()函數里并沒有傳要求誰的梯度。那么我們可以大膽猜測,在BP的過程中,pytorch是將所有影響loss的Variable都求了一次梯度。

但是有時候,我們并不想求所有Variable的梯度。那就要考慮如何在Backward過程中排除子圖(ie.排除沒必要的梯度計算)。

如何BP過程中排除子圖? Variable的兩個參數(requires_grad和volatile)

requires_grad=True 要求梯度

requires_grad=False 不要求梯度

volatile=True相當于requires_grad=False。反之則反之。。。。。。。ok

注意:如果a是requires_grad=True,b是requires_grad=False。則c=a+b是requires_grad=True。同樣的道理應用于volatile

為什么要排除子圖

也許有人會問,梯度全部計算,不更新的話不就得了。

這樣就涉及了效率的問題了,計算很多沒用的梯度是浪費了很多資源的(時間,計算機內存)

“pytorch Variable與Tensor合并后requires_grad()默認與修改方法”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

盐亭县| 汪清县| 永康市| 宜丰县| 红原县| 镇康县| 永胜县| 府谷县| 彝良县| 万宁市| 东平县| 繁昌县| 淳化县| 江山市| 广汉市| 敖汉旗| 肇庆市| 牡丹江市| 改则县| 明溪县| 沙坪坝区| 威信县| 同仁县| 杭锦后旗| 岳池县| 于田县| 尚志市| 扎赉特旗| 鹰潭市| 光泽县| 宁陵县| 珠海市| 新津县| 济南市| 高邮市| 长治县| 博乐市| 化州市| 七台河市| 清河县| 孝昌县|