亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

pytorch中with?torch.no_grad()怎么使用

發布時間:2022-03-11 11:40:51 來源:億速云 閱讀:1232 作者:iii 欄目:開發技術

本篇內容主要講解“pytorch中with torch.no_grad()怎么使用”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“pytorch中with torch.no_grad()怎么使用”吧!

1.關于with

with是python中上下文管理器,簡單理解,當要進行固定的進入,返回操作時,可以將對應需要的操作,放在with所需要的語句中。比如文件的寫入(需要打開關閉文件)等。

以下為一個文件寫入使用with的例子。

        with open (filename,'w') as sh:    
            sh.write("#!/bin/bash\n")
            sh.write("#$ -N "+'IC'+altas+str(patientNumber)+altas+'\n')
            sh.write("#$ -o "+pathSh+altas+'log.log\n') 
            sh.write("#$ -e "+pathSh+altas+'err.log\n') 
            sh.write('source ~/.bashrc\n')          
            sh.write('. "/home/kjsun/anaconda3/etc/profile.d/conda.sh"\n')
            sh.write('conda activate python27\n')
            sh.write('echo "to python"\n')
            sh.write('echo "finish"\n')
            sh.close()

with后部分,可以將with后的語句運行,將其返回結果給到as后的變量(sh),之后的代碼塊對close進行操作。

2.關于with torch.no_grad():

在使用pytorch時,并不是所有的操作都需要進行計算圖的生成(計算過程的構建,以便梯度反向傳播等操作)。而對于tensor的計算操作,默認是要進行計算圖的構建的,在這種情況下,可以使用 with torch.no_grad():,強制之后的內容不進行計算圖構建。

以下分別為使用和不使用的情況:

(1)使用with torch.no_grad():

with torch.no_grad():
    for data in testloader:
        images, labels = data
        outputs = net(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()
print('Accuracy of the network on the 10000 test images: %d %%' % (
    100 * correct / total))        
print(outputs)

運行結果:

Accuracy of the network on the 10000 test images: 55 %
tensor([[-2.9141, -3.8210,  2.1426,  3.0883,  2.6363,  2.6878,  2.8766,  0.3396,
         -4.7505, -3.8502],
        [-1.4012, -4.5747,  1.8557,  3.8178,  1.1430,  3.9522, -0.4563,  1.2740,
         -3.7763, -3.3633],
        [ 1.3090,  0.1812,  0.4852,  0.1315,  0.5297, -0.3215, -2.0045,  1.0426,
         -3.2699, -0.5084],
        [-0.5357, -1.9851, -0.2835, -0.3110,  2.6453,  0.7452, -1.4148,  5.6919,
         -6.3235, -1.6220]])

此時的outputs沒有 屬性。

(2)不使用with torch.no_grad():

而對應的不使用的情況

for data in testloader:
    images, labels = data
    outputs = net(images)
    _, predicted = torch.max(outputs.data, 1)
    total += labels.size(0)
    correct += (predicted == labels).sum().item()
print('Accuracy of the network on the 10000 test images: %d %%' % (
    100 * correct / total))
print(outputs)

結果如下:

Accuracy of the network on the 10000 test images: 55 %
tensor([[-2.9141, -3.8210,  2.1426,  3.0883,  2.6363,  2.6878,  2.8766,  0.3396,
         -4.7505, -3.8502],
        [-1.4012, -4.5747,  1.8557,  3.8178,  1.1430,  3.9522, -0.4563,  1.2740,
         -3.7763, -3.3633],
        [ 1.3090,  0.1812,  0.4852,  0.1315,  0.5297, -0.3215, -2.0045,  1.0426,
         -3.2699, -0.5084],
        [-0.5357, -1.9851, -0.2835, -0.3110,  2.6453,  0.7452, -1.4148,  5.6919,
         -6.3235, -1.6220]], grad_fn=<AddmmBackward>)

可以看到,此時有grad_fn=<AddmmBackward>屬性,表示,計算的結果在一計算圖當中,可以進行梯度反傳等操作。但是,兩者計算的結果實際上是沒有區別的。

附:pytorch使用模型測試使用with torch.no_grad():

使用pytorch時,并不是所有的操作都需要進行計算圖的生成(計算過程的構建,以便梯度反向傳播等操作)。而對于tensor的計算操作,默認是要進行計算圖的構建的,在這種情況下,可以使用 with torch.no_grad():,強制之后的內容不進行計算圖構建。

with torch.no_grad():
    for data in testloader:
        images, labels = data
        outputs = net(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()
print('Accuracy of the network on the 10000 test images: %d %%' % (
    100 * correct / total))        
print(outputs)

運行結果:

Accuracy of the network on the 10000 test images: 55 %
tensor([[-2.9141, -3.8210,  2.1426,  3.0883,  2.6363,  2.6878,  2.8766,  0.3396,
         -4.7505, -3.8502],
        [-1.4012, -4.5747,  1.8557,  3.8178,  1.1430,  3.9522, -0.4563,  1.2740,
         -3.7763, -3.3633],
        [ 1.3090,  0.1812,  0.4852,  0.1315,  0.5297, -0.3215, -2.0045,  1.0426,
         -3.2699, -0.5084],
        [-0.5357, -1.9851, -0.2835, -0.3110,  2.6453,  0.7452, -1.4148,  5.6919,
         -6.3235, -1.6220]])

到此,相信大家對“pytorch中with torch.no_grad()怎么使用”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

永丰县| 贵港市| 高陵县| 乳源| 南投市| 清镇市| 信阳市| 阜城县| 永年县| 湘潭市| 铜山县| 丽江市| 南皮县| 洪湖市| 贡觉县| 三都| 定襄县| 邳州市| 长宁区| 绥化市| 阳朔县| 鄢陵县| 阳山县| 犍为县| 兴文县| 聊城市| 淮北市| 赤峰市| 融水| 达日县| 夹江县| 惠东县| 濉溪县| 棋牌| 八宿县| 繁昌县| 股票| 米脂县| 烟台市| 庆城县| 大连市|