亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Pytorch中model.eval()的作用是什么

發布時間:2023-02-07 09:53:28 來源:億速云 閱讀:173 作者:iii 欄目:開發技術

這篇文章主要介紹了Pytorch中model.eval()的作用是什么的相關知識,內容詳細易懂,操作簡單快捷,具有一定借鑒價值,相信大家閱讀完這篇Pytorch中model.eval()的作用是什么文章都會有所收獲,下面我們一起來看看吧。

    model.eval()的作用及分析

    • model.eval() 作用等同于 self.train(False)

    簡而言之,就是評估模式。而非訓練模式。

    在評估模式下,batchNorm層,dropout層等用于優化訓練而添加的網絡層會被關閉,從而使得評估時不會發生偏移。

    結論

    在對模型進行評估時,應該配合使用with torch.no_grad() 與 model.eval():

        loop:
            model.train()    # 切換至訓練模式
            train……
            model.eval()
            with torch.no_grad():
                Evaluation
        end loop

    Pytorch踩坑之model.eval()問題

    最近在寫代碼時遇到一個問題,原本訓練好的模型,加載進來進行inference準確率直接掉了5個點,這簡直不能忍啊~下意識地感知到我肯定又在哪里寫了bug了~~~于是開始到處排查,從model load到data load,最終在一個被我封裝好的module的犄角旮旯里找到了問題,于是順便就在這里總結一下,避免以后再犯。 

    對于訓練好的模型加載進來準確率和原先的不符,

    比較常見的有兩方面的原因

    • data

    • model.state_dict() 

    1) data

    數據方面,檢查前后兩次加載的data有沒有發生變化。首先檢查 transforms.Normalize 使用的均值和方差是否和訓練時相同;另外檢查在這個過程中數據是否經過了存儲形式的改變,這有可能會帶來數據精度的變化導致一定的信息丟失。比如我過用的其中一個數據集,原先將圖片存儲成向量形式,但其對應的是“png”格式的數據(后來在原始文件中發現了相應的描述。),而我進行了一次data-to-img操作,將向量轉換成了“jpg”形式,這時加載進來便造成了掉點。

    2)model.state_dict()

    第一方面造成的掉點一般不會太嚴重,第二方面造成的掉點就比較嚴重了,一旦模型的參數加載錯了,那就誤差大了。

    如果是參數沒有正確加載進來則比較容易發現,這時準確率非常低,幾乎等于瞎猜。

    而我這次遇到的情況是,準確率并不是特別低,只掉了幾個點,檢查了多次,均顯示模型參數已經成功加載了。后來仔細查看后發現在其中一次調用模型進行inference時,忘了寫 ‘model.eval()’,造成了模型的參數發生變化,再次調用則出現了掉點。于是又回顧了一下model.eval()和model.train()的具體作用。如下:

    model.train() 和 model.eval() 一般在模型訓練和評價的時候會加上這兩句,主要是針對由于model 在訓練時和評價時 Batch Normalization 和 Dropout 方法模式不同:

    • a) model.eval(),不啟用 BatchNormalization 和 Dropout。此時pytorch會自動把BN和DropOut固定住,不會取平均,而是用訓練好的值。不然的話,一旦test的batch_size過小,很容易就會因BN層導致模型performance損失較大;

    • b) model.train() :啟用 BatchNormalization 和 Dropout。 在模型測試階段使用model.train() 讓model變成訓練模式,此時 dropout和batch normalization的操作在訓練q起到防止網絡過擬合的問題。

    因此,在使用PyTorch進行訓練和測試時一定要記得把實例化的model指定train/eval。

    model.eval()   vs   torch.no_grad()

    雖然二者都是eval的時候使用,但其作用并不相同:

    model.eval() 負責改變batchnorm、dropout的工作方式,如在eval()模式下,dropout是不工作的。

    見下方代碼:

      import torch
      import torch.nn as nn
     
      drop = nn.Dropout()
      x = torch.ones(10)
      
      # Train mode   
      drop.train()
      print(drop(x)) # tensor([2., 2., 0., 2., 2., 2., 2., 0., 0., 2.])   
      
      # Eval mode   
      drop.eval()
      print(drop(x)) # tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])

    torch.no_grad() 負責關掉梯度計算,節省eval的時間。

    只進行inference時,model.eval()是必須使用的,否則會影響結果準確性。 而torch.no_grad()并不是強制的,只影響運行效率。

    關于“Pytorch中model.eval()的作用是什么”這篇文章的內容就介紹到這里,感謝各位的閱讀!相信大家對“Pytorch中model.eval()的作用是什么”知識都有一定的了解,大家如果還想學習更多知識,歡迎關注億速云行業資訊頻道。

    向AI問一下細節

    免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

    AI

    仪陇县| 图木舒克市| 云浮市| 巴楚县| 余干县| 凉城县| 巴马| 将乐县| 霍城县| 凤凰县| 汉阴县| 松溪县| 巍山| 台南市| 清远市| 阿瓦提县| 广平县| 金寨县| 平江县| 韶山市| 恩施市| 彭水| 东阳市| 晋江市| 宜君县| 仁怀市| 宁德市| 额济纳旗| 无锡市| 康马县| 松溪县| 杂多县| 德清县| 和田县| 富阳市| 佛山市| 同仁县| 沭阳县| 马鞍山市| 错那县| 甘泉县|