亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

pytorch多GPU并行運算的實現

發布時間:2021-06-02 18:04:34 來源:億速云 閱讀:284 作者:Leah 欄目:開發技術

這篇文章將為大家詳細講解有關pytorch多GPU并行運算的實現,文章內容質量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關知識有一定的了解。

Pytorch多GPU運行

設置可用GPU環境變量。例如,使用0號和1號GPU'

os.environ["CUDA_VISIBLE_DEVICES"] = '0,1'

設置模型參數放置到多個GPU上。在pytorch2.0之后的版本中,多GPU運行變得十分方便,先將模型的參數設置并行

if torch.cuda.device_count() > 1:
      print("Let's use", torch.cuda.device_count(), "GPUs!")
      model = nn.DataParallel(model)

將模型參數設置使用GPU運行

if torch.cuda.is_available():
      model.cuda()

踩坑記錄

在訓練中,需要使用驗證集/測試集對目前的準確率進行測試,驗證集/測試集的加載也會占用部分顯存,所以在訓練開始時,不要將所有顯存都幾乎占滿,稍微留一些顯存給訓練過程中的測試環節

pytorch并行后,假設batchsize設置為64,表示每張并行使用的GPU都使用batchsize=64來計算(單張卡使用時,使用batchsize=64比較合適時,多張卡并行時,batchsize仍為64比較合適,而不是64*并行卡數)。

關于pytorch多GPU并行運算的實現就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

长垣县| 宜黄县| 惠州市| 郑州市| 儋州市| 化州市| 高雄县| 思茅市| 甘肃省| 威信县| 南昌县| 西畴县| 松江区| 潜山县| 筠连县| 台北市| 江阴市| 合江县| 囊谦县| 台北县| 宁晋县| 图片| 德惠市| 抚州市| 新安县| 伊川县| 牡丹江市| 泗水县| 镇江市| 临沂市| 阿巴嘎旗| 南和县| 垣曲县| 盈江县| 会同县| 东乡县| 肃北| 荔波县| 宁陵县| 邯郸县| 马山县|