您好,登錄后才能下訂單哦!
這篇文章主要介紹“pytorch中nn.RNN()怎么使用”,在日常操作中,相信很多人在pytorch中nn.RNN()怎么使用問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”pytorch中nn.RNN()怎么使用”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
input_size輸入特征的維度, 一般rnn中輸入的是詞向量,那么 input_size 就等于一個詞向量的維度
hidden_size隱藏層神經元個數,或者也叫輸出的維度(因為rnn輸出為各個時間步上的隱藏狀態)
num_layers網絡的層數
nonlinearity激活函數
bias是否使用偏置
batch_first輸入數據的形式,默認是 False,就是這樣形式,(seq(num_step), batch, input_dim),也就是將序列長度放在第一位,batch 放在第二位
dropout是否應用dropout, 默認不使用,如若使用將其設置成一個0-1的數字即可
birdirectional是否使用雙向的 rnn,默認是 False
注意某些參數的默認值在標題中已注明
input_shape = [時間步數, 批量大小, 特征維度] = [num_steps(seq_length), batch_size, input_dim]
在前向計算后會分別返回輸出和隱藏狀態h,其中輸出指的是隱藏層在各個時間步上計算并輸出的隱藏狀態,它們通常作為后續輸出層的輸?。需要強調的是,該“輸出”本身并不涉及輸出層計算,形狀為(時間步數, 批量大小, 隱藏單元個數);隱藏狀態指的是隱藏層在最后時間步的隱藏狀態:當隱藏層有多層時,每?層的隱藏狀態都會記錄在該變量中;對于像?短期記憶(LSTM),隱藏狀態是?個元組(h, c),即hidden state和cell state(此處普通rnn只有一個值)隱藏狀態h的形狀為(層數, 批量大小,隱藏單元個數)
rnn_layer = nn.RNN(input_size=vocab_size, hidden_size=num_hiddens, ) # 定義模型, 其中vocab_size = 1027, hidden_size = 256
num_steps = 35 batch_size = 2 state = None # 初始隱藏層狀態可以不定義 X = torch.rand(num_steps, batch_size, vocab_size) Y, state_new = rnn_layer(X, state) print(Y.shape, len(state_new), state_new.shape)
輸出
torch.Size([35, 2, 256]) 1 torch.Size([1, 2, 256])
具體計算過程
H t = i n p u t ∗ W x h + H t − 1 ∗ W h h + b i a s H_t = input * W_{xh} + H_{t-1} * W_{hh} + bias Ht=input∗Wxh+Ht−1∗Whh+bias[batch_size, input_dim] * [input_dim, num_hiddens] + [batch_size, num_hiddens] *[num_hiddens, num_hiddens] +bias
可以發現每個隱藏狀態形狀都是[batch_size, num_hiddens], 起始輸出也是一樣的
注意:上面為了方便假設num_step=1
到此,關于“pytorch中nn.RNN()怎么使用”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。