亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么在Python中實現softmax反向傳播

發布時間:2023-05-09 11:20:29 來源:億速云 閱讀:103 作者:iii 欄目:編程語言

今天小編給大家分享一下怎么在Python中實現softmax反向傳播的相關知識點,內容詳細,邏輯清晰,相信大部分人都還太了解這方面的知識,所以分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后有所收獲,下面我們一起來了解一下吧。

反向傳播求導

可以看到,softmax 計算了多個神經元的輸入,在反向傳播求導時,需要考慮對不同神經元的參數求導。

分兩種情況考慮:

  • 當求導的參數位于分子時

  • 當求導的參數位于分母時

怎么在Python中實現softmax反向傳播

當求導的參數位于分子時:

怎么在Python中實現softmax反向傳播

當求導的參數位于分母時(ez2 or ez3這兩個是對稱的,求導結果是一樣的):

怎么在Python中實現softmax反向傳播

怎么在Python中實現softmax反向傳播

代碼

import torch
import math

def my_softmax(features):
    _sum = 0
    for i in features:
        _sum += math.e ** i
    return torch.Tensor([ math.e ** i / _sum for i in features ])

def my_softmax_grad(outputs):    
    n = len(outputs)
    grad = []
    for i in range(n):
        temp = []
        for j in range(n):
            if i == j:
                temp.append(outputs[i] * (1- outputs[i]))
            else:
                temp.append(-outputs[j] * outputs[i])
        grad.append(torch.Tensor(temp))
    return grad

if __name__ == '__main__':

    features = torch.randn(10)
    features.requires_grad_()

    torch_softmax = torch.nn.functional.softmax
    p1 = torch_softmax(features,dim=0)
    p2 = my_softmax(features)
    print(torch.allclose(p1,p2))
    
    n = len(p1)
    p2_grad = my_softmax_grad(p2)
    for i in range(n):
        p1_grad = torch.autograd.grad(p1[i],features, retain_graph=True)
        print(torch.allclose(p1_grad[0], p2_grad[i]))

以上就是“怎么在Python中實現softmax反向傳播”這篇文章的所有內容,感謝各位的閱讀!相信大家閱讀完這篇文章都有很大的收獲,小編每天都會為大家更新不同的知識,如果還想學習更多的知識,請關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

灵山县| 海盐县| 宜兴市| 武强县| 揭阳市| 牟定县| 鸡西市| 明溪县| 太原市| 郑州市| 博乐市| 常宁市| 满洲里市| 三穗县| 庆安县| 洱源县| 棋牌| 乳山市| 普安县| 库尔勒市| 内黄县| 沅江市| 黔江区| 射洪县| 曲靖市| 湘阴县| 鸡西市| 乌拉特前旗| 丽江市| 青铜峡市| 丘北县| 英山县| 金山区| 友谊县| 山丹县| 汉川市| 扬州市| 佛坪县| 虎林市| 呈贡县| 河津市|