亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何在Python中使用RNN實現一個二進制加法

發布時間:2021-03-08 11:31:28 來源:億速云 閱讀:270 作者:Leah 欄目:開發技術

本篇文章給大家分享的是有關如何在Python中使用RNN實現一個二進制加法,小編覺得挺實用的,因此分享給大家學習,希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。

python是什么意思

Python是一種跨平臺的、具有解釋性、編譯性、互動性和面向對象的腳本語言,其最初的設計是用于編寫自動化腳本,隨著版本的不斷更新和新功能的添加,常用于用于開發獨立的項目和大型項目。

具體代碼

# 前向傳播
def sigmoid(in_x):
  output = 1 / (1 + np.exp(-in_x))
  return output
# 反向傳播
def sigmoid_output_to_derivative(output):
  return output * (1 - output)

定義一個字典,因為待會兒要進行十進制和二進制之間的轉換,我們用字典進行存儲他們之間的對應關系。

(在這里我們只選用八位二進制)

int2binary = {}
binary_dim = 8

largest_number = pow(2, binary_dim)
binary = np.unpackbits(
  np.array([range(largest_number)], dtype=np.uint8).T, axis=1)
for i in range(largest_number):
  int2binary[i] = binary[i]

再接著就是對我們的RNN進行初始化操作。

alpha = 0.1
input_dim = 2
hidden_dim = 16
output_dim = 1

接著是生成神經網絡各層的權重值以及反向傳播時對權值矩陣進行更新的存儲。

# 生成神經網絡各層的權重值(在0,1之間)
synapse_0 = 2 * np.random.random((input_dim, hidden_dim)) - 1
synapse_1 = 2 * np.random.random((hidden_dim, output_dim)) - 1
synapse_h = 2 * np.random.random((hidden_dim, hidden_dim)) - 1
# 反向傳播對權重值的矩陣進行更新
synapse_0_update = np.zeros_like(synapse_0)
synapse_1_update = np.zeros_like(synapse_1)
synapse_h_update = np.zeros_like(synapse_h)

RNN

我們進行10萬次的迭代訓練。

我們進行的是加法,所以需要將值找到。最大取八位,所以a, b, c都不能超過,因為a+b=c,所以a, b不能超過最大的一半。其中largest_number表示8位二進制數對應的最大的十進制數值。

# 最大取八位,所以a, b, c都不能超過,因為a+b=c,所以a, b不能超過最大的一半
a_int = np.random.randint(largest_number / 2)
a = int2binary[a_int]

b_int = np.random.randint(largest_number / 2) 
b = int2binary[b_int] 

c_int = a_int + b_int
c = int2binary[c_int]

我們定義一個d來存儲我們的預測值與實際值c進行比較,判斷網絡的能力。并且定義一個overallError來存儲error值,并將初值設為0。

 d = np.zeros_like(c)

 overallError = 0

最后我們在進行反向傳播的時候,會計算一個loss值,在訓練網絡的過程中,我們需要計算w1,w2分別對這個loss值的影響。

layer_2_deltas = list()
layer_1_values = list()
# 因為第一次迭代會用到l1的值,所以我們需要將列表用0來填充
layer_1_values.append(np.zeros(hidden_dim))
future_layer_1_delta = np.zeros(hidden_dim)

我們需要先進行前向傳播,再進行反向傳播。

在進行前向傳播的過程中,我們需要將兩個二進制傳入,從最后一位開始,一層一層地通過sigmoid函數,得到預測值。然后通過預測值與準確值之間的差值設為l2層的loss值。有了這個loss值,我們就可以算出剛剛定義的layer_2_deltas(l2 層的權重參數)

for position in range(binary_dim):
  X = np.array([[a[binary_dim - position - 1], b[binary_dim - position - 1]]])
  y = np.array([[c[binary_dim - position - 1]]]).T

  layer_1 = sigmoid(np.dot(X, synapse_0) + np.dot(layer_1_values[-1], synapse_h))

  layer_2 = sigmoid(np.dot(layer_1, synapse_1))

  layer_2_error = y - layer_2
  layer_2_deltas.append((layer_2_error) * sigmoid_output_to_derivative(layer_2))
  overallError += np.abs(layer_2_error[0])

  d[binary_dim - position - 1] = np.round(layer_2[0][0])

  layer_1_values.append(copy.deepcopy(layer_1))

然后進行反向傳播,也就是從最高位往后走。(具體的解釋放在代碼的注釋中了)

for position in range(binary_dim):
  X = np.array([[a[position], b[position]]])
  # 從參數列表中反向依次取值
  layer_1 = layer_1_values[-position - 1]
  # 因為要進行反向傳播,所以還需要取到l1層的前一位的value
  prev_layer_1 = layer_1_values[-position - 2]

 # l2也是如此,delta列表中反向依次取值
  layer_2_delta = layer_2_deltas[-position - 1]
  # 通過公式進行計算l1的delta值
  layer_1_delta = (future_layer_1_delta.dot(synapse_h.T) + layer_2_delta.dot(synapse_1.T)) * sigmoid_output_to_derivative(layer_1)

 # 然后分別對w0, w1和wh進行更新
  synapse_1_update += np.atleast_2d(layer_1).T.dot(layer_2_delta)
  synapse_h_update += np.atleast_2d(prev_layer_1).T.dot(layer_1_delta)
  synapse_0_update += X.T.dot(layer_1_delta)

  future_layer_1_delta = layer_1_delta

然后再前向傳播和反向傳播結束之后,引入α \alphaα值進行參數的更新,并將updata重新置為0,以方便下一次循環使用。

synapse_0 += synapse_0_update * alpha
synapse_1 += synapse_1_update * alpha
synapse_h += synapse_h_update * alpha

synapse_0_update *= 0
synapse_1_update *= 0
synapse_h_update *= 0

最后就是打印訓練結果了,因為訓練次數過多,所以這邊設計每訓練1萬次打印一次結果。

  if j % 10000 == 0:
    print(str(j) + "/100000 :The error is:" + str(overallError))

運行結果
0/100000 :The error is:[3.45638663]
10000/100000 :The error is:[0.3231264]
20000/100000 :The error is:[0.27153112]
30000/100000 :The error is:[0.1603061]
40000/100000 :The error is:[0.10004929]
50000/100000 :The error is:[0.11245508]
60000/100000 :The error is:[0.11951541]
70000/100000 :The error is:[0.07859761]
80000/100000 :The error is:[0.06742156]
90000/100000 :The error is:[0.08218885]
The end error is:[0.05344101]

最終代碼

import copy
import numpy as np

np.random.seed(0)

def sigmoid(in_x):
  output = 1 / (1 + np.exp(-in_x))
  return output

def sigmoid_output_to_derivative(output):
  return output * (1 - output)

int2binary = {}
binary_dim = 8

largest_number = pow(2, binary_dim)
binary = np.unpackbits(
  np.array([range(largest_number)], dtype=np.uint8).T, axis=1)
for i in range(largest_number):
  int2binary[i] = binary[i]

alpha = 0.1
input_dim = 2
hidden_dim = 16
output_dim = 1

# 生成神經網絡各層的權重值(在0,1之間)
synapse_0 = 2 * np.random.random((input_dim, hidden_dim)) - 1
synapse_1 = 2 * np.random.random((hidden_dim, output_dim)) - 1
synapse_h = 2 * np.random.random((hidden_dim, hidden_dim)) - 1
# 反向傳播對權重值的矩陣進行更新
synapse_0_update = np.zeros_like(synapse_0)
synapse_1_update = np.zeros_like(synapse_1)
synapse_h_update = np.zeros_like(synapse_h)

for j in range(100000):
  # 最大取八位,所以a, b, c都不能超過,因為a+b=c,所以a, b不能超過最大的一半
  a_int = np.random.randint(largest_number / 2) 
  a = int2binary[a_int] 

  b_int = np.random.randint(largest_number / 2) 
  b = int2binary[b_int] 

  c_int = a_int + b_int
  c = int2binary[c_int]

  d = np.zeros_like(c)

  overallError = 0

  layer_2_deltas = list()
  layer_1_values = list()
 # 因為第一次迭代會用到l1的值,所以我們需要將列表用0來填充
  layer_1_values.append(np.zeros(hidden_dim))
  future_layer_1_delta = np.zeros(hidden_dim)

  for position in range(binary_dim):
    X = np.array([[a[binary_dim - position - 1], b[binary_dim - position - 1]]])
    y = np.array([[c[binary_dim - position - 1]]]).T

    layer_1 = sigmoid(np.dot(X, synapse_0) + np.dot(layer_1_values[-1], synapse_h))

    layer_2 = sigmoid(np.dot(layer_1, synapse_1))

    layer_2_error = y - layer_2
    layer_2_deltas.append((layer_2_error) * sigmoid_output_to_derivative(layer_2))
    overallError += np.abs(layer_2_error[0])

    d[binary_dim - position - 1] = np.round(layer_2[0][0])

 layer_1_values.append(copy.deepcopy(layer_1))

  for position in range(binary_dim):
    X = np.array([[a[position], b[position]]])
    layer_1 = layer_1_values[-position - 1]
    prev_layer_1 = layer_1_values[-position - 2]

    layer_2_delta = layer_2_deltas[-position - 1]
    
    layer_1_delta = (future_layer_1_delta.dot(synapse_h.T) + layer_2_delta.dot(
      synapse_1.T)) * sigmoid_output_to_derivative(layer_1)

    synapse_1_update += np.atleast_2d(layer_1).T.dot(layer_2_delta)
    synapse_h_update += np.atleast_2d(prev_layer_1).T.dot(layer_1_delta)
    synapse_0_update += X.T.dot(layer_1_delta)

    future_layer_1_delta = layer_1_delta

  synapse_0 += synapse_0_update * alpha
  synapse_1 += synapse_1_update * alpha
  synapse_h += synapse_h_update * alpha

  synapse_0_update *= 0
  synapse_1_update *= 0
  synapse_h_update *= 0

  if j % 10000 == 0:
    print(str(j) + "/100000 :The error is:" + str(overallError))

print("The end error is:" + str(overallError))

以上就是如何在Python中使用RNN實現一個二進制加法,小編相信有部分知識點可能是我們日常工作會見到或用到的。希望你能通過這篇文章學到更多知識。更多詳情敬請關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

武山县| 金坛市| 嘉祥县| 彰化市| 杭州市| 龙泉市| 乐清市| 霞浦县| 蒙阴县| 黄平县| 遂平县| 龙井市| 松溪县| 阳高县| 手机| 湛江市| 彩票| 邓州市| 武山县| 安丘市| 西吉县| 旌德县| 镇平县| 长寿区| 花莲市| 建湖县| 娄底市| 轮台县| 兴隆县| 额济纳旗| 池州市| 嘉鱼县| 桂东县| 潼关县| 灵台县| 积石山| 彰化市| 乃东县| 香格里拉县| 宽甸| 隆子县|