您好,登錄后才能下訂單哦!
今天就跟大家聊聊有關如何在TensorFlow中使用tf.batch_matmul(),可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。
如果有兩個三階張量,size分別為
a.shape = [100, 3, 4] b.shape = [100, 4, 5] c = tf.batch_matmul(a, b)
則c.shape = [100, 3, 5] //將每一對 3x4 的矩陣與 4x5 的矩陣分別相乘。batch_size不變
100為張量的batch_size。剩下的兩個維度為數據的維度。
不過新版的tensorflow已經移除了上面的函數,使用時換為tf.matmul就可以了。與上面注釋的方式是同樣的。
附: 如果是更高維度。例如(a, b, m, n) 與(a, b, n, k)之間做matmul運算。則結果的維度為(a, b, m, k)。
我們知道,在tensorflow早期版本中有tf.batch_matmul()函數,可以實現多維tensor和低維tensor的直接相乘,這在使用過程中非常便捷。
但是最新版本的tensorflow現在只有tf.matmul()函數可以使用,不過只能實現同維度的tensor相乘, 下面的幾種方法可以實現batch matmul的可能。
例如: tensor A(batch_size,m,n), tensor B(n,k),實現batch matmul 使得A * B。
對tensor B 進行增維和擴展
A = tf.Variable(tf.random_normal(shape=(batch_size, 2, 3))) B = tf.Variable(tf.random_normal(shape=(3, 5))) B_exp = tf.tile(tf.expand_dims(B,0),[batch_size, 1, 1]) #先進行增維再擴展 C = tf.matmul(A, B_exp)
對tensor A 進行reshape操作,然后利用tf.matmul()
A = tf.Variable(tf.random_normal(shape=(batch_size, 2, 3))) B = tf.Variable(tf.random_normal(shape=(3, 5))) A = tf.reshape(A, [-1, 3]) C = tf.reshape(tf.matmul(A, B), [-1, 2, 5])
利用tf.scan() 對tensor按第0維進行展開的特性
A = tf.Variable(tf.random_normal(shape=(batch_size, 2, 3))) B = tf.Variable(tf.random_normal(shape=(3, 5))) initializer = tf.Variable(tf.random_normal(shape=(2,5))) C = tf.scan(lambda a,x: tf.matmul(x, B), A, initializer)
A = tf.Variable(tf.random_normal(shape=(batch_size, 2, 3))) B = tf.Variable(tf.random_normal(shape=(3, 5))) C = tf.einsum('ijk,kl->ijl',A,B)
看完上述內容,你們對如何在TensorFlow中使用tf.batch_matmul()有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。