在Python中的这几个库、框架中的矩阵计算不同于线性代数中的矩阵计算。
这里不说概念,仅使用几个极其简单的例子进行广播机制的说明。

例如我们使用常见的numpy对两个维数相同的矩阵进行相乘操作。

import numpy as np

x = np.array([[2, 2, 3], [1, 2, 3]])
y = np.array([[1, 1, 3], [2, 2, 4]])
print(x * y)

得到结果:
[[ 2 2 9]
[ 2 4 12]]

可以看到 ,就是简单的对位相乘。

在维度不相同的情况下:

arr1 = np.array([[0, 0, 0],[1, 1, 1],[2, 2, 2], [3, 3, 3]])
arr2 = np.array([1, 2, 3])
arr_sum = arr1 + arr2
print(arr_sum)
得到结果:
[[1 2 3]
[2 3 4]
[3 4 5]
[4 5 6]]

arr1的shape 为 (4,3)

arr2的shape 为(3,)

可以简单看出来,只是将[1,2,3] 这个一维数组扩充了几次,然后和arr1进行相加。

numpy、pytorch、tensorflow 中的矩阵广播机制。---没有概念,三个简单的例子,理解广播机制_广播机制

第二种维度不同的情况:

arr1 = np.array([[0, 0, 0],[1, 1, 1],[2, 2, 2], [3, 3, 3]])
arr2 = np.array([[1],[2],[3],[4]])

arr_sum = arr1 + arr2
print(arr_sum)

得到结果:
[[1 1 1]
[3 3 3]
[5 5 5]
[7 7 7]]

arr1的shape 为(4,3)
arr2的shape 为(4,1)

也可以很简单的看出来,arr2进行了简单的扩充。然后和arr1进行相加。只是这种扩充方式和上面的第一个例子有所不同。

numpy、pytorch、tensorflow 中的矩阵广播机制。---没有概念,三个简单的例子,理解广播机制_tensorflow_02


对于上面两种扩充情况。

这里有广播机制的后缘维度等概念,实际上没必要理解或者记住这些,广播维度扩充可以很简单的用肉眼看出来,只需要知道他是怎么扩充的即可。

那些轴的维度不够就扩充那些轴,扩充的填充数字和已有维度的数字相同。