文章目录
- 1.Python的.sort()方法和sorted()比较
- 1.1Python的.sort()方法
- 1.2Python的sorted()方法
- 2.Pytorch里addmm()和addmm_()
- 3. torch.stack()
1.Python的.sort()方法和sorted()比较
1.1Python的.sort()方法
使用方式是:列表.sort(),作用是将原来的列表正序排序,所以它是对原来的列表进行的操作,不会产生一个新列表,例如:
import random
numList=[]
print(numList)
for i in range(10):
numList.append(random.randrange(1,10))# 不包括10
print("未排序的列表:",numList)
# numList.sort()执行过程是将列表拍完序后又赋值给了原列表
numList.sort()
print("排序后列表:",numList)
# 无法将numList.sort()赋值给一个新列表,以为它并不返回一个新列表
numList=numList.sort()
print("无法赋值给新列表的的结果:",numList)
输出结果为:
1.2Python的sorted()方法
sorted(列表),是Python内置函数,该函数对原列表不会产生影响,只是在原来列表的基础上,产生一个有序的新列表,可以复制一个列表名。
import random
numList=[]
print(numList)
for i in range(10):
numList.append(random.randrange(1,10))# 不包括10
print("未排序的列表:",numList)
sorted(numList)
print("sorted排序后的数组,不会对原列表有任何影响:",numList)
getList=sorted(numList)
print("sorted获得的新的列表:",getList)
结果为:
2.Pytorch里addmm()和addmm_()
这里参考的是
函数解释:在torch/_C/_VariableFunctions.py的有该定义,意义就是实现一下公式:
换句话说,就是需要传入5个参数,mat里的每个元素乘以beta,mat1和mat2进行矩阵乘法(左行乘右列)后再乘以alpha,最后将这2个结果加在一起。
def addmm(self, beta=1, mat, alpha=1, mat1, mat2, out=None): # real signature unknown; restored from __doc__
Example::
>>> M = torch.randn(2, 3)
>>> mat1 = torch.randn(2, 3)
>>> mat2 = torch.randn(3, 3)
>>> torch.addmm(M, mat1, mat2)
tensor([[-4.8716, 1.4671, -1.3746],
[ 0.7573, -3.9555, -2.8681]])
pass
首先介绍一下两矩阵相乘:
得到的结果为:
- 不加参数形式为:
torch.addmm(input, mat1, mat2) = inputs.addmm(mat1, mat2)
完成的公式为:
1 × inputs + 1 ×(inputs_t @ inputs_t)
- 另外加上一个参数beta的形式:
'''1 * inputs + 1 * (inputs_t @ inputs_t)'''
g = inputs.addmm(1, inputs_t, inputs_t)
'''2 * inputs + 1 * (inputs_t @ inputs_t)'''
g2 = inputs.addmm(2, inputs_t, inputs_t)
加一个参数,实际上是添加了beta这个参数
完成的公式为:
g = 1 × inputs + 1 ×(inputs_t @ inputs_t)
g2 = 2 × inputs + 1 ×(inputs_t @ inputs_t)
- 再加上一个参数了alpha的表示形式为:
'''h = 1 * inputs + 1 * (inputs_t @ inputs_t)'''
h = inputs.addmm(1, 1, inputs_t, inputs_t)
'''h12 = 1 * inputs + 2 * (inputs_t @ inputs_t)'''
h12 = inputs.addmm(1, 2, inputs_t, inputs_t)
'''h21 = 2 * inputs + 1 * (inputs_t @ inputs_t)'''
h21 = inputs.addmm(2, 1, inputs_t, inputs_t)
再加一个参数,实际上是添加了alpha这个参数
完成的公式为:
h = 1 × inputs + 1 ×(inputs_t @ inputs_t)
h12 = 1 × inputs + 2 ×(inputs_t @ inputs_t)
h21 = 2 × inputs + 1 ×(inputs_t @ inputs_t)
addmm_()的操作和addmm()函数功能相同,区别就是addmm_()有inplace的操作,也就是在原对象基础上进行修改,即把改变之后的变量再赋给原来的变量。例如:
inputs的值变成了改变之后的值,不用再去写 某个变量=addmm_() 了,因为inputs就是改变之后的变量!
3. torch.stack()
对于torch.stack()用法,d=torch.stack( (a,b,c) ,dim = 2)
首先定义三个矩阵
如果我想把这三个tensor的最后一个维度的元素相叠加,形成一个新的tensor
输入 d=torch.stack( (a,b,c) ,dim = 2)
然后看一下操作后的结果
n=torch.stack((a,b,c),dim = 0)
print('n',n)
m=torch.stack((a,b,c),dim = 1)
print('m',m)
d=torch.stack( (a,b,c) ,dim = 2)
print('d',d)
从上面我们可以看到结果,由结果可知:
stack函数中 dim=2,也即第三个维度,即最终的生成结果位于第三个维度,而不是说原来的元素是第三个维度。
pytorch中维度的命名是从0开始的对于三维矩阵将最后一个维度还有另外一种写法,写dim=-1,不管你原来是啥,我就指定最后一个维度:
也就是说无论是矩阵是几维的,dim=-1就是最后一维,dim=-2就是倒数第二维,