文章目录

  • 1.Python的.sort()方法和sorted()比较
  • 1.1Python的.sort()方法
  • 1.2Python的sorted()方法
  • 2.Pytorch里addmm()和addmm_()
  • 3. torch.stack()


1.Python的.sort()方法和sorted()比较

1.1Python的.sort()方法

使用方式是:列表.sort(),作用是将原来的列表正序排序,所以它是对原来的列表进行的操作,不会产生一个新列表,例如:

import  random
numList=[]
print(numList)
for i in range(10):
    numList.append(random.randrange(1,10))# 不包括10
print("未排序的列表:",numList)
# numList.sort()执行过程是将列表拍完序后又赋值给了原列表
numList.sort()
print("排序后列表:",numList)
# 无法将numList.sort()赋值给一个新列表,以为它并不返回一个新列表
numList=numList.sort()
print("无法赋值给新列表的的结果:",numList)

输出结果为:

python torch中文手册 python里的torch_矩阵相乘

1.2Python的sorted()方法

sorted(列表),是Python内置函数,该函数对原列表不会产生影响,只是在原来列表的基础上,产生一个有序的新列表,可以复制一个列表名。

import  random
numList=[]
print(numList)
for i in range(10):
    numList.append(random.randrange(1,10))# 不包括10
print("未排序的列表:",numList)

sorted(numList)
print("sorted排序后的数组,不会对原列表有任何影响:",numList)
getList=sorted(numList)
print("sorted获得的新的列表:",getList)

结果为:

python torch中文手册 python里的torch_矩阵相乘_02

2.Pytorch里addmm()和addmm_()

这里参考的是

函数解释:在torch/_C/_VariableFunctions.py的有该定义,意义就是实现一下公式:

python torch中文手册 python里的torch_赋值_03


换句话说,就是需要传入5个参数,mat里的每个元素乘以beta,mat1和mat2进行矩阵乘法(左行乘右列)后再乘以alpha,最后将这2个结果加在一起。

def addmm(self, beta=1, mat, alpha=1, mat1, mat2, out=None): # real signature unknown; restored from __doc__        

Example::
        
            >>> M = torch.randn(2, 3)
            >>> mat1 = torch.randn(2, 3)
            >>> mat2 = torch.randn(3, 3)
            >>> torch.addmm(M, mat1, mat2)
            tensor([[-4.8716,  1.4671, -1.3746],
                    [ 0.7573, -3.9555, -2.8681]])

pass

首先介绍一下两矩阵相乘:

python torch中文手册 python里的torch_矩阵相乘_04


得到的结果为:

python torch中文手册 python里的torch_矩阵相乘_05

  1. 不加参数形式为:
torch.addmm(input, mat1, mat2) = inputs.addmm(mat1, mat2)

完成的公式为:

1 × inputs + 1 ×(inputs_t @ inputs_t)

  1. 另外加上一个参数beta的形式:
'''1 * inputs + 1 * (inputs_t @ inputs_t)'''
g = inputs.addmm(1, inputs_t, inputs_t)
'''2 * inputs + 1 * (inputs_t @ inputs_t)'''
g2 = inputs.addmm(2, inputs_t, inputs_t)

加一个参数,实际上是添加了beta这个参数

完成的公式为:

g = 1 × inputs + 1 ×(inputs_t @ inputs_t)

g2 = 2 × inputs + 1 ×(inputs_t @ inputs_t)

  1. 再加上一个参数了alpha的表示形式为:
'''h = 1 * inputs + 1 * (inputs_t @ inputs_t)'''
h = inputs.addmm(1, 1, inputs_t, inputs_t)
'''h12 = 1 * inputs + 2 * (inputs_t @ inputs_t)'''
h12 = inputs.addmm(1, 2, inputs_t, inputs_t)
'''h21 = 2 * inputs + 1 * (inputs_t @ inputs_t)'''
h21 = inputs.addmm(2, 1, inputs_t, inputs_t)

再加一个参数,实际上是添加了alpha这个参数

完成的公式为:

h = 1 × inputs + 1 ×(inputs_t @ inputs_t)

h12 = 1 × inputs + 2 ×(inputs_t @ inputs_t)

h21 = 2 × inputs + 1 ×(inputs_t @ inputs_t)

addmm_()的操作和addmm()函数功能相同,区别就是addmm_()有inplace的操作,也就是在原对象基础上进行修改,即把改变之后的变量再赋给原来的变量。例如:
inputs的值变成了改变之后的值,不用再去写 某个变量=addmm_() 了,因为inputs就是改变之后的变量!

3. torch.stack()

对于torch.stack()用法,d=torch.stack( (a,b,c) ,dim = 2) 首先定义三个矩阵

python torch中文手册 python里的torch_赋值_06


如果我想把这三个tensor的最后一个维度的元素相叠加,形成一个新的tensor

输入 d=torch.stack( (a,b,c) ,dim = 2)

然后看一下操作后的结果

n=torch.stack((a,b,c),dim = 0)
print('n',n)
m=torch.stack((a,b,c),dim = 1)
print('m',m)
d=torch.stack( (a,b,c) ,dim = 2)
print('d',d)

python torch中文手册 python里的torch_Python_07


python torch中文手册 python里的torch_赋值_08


python torch中文手册 python里的torch_赋值_09


从上面我们可以看到结果,由结果可知:

stack函数中 dim=2,也即第三个维度,即最终的生成结果位于第三个维度,而不是说原来的元素是第三个维度。

pytorch中维度的命名是从0开始的对于三维矩阵将最后一个维度还有另外一种写法,写dim=-1,不管你原来是啥,我就指定最后一个维度:

python torch中文手册 python里的torch_Python_10


也就是说无论是矩阵是几维的,dim=-1就是最后一维,dim=-2就是倒数第二维,

python torch中文手册 python里的torch_python torch中文手册_11