这篇文章主要为大家展示了“PyTorch如何实现对应点相乘、矩阵相乘”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“PyTorch如何实现对应点相乘、矩阵相乘”这篇文章吧。
一,对应点相乘,x.mul(y) ,即点乘操作,点乘不求和操作,又可以叫作Hadamard product;点乘再求和,即为卷积
data = [[1,2], [3,4], [5, 6]]
tensor = torch.FloatTensor(data)
tensor
Out[27]:
tensor([[ 1., 2.],
[ 3., 4.],
[ 5., 6.]])
tensor.mul(tensor)
Out[28]:
tensor([[ 1., 4.],
[ 9., 16.],
[ 25., 36.]])
二,矩阵相乘,x.mm(y) , 矩阵大小需满足: (i, n)x(n, j)
tensor
Out[31]:
tensor([[ 1., 2.],
[ 3., 4.],
[ 5., 6.]])
tensor.mm(tensor.t()) # t()是转置
Out[30]:
tensor([[ 5., 11., 17.],
[ 11., 25., 39.],
[ 17., 39., 61.]])
以上是“PyTorch如何实现对应点相乘、矩阵相乘”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注天达云行业资讯频道!