总结
  • 文章来源:CSDN_LawsonAbs
  • 详细的代码可见我的Github
  • LawsonAbs的认知与思考,望各位读者审慎阅读。

这里给出一个简单的例子。
代码如下:
pytorch中logsumexp函数的用法_深度学习
这里的 logsumexp 计算的维度是 0,那么对于上述代码的tensor(其size 是 [2,3])就会生成一个[1,3] 的结果。 比如对于上述红框中的计算结果就是
l o g ( e − 100 + e − 1 e 12 ) log(e^{-100} + e^{-1e12}) log(e100+e1e12)
其中 − 1 e 12 -1e12 1e12 就是 1 0 12 10^{12} 1012。很明显上式结果值就是-100。所以这个 l o g ( ∑ i n e i ) log (\sum_{i}^{n} e^i) log(inei) 的函数结果值就是 m a x ( i ) max(i) max(i)