🎯要点
🎯亚光子光神经网络矩阵计算 | 🎯光学扇入计算向量点积 | 🎯表征测量确定不同光子数量下计算准确度 | 🎯训练全连接多层感知器基准测试光神经网络算法数字识别 | 🎯物理验证光学设备设置 | 🎯使用多像素光子计数器作为光子探测器和光学能耗测量 | 🎯光学检测像素调整条件 | 🎯数学矩阵计算准确度
📜光学和散射用例
🍪语言内容分比
🍇PyTorch爱因斯坦矩阵矢量
在数学中,尤其是数学物理和微分几何中线性代数的使用,爱因斯坦符号(也称为爱因斯坦求和约定或爱因斯坦求和符号)是一种符号约定,它意味着对公式中的一组索引项求和,从而实现简洁。作为数学的一部分,它是里奇演算的符号子集。然而,它经常用于不区分正切和余切空间的物理应用中。它是由阿尔伯特·爱因斯坦于 1916 年引入物理学的。
根据约定,当索引变量在一项中出现两次且未另行定义时,则意味着该项对所有索引值的求和。因此,索引的范围可以在集合 { 1 , 2 , 3 } \{1,2,3\} {1,2,3} 上,
y = ∑ i = 1 3 c i x i = c 1 x 1 + c 2 x 2 + c 3 x 3 y=\sum_{i=1}^3 c_i x^i=c_1 x^1+c_2 x^2+c_3 x^3 y=i=1∑3cixi=c1x1+c2x2+c3x3
简化为:
y = c i x i y=c_i x^i y=cixi
上面的索引不是指数,而是坐标、系数或基向量的索引。也就是说,在这种情况下, x 2 x^2 x2 应该被理解为 x x x 的第二个分量,而不是 x x x 的平方(这有时会导致歧义)。 x i x^i xi 中的上索引位置之所以如此,是因为索引在术语的上位置(上标)和下位置(下标)中出现一次。通常, ( x 1 x 2 x 3 ) \left(x^1 x^2 x^3\right) (x1x2x3) 相当于传统的 ( x y z ) (x y z) (xyz)。
代码示例
使用爱因斯坦符号和 einsum 函数,我们只需使用一个函数就可以计算向量和矩阵:torch.einsum(equation, *operands)
。
让我们看一个简短的例子:
torch.einsum(‘ik, kj->ij’, X, Y)
此处是矩阵乘法。 i i i和 j j j是所谓的自由索引,k是求和索引。后者可以定义为发生求和的索引。如果我们将矩阵乘法想象为嵌套循环, i i i 和 j j j 将是外部循环,k 循环将是求和循环:
转置:
import torchX = torch.rand((4, 5))
Y = torch.rand((5, 2))
Z = torch.empty((4, 2))for i in range(X.shape[0]):for j in range(Y.shape[1]):total = 0for k in range(X.shape[1]):total += X[i,k] * Y[k,j]Z[i,j] = total
其可能用于其他用途,但转置向量或矩阵似乎是最著名的用例。
求和:
import torchX = torch.rand((2, 3))a = torch.einsum('ij->', X)
torch.sum(X)print(a)
简单求和,我们不返回索引。输出是一个标量。或者,准确地说,是一个只有一个值的张量。
行和列求和:
import torchX = torch.rand((2, 3))a = torch.einsum('ij->i', X)
torch.sum(X, axis=1)print(a) b = torch.einsum('ij->j', X)
torch.sum(X, axis=0)print(b)
逐元素乘法:
import torchX = torch.rand((3, 2))
Y = torch.rand((3, 2))A = torch.einsum('ij, ij->ij', X, Y)
torch.mul(X, Y) # or X * Yprint(A)
点积:
import torchv = torch.rand((3))
c = torch.rand((3))a = torch.einsum('i, i->', v, c)
torch.dot(v, c)print(a)
外积:
import torchv = torch.rand((3))
t = torch.rand((3))A = torch.einsum('i, j->ij', v, t)
torch.outer(v, t)print(A)
矩阵向量乘法
import torchX = torch.rand((3, 3))
y = torch.rand((1, 3))A = torch.einsum('ij, kj->ik', X, y)
torch.mm(X, torch.transpose(y, 0, 1)) # or torch.mm(X, y.T)print(A)
矩阵矩阵乘法
import torchX = torch.arange(6).reshape(2, 3)
Y = torch.arange(12).reshape(3, 4)A = torch.einsum('ij, jk->ik', X, Y)
torch.mm(X, Y)print(A)
批量矩阵乘法
import torchX = torch.arange(24).reshape(2, 3, 4)
Y = torch.arange(40).reshape(2, 4, 5)A = torch.einsum('ijk, ikl->ijl', X, Y)
torch.bmm(X, Y)print(A)