标量

标量由只有一个元素的张量表示。
在下面的代码中,我们实例化两个标量,并执行一些熟悉的算术运算,即加法、乘法、除法和指数。

import torch

x = torch.tensor(3.0)                                                  #定义两个标量,分别为3和4
y = torch.tensor(4.0)

x+y, x-y, x*y, x/y, x**y
(tensor(7.), tensor(-1.), tensor(12.), tensor(0.7500), tensor(81.))
向量

我们通过一维张量处理向量。一般来说,张量可以具有任意长度,取决于机器的内存限制。

在代码中,我们通过张量的索引来访问任一元素。

长度、维度、形状

向量的长度通常称为向量的维度(dimension)。与普通的Python数组一样,我们可以通过调用Python的内置len()函数来访问张量的长度。

len(x)                                                           #获取向量x的长度

当用张量表示一个向量(只有一个轴)时,我们也可以通过.shape属性访问向量的长度。

形状(shape)是一个元素组,列出了张量沿每个轴的长度(维数)。 对于只有一个轴的张量,形状只有一个元素。

x.shape                                                         #获取向量x的形状,即张量x的维度

        向量或轴的维度被用来表示向量或轴的长度,即向量或轴的元素数量

        然而,张量的维度用来表示张量具有的轴数。 在这个意义上,张量的某个轴的维数就是这个轴的长度。

矩阵

当矩阵具有相同数量的行和列时,其形状将变为正方形;因此,它被称为方阵(square matrix)。当调用函数来实例化张量时, 我们可以通过指定两个分量m,n和来创建一个形状为** m×n**的矩阵。

当然,我们依旧可以索引矩阵中的任一元素。

当我们交换矩阵的行和列时,结果称为 矩阵的转置(transpose)

作为方阵的一种特殊类型,对称矩阵(symmetric matrix)。 A 等于其转置 A T。 这里我们定义一个对称矩阵 B

张量

例如,向量是一阶张量,矩阵是二阶张量。 张量用特殊字体的大写字母表示(例如, X 、 Y 和 Z ), 它们的索引机制(例如 X i j k )

X = torch.arange(24).reshape(2,3,4)                      #创建一个三维的张量,长宽高分别为2,3,4
X                                                        #输出X的张量
tensor([[[ 0,  1,  2,  3],
         [ 4,  5,  6,  7],
         [ 8,  9, 10, 11]],

        [[12, 13, 14, 15],
         [16, 17, 18, 19],
         [20, 21, 22, 23]]])
张量算法的基本性质

任何按元素的一元运算都不会改变其操作数的形状。同样,给定具有相同形状的任意两个张量,任何按元素二元运算的结果都将是相同形状的张量。 例如,将两个相同形状的矩阵相加,会在这两个矩阵上执行元素加法。

A = torch.arange(24, dtype=torch.float32).reshape(4,6)           #依旧创建一个二维的张量
B = torch.clone(A)                                               #复制一个和张量A相同的张量B
A, B, A+B                                                        #令它们进行相加,并输出
(tensor([[ 0.,  1.,  2.,  3.,  4.,  5.],
         [ 6.,  7.,  8.,  9., 10., 11.],
         [12., 13., 14., 15., 16., 17.],
         [18., 19., 20., 21., 22., 23.]]),
 tensor([[ 0.,  1.,  2.,  3.,  4.,  5.],
         [ 6.,  7.,  8.,  9., 10., 11.],
         [12., 13., 14., 15., 16., 17.],
         [18., 19., 20., 21., 22., 23.]]),
 tensor([[ 0.,  2.,  4.,  6.,  8., 10.],
         [12., 14., 16., 18., 20., 22.],
         [24., 26., 28., 30., 32., 34.],
         [36., 38., 40., 42., 44., 46.]]))

具体而言,两个矩阵的按元素乘法称为Hadamard积(Hadamard product)(数学符号 ⨀ )。 

A*A
tensor([[  0.,   1.,   4.,   9.,  16.,  25.],
        [ 36.,  49.,  64.,  81., 100., 121.],
        [144., 169., 196., 225., 256., 289.],
        [324., 361., 400., 441., 484., 529.]])

将张量乘以或加上一个标量不会改变张量的形状,其中张量的每个元素都将与标量相加或相乘。

a = 3                                                         #设置一个标量a=3
A+a, A-a, A*a, A/a, (A+a).shape                               #矩阵与标量的加减乘除运算
(tensor([[ 3.,  4.,  5.,  6.,  7.,  8.],
         [ 9., 10., 11., 12., 13., 14.],
         [15., 16., 17., 18., 19., 20.],
         [21., 22., 23., 24., 25., 26.]]),
 tensor([[-3., -2., -1.,  0.,  1.,  2.],
         [ 3.,  4.,  5.,  6.,  7.,  8.],
         [ 9., 10., 11., 12., 13., 14.],
         [15., 16., 17., 18., 19., 20.]]),
 tensor([[ 0.,  3.,  6.,  9., 12., 15.],
         [18., 21., 24., 27., 30., 33.],
         [36., 39., 42., 45., 48., 51.],
         [54., 57., 60., 63., 66., 69.]]),
 tensor([[0.0000, 0.3333, 0.6667, 1.0000, 1.3333, 1.6667],
         [2.0000, 2.3333, 2.6667, 3.0000, 3.3333, 3.6667],
         [4.0000, 4.3333, 4.6667, 5.0000, 5.3333, 5.6667],
         [6.0000, 6.3333, 6.6667, 7.0000, 7.3333, 7.6667]]),
 torch.Size([4, 6]))
降维

我们可以对任意张量进行的一个有用的操作是计算其元素的和。 在数学表示法中,我们使用符号 ∑ \sum ∑表示求和。

x = torch.arange(4, dtype=torch.float32)
x, x.sum()                                                     #sum()函数负责求和
(tensor([0., 1., 2., 3.]), tensor(6.))

我们可以表示任意形状张量的元素和。 例如,矩阵中元素的和可以先对各列求和后再对各行求和。

A, A.shape, A.sum()                                            #sum()函数求二维张量的和
(tensor([[ 0.,  1.,  2.,  3.,  4.,  5.],
         [ 6.,  7.,  8.,  9., 10., 11.],
         [12., 13., 14., 15., 16., 17.],
         [18., 19., 20., 21., 22., 23.]]),
 torch.Size([4, 6]),
 tensor(276.))

 

 我们可以指定张量沿哪一个轴来通过求和降低维度。以矩阵为例,为了通过求和所有行的元素(这里指把所有的行加起来到第一行)来降维(轴0),我们可以在调用函数时指定axis=0

由于输入矩阵沿0轴降维以生成输出向量,因此输入轴0的维数在输出形状中消失。

(指定axis=1将通过汇总所有列(这里指把所有的列加起来到第一列)的元素降维(轴1)。因此,输入轴1的维数在输出形状中消失。)

A.sum(axis=0), A.sum(axis=0).shape             #对所有的列(特征)求和
(tensor([36., 40., 44., 48., 52., 56.]), torch.Size([6]))
A.sum(axis=1), A.sum(axis=1).shape               #对所有的行(样本内的数据)求和
(tensor([ 15.,  51.,  87., 123.]), torch.Size([4]))

 

 

沿着行和列对矩阵求和,等价于对矩阵的所有元素进行求和。

A.sum(axis=[0,1]),A.sum(axis=[0,1]).shape               #对矩阵的所有元素进行求和
(tensor(276.), torch.Size([]))

一个与求和相关的量是平均值(mean或average)。 我们通过将总和除以元素总数来计算平均值。

A.mean(), A.sum()/A.numel()         #调用原始的均值方法,或先求和再除总数,军输出平均值

同样,计算平均值的函数也可以沿指定轴降低张量的维度。

A.mean(axis=0), A.sum(axis=0)/A.shape[0]          #直接求每一列的平均值,或先求每列的和再除行数,输出均值
(tensor([ 9., 10., 11., 12., 13., 14.]),
 tensor([ 9., 10., 11., 12., 13., 14.]))
非降维求和

有时在调用函数来计算总和或均值时保持轴数不变会很有用。

A.sum(axis=1, keepdims=True), A.sum(axis=1, keepdims=True).shape     #对每行求和,但要保持维度不变
(tensor([[ 15.],
         [ 51.],
         [ 87.],
         [123.]]),
 torch.Size([4, 1]))
A.sum(axis=0, keepdims=True), A.sum(axis=0, keepdims=True).shape      #对每列求和,但要保持维度不变
(tensor([[36., 40., 44., 48., 52., 56.]]), torch.Size([1, 6]))

例如,由于sum_A在对每行进行求和后仍保持两个轴,我们可以通过广播(会将自动复制缺少的列数或行数保持矩阵相等后再运算)将A除以sum_A。

A/A.sum(axis=1, keepdims=True)
tensor([[0.0000, 0.0667, 0.1333, 0.2000, 0.2667, 0.3333],
        [0.1176, 0.1373, 0.1569, 0.1765, 0.1961, 0.2157],
        [0.1379, 0.1494, 0.1609, 0.1724, 0.1839, 0.1954],
        [0.1463, 0.1545, 0.1626, 0.1707, 0.1789, 0.1870]])

如果我们想沿某个轴计算A元素的累积总和(注意矩阵会对某个轴进行累加求和), 比如axis=0(按行计算),我们可以调用cumsum函数。

A.cumsum(axis=0)             #对每列累加求和,生成的新矩阵的每一列是由原矩阵对应列从上到下的累积和构成的。
tensor([[ 0.,  1.,  2.,  3.,  4.,  5.],
        [ 6.,  8., 10., 12., 14., 16.],
        [18., 21., 24., 27., 30., 33.],
        [36., 40., 44., 48., 52., 56.]])
点积(Dot Production)

向量的一个基本操作就是点积,即两个向量的对应元素互相乘积然后求和

y = torch.ones(4, dtype=torch.float32)                                    #定义一个长度为4,元素均为1的向量
x,y,torch.dot(x,y)                                                        #输出x,y,及它们的点积结果torch.dot()
(tensor([0., 1., 2., 3.]), tensor([1., 1., 1., 1.]), tensor(6.))

注意,我们也可以通过执行按元素乘法,然后进行求和来表示两个向量的点积:

x*y, (x*y).sum()                          #先令向量元素乘积,再求和
(tensor([0., 1., 2., 3.]), tensor(6.))
矩阵-向量积

【现在我们知道如何计算点积,我们可以开始理解矩阵-向量积(matrix-vector product)。

其实矩阵-向量积就是我们线性代数中所学的矩阵与向量的乘法。】

在代码中使用张量表示矩阵-向量积,我们使用与点积相同的mv函数。 当我们为矩阵A和向量x调用torch.mv(A, x)时,会执行矩阵-向量积。 注意,A的列维数(沿轴1的长度)必须与x的维数(其长度)相同。

B = A.T                                           #令矩阵B为矩阵A的转置
B, x, B.shape, x.shape, torch.mv(B, x)            #矩阵B与向量x作乘积,最后得到一个(6*1)的一维向量
(tensor([[ 0.,  6., 12., 18.],
         [ 1.,  7., 13., 19.],
         [ 2.,  8., 14., 20.],
         [ 3.,  9., 15., 21.],
         [ 4., 10., 16., 22.],
         [ 5., 11., 17., 23.]]),
 tensor([0., 1., 2., 3.]),
 torch.Size([6, 4]),
 torch.Size([4]),
 tensor([ 84.,  90.,  96., 102., 108., 114.]))

矩阵-矩阵乘法

我们可以将矩阵-矩阵乘法看作是简单地执行m次矩阵-向量积,并将结果拼接在一起,形成一个 m × n 矩阵。在下面的代码中,我们在 A 和 B 上执行矩阵乘法。 这里的A是一个5行4列的矩阵,B是一个4行3列的矩阵。 两者相乘后,我们得到了一个5行3列的矩阵。

注意,A的列维数(沿轴1的长度)必须与B的行维数(沿轴0的长度)相同。

A = torch.arange(20).reshape(5,4)       #创建两个矩阵A, B,分别为5行4列、4行3列
B = torch.arange(12).reshape(4,3)
A, B
(tensor([[ 0,  1,  2,  3],
         [ 4,  5,  6,  7],
         [ 8,  9, 10, 11],
         [12, 13, 14, 15],
         [16, 17, 18, 19]]),
 tensor([[ 0,  1,  2],
         [ 3,  4,  5],
         [ 6,  7,  8],
         [ 9, 10, 11]]))

 现在执行矩阵乘法(使用torch.mm()方法)

torch.mm(A,B), torch.mm(A,B).shape           #输出矩阵A、B乘积的结果,以及它们的结构
(tensor([[ 42,  48,  54],
         [114, 136, 158],
         [186, 224, 262],
         [258, 312, 366],
         [330, 400, 470]]),
 torch.Size([5, 3]))

矩阵-矩阵乘法可以简单地称为矩阵乘法,不应与”Hadamard积”混淆。

范数

线性代数中最有用的一些运算符是范数(norm)

博客摘录「 线性代数(预备知识)3」2024年4月16日-LMLPHP

在代码中,我们可以按如下方式计算向量的范数 L 2

u = torch.tensor([3.0, -4.0])                #定义一个向量u
torch.norm(u)                                #计算该向量的范数
tensor(5.)

博客摘录「 线性代数(预备知识)3」2024年4月16日-LMLPHP 

与范数 L 2 相比,范数 L 1 受异常值的影响较小。 为了计算范数 L 1,我们将绝对值函数和按元素求和组合起来。

u.abs().sum()                   #先求绝对值,再求和
tensor(7.)

博客摘录「 线性代数(预备知识)3」2024年4月16日-LMLPHP

A, torch.norm(A.float())              #输出矩阵A ,以及A的第二范式
(tensor([[ 0,  1,  2,  3],
         [ 4,  5,  6,  7],
         [ 8,  9, 10, 11],
         [12, 13, 14, 15],
         [16, 17, 18, 19]]),
 tensor(49.6991))

范数和目标

在深度学习中,我们经常试图解决优化问题:

最大化分配给观测数据的概率;
最小化预测和真实观测之间的距离。
用向量表示物品(如单词、产品或新闻文章),以便最小化相似项目之间的距离,最大化不同项目之间的距离。目标,或许是深度学习算法最重要的组成部分(除了数据),通常被表达为范数。

小结

通过练习,明白了以下的知识点:

标量、向量、矩阵和张量是线性代数中的基本数学对象。
向量泛化自标量,矩阵泛化自向量。
标量、向量、矩阵和张量分别具有零、一、二和任意数量的轴。
一个张量可以通过sum和mean沿指定的轴降低维度。
两个矩阵的按元素乘法被称为他们的Hadamard积。它与矩阵乘法不同。
在深度学习中,我们经常使用 L 1 范数,如 L 2 范数、范数和Frobenius范数。

04-22 07:55