人工智能基础之线性代数:标量、向量、矩阵、张量

1,标量(scalar)

一个单独的数,可以是自然数、整数、实数

2,向量(vector)

有序列的一列数,一般指纵向量,可以看成是只有一列的矩阵。

3,矩阵(matrix)

可以认为是二维数组。常用操作:

  1. 转置:行变列,列变行。其实就是对角线镜像
  2. 矩阵运算:加减和数乘是和自然数一样的,对应位置加减数乘即可,但是需要注意的就是矩阵与矩阵的乘法。矩阵A*矩阵B: A的列数必须与B的行数相同。
  3. 点积

两个相同维数的矩阵x,y x的转置*y就是矩阵x与矩阵y的点积(x.y)

单位矩阵:主对角线都是1,其余都是0的方阵(行数和列数相等)。

线性表示、线性相关(不全为0的系数)相乘最终结果可以是0,那么就说这组向量是线性相关的,那么这组向量中的任意一个都可以由其他向量线性表示

空间变换:

特征向量:(要理解特征向量与特征值的实际意义,需要先理解空间变换)



4,张量(tensor)

超过二维的,都认为是张量