AD

赞助支持|如果您觉得本站有帮助,欢迎赞助支持网站运营

立即支持 →
math

线性代数核心概念

机器学习必备的线性代数基础知识

#数学 #线性代数 #基础

线性代数核心概念

向量 (Vector)

向量是有大小和方向的量,在机器学习中表示特征。

表示方法:

二维向量:v = [x, y]
三维向量:v = [x, y, z]
n 维向量:v = [v₁, v₂, ..., vₙ]

向量运算:

# 加法
u + v = [u₁ + v₁, u₂ + v₂, ..., uₙ + vₙ]

数乘

αv = [αv₁, αv₂, …, αvₙ]

点积 (内积)

u · v = Σ uᵢvᵢ = |u||v|cos(θ)

范数 (长度)

||v|| = √(v₁² + v₂² + … + vₙ²)

矩阵 (Matrix)

矩阵是向量的推广,用于表示线性变换和数据集。

基本运算:

# 矩阵加法 (同维度)
(A + B)ᵢⱼ = Aᵢⱼ + Bᵢⱼ

矩阵乘法

(C = AB) → Cᵢⱼ = Σₖ AᵢₖBₖⱼ

转置

(Aᵀ)ᵢⱼ = Aⱼᵢ

逆矩阵 (方阵且可逆)

AA⁻¹ = A⁻¹A = I

特殊矩阵

类型定义示例
单位矩阵对角线为 1,其余为 0I = [[1,0],[0,1]]
对角矩阵非对角线元素为 0D = diag(d₁,d₂,…,dₙ)
对称矩阵A = Aᵀ协方差矩阵
正交矩阵QᵀQ = QQᵀ = I旋转矩阵

行列式 (Determinant)

行列式是方阵的标量值,表示线性变换的缩放因子。

二阶行列式:

|A| = |a  b|
      |c  d| = ad - bc

性质:

  • |AB| = |A||B|
  • |Aᵀ| = |A|
  • |A⁻¹| = 1/|A|
  • 若 |A| = 0,则 A 不可逆

特征值与特征向量

对于方阵 A,若存在非零向量 v 和标量 λ 满足:

Av = λv

则 λ 为特征值,v 为对应的特征向量

求解步骤:

  1. 解特征方程:|A - λI| = 0
  2. 对每个 λ,解 (A - λI)v = 0 得特征向量

应用:

  • PCA 主成分分析
  • 矩阵对角化
  • 稳定性分析

矩阵分解

特征分解:

A = PDP⁻¹

D 为特征值对角矩阵,P 为特征向量矩阵

奇异值分解 (SVD):

A = UΣVᵀ

U, V 为正交矩阵,Σ 为奇异值对角矩阵

应用:

  • 数据降维
  • 推荐系统
  • 图像压缩