欢迎来到进阶矩阵代数 (Further Matrix Algebra)!
在之前的学习中,你已经学会了矩阵的加法、乘法以及如何求逆矩阵。你可以把那当作学习开车的过程,而这一章,我们要打开引擎盖,深入了解它的运作原理!我们将探讨特征值 (Eigenvalues) 和特征向量 (Eigenvectors),它们就像是矩阵的“DNA”,决定了矩阵在变换过程中的表现。如果刚开始听起来有点深奥,别担心——我们会一步一步把它拆解开来。
1. 特征值与特征向量
想象你有一个二维变换矩阵 \(A\)。通常,当你用 \(A\) 乘以一个向量时,该向量的长度和方向都会改变。然而,对于大多数矩阵而言,存在一些特殊的“魔法”方向,在这些方向上,向量只会改变其长度。
关键术语:
- 特征向量 (Eigenvector, \(v\)): 一个非零向量,在变换后仍保持在同一条直线上(方向不变)。
- 特征值 (Eigenvalue, \(\lambda\)): 该特征向量被拉伸或压缩的比例因子。
基本方程式为:\(Av = \lambda v\)
如何求特征值(特征方程式)
为了求出 \(2 \times 2\) 矩阵 \(A\) 的特征值 (\(\lambda\)),我们使用特征方程式 (characteristic equation):
\(\det(A - \lambda I) = 0\)
其中 \(I\) 是单位矩阵 \( \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} \)。
步骤:
- 从主对角线(左上至右下)的数字中减去 \(\lambda\)。
- 计算这个新矩阵的行列式 (determinant)。
- 将行列式设为零,解出关于 \(\lambda\) 的二次方程式。
例子: 若 \(A = \begin{pmatrix} 1 & 1 \\ 4 & 1 \end{pmatrix}\),其特征方程式为:
\(\det \begin{pmatrix} 1-\lambda & 1 \\ 4 & 1-\lambda \end{pmatrix} = 0\)
\((1-\lambda)^2 - 4 = 0\)
解得 \(\lambda = 3\) 及 \(\lambda = -1\)。
如何求特征向量
一旦你求出特征值 (\(\lambda\)),将其代回方程式 \((A - \lambda I)v = 0\)。你需要寻找一个满足条件的向量 \(v = \begin{pmatrix} x \\ y \end{pmatrix}\)。
小贴士: 你通常会得到两个看起来不同但实质上成比例的方程式。只需为 \(x\) 选一个简单的值(例如 1),然后算出对应的 \(y\) 即可。
单位化向量 (Normalised Vectors)
有时考试会要求求出单位化特征向量 (normalised eigenvector)。这意味着该向量的长度(模长)必须为 1。
要将向量单位化,请除以其模长:\(\hat{v} = \frac{v}{|v|}\)。
快速回顾:重要情况
- 重复的特征值: 有时二次方程式会给出相同的两个值(例如 \(\lambda = 2, 2\))。
- 复数特征值: 如果二次方程式没有实数解,特征值将是复数(例如 \(2 \pm 3i\))。这通常代表旋转。
核心观念: 特征值告诉我们矩阵的“比例因子”,而特征向量告诉我们那些“不发生旋转”的特定方向。
2. 对角化 (Diagonalization)
将一个矩阵自乘 100 次 (\(A^{100}\)) 是场灾难。然而,将对角矩阵 (diagonal matrix)(仅对角线上有数字的矩阵)进行乘方是非常简单的——你只需要将对角线上的数字各自进行乘方即可!
目标: 我们希望找到一种方法,将 \(A\) 表示为对角矩阵 \(D\)。
公式:\(P^{-1}AP = D\)
- \(D\)(对角矩阵): 其主对角线上包含所有的特征值。
- \(P\)(模态矩阵): 其列 (columns) 由对应的特征向量组成。请务必确保 \(P\) 中列的顺序与 \(D\) 中特征值的顺序相对应!
类比: 把 \(P\) 想成一位翻译员。它将我们“杂乱”的矩阵 \(A\) 翻译成一种“简单”的语言 (\(D\)),让我们可以轻松进行计算,最后再由 \(P^{-1}\) 翻译回来。
对称矩阵与正交对角化
如果一个矩阵是对称的 (symmetric)(即沿对角线翻转后矩阵不变),则会发生一件特别的事:它的特征向量总是彼此垂直 (orthogonal) 的。
在这种情况下,如果你使用单位化**特征向量来构建 \(P\),那么 \(P\) 将成为一个正交矩阵 (orthogonal matrix)。这里有一个超强捷径:\(P^{-1} = P^T\)(逆矩阵即为转置矩阵!)。
常见错误:
在构建矩阵 \(P\) 时,学生经常会弄错列的顺序。如果 \(D\) 中的第一个特征值是 \(\lambda_1\),那么 \(P\) 的第一列必须是与 \(\lambda_1\) 相关联的特征向量。
核心观念: 对角化简化了矩阵,使我们能够轻松计算高次幂或理解其结构。
3. 凯莱-哈密顿定理 (Cayley-Hamilton Theorem)
这个定理听起来很厉害,但其实有一个非常简单且酷的含义:“每个矩阵都满足其自身的特征方程式。”
如果矩阵 \(A\) 的特征方程式是 \(\lambda^2 - 5\lambda + 6 = 0\),那么根据定理:
\(A^2 - 5A + 6I = 0\)
注意:常数项 \(6\) 必须变为 \(6I\),因为你不能将一个单纯的数字加到矩阵上!
用途:
- 求逆矩阵 (\(A^{-1}\)): 将方程式中的每一项都乘以 \(A^{-1}\)。
\(A - 5I + 6A^{-1} = 0\)
然后重新整理求出 \(A^{-1} = \frac{1}{6}(5I - A)\)。这通常比标准方法快得多! - 求 \(A\) 的高次幂: 你可以重新整理方程式来求 \(A^2 = 5A - 6I\)。若要求 \(A^3\),两边同乘以 \(A\),并代入 \(A^2\) 的式子即可。
小知识: 此定理适用于任何大小的矩阵,但在 AS Level 课程中,你只需要专注于 \(2 \times 2\) 矩阵。
核心观念: 凯莱-哈密顿定理将矩阵代数转化为“普通”代数,使得求逆矩阵和乘方变得轻而易举。
总结清单
在开始练习题之前,请确保你已熟练掌握:
- 透过解 \(\det(A - \lambda I) = 0\) 求特征值。
- 透过解 \((A - \lambda I)v = 0\) 求特征向量。
- 将向量单位化,使其模长为 1。
- 为对角化设置 \(P\) 和 \(D\)。
- 对于对称矩阵,使用 \(P^T\) 代替 \(P^{-1}\)。
- 将特征方程式中的 \(\lambda\) 替换为 \(A\),运用凯莱-哈密顿定理。
如果刚开始觉得很难,别担心——特征值相对于 GCSE 或标准 A Level 数学是一个很大的跨越,但只要多练习特征方程式,很快就会变成你的直觉!