歡迎來到進階矩陣代數 (Further Matrix Algebra)!
在之前的學習中,你已經學會了矩陣的加法、乘法以及如何求反矩陣。你可以把那當作學習開車的過程,而這一章,我們要打開引擎蓋,深入了解它的運作原理!我們將探討特徵值 (Eigenvalues) 和特徵向量 (Eigenvectors),它們就像是矩陣的「DNA」,決定了矩陣在變換過程中的表現。如果剛開始聽起來有點深奧,別擔心——我們會一步一步把它拆解開來。
1. 特徵值與特徵向量
想像你有一個二維變換矩陣 \(A\)。通常,當你用 \(A\) 乘以一個向量時,該向量的長度和方向都會改變。然而,對於大多數矩陣而言,存在一些特殊的「魔法」方向,在這些方向上,向量只會改變其長度。
關鍵術語:
- 特徵向量 (Eigenvector, \(v\)): 一個非零向量,在變換後仍保持在同一條直線上(方向不變)。
- 特徵值 (Eigenvalue, \(\lambda\)): 該特徵向量被拉伸或壓縮的比例因子。
基本方程式為:\(Av = \lambda v\)
如何求特徵值(特徵方程式)
為了求出 \(2 \times 2\) 矩陣 \(A\) 的特徵值 (\(\lambda\)),我們使用特徵方程式 (characteristic equation):
\(\det(A - \lambda I) = 0\)
其中 \(I\) 是單位矩陣 \( \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} \)。
步驟:
- 從主對角線(左上至右下)的數字中減去 \(\lambda\)。
- 計算這個新矩陣的行列式 (determinant)。
- 將行列式設為零,解出關於 \(\lambda\) 的二次方程式。
例子: 若 \(A = \begin{pmatrix} 1 & 1 \\ 4 & 1 \end{pmatrix}\),其特徵方程式為:
\(\det \begin{pmatrix} 1-\lambda & 1 \\ 4 & 1-\lambda \end{pmatrix} = 0\)
\((1-\lambda)^2 - 4 = 0\)
解得 \(\lambda = 3\) 及 \(\lambda = -1\)。
如何求特徵向量
一旦你求出特徵值 (\(\lambda\)),將其代回方程式 \((A - \lambda I)v = 0\)。你需要尋找一個滿足條件的向量 \(v = \begin{pmatrix} x \\ y \end{pmatrix}\)。
小貼士: 你通常會得到兩個看起來不同但實質上成比例的方程式。只需為 \(x\) 選一個簡單的值(例如 1),然後算出對應的 \(y\) 即可。
單位化向量 (Normalised Vectors)
有時考試會要求求出單位化特徵向量 (normalised eigenvector)。這意味著該向量的長度(模長)必須為 1。
要將向量單位化,請除以其模長:\(\hat{v} = \frac{v}{|v|}\)。
快速回顧:重要情況
- 重複的特徵值: 有時二次方程式會給出相同的兩個值(例如 \(\lambda = 2, 2\))。
- 複數特徵值: 如果二次方程式沒有實數解,特徵值將是複數(例如 \(2 \pm 3i\))。這通常代表旋轉。
核心觀念: 特徵值告訴我們矩陣的「比例因子」,而特徵向量告訴我們那些「不發生旋轉」的特定方向。
2. 對角化 (Diagonalization)
將一個矩陣自乘 100 次 (\(A^{100}\)) 是場災難。然而,將對角矩陣 (diagonal matrix)(僅對角線上有數字的矩陣)進行乘方是非常簡單的——你只需要將對角線上的數字各自進行乘方即可!
目標: 我們希望找到一種方法,將 \(A\) 表示為對角矩陣 \(D\)。
公式:\(P^{-1}AP = D\)
- \(D\)(對角矩陣): 其主對角線上包含所有的特徵值。
- \(P\)(模態矩陣): 其列 (columns) 由對應的特徵向量組成。請務必確保 \(P\) 中列的順序與 \(D\) 中特徵值的順序相對應!
類比: 把 \(P\) 想成一位翻譯員。它將我們「雜亂」的矩陣 \(A\) 翻譯成一種「簡單」的語言 (\(D\)),讓我們可以輕鬆進行計算,最後再由 \(P^{-1}\) 翻譯回來。
對稱矩陣與正交對角化
如果一個矩陣是對稱的 (symmetric)(即沿對角線翻轉後矩陣不變),則會發生一件特別的事:它的特徵向量總是彼此垂直 (orthogonal) 的。
在這種情況下,如果你使用單位化**特徵向量來構建 \(P\),那麼 \(P\) 將成為一個正交矩陣 (orthogonal matrix)。這裡有一個超強捷徑:\(P^{-1} = P^T\)(反矩陣即為轉置矩陣!)。
常見錯誤:
在構建矩陣 \(P\) 時,學生經常會弄錯列的順序。如果 \(D\) 中的第一個特徵值是 \(\lambda_1\),那麼 \(P\) 的第一列必須是與 \(\lambda_1\) 相關聯的特徵向量。
核心觀念: 對角化簡化了矩陣,使我們能夠輕鬆計算高次冪或理解其結構。
3. 凱萊-哈密頓定理 (Cayley-Hamilton Theorem)
這個定理聽起來很厲害,但其實有一個非常簡單且酷的含義:「每個矩陣都滿足其自身的特徵方程式。」
如果矩陣 \(A\) 的特徵方程式是 \(\lambda^2 - 5\lambda + 6 = 0\),那麼根據定理:
\(A^2 - 5A + 6I = 0\)
注意:常數項 \(6\) 必須變為 \(6I\),因為你不能將一個單純的數字加到矩陣上!
用途:
- 求反矩陣 (\(A^{-1}\)): 將方程式中的每一項都乘以 \(A^{-1}\)。
\(A - 5I + 6A^{-1} = 0\)
然後重新整理求出 \(A^{-1} = \frac{1}{6}(5I - A)\)。這通常比標準方法快得多! - 求 \(A\) 的高次冪: 你可以重新整理方程式來求 \(A^2 = 5A - 6I\)。若要求 \(A^3\),兩邊同乘以 \(A\),並代入 \(A^2\) 的式子即可。
小知識: 此定理適用於任何大小的矩陣,但在 AS Level 課程中,你只需要專注於 \(2 \times 2\) 矩陣。
核心觀念: 凱萊-哈密頓定理將矩陣代數轉化為「普通」代數,使得求反矩陣和乘方變得輕而易舉。
總結清單
在開始練習題之前,請確保你已熟練掌握:
- 透過解 \(\det(A - \lambda I) = 0\) 求特徵值。
- 透過解 \((A - \lambda I)v = 0\) 求特徵向量。
- 將向量單位化,使其模長為 1。
- 為對角化設置 \(P\) 和 \(D\)。
- 對於對稱矩陣,使用 \(P^T\) 代替 \(P^{-1}\)。
- 將特徵方程式中的 \(\lambda\) 替換為 \(A\),運用凱萊-哈密頓定理。
如果剛開始覺得很難,別擔心——特徵值相對於 GCSE 或標準 A Level 數學是一個很大的跨越,但只要多練習特徵方程式,很快就會變成你的直覺!