歡迎來到 Extra Pure 矩陣的世界!

在 Core Pure 的學習中,你已經掌握了矩陣如何變換空間——包括翻轉、旋轉和拉伸圖形。在這個 Extra Pure 章節中,我們要深入探討矩陣的「核心機制」。你將學會如何找出那些特殊的方向,在這些方向上,變換只會單純地拉伸空間而不會改變其方向。這些特殊方向稱為特徵向量 (Eigenvectors)。我們還會發現計算矩陣高次冪的巧妙捷徑,並探索一個美妙的定理——凱萊-哈密頓定理 (Cayley-Hamilton Theorem)

如果起初覺得有些抽象,別擔心! 我們會運用大量的類比來幫助理解。你可以把這一章看作是學習矩陣的「DNA」。


1. 特徵值與特徵向量 (Eigenvalues and Eigenvectors)

當你用矩陣乘上一個向量時,該向量的長度方向通常都會改變。然而,對於大多數矩陣而言,存在一些特殊的向量,它們在變換後會改變長度,而方向保持不變(或剛好反向)。

它們是什麼?

  • 特徵向量 (Eigenvector):一個非零向量 \(\mathbf{v}\),當它與矩陣 \(\mathbf{M}\) 相乘時,結果為該向量自身的倍數。
  • 特徵值 (Eigenvalue):特徵向量被拉伸(或壓縮)的比例因子 \(\lambda\) (lambda)。

其基本方程式為:\( \mathbf{M}\mathbf{v} = \lambda\mathbf{v} \)

特徵方程式 (Characteristic Equation)

要找到這些特殊數值,我們使用特徵方程式
\(\det(\mathbf{M} - \lambda\mathbf{I}) = 0\)

其中 \(\mathbf{I}\) 是單位矩陣 (Identity Matrix)。解出這個方程式會得到一個關於 \(\lambda\) 的多項式。對於 \(2 \times 2\) 矩陣,這是一個二次方程式;對於 \(3 \times 3\) 矩陣,則是一個三次方程式。

逐步計算過程:

  1. 將矩陣 \(\mathbf{M}\) 的主對角線元素各減去 \(\lambda\)。
  2. 計算這個新矩陣的行列式 (determinant),並令其為零。
  3. 解出 \(\lambda\) 以求得特徵值
  4. 對於每個特徵值,將其代回 \((\mathbf{M} - \lambda\mathbf{I})\mathbf{v} = \mathbf{0}\) 以求出對應的特徵向量

小結:特徵向量就像一條「固定軌道」,變換過程會沿著這些軌道進行。而特徵值則告訴你該變換是在拉伸(\(\lambda > 1\))、壓縮(\(0 < \lambda < 1\))還是鏡像反射(\(\lambda\) 為負數)。


2. 對角化 (Diagonalisation)

對角矩陣(除了主對角線外其餘皆為零)是運算起來「最輕鬆」的矩陣。對角化就是將複雜的矩陣 \(\mathbf{M}\) 轉化為簡單的對角矩陣 \(\mathbf{D}\) 的過程。

運作原理

如果矩陣 \(\mathbf{M}\) 擁有相異的實數特徵值,我們可以將其寫成以下形式:
\( \mathbf{M} = \mathbf{P}\mathbf{D}\mathbf{P}^{-1} \)

  • \(\mathbf{D}\)對角矩陣,其主對角線上放置的是各個特徵值。
  • \(\mathbf{P}\)模態矩陣 (modal matrix),其每一列都是對應於 \(\mathbf{D}\) 中特徵值的特徵向量。

類比:想像你有一套用複雜語言編寫的說明書 (\(\mathbf{M}\))。對角化就像是把這些說明書翻譯成一種非常簡單的語言 (\(\mathbf{D}\)),完成計算後,再翻譯回原始形式 (\(\mathbf{P}\) 和 \(\mathbf{P}^{-1}\))。

關鍵要點:要進行對角化,你只需要找到特徵值及其對應的特徵向量。請務必確保 \(\mathbf{P}\) 中的特徵向量順序與 \(\mathbf{D}\) 中的特徵值順序一致!


3. 矩陣的冪 (Powers of Matrices)

徒手計算 \(\mathbf{M}^{10}\) 簡直是惡夢一場。但對角化為我們提供了一個極佳的捷徑。

由於 \( \mathbf{M} = \mathbf{P}\mathbf{D}\mathbf{P}^{-1} \),當我們將 \(\mathbf{M}\) 自乘時,中間的 \(\mathbf{P}^{-1}\) 和 \(\mathbf{P}\) 會相互抵消(因為 \(\mathbf{P}^{-1}\mathbf{P} = \mathbf{I}\))。

這就導出了漂亮的公式:
\( \mathbf{M}^n = \mathbf{P}\mathbf{D}^n\mathbf{P}^{-1} \)

因為 \(\mathbf{D}\) 是對角矩陣,\(\mathbf{D}^n\) 只需將對角線上的每個特徵值分別取 \(n\) 次方即可。是不是很簡單!

常見錯誤:別忘了矩陣乘法不具交換律。你必須嚴格遵守順序:先 \(\mathbf{P}\),再 \(\mathbf{D}^n\),最後 \(\mathbf{P}^{-1}\)。順序一旦搞錯,答案就全錯了!


4. 凱萊-哈密頓定理 (The Cayley-Hamilton Theorem)

這是矩陣代數中最令人驚嘆的定理之一。它指出:每個方陣都滿足其自身的特徵方程式。

如果你的特徵方程式是 \(\lambda^2 - 5\lambda + 6 = 0\),那麼矩陣 \(\mathbf{M}\) 將滿足:
\( \mathbf{M}^2 - 5\mathbf{M} + 6\mathbf{I} = \mathbf{0} \)

為什麼這很有用?

  • 求逆矩陣:你可以重新排列方程式來求出 \(\mathbf{M}^{-1}\),而無需使用傳統的行列式/伴隨矩陣法。只需將整個方程式乘上 \(\mathbf{M}^{-1}\) 即可。
  • 高次冪運算:你可以將 \(\mathbf{M}^3\) 等高次項表示為 \(\mathbf{M}\) 和 \(\mathbf{I}\) 的低次項組合。

你知道嗎?雖然看起來你只是在「把 \(\lambda\) 替換成 \(\mathbf{M}\)」,但千萬別忘記將常數項(如上例中的 \(6\))乘上單位矩陣 \(\mathbf{I}\),使其轉變為矩陣形式。


5. 幾何意義

特徵值和特徵向量為我們揭示了二維和三維變換的本質。

在二維變換中:

  • 特徵向量代表通過原點的一條不變線 (invariant line)。這條線上的任何點在變換後仍然位於這條線上。
  • 如果 \(\lambda = 1\),則該線上的每一個點都是不變點 (invariant point)(它們完全沒有移動)。

在三維變換中:

  • 如果一個 \(3 \times 3\) 矩陣代表平面鏡像反射,那麼該平面本身就是由 \(\lambda = 1\) 的特徵向量組成的。而該平面的法向量 (normal) 則是一個特徵值為 \(\lambda = -1\) 的特徵向量。
  • 如果一個矩陣代表繞軸旋轉,那麼旋轉軸就是特徵值為 \(\lambda = 1\) 的特徵向量(因為軸上的點不會移動)。

總結提示:當題目要求你找出「不變線」或「旋轉軸」時,實際上就是在要求你找出特徵向量!


重點複習箱

1. 特徵方程式: \(\det(\mathbf{M} - \lambda\mathbf{I}) = 0\)
2. 特徵向量條件: \(\mathbf{M}\mathbf{v} = \lambda\mathbf{v}\)
3. 對角化: \(\mathbf{M} = \mathbf{P}\mathbf{D}\mathbf{P}^{-1}\)
4. 矩陣的冪: \(\mathbf{M}^n = \mathbf{P}\mathbf{D}^n\mathbf{P}^{-1}\)
5. 凱萊-哈密頓定理: 矩陣滿足其自身的多項式方程式。