矩陣代數進階簡介

歡迎來到進階數學中最具威力的章節之一!到目前為止,你已經學過矩陣如何進行圖形變換以及解方程。在本章中,我們將深入探索矩陣的「核心」,找出它的特徵值(Eigenvalues)特徵向量(Eigenvectors)。你可以把這些看作矩陣的「DNA」——它們揭示了矩陣拉伸或縮放空間的基本方式。

這個課題至關重要,從 Google 的搜尋演算法到工程師研究橋樑震動,無處不在。如果起初覺得概念抽象也別擔心,我們將會循序漸進地為你拆解!

1. 特徵值與特徵向量

想像你對一系列向量進行矩陣變換。大多數向量會偏離原本的路徑並發生旋轉。然而,對於每一個矩陣,總會有特殊的「固執」向量,它們會維持在原本的直線上——它們只會被拉長或縮短。這就是我們的特徵向量,而它們被拉伸的倍數就是特徵值(\(\lambda\))

先修檢測:單位矩陣

在開始之前,請記住單位矩陣(Identity Matrix,記作 \(I\))。對於一個 \(2 \times 2\) 的矩陣,\(I = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\)。將一個矩陣乘以 \(I\),就像將數字乘以 1 一樣,什麼也不會改變。我們利用 \(\lambda I\) 將純量 \(\lambda\) 轉化為矩陣,以便將其從矩陣 \(A\) 中減去。

特徵方程

要找出矩陣 \(A\) 的特徵值,我們需要解特徵方程(Characteristic Equation)
\( \det(A - \lambda I) = 0 \)

逐步過程:
1. 將 \(\lambda\) 從矩陣 \(A\) 的主對角線元素中減去。
2. 計算這個新矩陣的行列式(Determinant)。
3. 將所得的多項式設為零,並解出 \(\lambda\)。

範例:對於 \(2 \times 2\) 矩陣,這通常會得到一個二次方程;對於 \(3 \times 3\) 矩陣,則會得到一個三次方程。

尋找特徵向量

一旦你有了特徵值(\(\lambda\)),將每一個特徵值代回方程式中:
\( (A - \lambda I)\mathbf{v} = 0 \)
在此,\(\mathbf{v}\) 是特徵向量 \(\begin{pmatrix} x \\ y \end{pmatrix}\)。你會得到一組聯立方程。由於特徵向量代表的是一個方向,因此答案不只有一個——你所得向量的任何倍數也都是特徵向量!

重點複習:
特徵值(\(\lambda\)):拉伸的縮放比例。
特徵向量(\(\mathbf{v}\)):保持方向不變的向量。
正規化向量(Normalised Vector):長度為 1 的特徵向量。若要將 \(\begin{pmatrix} 3 \\ 4 \end{pmatrix}\) 正規化,請將其除以模長 \(\sqrt{3^2 + 4^2} = 5\),得到 \(\begin{pmatrix} 0.6 \\ 0.8 \end{pmatrix}\)。

複數與重複的特徵值

有時候,你的二次或三次方程可能會出現重根(Repeated Roots)(例如 \(\lambda = 2, 2, 5\))或複數根(Complex Roots)(例如 \(\lambda = 3 \pm 2i\))。
重複的特徵值:這有時會導致特徵向量的個數少於預期,但在本課程範圍內,你處理的多數情況仍是可以對角化的。
複數特徵值:這些通常代表涉及旋轉的變換。如果矩陣包含實數,複數特徵值總是成共軛對(Conjugate Pairs)出現。

核心觀念:特徵值透過解 \(\det(A - \lambda I) = 0\) 求得,而特徵向量則是與這些縮放比例相關的方向。

2. 對角化(Diagonalisation)

矩陣可能會很複雜。對角化是一種將矩陣表示為最簡形式的方法——即對角矩陣(Diagonal Matrix,記作 \(D\)),除了主對角線之外,其餘位置皆為零。

公式

如果矩陣 \(A\) 擁有足夠多的特徵向量來構成基底,我們可以寫成:
\( A = PDP^{-1} \) 或 \( D = P^{-1}AP \)

其中:
\(D\):包含特徵值在主對角線上的對角矩陣。
\(P\):模態矩陣(Modal Matrix),其每一列均為對應到 \(D\) 中特徵值的特徵向量

你知道嗎?對角化矩陣能讓求高次方變得非常簡單。例如,\(A^{10} = PD^{10}P^{-1}\)。由於 \(D\) 是對角矩陣,你只需要將對角線上的個別數字取 10 次方即可!這比將矩陣 \(A\) 自乘十次要快得多。

對稱矩陣與正交對角化

對稱矩陣(Symmetric Matrix)滿足 \(A = A^T\)(主對角線兩側如同鏡像)。它們非常特殊,因為:
1. 所有的特徵值必定為實數
2. 它們的特徵向量必定互相垂直(正交,Orthogonal)

當我們將這些正交的特徵向量正規化後,矩陣 \(P\) 就會變成正交矩陣(Orthogonal Matrix)。對於正交矩陣,其反矩陣等於其轉置矩陣:\(P^{-1} = P^T\)。
這簡化了我們的公式:\( D = P^T A P \)。

常見錯誤提醒:在建立矩陣 \(P\) 時,務必確保特徵向量的順序與矩陣 \(D\) 中特徵值的順序相匹配。如果 \(\lambda_1\) 是 \(D\) 中的第一個元素,那麼它對應的特徵向量必須是 \(P\) 中的第一列。

核心觀念:對角化利用特徵值與特徵向量簡化矩陣,使高次方等複雜運算變得輕鬆許多。

3. 凱萊-哈密頓定理(Cayley-Hamilton Theorem)

凱萊-哈密頓定理是一個優美且出人意料的規則。它指出:每一個方陣都滿足其自身的特徵方程。

這是什麼意思?

如果矩陣 \(A\) 的特徵方程是 \(\lambda^2 - 5\lambda + 6 = 0\),那麼該定理告訴我們:
\( A^2 - 5A + 6I = \mathbf{0} \)
(注意常數 6 如何變成了 \(6I\),因為我們是在處理矩陣運算,而 0 則變成了零矩陣 \(\mathbf{0}\))。

這有什麼用?

1. 求反矩陣 (\(A^{-1}\)):
不需要使用冗長的行列式方法,你可以重新排列凱萊-哈密頓方程式。
範例:從 \( A^2 - 5A + 6I = \mathbf{0} \) 開始,將所有項乘以 \(A^{-1}\):
\( A - 5I + 6A^{-1} = \mathbf{0} \)
\( 6A^{-1} = 5I - A \)
\( A^{-1} = \frac{1}{6}(5I - A) \)

2. 求高次方:
你可以將 \(A^3, A^4\) 等表示為 \(A\) 與 \(I\) 的線性組合。這比手動相乘快得多。

記憶小撇步:凱萊-哈密頓定理就像一個「矩陣捷徑」。如果你在解出特徵方程後遇到要求 \(A^{-1}\) 或 \(A^n\) 的題目,這通常就是題目預設的解題路徑!

核心觀念:凱萊-哈密頓定理允許我們在特徵方程中將 \(\lambda\) 換成 \(A\),從而高效地解出反矩陣與高次方。

本章總結

恭喜你!你已經掌握了進階矩陣代數的核心。以下是重點速查:
• 使用 \( \det(A - \lambda I) = 0 \) 求特徵值
• 使用 \( (A - \lambda I)\mathbf{v} = 0 \) 求特徵向量
• 使用 \( D = P^{-1}AP \) 進行對角化,簡化矩陣次方運算。
• 對於對稱矩陣,使用正交對角化(\(P^{-1} = P^T\))。
• 使用凱萊-哈密頓定理將特徵方程轉換為矩陣恆等式,以求反矩陣。

別擔心 \(3 \times 3\) 行列式的計算過程繁瑣——熟能生巧,記得時刻檢查正負號!