歡迎來到誤差的世界!
在過去的數學課中,你可能大多時間都在尋找那個「完美」的答案。然而,在現實世界中——以及在進階數學 (Further Mathematics) 裡——許多問題都無法求得精確解。取而代之,我們使用數值方法 (Numerical Methods) 來尋找「足夠好」的答案。
本章的重點在於理解誤差 (Errors)。我們將學習如何衡量答案的偏差程度、探討誤差發生的原因,以及如何利用這些知識來優化我們的計算結果。如果起初覺得有些抽象,請不用擔心;一旦你看懂了其中的規律,這就像是當一名數字偵探一樣有趣!
1. 絕對誤差與相對誤差
在修正誤差之前,我們需要先知道如何測量它們。在數值方法中,我們區分真值 (Exact Value)(答案的實際數值)與近似值 (Approximate Value)(我們計算出的結果)。
關鍵定義:
設 \(x\) 為真值,\(X\) 為近似值。
- 絕對誤差 (Absolute Error): 這只是近似值與真值之間的差。
公式:\( \text{Absolute Error} = X - x \) - 相對誤差 (Relative Error): 這將誤差與原始數值的大小進行比較。它通常更有用,因為它能顯示錯誤的「顯著」程度。
公式:\( \text{Relative Error} = \frac{X - x}{x} \)
類比: 想像你在進行測量。
1. 如果你測量一支 10cm 的鉛筆,而誤差有 1cm,那問題就很大了!(高相對誤差)。
2. 如果你測量到月球的距離,而誤差有 1cm,根本沒人在意!(微小的相對誤差)。
即使兩種情況下的絕對誤差(1cm)相同,相對誤差才真正反映了問題的嚴重性。
重點速覽:
- 絕對誤差 = \(X - x\)
- 相對誤差 = \(\frac{\text{絕對誤差}}{\text{真值}}\)
注意:絕對誤差可以是負數或正數。有些教科書會使用大小(正值),但 MEI 課程大綱允許使用有符號的數值。
核心要點: 絕對誤差是「原始的」錯誤;相對誤差則告訴你,與總體數值相比,這個錯誤有多重要。
2. 數字的表示:捨入與截斷
電腦和計算機的精度有限。它們無法儲存具有無限位數的數字(例如 \(\pi\)),因此必須在某處將其截斷。通常有兩種方式:
捨入 (Rounding)
這是你最熟悉的方法。如果下一位數字是 5 或更大,則進位。
範例:7.86 捨入至小數點後第一位為 7.9。
截斷 (Chopping)
這就比較「殘酷」了。無論後面的數字是什麼,你直接將指定位數之後的所有數字刪除。
範例:7.86 截斷至小數點後第一位為 7.8。
你知道嗎? 電腦經常使用截斷,因為它比捨入的運算速度更快,儘管它平均會產生略大的誤差。
最大誤差邊界 (Maximum Error Bounds)
當我們進行捨入或截斷時,會產生最大可能誤差:
- 若捨入至小數點後第一位,最大絕對誤差為 0.05。
- 若截斷至小數點後第一位,最大絕對誤差為 0.1。
常見錯誤: 學生常忘記截斷產生的最大誤差比捨入更大。務必檢查題目要求的是哪一種!
核心要點: 截斷就像「向下取整」函數——它總是將數字向零或更小的方向推,而捨入則是將其移向最近的數值。
3. 誤差傳播 (Error Propagation)
誤差就像流言蜚語——它們會擴散並增長!當你使用近似數進行算術運算時,誤差會「傳播」到最終結果中。
和與差中的誤差
當你對數字進行加減時,絕對誤差會累加。
如果你有 200 個數字,每個數字都截斷至最近的整數,則每個數字的最大誤差為 0.9。
總和的最大誤差為 \(200 \times 0.9 = 180\)。
單個數字的平均誤差為 0.45,因此總和的預期誤差為 \(200 \times 0.45 = 90\)。
「危險區域」:相減兩個極為接近的數值
這是考試中最愛考的主題!如果你相減兩個非常接近的數字(例如 \(1.234567 - 1.234566\)),得到的結果會非常小。然而,原始數字中的誤差卻依然存在。由於結果變得如此之小,相對誤差會變得巨大。這可能導致整個計算完全失效。
核心要點: 如果可能,請避免相減兩個極為接近的數字。這會導致你的誤差在相對意義上「爆發」。
4. 收斂性與方法的階 (Convergence and Order of Method)
當我們使用迭代過程(如求根)時,我們想知道兩件事:1. 它是否會更接近答案(收斂性)? 2. 它達到答案的速度有多快(階)?
數列的收斂階
如果我們有一系列誤差 \( \epsilon_n \),則收斂階 \(k\) 是將一個誤差與下一個誤差聯繫起來的冪次:
\( \epsilon_{n+1} \approx C \times (\epsilon_n)^k \)
- 若 \(k=1\),則為一階收斂(例如不動點迭代)。
- 若 \(k=2\),則為二階收斂(例如牛頓-拉弗森法)。這比一階快得多!
方法的階(步長 \(h\))
對於使用步長 \(h\) 的方法(如數值微分),我們觀察當改變 \(h\) 時誤差如何變化:
\( \text{Error} \propto h^k \)
- 一階: 將 \(h\) 減半會使誤差減半。
- 二階: 將 \(h\) 減半會使誤差縮小為原來的 1/4 (\(2^2\))。
記憶小撇步: 「階」就是冪次 (\(k\))。冪次越高 = 誤差減少得越快!
核心要點: 牛頓-拉弗森法通常是二階的,這意味著正確小數位數的數量在每一步中大約會翻倍!
5. 優化解法 (外推法 Extrapolation)
如果我們知道連續近似值之間差值的比例,我們就可以「預測」誤差並將其消除。這稱為外推法 (Extrapolation)。
步驟流程:
- 使用不同的步長(例如 \(h\)、\(h/2\)、\(h/4\))計算近似值。
- 找出這些近似值之間的差。
- 計算這些差值的比例。
- 利用此比例來估計當誤差趨近於零時的「極限」。
範例: 如果你正在近似一個積分,且將步長 \(h\) 減半總是使結果之間的差異減少為原來的 1/4,你就可以利用此規律,透過外推至無窮小 (extrapolation to infinity) 跳躍到一個精確得多的答案。
重點速覽:
- 差值比例: 有助於確定方法的階。
- 外推法: 利用誤差規律來找到更好的估計值。
- 精度: 始終根據差值的一致性,在最終答案中證明你所使用的精度層級。
最後鼓勵: 誤差看起來可能很討厭,但它們和其他事物一樣,都遵循數學規則。一旦你掌握了這些公式,你就能精確判斷自己對數值答案的信任程度!