欢迎来到误差的世界!
在过去的数学课中,你可能大多时间都在寻找那个“完美”的答案。然而,在现实世界中——以及在进阶数学 (Further Mathematics) 里——许多问题都无法求得精确解。取而代之,我们使用数值方法 (Numerical Methods) 来寻找“足够好”的答案。
本章的重点在于理解误差 (Errors)。我们将学习如何衡量答案的偏差程度、探讨误差发生的原因,以及如何利用这些知识来优化我们的计算结果。如果起初觉得有些抽象,请不用担心;一旦你看懂了其中的规律,这就像是当一名数字侦探一样有趣!
1. 绝对误差与相对误差
在修正误差之前,我们需要先知道如何测量它们。在数值方法中,我们区分真值 (Exact Value)(答案的实际数值)与近似值 (Approximate Value)(我们计算出的结果)。
关键定义:
设 \(x\) 为真值,\(X\) 为近似值。
- 绝对误差 (Absolute Error): 这只是近似值与真值之间的差。
公式:\( \text{Absolute Error} = X - x \) - 相对误差 (Relative Error): 这将误差与原始数值的大小进行比较。它通常更有用,因为它能显示错误的“显著”程度。
公式:\( \text{Relative Error} = \frac{X - x}{x} \)
类比: 想象你在进行测量。
1. 如果你测量一支 10cm 的铅笔,而误差有 1cm,那问题就很大了!(高相对误差)。
2. 如果你测量到月球的距离,而误差有 1cm,根本没人在意!(微小的相对误差)。
即使两种情况下的绝对误差(1cm)相同,相对误差才真正反映了问题的严重性。
重点速览:
- 绝对误差 = \(X - x\)
- 相对误差 = \(\frac{\text{绝对误差}}{\text{真值}}\)
注意:绝对误差可以是负数或正数。有些教科书会使用大小(正值),但 MEI 课程大纲允许使用有符号的数值。
核心要点: 绝对误差是“原始的”错误;相对误差则告诉你,与总体数值相比,这个错误有多重要。
2. 数字的表示:舍入与截断
电脑和计算器的精度有限。它们无法存储具有无限位数的数字(例如 \(\pi\)),因此必须在某处将其截断。通常有两种方式:
舍入 (Rounding)
这是你最熟悉的方法。如果下一位数字是 5 或更大,则进位。
范例:7.86 舍入至小数点后第一位为 7.9。
截断 (Chopping)
这就比较“残酷”了。无论后面的数字是什么,你直接将指定位数之后的所有数字删除。
范例:7.86 截断至小数点后第一位为 7.8。
你知道吗? 电脑经常使用截断,因为它比舍入的运算速度更快,尽管它平均会产生略大的误差。
最大误差边界 (Maximum Error Bounds)
当我们进行舍入或截断时,会产生最大可能误差:
- 若舍入至小数点后第一位,最大绝对误差为 0.05。
- 若截断至小数点后第一位,最大绝对误差为 0.1。
常见错误: 学生常忘记截断产生的最大误差比舍入更大。务必检查题目要求的是哪一种!
核心要点: 截断就像“向下取整”函数——它总是将数字向零或更小的方向推,而舍入则是将其移向最近的数值。
3. 误差传播 (Error Propagation)
误差就像流言蜚语——它们会扩散并增长!当你使用近似数进行算术运算时,误差会“传播”到最终结果中。
和与差中的误差
当你对数字进行加减时,绝对误差会累加。
如果你有 200 个数字,每个数字都截断至最近的整数,则每个数字的最大误差为 0.9。
总和的最大误差为 \(200 \times 0.9 = 180\)。
单个数字的平均误差为 0.45,因此总和的预期误差为 \(200 \times 0.45 = 90\)。
“危险区域”:相减两个极为接近的数值
这是考试中最爱考的主题!如果你相减两个非常接近的数字(例如 \(1.234567 - 1.234566\)),得到的结果会非常小。然而,原始数字中的误差却依然存在。由于结果变得如此之小,相对误差会变得巨大。这可能导致整个计算完全失效。
核心要点: 如果可能,请避免相减两个极为接近的数字。这会导致你的误差在相对意义上“爆发”。
4. 收敛性与方法的阶 (Convergence and Order of Method)
当我们使用迭代过程(如求根)时,我们想知道两件事:1. 它是否会更接近答案(收敛性)? 2. 它达到答案的速度有多快(阶)?
数列的收敛阶
如果我们有一系列误差 \( \epsilon_n \),则收敛阶 \(k\) 是将一个误差与下一个误差联系起来的幂次:
\( \epsilon_{n+1} \approx C \times (\epsilon_n)^k \)
- 若 \(k=1\),则为一阶收敛(例如不动点迭代)。
- 若 \(k=2\),则为二阶收敛(例如牛顿-拉弗森法)。这比一阶快得多!
方法的阶(步长 \(h\))
对于使用步长 \(h\) 的方法(如数值微分),我们观察当改变 \(h\) 时误差如何变化:
\( \text{Error} \propto h^k \)
- 一阶: 将 \(h\) 减半会使误差减半。
- 二阶: 将 \(h\) 减半会使误差缩小为原来的 1/4 (\(2^2\))。
记忆小撇步: “阶”就是幂次 (\(k\))。幂次越高 = 误差减少得越快!
核心要点: 牛顿-拉弗森法通常是二阶的,这意味着正确小数位数的数量在每一步中大约会翻倍!
5. 优化解法 (外推法 Extrapolation)
如果我们知道连续近似值之间差值的比例,我们就可以“预测”误差并将其消除。这称为外推法 (Extrapolation)。
步骤流程:
- 使用不同的步长(例如 \(h\)、\(h/2\)、\(h/4\))计算近似值。
- 找出这些近似值之间的差。
- 计算这些差值的比例。
- 利用此比例来估计当误差趋近于零时的“极限”。
范例: 如果你正在近似一个积分,且将步长 \(h\) 减半总是使结果之间的差异减少为原来的 1/4,你就可以利用此规律,通过外推至无穷小 (extrapolation to infinity) 跳跃到一个精确得多的答案。
重点速览:
- 差值比例: 有助于确定方法的阶。
- 外推法: 利用误差规律来找到更好的估计值。
- 精度: 始终根据差值的一致性,在最终答案中证明你所使用的精度层级。
最后鼓励: 误差看起来可能很讨厌,但它们和其他事物一样,都遵循数学规则。一旦你掌握了这些公式,你就能精确判断自己对数值答案的信任程度!