Este documento define los conceptos de error, exactitud y precisión en métodos numéricos. Explica que los métodos numéricos dan sólo aproximaciones debido a limitaciones como la capacidad finita de los computadores. Define error verdadero, error relativo verdadero y error relativo aproximado. Además, explica cómo escoger un umbral de error para obtener una cantidad aproximada de cifras significativas.