Este documento trata sobre los conceptos básicos de la teoría de errores. Explica que el error es una medida de la incertidumbre en una medición y que existen diferentes tipos de errores como el de truncamiento y redondeo que surgen al usar computadoras. También define el error absoluto como la diferencia entre un valor real y su aproximación, y el error relativo como la razón entre el error absoluto y el valor real. Por último, introduce conceptos como las cifras significativas y las reglas para redondear números.