El documento describe los conceptos de error en métodos numéricos. Explica que los errores son inherentes a los métodos numéricos debido a que sólo proveen aproximaciones. Describe cinco tipos principales de errores: error absoluto, error relativo, error porcentual, error de redondeo y error de truncamiento. También explica brevemente conceptos como error de overflow y underflow.
1. CONCEPTO, TIPOS Y CALCULO DE ERRORES
Las técnicas numéricas conducen a aproximaciones en sus resultados, ya que, éstas se usan como una alternativa de
solución cuando el problema por resolver no tiene un modelo matemático de solución o aun teniéndolo la respuesta
esperada no es encontrada con los métodos analíticos. Por consiguiente, los errores forman parte intrínseca de los métodos
numéricos, debido a que éstos son sólo una aproximación de la solución a un problema. En la práctica profesional, los
errores pueden resultar costosos y en algunas ocasiones catastróficos, debido a que por un error se puede perder hasta la
vida si una estructura o un dispositivo llegan a fallar. Las fuentes de errores pueden ser instrumentales, por imperfecciones
o desajustes del equipo usado en la toma de medidas; personales que se producen por la falta de habilidad del observador
para leer, con exactitud, los instrumentos y de cálculo.
Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades
matemáticas. El error numérico es una medida del ajuste o cálculo de una magnitud con respecto al valor real o teórico que
dicha magnitud tiene. Un aspecto importante de los errores numéricos es su estabilidad numérica. Dicha estabilidad se
refiere a como dentro de un algoritmo de análisis numérico el error de aproximación es propagado dentro del
propio algoritmo.
El concepto de error es de la misma naturaleza que el cálculo numérico. En todos los problemas es fundamental hacer un
seguimiento de los errores cometidos a fin de poder estimar el grado de aproximación de la solución que se obtiene.
TIPOS DE ERRORES
Los errores numéricos surgen del uso de aproximaciones para representar operaciones y cantidades matemáticas exactas.
1.- Error absoluto.
Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser positivo o negativo, según si la medida
es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida.
El error absoluto de una medida no nos informa por sí solo de la bondad de la misma. Es evidente, que no es igual de grave
tener un error absoluto de 1 cm al medir la longitud de una carretera que al medir la longitud de un folio.
El error absoluto es el valor absoluto de la diferencia entre el valor exacto y el valor aproximado. Hay autores que definen
el error absoluto como la diferencia entre el valor aproximado y el valor exacto, donde la diferencia únicamente está en el
signo ya que no se toma como valor absoluto. Sin embargo, podríamos tomar como fórmula general la siguiente expresión:
Cuando el valor exacto no es conocido, por ejemplo, en cualquier medida física, se habla de cota del error absoluto, que
será un valor superior al error absoluto que asegure que el error cometido nunca excederá a ese valor. Si llamamos c a la
cota del error absoluto de un número, se cumplirá:
2. 2.- Error relativo.
El error relativo es el valor absoluto del cociente entre su error absoluto y el valor exacto. El error relativo da idea de la
precisión de una medida, y se suele manejar en forma de porcentaje (%).
Muchas veces conocemos el error absoluto (Ea), pero es imposible conocer el valor exacto (A), en cuyo caso, para hallar el
error relativo (Er) dividimos el error absoluto entre el valor aproximado o considerado como exacto.
También puede hablarse de cota del error relativo, que si la representamos como β, se cumplirá:
(A – A´) / (A ≤ β)
3.- Error porcentual.
El error porcentual es fácil de definir, es el resultado de multiplicar el error relativo por 100.
ERP = ER X 100
4.- Error de redondeo.
A continuación se analizarán brevemente algunas consecuencias de utilizar el sistema binario y una longitud de palabra
finita.
Como no es posible guardar un numero binario de longitud infinita o un numero de más dígitos de los que posee la mantisa
de la computadora que se está empleando, se almacena sólo un numero finito de estos dígitos; como consecuencia, se
comete automáticamente un pequeño error, conocido como error de redondeo, que al repetirse muchas veces puede llegar
a ser considerable.
Ya que la mayor parte de las computadoras tienen entre 7 y 14 cifras significativas, los errores de redondeo parecerían no
ser muy importantes. Sin embargo, hay dos razones del porqué pueden resultar críticos en algunos métodos numéricos:
Ciertos métodos requieren cantidades extremadamente grandes para obtener una respuesta. Además, estos cálculos a
menudo dependen entre si. Esto es, los cálculos posteriores son dependientes de los anteriores. En consecuencia, aunque
un error de redondeo individual puede ser muy pequeño, el efecto de acumulación en el transcurso de la gran cantidad de
cálculos puede ser significativo.
El efecto del redondeo puede ser exagerado cuando se llevan a cabo operaciones algebraicas que emplean números muy
pequeños y muy grandes al mismo tiempo. Ya que en este caso se presenta en muchos métodos numéricos, el error de
redondeo puede resultar de mucha importancia.
5.- Error de truncamiento.
Cuando una expresión matemática se remplaza por una fórmula más simple, se introduce un error, conocido como error
de truncamiento.
Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemático
exacto. Estos tipos de errores son evaluados con una formulación matemática: la serie de Taylor.
Taylor es una formulación para predecir el valor de la función en Xi+1 en términos de la función y de sus derivadas en una
vecindad del punto Xi. Siendo el término final:
Rn= ((ƒ(n+1) (ξ))/(n+1)!)hn+1
3. En general, la expansión en serie de Taylor de n-ésimo orden es exacta par aun polinomio de n-ésimo orden. Para otras
funciones continuas diferenciables, como las exponenciales o senoidales, no se obtiene una estimación exacta mediante un
número finito de términos. Cada una de los términos adicionales contribuye al mejoramiento de la aproximación, aunque
sea un poco.
¿Qué es el Error por Overflow?
El error de overflow o desbordamiento de buffer, es un error de sistema causado por un defecto de programación, de tal
forma que el programa que lo sufre pretende escribir más información en el buffer de la que este puede alojar, es decir,
Cuando en un programa se intenta almacenar un número mayor que el máximo.
Este desbordamiento es posible porque el autor del programa no incluyó el código necesario para comprobar el tamaño y
capacidad del buffer en relación con el volumen de datos que tiene que alojar.
¿Qué es el Error por Underflow?
Es un problema aritmético, esto sucede cuando un búfer carga su información a una velocidad más baja que el
procesamiento de la misma, esto hace que el programa o dispositivo que procesa dicha información se detenga
momentánea y seguidamente por el hecho de que si continua, estaría haciendo una solicitud a un espacio de memoria nula,
un subdesbordamiento de búfer puede efectuarse en cualquier software o dispositivo que dependa del flujo de datos o
carga de un búfer
Los métodos numéricos han sido desarrollados con el objeto de resolver problemas matemáticos cuya solución es difícil o
imposible de obtener por medio de los procedimientos tradicionales.
Las soluciones que ofrecen los métodos numéricos son aproximaciones de los valores reales y, por tanto, se tendrá un cierto
grado de error que será conveniente determinar.
Referencia bibliográfica
Steven C. Chapra, Métodos Numéricos para Ingenieros, 6° edición., Mc Graw Hill.