Universidad Fermín Toro
Vice-Rectorado Académico
Facultad de Ingeniera
Escuela de Ingeniería en Computación
Teorias de Errores
Cabudare, Noviembre 2015.
Alumno:
Antonio Cuello
C.I: 18998765
ERROR DE MEDICION
El error de medición se define como la diferencia entre el valor medido y el valor
verdadero. Afectan a cualquier instrumento de medición y pueden deberse a distintas
causas. Las que se pueden de alguna manera prever, calcular, eliminar mediante
calibraciones y compensaciones, se denominan determinanticos o sistemáticos y se
relacionan con la exactitud de las mediciones. Los que no se pueden prever, pues
dependen de causas desconocidas, o estocásticas se denominan aleatorios y están
relacionados con la precisión del instrumento.
Se clasifican en errores aleatorios y errores sistemáticos.
Error aleatorio
No se conocen las leyes o mecanismos que lo causan por su excesiva complejidad
o por su pequeña influencia en el resultado final.
Para conocer este tipo de errores primero debemos de realizar un muestreo de
medidas. Con los datos de las sucesivas medidas podemos calcular su media y la
desviación típica muestra. Con estos parámetros se puede obtener la Distribución normal
característica, y la podemos acotar para un nivel de confianza dado.
Error sistemático
Permanecen constantes en valor absoluto y en el signo al medir, una magnitud en
las mismas condiciones, y se conocen las leyes que lo causan.
Para determinar un error sistemático se deben de realizar una serie de medidas
sobre una magnitud Xo, se debe de calcular la media aritmética de estas medidas y
después hallar la diferencia entre la media y la magnitud X0.
Error sistemático = | media - X0 |
ERROR NUMERICO
La incertidumbre o error numérico es una medida del ajuste o cálculo de una
magnitud con respecto al valor real o teórico que dicha magnitud tiene. Un aspecto
importante de los errores de aproximación es su estabilidad numérica. Dicha estabilidad
se refiere a cómo dentro de un algoritmo de análisis numérico el error de aproximación es
propagado dentro del propio algoritmo.
El concepto de error es consustancial con el cálculo numérico. En todos los
problemas es fundamental hacer un seguimiento de los errores cometidos a fin de poder
estimar el grado de aproximación de la solución que se obtiene.
Los errores asociados a todo cálculo numérico tienen su origen en dos grandes
factores:
 Aquellos que son inherentes a la formulación del problema.
Puede ser positivo, error por exceso, o negativo, error por defecto.
Si [error absoluto] < ε, decimos que ε es una cota de error absoluto. Entonces la ε
relativa es:
 Los que son consecuencia del método empleado para encontrar la solución del
problema.
Dentro del grupo de los primeros, se incluyen aquellos en los que la definición
matemática del problema es sólo una aproximación a la situación física real. Estos errores
son normalmente despreciables; por ejemplo, el que se comete al obviar los efectos
relativistas en la solución de un problema de mecánica clásica. En aquellos casos en que
estos errores no son realmente despreciables, nuestra solución será poco precisa
independientemente de la precisión empleada para encontrar las soluciones numéricas.
Otra fuente de este tipo de errores tiene su origen en la imprecisión de los datos
físicos: constantes físicas y datos empíricos. En el caso de errores en la medida de los
datos empíricos y teniendo en cuenta su carácter generalmente aleatorio, su tratamiento
analítico es especialmente complejo pero imprescindible para contrastar el resultado
obtenido computacionalmente.
 En lo que se refiere al segundo tipo de error (error computacional), tres son sus
fuentes principales:
Equivocaciones en la realización de las operaciones (errores de bulto). Esta fuente
de error es bien conocida por cualquiera que haya realizado cálculos manualmente o
empleando una calculadora. El empleo de computadores ha reducido enormemente la
probabilidad de que este tipo de errores se produzcan. Sin embargo, no es despreciable
la probabilidad de que el programador cometa uno de estos errores (calculando
correctamente el resultado erróneo). Más aún, la presencia de bugs no detectados en el
compilador o en el software del sistema no es inusual. Cuando no resulta posible verificar
que la solución calculada es razonablemente correcta, la probabilidad de que se haya
cometido un error de bulto no puede ser ignorada. Sin embargo, no es esta la fuente de
error que más nos va a preocupar.
El error causado por resolver el problema no como se ha formulado, sino mediante
algún tipo de aproximación. Generalmente está causado por la sustitución de un infinito
(sumatorio o integración) o un infinitesimal (diferenciación) por una aproximación finita.
Algunos ejemplos son:
El cálculo de una función elemental (por ejemplo, Seno x) empleando sólo n
términos de los infinitos que constituyen la expansión en serie de Taylor.
ERROR ABSOLUTO:
Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede
ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale
positiva o negativa). Tiene unidades, las mismas que las de la medida.
El error absoluto de una medida no nos informa por sí solo de la bondad de la
misma. Es evidente, que no es igual de grave tener un error absoluto de 1 cm al medir la
longitud de una carretera que al medir la longitud de un folio.
ERROR RELATIVO:
El error relativo es el cometido en la estimación del valor de un número, es el valor
absoluto del cociente entre su error absoluto y el valor exacto. El error relativo da idea de
la precisión de una medida, y se suele manejar en forma de porcentaje (%).
Muchas veces conocemos el error absoluto (Ea), pero es imposible conocer el
valor exacto (A), en cuyo caso, para hallar el error relativo (Er) dividimos el error absoluto
entre el valor aproximado o considerado como exacto.
También puede hablarse de cota del error relativo, que si la representamos como β, se
cumplirá:
A – A´) / A ≤ β
ERROR PORCENTUAL:
El error porcentual es fácil de definir, es el resultado de multiplicar el error relativo por 100.
ERP = ER X 100
ERROR DE REDONDEO:
A continuación se analizarán brevemente algunas consecuencias de utilizar el
sistema binario y una longitud de palabra finita.
Como no es posible guardar un numero binario de longitud infinita o un numero de
mas dígitos de los que posee la mantisa de la computadora que se esta empleando, se
almacena sólo un numero finito de estos dígitos; como consecuencia, se comete
automáticamente un pequeño error, conocido como error de redondeo, que al repetirse
muchas veces puede llegar a ser considerable.
Ya que la mayor parte de las computadoras tienen entre 7 y 14 cifras significativas,
los errores de redondeo parecerían no ser muy importantes. Sin embargo, hay dos
razones del porqué pueden resultar críticos en algunos métodos numéricos:
Ciertos métodos requieren cantidades extremadamente grandes para obtener una
respuesta. Además, estos cálculos a menudo dependen entre si. Esto es, los cálculos
posteriores son dependientes de los anteriores. En consecuencia, aunque un error de
redondeo individual puede ser muy pequeño, el efecto de acumulación en el transcurso de
la gran cantidad de cálculos puede ser significativo.
El efecto del redondeo puede ser exagerado cuando se llevan a cabo operaciones
algebraicas que emplean números muy pequeños y muy grandes al mismo tiempo. Ya
que en este caso se presenta en muchos métodos numéricos, el error de redondeo puede
resultar de mucha importancia.
ERROR DE TRUNCAMIENTO:
Cuando una expresión matemática se remplaza por una fórmula más simple, se
introduce un error, conocido como error de truncamiento.
Los errores de truncamiento son aquellos que resultan al usar una aproximación
en lugar de un procedimiento matemático exacto. Estos tipos de errores son evaluados
con una formulación matemática:
La serie de Taylor.
Taylor es una formulación para predecir el valor de la función en Xi+1 en términos
de la función y de sus derivadas en una vecindad del punto Xi. Siendo el término final:
Rn= ((ƒ(n+1) (ξ))/(n+1)!)hn+1
En general, la expansión en serie de Taylor de n-ésimo orden es exacta par aun
polinomio de n-ésimo orden. Para otras funciones continuas diferenciables, como las
exponenciales o sinodales, no se obtiene una estimación exacta mediante un número
finito de términos. Cada una de los términos adicionales contribuye al mejoramiento de la
aproximación, aunque sea un poco.

Error

  • 1.
    Universidad Fermín Toro Vice-RectoradoAcadémico Facultad de Ingeniera Escuela de Ingeniería en Computación Teorias de Errores Cabudare, Noviembre 2015. Alumno: Antonio Cuello C.I: 18998765
  • 2.
    ERROR DE MEDICION Elerror de medición se define como la diferencia entre el valor medido y el valor verdadero. Afectan a cualquier instrumento de medición y pueden deberse a distintas causas. Las que se pueden de alguna manera prever, calcular, eliminar mediante calibraciones y compensaciones, se denominan determinanticos o sistemáticos y se relacionan con la exactitud de las mediciones. Los que no se pueden prever, pues dependen de causas desconocidas, o estocásticas se denominan aleatorios y están relacionados con la precisión del instrumento. Se clasifican en errores aleatorios y errores sistemáticos. Error aleatorio No se conocen las leyes o mecanismos que lo causan por su excesiva complejidad o por su pequeña influencia en el resultado final. Para conocer este tipo de errores primero debemos de realizar un muestreo de medidas. Con los datos de las sucesivas medidas podemos calcular su media y la desviación típica muestra. Con estos parámetros se puede obtener la Distribución normal característica, y la podemos acotar para un nivel de confianza dado. Error sistemático Permanecen constantes en valor absoluto y en el signo al medir, una magnitud en las mismas condiciones, y se conocen las leyes que lo causan. Para determinar un error sistemático se deben de realizar una serie de medidas sobre una magnitud Xo, se debe de calcular la media aritmética de estas medidas y después hallar la diferencia entre la media y la magnitud X0. Error sistemático = | media - X0 | ERROR NUMERICO La incertidumbre o error numérico es una medida del ajuste o cálculo de una magnitud con respecto al valor real o teórico que dicha magnitud tiene. Un aspecto importante de los errores de aproximación es su estabilidad numérica. Dicha estabilidad se refiere a cómo dentro de un algoritmo de análisis numérico el error de aproximación es propagado dentro del propio algoritmo. El concepto de error es consustancial con el cálculo numérico. En todos los problemas es fundamental hacer un seguimiento de los errores cometidos a fin de poder estimar el grado de aproximación de la solución que se obtiene.
  • 3.
    Los errores asociadosa todo cálculo numérico tienen su origen en dos grandes factores:  Aquellos que son inherentes a la formulación del problema. Puede ser positivo, error por exceso, o negativo, error por defecto. Si [error absoluto] < ε, decimos que ε es una cota de error absoluto. Entonces la ε relativa es:  Los que son consecuencia del método empleado para encontrar la solución del problema. Dentro del grupo de los primeros, se incluyen aquellos en los que la definición matemática del problema es sólo una aproximación a la situación física real. Estos errores son normalmente despreciables; por ejemplo, el que se comete al obviar los efectos relativistas en la solución de un problema de mecánica clásica. En aquellos casos en que estos errores no son realmente despreciables, nuestra solución será poco precisa independientemente de la precisión empleada para encontrar las soluciones numéricas. Otra fuente de este tipo de errores tiene su origen en la imprecisión de los datos físicos: constantes físicas y datos empíricos. En el caso de errores en la medida de los datos empíricos y teniendo en cuenta su carácter generalmente aleatorio, su tratamiento analítico es especialmente complejo pero imprescindible para contrastar el resultado obtenido computacionalmente.  En lo que se refiere al segundo tipo de error (error computacional), tres son sus fuentes principales: Equivocaciones en la realización de las operaciones (errores de bulto). Esta fuente de error es bien conocida por cualquiera que haya realizado cálculos manualmente o empleando una calculadora. El empleo de computadores ha reducido enormemente la probabilidad de que este tipo de errores se produzcan. Sin embargo, no es despreciable la probabilidad de que el programador cometa uno de estos errores (calculando correctamente el resultado erróneo). Más aún, la presencia de bugs no detectados en el compilador o en el software del sistema no es inusual. Cuando no resulta posible verificar que la solución calculada es razonablemente correcta, la probabilidad de que se haya cometido un error de bulto no puede ser ignorada. Sin embargo, no es esta la fuente de error que más nos va a preocupar.
  • 4.
    El error causadopor resolver el problema no como se ha formulado, sino mediante algún tipo de aproximación. Generalmente está causado por la sustitución de un infinito (sumatorio o integración) o un infinitesimal (diferenciación) por una aproximación finita. Algunos ejemplos son: El cálculo de una función elemental (por ejemplo, Seno x) empleando sólo n términos de los infinitos que constituyen la expansión en serie de Taylor. ERROR ABSOLUTO: Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida. El error absoluto de una medida no nos informa por sí solo de la bondad de la misma. Es evidente, que no es igual de grave tener un error absoluto de 1 cm al medir la longitud de una carretera que al medir la longitud de un folio. ERROR RELATIVO: El error relativo es el cometido en la estimación del valor de un número, es el valor absoluto del cociente entre su error absoluto y el valor exacto. El error relativo da idea de la precisión de una medida, y se suele manejar en forma de porcentaje (%). Muchas veces conocemos el error absoluto (Ea), pero es imposible conocer el valor exacto (A), en cuyo caso, para hallar el error relativo (Er) dividimos el error absoluto entre el valor aproximado o considerado como exacto. También puede hablarse de cota del error relativo, que si la representamos como β, se cumplirá: A – A´) / A ≤ β ERROR PORCENTUAL: El error porcentual es fácil de definir, es el resultado de multiplicar el error relativo por 100. ERP = ER X 100
  • 5.
    ERROR DE REDONDEO: Acontinuación se analizarán brevemente algunas consecuencias de utilizar el sistema binario y una longitud de palabra finita. Como no es posible guardar un numero binario de longitud infinita o un numero de mas dígitos de los que posee la mantisa de la computadora que se esta empleando, se almacena sólo un numero finito de estos dígitos; como consecuencia, se comete automáticamente un pequeño error, conocido como error de redondeo, que al repetirse muchas veces puede llegar a ser considerable. Ya que la mayor parte de las computadoras tienen entre 7 y 14 cifras significativas, los errores de redondeo parecerían no ser muy importantes. Sin embargo, hay dos razones del porqué pueden resultar críticos en algunos métodos numéricos: Ciertos métodos requieren cantidades extremadamente grandes para obtener una respuesta. Además, estos cálculos a menudo dependen entre si. Esto es, los cálculos posteriores son dependientes de los anteriores. En consecuencia, aunque un error de redondeo individual puede ser muy pequeño, el efecto de acumulación en el transcurso de la gran cantidad de cálculos puede ser significativo. El efecto del redondeo puede ser exagerado cuando se llevan a cabo operaciones algebraicas que emplean números muy pequeños y muy grandes al mismo tiempo. Ya que en este caso se presenta en muchos métodos numéricos, el error de redondeo puede resultar de mucha importancia. ERROR DE TRUNCAMIENTO: Cuando una expresión matemática se remplaza por una fórmula más simple, se introduce un error, conocido como error de truncamiento. Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemático exacto. Estos tipos de errores son evaluados con una formulación matemática: La serie de Taylor. Taylor es una formulación para predecir el valor de la función en Xi+1 en términos de la función y de sus derivadas en una vecindad del punto Xi. Siendo el término final: Rn= ((ƒ(n+1) (ξ))/(n+1)!)hn+1
  • 6.
    En general, laexpansión en serie de Taylor de n-ésimo orden es exacta par aun polinomio de n-ésimo orden. Para otras funciones continuas diferenciables, como las exponenciales o sinodales, no se obtiene una estimación exacta mediante un número finito de términos. Cada una de los términos adicionales contribuye al mejoramiento de la aproximación, aunque sea un poco.