1. REPÚBLICA BOLIVARIANA DE VENEZUELA
UNIVERSIDAD NACIONAL EXPERIMENTAL “RÓMULO GALLEGOS”
ÁREA DE INGENIERÍA EN SISTEMAS
SAN JUAN DE LOS MORROS
MÉTODOS NUMÉRICOS
FACILITADOR:
BACHILLERES:
Eduard del Corral
Adriana Roa. C.I. 17.063.477
Alexander Celas. C.I. 17.578.932
Octubre, 2013
2. Métodos numéricos
Los métodos numéricos son técnicas mediante las cuales es posible
formular problemas matemáticos de tal forma que puedan resolverse usando
operaciones aritméticas. Hay muchos tipos de métodos numéricos, y comparten
una característica común: invariablemente se deben realizar un buen número de
tediosos cálculos aritméticos.
El objetivo principal es encontrar soluciones aproximadas a problemas
complejos utilizando sólo las operaciones más simples de la aritmética. Se
requiere de una secuencia de operaciones algebraicas y lógicas que producen la
aproximación al problema matemático.
Los métodos numéricos pueden ser aplicados para resolver procedimientos
matemáticos en: Cálculo de derivadas, Integrales, Ecuaciones diferenciales,
Operaciones con matrices.
Por su parte, STEVEN (1987) señala que los métodos numéricos son
técnicas mediante las cuales es posible formular problemas de tal forma que sean
resueltas con operaciones aritméticas, Aunque hay muchos tipos de métodos
numéricos todos comparten una característica común, llevan cabo un buen
número de tediosos cálculos aritméticos.
Sin embargo, NAKAMURA (1992) los métodos numéricos nos vuelven
aptos para entender esquemas numéricos a fin de resolver problemas
matemáticos, de ingeniería y científicos en una computadora, reducir esquemas
numéricos básicos, escribir programas y resolverlos en una computadora y usar
correctamente el software existente para dichos métodos y no solo aumenta
nuestra habilidad para el uso de computadoras sino que también amplia la pericia
matemática y la comprensi6n de los principios científicos básicos.
3. Los métodos numéricos son adecuados para la solución de problemas
comunes de ingeniería, ciencias y administración, utilizando computadoras
electrónicas.
En el proceso de solución de problemas por medio de computadoras se
requieren los pasos siguientes.
Especificación del problema. Con esto se indica que se debe identificar
perfectamente el problema y sus limitaciones, las variables que intervienen
y los resultados deseados.
Análisis. Es la formulación de la solución del problema denominada también
algoritmo, de manera que se tenga una serie de pasos que resuelvan el
problema y que sean susceptibles de ejecutarse en la computadora.
Programación. Este paso consiste en traducir el método de análisis o
algoritmo de solución expresándole como una serie detallada de
operaciones.
Verificación. Es la prueba exhaustiva del programa para eliminar todos los
errores que tenga de manera que efectúe lo que desea los resultados de
prueba se comparan con soluciones conocidas de problemas ya resueltos.
Documentación. Consiste en preparar un instructivo del programa de
manera que cualquier persona pueda conocer y utilizar el programa.
Producción. Es la última etapa en la que solo se proporcionan datos de
entrada del programa obteniéndose las soluciones correspondientes.
Importancia de los métodos numéricos
La ciencia y la tecnología describen los fenómenos reales mediante
modelos matemáticos. El estudio de estos modelos permite un conocimiento más
profundo del fenómeno, así como de su evolución futura. La matemática aplicada
es la rama de las matemáticas que se dedica a buscar y aplicar las herramientas
4. más adecuadas a los problemas basados en estos modelos. Desafortunadamente,
no siempre es posible aplicar métodos analíticos clásicos por diferentes razones:
No se adecúan al modelo concreto.
Su aplicación resulta excesivamente compleja.
La solución formal es tan complicada que hace imposible cualquier
interpretación posterior.
Simplemente no existen métodos analíticos capaces de proporcionar
soluciones al problema.
En estos casos son útiles las técnicas numéricas, que mediante una labor
de cálculo más o menos intensa, conducen a soluciones aproximadas que son
siempre numéricos. El importante esfuerzo de cálculo que implica la mayoría de
estos métodos hace que su uso esté íntimamente ligado al empleo de
computadores. De hecho, sin el desarrollo que se ha producido en el campo de la
informática resultaría difícilmente imaginable el nivel actual de utilización de las
técnicas numéricas en ámbitos cada día más diversos
Cifras significativas
Cuando se emplea un número en un cálculo, debe haber seguridad de que
pueda usarse con confianza. El concepto de cifras significativas tiene dos
implicaciones importantes en el estudio de los métodos numéricos.
1. Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se
debe desarrollar criterios para especificar qué tan precisos son los
resultados obtenidos.
2. Aunque ciertos números representan número específicos, no se pueden
expresar exactamente con un número finito de cifras.
5. Exactitud y Precisión
La exactitud se refiere a que tan cercano está el valor calculado o medido
del valor verdadero. La precisión se refiere a qué tan cercano está un valor
individual medido o calculado respecto a los otros. La inexactitud se define como
un alejamiento sistemático de la verdad. La imprecisión, sobre el otro lado, se
refiere a la magnitud del esparcimiento de los valores. Los métodos numéricos
deben ser lo suficientemente exactos o sin sesgos para que cumplan los requisitos
de un problema particular de ingeniería.
¿Cuántas cifras significativas (que tan preciso debe ser) son necesarias?
1.- El total de cifras significativas es independiente de la posición del punto
decimal.
Ejemplo:
El medir una mujer se registró que su estatura es de 1.67 m = 16. 7 dm =
167 cm, (teniéndose 3 cifras significativas).
6. 2.- Los ceros a la izquierda de dígitos no nulos, nunca serán cifras
significativas.
Ejemplo:
Un balero tiene un diámetro de 26 mm = 0.026 m = 0.000026 km (2 cifras
significativas).
3.- Los ceros intermedios de dígitos no nulos, siempre serán significativos:
Ejemplo:
40072 (5 c.s.)
3.001 (4 c.s.)
0.000203 (3. c.s.)
Incertidumbre y Sesgo
Sesgo
Es un alejamiento sistemático del valor verdadero a calcular. Así como el
error, de acuerdo con las formas por las cuales se produce, puede minimizarse, la
ocurrencia de sesgo también puede ser neutralizada o controlada. En ocasiones
sin embargo, es imposible controlar el sesgo y por cierto el error. En tales
circunstancias conviene al menos estar en antecedente y tener conciencia de su
existencia.
Incertidumbre
Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a
un valor verdadero. La incertidumbre puede derivarse de una falta de información
o incluso por que exista desacuerdo sobre lo que se sabe o lo que podría saberse.
Puede tener varios tipos de origen, desde errores cuantificables en los datos hasta
terminología
definida
de
forma
ambigua
o
previsiones
inciertas
del
comportamiento humano. La incertidumbre puede, por lo tanto, ser representada
por medidas cuantitativas (por ejemplo, un rango de valores calculados según
7. distintos modelos) o por afirmaciones cualitativas (por ejemplo, al reflejar el juicio
de un grupo de expertos).
Errores
El concepto de error es consustancial con el cálculo numérico. En todos los
problemas es fundamental hacer un seguimiento de los errores cometidos a fin de
poder estimar el grado de aproximación de la solución que se obtiene.
Los errores asociados a todo cálculo numérico tienen su origen en dos grandes
factores:
Aquellos que son inherentes a la formulación del problema.
Los que son consecuencia del método empleado para encontrar la solución
del problema.
Dentro del grupo de los primeros, se incluyen aquellos en los que la
definición matemática del problema es sólo una aproximación a la situación física
real. Estos errores son normalmente despreciables; por ejemplo, el que se comete
al obviar los efectos relativistas en la solución de un problema de mecánica
clásica. En aquellos casos en que estos errores no son realmente despreciables,
nuestra solución será poco precisa independientemente de la precisión empleada
para encontrar las soluciones numéricas.
Otra fuente de este tipo de errores tiene su origen en la imprecisión de los
datos físicos: constantes físicas y datos empíricos. En el caso de errores en la
medida de los datos empíricos y teniendo en cuenta su carácter generalmente
aleatorio, su tratamiento analítico es especialmente complejo pero imprescindible
para contrastar el resultado obtenido computacional-mente.
En lo que se refiere al segundo tipo de error (error computacional), tres son
sus fuentes principales:
8. 1. Equivocaciones en la realización de las operaciones (errores de bulto). Esta
fuente de error es bien conocida por cualquiera que haya realizado cálculos
manualmente o empleando una calculadora. El empleo de computadores
ha reducido enormemente la probabilidad de que este tipo de errores se
produzcan. Sin embargo, no es despreciable la probabilidad de que el
programador cometa uno de estos errores (calculando correctamente el
resultado erróneo). Más aún, la presencia de bugs no detectados en el
compilador o en el software del sistema no es inusual. Cuando no resulta
posible verificar que la solución calculada es razonablemente correcta, la
probabilidad de que se haya cometido un error de bulto no puede ser
ignorada. Sin embargo, no es esta la fuente de error que más nos va a
preocupar.
2. El error causado por resolver el problema no como se ha formulado, sino
mediante algún tipo de aproximación. Generalmente está causado por la
sustitución de un infinito (sumatorio o integración) o un infinitesimal
(diferenciación) por una aproximación finita. Algunos ejemplos son:
El cálculo de una función elemental (por ejemplo, Seno x) empleando
sólo n términos de los infinitos que constituyen la expansión en serie
de Taylor.
Aproximación de la integral de una función por una suma finita de los
valores de la función, como la empleada en la regla del trapezoide.
Resolución de una ecuación diferencial reemplazando las derivadas
por una aproximación (diferencias finitas).
Solución de la ecuación f(x) = 0 por el método de Newton-Raphson:
proceso iterativo que, en general, converge sólo cuando el número
de iteraciones tiende a infinito.
Denominaremos a este error, en todas sus formas, como error por
truncamiento, ya que resulta de truncar un proceso infinito para obtener un
9. proceso finito. Obviamente, estamos interesados en estimar, o al menos
acotar, este error en cualquier procedimiento numérico.
3. Por último, la otra fuente de error de importancia es aquella que tiene su
origen en el hecho de que los cálculos aritméticos no pueden realizarse con
precisión ilimitada. Muchos números requieren infinitos decimales para ser
representados correctamente, sin embargo, para operar con ellos es
necesario redondearlos. Incluso en el caso en que un número pueda
representarse exactamente, algunas operaciones aritméticas pueden dar
lugar a la aparición de errores (las divisiones pueden producir números que
deben ser redondeados y las multiplicaciones dar lugar a más dígitos de los
que se pueden almacenar). El error que se introduce al redondear un
número se denomina error de redondeo.
Errores de redondeo
Este tipo de errores se deben a que las computadoras solo guardan un
número finito de cifras significativas durante un cálculo. Por ejemplo: si solo se
guardan siete cifras significativas, la computadora puede almacenar y usar
como = 3.141 592 ygenerando un error de redondeo.
Esta técnica de retener solo los primeros números se le llamo
"Truncamiento" en el ambiente de computación de preferencia se le llamara de
corte para distinguirlo de los errores de truncamiento discutidos. Un corte ignora
los términos restantes de la representación decimal completa. Por ejemplo: el
octavo número significativo en este caso es 6. Por lo tanto se representa de
manera exacta como 3.141593 que como 3.141592 obtenido mediante un corte,
ya que el valor estamás cercano del valor verdadero. Esto se puede visualizar de
la siguiente forma: si se aproxima por = 3.141593, el error de redondeo se
reduce a; Eu = 0.000 000 035........
10. Errores de truncamiento
Los errores de truncamiento son aquellos que resultan al usar una
aproximación en lugar de un procedimiento matemático exacto.
dv = u = u(t 1) – v(t)
dt t t 1 - t
Se introdujo un error de truncamiento en la solución numérica ya que la
ecuación de diferencias solo se aproxima el valor verdadero de la derivada.
Error numérico total
El error numérico total es la suma de los errores de redondeo y de
truncamiento. (Los errores de truncamiento decrecen conforme elnúmero de
cálculos aumenta, por lo que se encara el siguiente problema: la estrategia de
disminuir un componente del error total lleva al incremento del otro).
Errores por equivocación, de planteamiento o incertidumbre en los datos
En los primeros años de la computación, los resultados numéricos erróneos
fueron atribuidos algunas veces al mal funcionamiento de la computadora misma.
Hoy en día, esta fuente de error es muy improbable y la mayor parte de las
equivocaciones se pueden atribuir a errores humanos.