1. UNIVERSIDAD FERMIN TORO
VICE RECTORADO ACADEMICO
FACULTAD DE INGENIERIA
ESCUELA DE INGENIERIA
ELECTRICA
RESUMEN
ANALISIS NUMERICO
Estudiante:
Sadicth Sánchez
C.I. 20.888.309
SECCION: SAIA B
Cabudare, Diciembre 2016
2. RESUMEN
El objetivo primordial de la unidad III es conocer y entender los
diferentes métodos de resolución de sistemas de ecuaciones, entre los
cuales tenemos los de eliminación y los iterativos. Entre los métodos de
eliminación tenemos: Eliminación gaussiana, el método de eliminación de
Gauss-Jordan, (descomposición LU, factorización de Cholesky y el de QR,
factorización Householder.) Los métodos iterativos son el de Gauss Seidel y
el de Jacobi.
Es así como a partir del material aportado se efectuara un resumen,
con respecto a los métodos de eliminación gaussiana para el estudio a fondo
de cada una de ellas, para encontrar cada una de sus finalidades en distintas
áreas de trabajos, con ejercicios explicativos para un mayor entendimiento.
Es así como siguiendo el orden del documento ha analizar se
realiza el siguiente análisis.
3. Métodos De Eliminación Gaussiana
En forma general este método propone la eliminación progresiva
de variables en el sistema de ecuaciones, hasta tener sólo una ecuación
con una incógnita. Una vez resuelta esta, se procede por sustitución
regresiva hasta obtener los valores de todas las variables. Sea por ejemplo
el siguiente sistema de ecuaciones:
Lo que buscamos son 3 números, que satisfagan a las tres
ecuaciones. El método de solución será simplificar las ecuaciones, de tal
modo que las soluciones se puedan identificar con facilidad. Se comienza
dividiendo la primera ecuación entre 2, obteniendo:
Se simplificará el sistema si multiplicamos por -4 ambos lados de
la primera ecuación y sumando esta a la segunda. Entonces:
sumándolas resulta:
4. Métodos De Eliminación Gaussiana
La nueva ecuación se puede sustituir por cualquiera de las dos. Ahora
tenemos:
Luego, la primera se multiplica por -3 y se le suma a la tercera, obteniendo:
Acto seguido, la segunda ecuación se divide entre -3.
Ahora se multiplica por 5 y se le suma a la tercera:
En este momento ya tenemos el valor de x3, ahora simplemente se procede
a hacer la sustitución hacia atrás, y automáticamente se van obteniendo los
valores de las otras incógnitas. Se obtendrá:
5. Método de Gauss-Jordan
El Método de Gauss – Jordan o también llamado eliminación de
Gauss – Jordan, es un método por el cual pueden resolverse sistemas de
ecuaciones lineales con n números de variables, encontrar matrices y
matrices inversas, en este caso desarrollaremos la primera aplicación
mencionada.
Para resolver sistemas de ecuaciones lineales aplicando este
método, se debe en primer lugar anotar los coeficientes de las variables del
sistema de ecuaciones lineales en su notación matricial:
Entonces, anotando como matriz (también llamada matriz aumentada):
6. Método de Gauss-Jordan
Una vez hecho esto, a continuación se procede a convertir dicha
matriz en una matriz identidad, es decir una matriz equivalente a la original,
la cual es de la forma:
Esto se logra aplicando a las distintas filas y columnas de las
matrices simples operaciones de suma, resta, multiplicación y división;
teniendo en cuenta que una operación se aplicara a todos los elementos de
la fila o de la columna, sea el caso.
Obsérvese que en dicha matriz identidad no aparecen los términos
independientes, esto se debe a que cuando nuestra matriz original alcance
la forma de la matriz identidad, dichos términos resultaran ser la solución del
sistema y verificaran la igualdad para cada una de las variables,
correspondiéndose de la siguiente forma:
d1 = x
d2 = y
d3 = z
7. Descomposición LU
El método de descomposición LU para la solución de sistemas de
ecuaciones lineales debe su nombre a que se basa en la descomposición de
la matriz original de coeficientes (A) en el producto de dos matrices (L y U).
Donde:
L - Matriz triangular inferior
U - Matriz triangular superior con todos los elementos de la diagonal
principal iguales a 1.
De lo anterior, para matrices de 3x3 se escribe:
Si efectuamos la multiplicación de L y U, igualando los elementos de
ese producto con los de la matriz A correspondientes, se obtiene:
8. Descomposición LU
De aquí que los elementos de L y U son, en este caso:
Si el sistema de ecuaciones original se escribe como:
A x = b
lo cual resulta lo mismo escribir:
L U X = b
Definiendo a:
U X = Y
podemos escribir:
L Y = b
Resolviendo para Y, encontramos:
9. Descomposición LU
El algoritmo de solución, una vez conocidas L, U y b, consiste en
encontrar primeramente los valores de "Y" por sustitución progresiva sobre "L
Y = b". En segundo lugar se resuelve "U x = y " por sustitución regresiva para
encontrar los valores de "x", obteniendo:
La determinación de los elementos de las matrices L y U se realizan
eficientemente aplicando una forma modificada del método de eliminación de
Gauss.
10. Factorización De Cholesky
Una matriz simétrica es aquella donde Aij = Aji para toda i y j, En
otras palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas
de ambos contextos: el matemático y el de ingeniería. Ellos ofrecen ventajas
computacionales ya que sólo se necesita la mitad de almacenamiento y, en
la mayoría de los casos, sólo se requiere la mitad del tiempo de cálculo para
su solución.
Al contrario de la Descomposición LU, no requiere de pivoteo. El
método de Factorización de Cholesky se basa en demostrar que si una
matriz A es simétrica y definida positiva en lugar de factorizarse como LU,
puede ser factorizada como el producto de una matriz triangular inferior y la
traspuesta de la matriz triangular inferior, es decir los factores triangulares
resultantes son la traspuesta de cada uno.
Ejemplo:
Obtener la factorización de Cholesky de la siguiente matriz (entrar sólo los
elementos de U, la triangular superior)
5 7 −8
7 14 −14
−8 −14 24
11. Factorización De Cholesky
√5 7/5 √5 −8/5 √5
0 1/5 1051/2 −2/15 1051/2
0 0 2/3 211/2
Entrar el valor del determinante:
Resolver el sistema lineal Ax=b cuando b es el vector siguiente
51
84
−90
Factorización:
En cada etapa de la resolución se muestran los valores actuales de la
matriz.
Los nuevos elementos calculados aparecen con su valor definitivo en
color diferente.
Calculando el elemento (1,1)
5^(1/2) 7 -8
7 14 -14
-8 -14 24
13. Factorización De Cholesky
Calculando el elemento (3,3)
5^(1/2) 7/5*5^(1/2) -8/5*5^(1/2)
7/5*5^(1/2) 1/5*105^(1/2) -2/15*105^(1/2)
-8/5*5^(1/2) -2/15*105^(1/2) 2/3*21^(1/2)
La factorización final es la siguiente, en la que aparecen las matrices UT y
U, y el vector de permutaciones:
√5 0 0
7/5 √5 1/5 1051/2 0
−8/5 √5 −2/15 1051/2 2/3 211/2
√5 7/5 √5 −8/5 √5
0 1/5 1051/2 −2/15 1051/2
0 0 2/3 211/
El valor del determinante viene dado por el producto de los elementos de la
diagonal principal de U y coincide con la diagonal principal de UT. Por
tanto, es:
196
16. Solución De Sistemas Lineales Utilizando Métodos Iterativos
El método de Gauss y sus variantes son conocidos como métodos
directos para resolver el problema inicial Ax = b. Se ejecutan a través de un
número finito de pasos y generan una solución x que sería exacta sino fuera
por los errores de redondeo.
En contraste, un método iterativo da lugar a una sucesión de
vectores que idealmente converge a la solución. El cálculo se detiene cuando
se cuenta con una solución aproximada con cierto grado de precisión
especificado de antemano o después de cierto número de iteraciones. Los
métodos indirectos son casi siempre iterativos.
Un método iterado de resolución del sistema Ax = b es aquel
que genera, a partir de un vector inicial x0, una sucesión de vectores x1,
x2, . . . xn.. "Un método iterado se dirá que es consistente con el sistema
Ax = b, si el límite x de la sucesión (xn), en caso de existir, es solución
del sistema.
Se dirá que el método es convergente si la sucesión generada
por cualquier vector inicial x0 es convergente a la solución del sistema".
Es evidente que si un método es convergente es consistente, sin embargo, el
recíproco no es cierto
17. Método De Gauss Seidel
El Método de Gauss Seidel emplea valores iniciales y después itera
para obtener estimaciones refinadas de la solución; es particularmente
adecuado para un gran número de ecuaciones, lo cual en cierto modo lo
hace un método más comúnmente usado.
La fórmula utilizada para hallar los xi viene dada por el despeje de
cada una de las xi en cada una de las ecuaciones y se les da un valor inicial
a cada xi de cero.
Observase que en el método de Gauss-Seidel los valores
actualizados de xi sustituyen de inmediato a los valores anteriores, mientras
que en el método de Jacobi todas las componentes nuevas del vector se
calculan antes de llevar a cabo la sustitución. Por contra, en el método de
Gauss-Seidel los cálculos deben llevarse a cabo por orden, ya que el nuevo
valor xi depende de los valores actualizados de x1, x2, ..., x i-1.
La desventaja del método de Gauss-Seidel es que no siempre
converge a la solución exacta o algunas veces los hace de manera muy
lenta. Únicamente es confiable para aquellos sistemas dominantes
diagonalmente.
18. Método de Jacobi
El Método de Jacobi transforma una matriz simétrica en una matriz
diagonal al eliminar de forma simétrica los elementos que están fuera de la
diagonal. Desafortunadamente, el método requiere un número infinito de
operaciones, ya que la eliminación de cada elemento no cero a menudo crea
un nuevo valor no cero en el elemento cero anterior.
Si A es diagonalmente dominante, entonces la sucesión que resulta
de la iteración de Jacobi converge a la solución de Ax = b para cualquier
vector inicial Xo. Partimos de una aproximación inicial Xo para las soluciones
Xi al sistema de ecuaciones y sustituimos estos valores en la ecuación:
Que es la expresión que nos proporciona las nuevas componentes
del vector x(k) en función de vector anterior x(k-1) en la iteración de Jacobi, en
su respectivo algoritmo; donde el a el método de Jacobi más que usar el
último valor disponible de , con base en un conjunto de las x anteriores ().
De esta forma, como se generan nuevos valores, no se usan en
forma inmediata sino que se retienen para la siguiente iteración.