RESUMEN CON RESPECTO A LA UNIDAD NUMERO III DE LA MATERIA ANALISIS NUMERICO DE LA SECCION SAIA.
PARTICIPANTE: JOSE IGNACIO MONTERO CRESPO
C.I V-24.340.872
Resolución sistemas ecuaciones UNIVERSIDAD FERMIN TORO
1. UNIVERSIDAD FERMIN TORO
VICE RECTORADO ACADEMICO
FACULTAD DE INGENIERIA
ESCUELA DE INGENIERIA ELECTRICA
ANALISIS NUMERICO: RESUMEN UNIDAD III
PARTICIPANTE
JOSE MONTERO
C.I. 24.340.872
SECCION: SAIA
BARQUISIMETO, NOVIEMBRE DE 2015
2. RESUMEN UNIDAD III
El objetivo primordial de la unidad III es conocer y entender los diferentes
métodos de resolución de sistemas de ecuaciones, entre los cuales tenemos los de
eliminación y los iterativos. Entre los métodos de eliminación tenemos: Eliminación
gaussiana, el método de eliminación de Gauss-Jordan, (descomposición LU,
factorización de Cholesky y el de QR, factorización Householder.) Los métodos
iterativos son el de Gauss Seidel y el de Jacobi.
Es así como a partir del material aportado se efectuara un resumen, con respecto a
los métodos de eliminación gaussiana para el estudio a fondo de cada una de ellas,
para encontrar cada una de sus finalidades en distintas áreas de trabajos, con
ejercicios explicativos para un mayor entendimiento. Es así como siguiendo el orden
del documento ha analizar se realiza el siguiente analisis.
3. Métodos De Eliminación Gaussiana
En forma general este método propone la eliminación progresiva de variables en
el sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una
vez resuelta esta, se procede por sustitución regresiva hasta obtener los valores
de todas las variables. Sea por ejemplo el siguiente sistema de ecuaciones:
Lo que buscamos son 3 números, que satisfagan a las tres ecuaciones. El método
de solución será simplificar las ecuaciones, de tal modo que las soluciones se
puedan identificar con facilidad. Se comienza dividiendo la primera ecuación
entre 2, obteniendo:
Se simplificará el sistema si multiplicamos por -4 ambos lados de la primera
ecuación y sumando esta a la segunda. Entonces:
sumándolas resulta :
4. Métodos De Eliminación Gaussiana
La nueva ecuación se puede sustituir por cualquiera de las dos. Ahora
tenemos:
Luego, la primera se multiplica por -3 y se le suma a la tercera, obteniendo:
Acto seguido, la segunda ecuación se divide entre -3.
Ahora se multiplica por 5 y se le suma a la tercera:
En este momento ya tenemos el valor de x3, ahora simplemente se procede a
hacer la sustitución hacia atrás, y automáticamente se van obteniendo los
valores de las otras incógnitas. Se obtendrá:
5. Método de Gauss-Jordan
El Método de Gauss – Jordan o también llamado eliminación de Gauss –
Jordan, es un método por el cual pueden resolverse sistemas de ecuaciones
lineales con n números de variables, encontrar matrices y matrices inversas,
en este caso desarrollaremos la primera aplicación mencionada.
Para resolver sistemas de ecuaciones lineales aplicando este método, se debe
en primer lugar anotar los coeficientes de las variables del sistema de
ecuaciones lineales en su notación matricial:
Entonces, anotando como matriz (también llamada matriz aumentada):
6. Método de Gauss-Jordan
Una vez hecho esto, a continuación se procede a convertir dicha matriz en una
matriz identidad, es decir una matriz equivalente a la original,
la cual es de la forma:
Esto se logra aplicando a las distintas filas y columnas de las matrices simples
operaciones de suma, resta, multiplicación y división; teniendo en cuenta que
una operación se aplicara a todos los elementos de la fila o de la columna, sea
el caso.
Obsérvese que en dicha matriz identidad no aparecen los términos
independientes, esto se debe a que cuando nuestra matriz original alcance la
forma de la matriz identidad, dichos términos resultaran ser la solución del
sistema y verificaran la igualdad para cada una de las variables,
correspondiéndose de la siguiente forma:
d1 = x
d2 = y
d3 = z
7. Descomposición LU
El método de descomposición LU para la solución de sistemas de ecuaciones
lineales debe su nombre a que se basa en la descomposición de la matriz original
de coeficientes (A) en el producto de dos matrices (L y U).
Esto es:
Donde:
L - Matriz triangular inferior
U - Matriz triangular superior con todos los elementos de la diagonal principal
iguales a 1.
De lo anterior, para matrices de 3x3 se escribe:
Si efectuamos la multiplicación de L y U, igualando los elementos de ese
producto con los de la matriz A correspondientes, se obtiene:
8. Descomposición LU
De aquí que los elementos de L y U son, en este caso:
Si el sistema de ecuaciones original se escribe como:
A x = b
lo cual resulta lo mismo escribir:
L U X = b
Definiendo a:
U X = Y
podemos escribir:
L Y = b
Resolviendo para Y, encontramos:
9. Descomposición LU
El algoritmo de solución, una vez conocidas L, U y b, consiste en encontrar
primeramente los valores de "Y" por sustitución progresiva sobre "L Y = b". En
segundo lugar se resuelve "U x = y " por sustitución regresiva para encontrar los
valores de "x", obteniendo:
La determinación de los elementos de las matrices L y U se realizan eficientemente
aplicando una forma modificada del método de eliminación de Gauss.
10. Factorización De Cholesky
Una matriz simétrica es aquella donde Aij = Aji para toda i y j, En otras
palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas de
ambos contextos: el matemático y el de ingeniería. Ellos ofrecen ventajas
computacionales ya que sólo se necesita la mitad de almacenamiento y, en la
mayoría de los casos, sólo se requiere la mitad del tiempo de cálculo para su
solución. Al contrario de la Descomposición LU, no requiere de pivoteo. El
método de Factorización de Cholesky se basa en demostrar que si una matriz
A es simétrica y definida positiva en lugar de factorizarse como LU, puede ser
factorizada como el producto de una matriz triangular inferior y la traspuesta
de la matriz triangular inferior, es decir los factores triangulares resultantes
son la traspuesta de cada uno.
Ejemplo:
Obtener la factorización de Cholesky de la siguiente matriz (entrar sólo los
elementos de U, la triangular superior)
5 7 −8
7 14 −14
−8 −14 24
11. Factorización De Cholesky
√5 7/5 √5 −8/5 √5
0 1/5 1051/2 −2/15 1051/2
0 0 2/3 211/2
Entrar el valor del determinante:
Resolver el sistema lineal Ax=b cuando b es el vector siguiente
51
84
−90
Factorización:
En cada etapa de la resolución se muestran los valores actuales de la matriz.
Los nuevos elementos calculados aparecen con su valor definitivo en color
diferente.
Calculando el elemento (1,1)
5^(1/2) 7 -8
7 14 -14
-8 -14 24
13. Factorización De Cholesky
Calculando el elemento (3,3)
5^(1/2) 7/5*5^(1/2) -8/5*5^(1/2)
7/5*5^(1/2) 1/5*105^(1/2) -2/15*105^(1/2)
-8/5*5^(1/2) -2/15*105^(1/2) 2/3*21^(1/2)
La factorización final es la siguiente, en la que aparecen las matrices UT y U, y el
vector de permutaciones:
√5 0 0
7/5 √5 1/5 1051/2 0
−8/5 √5 −2/15 1051/2 2/3 211/2
√5 7/5 √5 −8/5 √5
0 1/5 1051/2 −2/15 1051/2
0 0 2/3 211/
El valor del determinante viene dado por el producto de los elementos de la
diagonal principal de U y coincide con la diagonal principal de UT. Por tanto, es:
196
14. Sea A 2 Rmn con m n. La factorización QR de A es
A = QR = [Q1 Q2] R10 = Q1R1
Donde Q 2 Rmm es una matriz ortogonal y R1 2 Rnn es una matriz
triangular superior. Se dice que la matriz R es trapezoidal superior.
Esta factorización es útil para resolver sistemas de ecuaciones lineales,
problemas de mínimos cuadrados y problemas de eigenvalores.
Las maneras más comunes de calcular la factorización QR son aplicando
• las transformaciones de Householder,
• las rotaciones de Givens,
• el proceso de ortogonalización de Gram-Schmidt.
Sea V ∈ 𝑹 𝒏
, v ≠ 0. La matriz de Householder se define como:
𝑃 = 1 −
2
𝑣 𝑡 𝑣
𝑣 𝑡 𝑣
Factorización de QR, Householder
15. Factorización de QR, Householder
El objetivo de esta matriz es usarla para producir ceros en la matriz que queremos
factorizar. Para hacerlo, debemosconsiderar el problema:
Dados los vectores x y y, ¿cómo calculmos P tal que Px = y?
• Puesto que P realiza una reflexión, se debe cumplir que 𝑦 2 = 𝑥 2 para poder
calcular P.
• Hay que notar que P es invariante a la escala de v.
x - y tiene la dirección del vector que queremos.
Así, podemos definir v = x - y.
16. Solución De Sistemas Lineales Utilizando Métodos Iterativos
El método de Gauss y sus variantes son conocidos como métodos directos para
resolver el problema inicial Ax = b. Se ejecutan a través de un número finito de
pasos y generan una solución x que sería exacta sino fuera por los errores de
redondeo. En contraste, un método iterativo da lugar a una sucesión de vectores
que idealmente converge a la solución. El cálculo se detiene cuando se cuenta con
una solución aproximada con cierto grado de precisión especificado de antemano
o después de cierto número de iteraciones. Los métodos indirectos son casi
siempre iterativos.
Un método iterado de resolución del sistema Ax = b es aquel que genera, a partir
de un vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un método
iterado se dirá que es consistente con el sistema Ax = b, si el límite x de la
sucesión (xn), en caso de existir, es solución del sistema. Se dirá que el método es
convergente si la sucesión generada por cualquier vector inicial x0 es convergente
a la solución del sistema".Es evidente que si un método es convergente es
consistente, sin embargo, el recíproco no es cierto
17. Método De Gauss Seidel
El Método de Gauss Seidel emplea valores iniciales y después itera para obtener
estimaciones refinadas de la solución; es particularmente adecuado para un gran
número de ecuaciones, lo cual en cierto modo lo hace un método más
comúnmente usado. La fórmula utilizada para hallar los xi viene dada por el despeje
de cada una de las xi en cada una de las ecuaciones y se les da un valor inicial a cada
xi de cero.
Observase que en el método de Gauss-Seidel los valores actualizados de xi
sustituyen de inmediato a los valores anteriores, mientras que en el método de
Jacobi todas las componentes nuevas del vector se calculan antes de llevar a cabo la
sustitución. Por contra, en el método de Gauss-Seidel los cálculos deben llevarse a
cabo por orden, ya que el nuevo valor xi depende de los valores actualizados de x1,
x2, ..., x i-1.
La desventaja del método de Gauss-Seidel es que no siempre converge a la solución
exacta o algunas veces los hace de manera muy lenta. Únicamente es confiable para
aquellos sistemas dominantes diagonalmente.
18. Método de Jacobi
El Método de Jacobi transforma una matriz simétrica en una matriz diagonal al
eliminar de forma simétrica los elementos que están fuera de la diagonal.
Desafortunadamente, el método requiere un número infinito de operaciones,
ya que la eliminación de cada elemento no cero a menudo crea un nuevo
valor no cero en el elemento cero anterior. Si A es diagonalmente dominante,
entonces la sucesión que resulta de la iteración de Jacobi converge a la
solución de Ax = b para cualquier vector inicial Xo. Partimos de una
aproximación inicial Xo para las soluciones Xi al sistema de ecuaciones y
sustituimos estos valores en la ecuación:
Que es la expresión que nos proporciona las nuevas componentes del vector
x(k) en función de vector anterior x(k-1) en la iteración de Jacobi, en su
respectivo algoritmo; donde el a el método de Jacobi más que usar el último
valor disponible de , con base en un conjunto de las x anteriores (). De esta
forma, como se generan nuevos valores, no se usan en forma inmediata sino
que se retienen para la siguiente iteración.