Este documento presenta varios métodos para resolver sistemas de ecuaciones lineales, incluyendo métodos de eliminación como el método de Gauss y Gauss-Jordan, y métodos iterativos como Gauss-Seidel y Jacobi. Explica cada método y proporciona ejemplos numéricos para ilustrarlos.
Factores que intervienen en la Administración por Valores.pdf
Froilan Ramos Métodos de Eliminación Gaussiana
1. Universidad Fermín Toro
Vicerrectorado Académico
Facultad de Ingeniería
Cabudare – Estado Lara
Unidad III
Métodos de Eliminación Gaussiana
Alumno:
Ramos Froilán
C.I.: 23.849.723
Sección: SAIA - A
Diciembre 2016
2. Introducción
Como principal objetivo, esta unidad, nos lleva a conocer y
entender los distintos métodos de resolución de sistemas de
ecuaciones lineales, los de eliminación y los iterativos. Dentro
de los métodos de eliminación tenemos: Eliminación gaussiana,
el método de eliminación de Gauss-Jordan, (descomposición
LU, factorización de Cholesky y el de QR, factorización
Householder) y para los métodos iterativos, tenemos el de
Gauss Seidel y el de Jacobi.
Por tanto, se efectuara un resumen con respecto a los
métodos de eliminación gaussiana para el estudio a fondo de
cada una de ellas, y así encontrar cada uno de sus usos en las
distintas áreas de trabajos, con ejercicios explicativos.
3. Métodos De Eliminación Gaussiana
En forma general este método propone la eliminación progresiva de
variables en el sistema de ecuaciones, hasta tener sólo una
ecuación con una incógnita. Una vez resuelta esta, se procede por
sustitución regresiva hasta obtener los valores de todas las
variables. Sea por ejemplo el siguiente sistema de ecuaciones:
Lo que buscamos son 3 números, que satisfagan a las tres
ecuaciones. El método de solución será simplificar las ecuaciones,
de tal modo que las soluciones se puedan identificar con facilidad.
Se comienza dividiendo la primera ecuación entre 2, obteniendo:
Se simplificará el sistema si multiplicamos por -4 ambos lados de la
primera ecuación y sumando esta a la segunda. Entonces:
sumándolas resulta :
4. Métodos De Eliminación Gaussiana
La nueva ecuación se puede sustituir por cualquiera de las dos.
Ahora tenemos:
Luego, la primera se multiplica por -3 y se le suma a la tercera,
obteniendo:
Acto seguido, la segunda ecuación se divide entre -3.
Ahora se multiplica por 5 y se le suma a la tercera:
En este momento ya tenemos el valor de x3, ahora simplemente
se procede a hacer la sustitución hacia atrás, y automáticamente
se van obteniendo los valores de las otras incógnitas. Se
obtendrá: , ,
5. Método de Gauss-Jordan
El Método de Gauss – Jordan o también llamado eliminación de
Gauss – Jordan, es un método por el cual pueden resolverse
sistemas de ecuaciones lineales con n números de variables,
encontrar matrices y matrices inversas, en este caso
desarrollaremos la primera aplicación mencionada.
Para resolver sistemas de ecuaciones lineales aplicando este
método, se debe en primer lugar anotar los coeficientes de las
variables del sistema de ecuaciones lineales en su notación
matricial:
Entonces, anotando como matriz (también llamada matriz
aumentada):
6. Método de Gauss-Jordan
Una vez hecho esto, a continuación se procede a convertir dicha
matriz en una matriz identidad, es decir una matriz equivalente a
la original, la cual es de la forma:
Esto se logra aplicando a las distintas filas y columnas de las
matrices simples operaciones de suma, resta, multiplicación y
división; teniendo en cuenta que una operación se aplicara a
todos los elementos de la fila o de la columna, sea el caso.
Obsérvese que en dicha matriz identidad no aparecen los
términos independientes, esto se debe a que cuando nuestra
matriz original alcance la forma de la matriz identidad, dichos
términos resultaran ser la solución del sistema y verificaran la
igualdad para cada una de las variables, correspondiéndose de la
siguiente forma:
d1 = x
d2 = y
d3 = z
7. Descomposición LU
El método de descomposición LU para la solución de sistemas de
ecuaciones lineales debe su nombre a que se basa en la
descomposición de la matriz original de coeficientes (A) en el
producto de dos matrices (L y U).
Esto es:
Donde:
L - Matriz triangular inferior
U - Matriz triangular superior con todos los elementos de la
diagonal principal iguales a 1.
De lo anterior, para matrices de 3x3 se escribe:
Si efectuamos la multiplicación de L y U, igualando los
elementos de ese producto con los de la matriz A
correspondientes, se obtiene:
8. Descomposición LU
De aquí que los elementos de L y U son, en este caso:
Si el sistema de ecuaciones original se escribe como:
A x = b
lo cual resulta lo mismo escribir:
L U X = b
Definiendo a:
U X = Y
podemos escribir:
L Y = b
Resolviendo para Y, encontramos:
9. Descomposición LU
El algoritmo de solución, una vez conocidas L, U y b, consiste en
encontrar primeramente los valores de "Y" por sustitución progresiva
sobre "L Y = b". En segundo lugar se resuelve "U x = y " por
sustitución regresiva para encontrar los valores de "x", obteniendo:
La determinación de los elementos de las matrices L y U se realizan
eficientemente aplicando una forma modificada del método de
eliminación de Gauss.
10. Factorización De Cholesky
Una matriz simétrica es aquella donde Aij = Aji para toda i y j, En
otras palabras, [A] =[A] T. Tales sistemas ocurren comúnmente
en problemas de ambos contextos: el matemático y el de
ingeniería. Ellos ofrecen ventajas computacionales ya que sólo
se necesita la mitad de almacenamiento y, en la mayoría de los
casos, sólo se requiere la mitad del tiempo de cálculo para su
solución. Al contrario de la Descomposición LU, no requiere de
pivoteo. El método de Factorización de Cholesky se basa en
demostrar que si una matriz A es simétrica y definida positiva en
lugar de factorizarse como LU, puede ser factorizada como el
producto de una matriz triangular inferior y la traspuesta de la
matriz triangular inferior, es decir los factores triangulares
resultantes son la traspuesta de cada uno.
Ejemplo:
Obtener la factorización de Cholesky de la siguiente matriz
(entrar sólo los elementos de U, la triangular superior)
5 7 −8
7 14 −14
−8 −14 24
11. Factorización De Cholesky
√5 8 -4
√4 -3 1
9 √3 7
Entrar el valor del determinante:
Resolver el sistema lineal Ax=b cuando b es el vector siguiente
51
84
−90
Factorización:
En cada etapa de la resolución se muestran los valores actuales de
la matriz.
Los nuevos elementos calculados aparecen con su valor definitivo
en color
diferente.
Calculando el elemento (1,1) 51/2 7 -8
7 14 -14
-8 -14 24
14. Solución De Sistemas Lineales Utilizando Métodos Iterativos
El método de Gauss y sus variantes son conocidos como métodos
directos para resolver el problema inicial Ax = b. Se ejecutan a través
de un número finito de pasos y generan una solución x que sería
exacta sino fuera por los errores de redondeo. En contraste, un
método iterativo da lugar a una sucesión de vectores que idealmente
converge a la solución. El cálculo se detiene cuando se cuenta con
una solución aproximada con cierto grado de precisión especificado
de antemano o después de cierto número de iteraciones. Los métodos
indirectos son casi siempre iterativos.
Un método iterado de resolución del sistema Ax = b es aquel que
genera, a partir de un vector inicial x0, una sucesión de vectores x1,
x2, . . . xn.. "Un método iterado se dirá que es consistente con el
sistema Ax = b, si el límite x de la sucesión (xn), en caso de existir, es
solución del sistema. Se dirá que el método es convergente si la
sucesión generada por cualquier vector inicial x0 es convergente a la
solución del sistema".Es evidente que si un método es convergente es
consistente, sin embargo, el recíproco no es cierto
15. Método De Gauss Seidel
El Método de Gauss Seidel emplea valores iniciales y después itera
para obtener estimaciones refinadas de la solución; es
particularmente adecuado para un gran número de ecuaciones, lo
cual en cierto modo lo hace un método más comúnmente usado. La
fórmula utilizada para hallar los xi viene dada por el despeje de cada
una de las xi en cada una de las ecuaciones y se les da un valor inicial
a cada xi de cero.
Observase que en el método de Gauss-Seidel los valores actualizados
de xi sustituyen de inmediato a los valores anteriores, mientras que
en el método de Jacobi todas las componentes nuevas del vector se
calculan antes de llevar a cabo la sustitución. Por contra, en el
método de Gauss-Seidel los cálculos deben llevarse a cabo por orden,
ya que el nuevo valor xi depende de los valores actualizados de x1,
x2, ..., x i-1.
La desventaja del método de Gauss-Seidel es que no siempre
converge a la solución exacta o algunas veces los hace de manera
muy lenta. Únicamente es confiable para aquellos sistemas
dominantes diagonalmente.
16. Método de Jacobi
El Método de Jacobi transforma una matriz simétrica en una
matriz diagonal al eliminar de forma simétrica los elementos que
están fuera de la diagonal. Desafortunadamente, el método
requiere un número infinito de operaciones, ya que la
eliminación de cada elemento no cero a menudo crea un nuevo
valor no cero en el elemento cero anterior. Si A es diagonalmente
dominante, entonces la sucesión que resulta de la iteración de
Jacobi converge a la solución de Ax = b para cualquier vector
inicial Xo. Partimos de una aproximación inicial Xo para las
soluciones Xi al sistema de ecuaciones y sustituimos estos
valores en la ecuación:
Que es la expresión que nos proporciona las nuevas
componentes del vector x(k) en función de vector anterior x(k-1) en
la iteración de Jacobi, en su respectivo algoritmo; donde el a el
método de Jacobi más que usar el último valor disponible de ,
con base en un conjunto de las x anteriores (). De esta forma,
como se generan nuevos valores, no se usan en forma inmediata
sino que se retienen para la siguiente iteración.