Este documento describe varios métodos para resolver sistemas de ecuaciones lineales, incluyendo la eliminación de Gauss, la descomposición LU, la factorización de Cholesky, y los métodos iterativos de Gauss-Seidel y Jacobi. Explica las ventajas y desventajas de cada método y en qué casos son más adecuados.
2. Solución de Sistemas de
Ecuaciones Lineales
BARQUISIMETO, JUNIO DE 2013
UNIVERSIDAD FERMIN TORO
VICE RECTORADO ACADEMICO
ESCUELA DE ELECTRICA
INTEGRANTE: YELIMAR YEPEZ
TUTOR: DOMINGO MÉNDEZ
3. El proceso de eliminación de Gaussisana o de Gauss, consiste
en realizar transformaciones elementales en el sistema inicial
(intercambio de filas, intercambio de columnas, multiplicación de
filas o columnas por constantes, operaciones con filas o columnas,
. . . ), destinadas a transformarlo en un sistema triangular
superior, que se resolvera por remonte. Además, la matriz de
partida tiene el mismo determinante que la matriz de llegada, cuyo
determinante es el producto de los coeficientes diagonales de la
matriz.
4. Uno de los problemas de la eliminación Gaussiana es que se
debe dividir entre el pivote; si este es un número muy pequeño,
entonces un error de redondeo puede arrojar serias dudas sobre la
respuesta final.
En forma general este método propone la eliminación
progresiva de variables en el sistema de ecuaciones, hasta tener
sólo una ecuación con una incógnita. Una vez resuelta esta, se
procede por sustitución regresiva hasta obtener los valores de
todas las variables.
5. El proceso de eliminación de Gauss - Jordán consiste en
realizar transformaciones elementales en el sistema inicial,
destinadas a transformarlo en un sistema diagonal. El número de
operaciones elementales de este método, es superior al del
método de Gauss (alrededor de un 50% más).
6. Sin embargo, a la hora de resolver el sistema de llegada por
remonte, el número de operaciones es menor, motivo por el cual,
el método de Gauss - Jordán es un método computacionalmente
bueno cuando se tiene que resolver varios sistemas con la misma
matriz A y resolverlos simultáneamente, utilizando el algoritmo de
Gauss-Jordán.
7. En base a lo anteriormente expuesto, solo se haria un
proceso de eliminación en la matriz y la resolución de un sistema
con esta matriz es muy fácil. Un ejemplo en el que se suele usar
Gauss - Jordán es en el cálculo de la matriz inversa, ya que
calcular la inversa de A, es calcular N sistemas con la misma
matriz.
8. El método de Descomposición LU se basa en demostrar que
una matriz A se puede factorizar como el producto de una matriz
triangular inferior L con una matriz triangular superior U, donde
en el paso de eliminación sólo se involucran operaciones sobre
los coeficientes de la matriz, permitiendo así evaluar los
términos independientes bi de manera eficiente.
9. La implementación del algoritmo de la descomposición LU
tiene sus variantes en cuanto a los valores iniciales de la
diagonal que tomen las matrices L y U, es decir, si los valores de
la diagonal de la matriz L tiene números 1, formalmente esto se
refiere a la Descomposición de Doolitle. Pero si los valores de la
diagonal de la matriz U tiene números 1, formalmente esto se
refiere a la Descomposición de Crout
10. Una matriz simétrica es aquella donde Aij = Aji para toda i y j,
En otras palabras, [A] =[A] T. Tales sistemas ocurren comúnmente
en problemas de ambos contextos: el matemático y el de
ingeniería.
Ellos ofrecen ventajas computacionales ya que sólo se
necesita la mitad de almacenamiento y, en la mayoría de los
casos, sólo se requiere la mitad del tiempo de cálculo para su
solución.
11. Al contrario de la Descomposición LU, no requiere de pivoteo.
El método de Factorización de Cholesky se basa en demostrar
que si una matriz A es simétrica y definida positiva en lugar de
factorizarse como LU, puede ser factorizada como el producto de
una matriz triangular inferior y la traspuesta de la matriz
triangular inferior, es decir los factores triangulares resultantes
son la traspuesta de cada uno.
A = L . LT
12. Anteriormente se analizo la factorización LU de una matriz el
cual conduce a un método muy eficiente para resolver un sistema
lineal.
Otro método de factorización de una A, llamada factorización
QR de A. Esta factorización se usa ampliamente en los
programas de computadora para determinar valores propios de
una matriz, para resolver sistemas lineales y para determinar
aproximaciones por mínimos cuadrados
13. En muchas aplicaciones el número de filas (M) de una matriz
de coeficientes Amxn puede ser 3 al número de columnas (N). La
Factorización QR consiste en descomponer la matriz Amxn en el
producto de dos matrices:
Una matriz Ortogonal: Qmxn ® QT. Q = INxN
Una matriz Triangular Superior: U = RNxN
Para encontrar las matrices Q y R se utiliza un método basado en
Transformaciones Sucesivas de Householder.
14. El método de Gauss y sus variantes son conocidos como métodos
directos para resolver el problema inicial Ax = b. Se ejecutan a
través de un número finito de pasos y generan una solución x que
sería exacta sino fuera por los errores de redondeo. En contraste, un
método iterativo da lugar a una sucesión de vectores que idealmente
converge a la solución. El cálculo se detiene cuando se cuenta con
una solución aproximada con cierto grado de precisión especificado
de antemano o después de cierto número de iteraciones. Los
métodos indirectos son casi siempre iterativos.
15. Un método iterado de resolución del sistema Ax = b es aquel que
genera, a partir de un vector inicial x0, una sucesión de vectores x1,
x2, . . . xn.. "Un método iterado se dirá que es consistente con el
sistema Ax = b, si el límite x de la sucesión (xn), en caso de existir,
es solución del sistema. Se dirá que el método es convergente si la
sucesión generada por cualquier vector inicial x0 es convergente a
la solución del sistema".
Es evidente que si un método es convergente es consistente, sin
embargo, el recíproco no es cierto.
16. El Método de Gauss Seidel emplea valores iniciales y
después itera para obtener estimaciones refinadas de la
solución; es particularmente adecuado para un gran número de
ecuaciones, lo cual en cierto modo lo hace un método más
comúnmente usado. La fórmula utilizada para hallar los xi viene
dada por el despeje de cada una de las xi en cada una de las
ecuaciones y se les da un valor inicial a cada xi de cero.
17. En el método de Gauss-Seidel los valores actualizados de xi
sustituyen de inmediato a los valores anteriores, mientras que en
el método de Jacobi todas las componentes nuevas del vector se
calculan antes de llevar a cabo la sustitución. Por contra, en el
método de Gauss-Seidel los cálculos deben llevarse a cabo por
orden, ya que el nuevo valor xi depende de los valores
actualizados de x1, x2, ..., x i-1.
18. La desventaja del método de Gauss-Seidel es que no siempre
converge a la solución exacta o algunas veces los hace de
manera muy lenta. Únicamente es confiable para aquellos
sistemas dominantes diagonalmente.
19. El Método de Jacobi transforma una matriz simétrica en una
matriz diagonal al eliminar de forma simétrica los elementos que
están fuera de la diagonal.
Desafortunadamente, el método requiere un número infinito
de operaciones, ya que la eliminación de cada elemento no cero
a menudo crea un nuevo valor no cero en el elemento cero
anterior.
20. Si A es diagonalmente dominante, entonces la sucesión que
resulta de la iteración de Jacobi converge a la solución de Ax = b
para cualquier vector inicial Xo. Partimos de una aproximación
inicial Xo para las soluciones Xi al sistema de ecuaciones y
sustituimos estos valores en la ecuación.
21. Que es la expresión que proporciona las nuevas
componentes del vector x(k) en función de vector anterior x(k-1)
en la iteración de Jacobi, en su respectivo algoritmo; donde el a
el método de Jacobi más que usar el último valor disponible de ,
con base en un conjunto de las x anteriores (). De esta forma,
como se generan nuevos valores, no se usan en forma inmediata
sino que se retienen para la siguiente iteración.