1) Los métodos de eliminación gaussiana, como la descomposición LU y la factorización de Cholesky, se utilizan para resolver sistemas de ecuaciones lineales al transformar la matriz en una forma triangular. 2) Los métodos iterativos como Gauss-Seidel y Jacobi generan sucesivas aproximaciones a la solución inicializando valores y actualizándolos hasta converger. 3) Estos métodos numéricos son útiles para resolver sistemas de ecuaciones que surgen en problemas de ingeniería.
Métodos de eliminación gaussiana y resolución de sistemas lineales
1. Julio Pérez C.I: 24567233
UNIVERSIDAD FERMIN TORO
VICE-RECTORADO ACADEMICO
FACULTAD DE INGENIERIA
ESCUELA DE INGENIERIA ELECTRICA
CABUDARE-LARA
Métodos De Eliminación
Gaussiana
2.
Métodos De Eliminación Gaussiana
El proceso de eliminación de Gaussisana o de Gauss, consiste en
realizar transformaciones elementales en el sistema inicial
intercambio de filas, intercambio de columnas, multiplicación de filas o
columnas por constantes, operaciones con filas o columnas), destinadas a
transformarlo en un sistema triangular superior, que resolveremos por
remonte. Además, la matriz de partida tiene el mismo determinante que la
matriz de llegada, cuyo determinante es el producto de los coeficientes
diagonales de la matriz.
Uno de los problemas de la eliminación Gaussiana es que debemos
dividir entre el pivote; si este es un número muy pequeño, entonces un
error de redondeo puede arrojar serias dudas sobre la respuesta final. En
forma general este método propone la eliminación progresiva de variables en
el sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una
vez resuelta esta, se procede por sustitución regresiva hasta obtener los
valores de todas las variables.
3. 1. Método de Gauss-Jordan
Esto consiste en realizar transformaciones elementales en el
sistema inicial, destinadas a transformarlo en un sistema diagonal. El
número de operaciones elementales de este método, es superior al del
método de Gauss.
Sin embargo, a la hora de resolver el sistema de llegada por
remonte, el número de operaciones es menor, motivo por el cual, el
método de Gauss - Jordán es un método computacionalmente bueno
cuando tenemos que resolver varios sistemas con la misma matriz A y
resolverlos simultáneamente, utilizando el algoritmo de Gauss-Jordán.
Métodos de Eliminación Gussiana
utilizando métodos Numéricos
4.
2. Descomposición LU
El método de Descomposición LU se basa en demostrar
que una matriz A se puede factorizar como el producto de una
matriz triangular inferior L con una matriz triangular superior U,
donde en el paso de eliminación sólo se involucran operaciones
sobre los coeficientes de la matriz, permitiendo así evaluar los
términos independientes bi de manera eficiente.
La implementación del algoritmo de la Descomposición
LU tiene sus variantes en cuanto a los valores iniciales de la
diagonal que tomen las matrices L y U, es decir si los valores de la
diagonal de la matriz L tiene números 1, formalmente esto se
refiere a la Descomposición de Doolitle. Pero si los valores de la
diagonal de la matriz U tiene números 1, formalmente esto se
refiere a la Descomposición de Crout.
5.
3. Factorización De Cholesky
Se basa en demostrar que si una matriz A es simétrica y definida
positiva en lugar de factorizarse como LU, puede ser factorizada como el
producto de una matriz triangular inferior y la traspuesta de la matriz
triangular inferior, es decir los factores triangulares resultantes son la
traspuesta de cada uno.
A = L . LT
¿DEBEMOS SABER? Una matriz simétrica es aquella donde Aij = Aji
para toda i y j, En otras palabras, [A] =[A] T. Tales sistemas ocurren
comúnmente en problemas de ambos contextos: el matemático y el de
ingeniería. Ellos ofrecen ventajas computacionales ya que sólo se necesita la
mitad de almacenamiento y, en la mayoría de los casos, sólo se requiere la
mitad del tiempo de cálculo para su solución.
6.
Factorización QR de una matriz es una descomposición de la misma como
producto de una matriz ortogonal por una triangular superior. La descomposición QR es la
base del algoritmo QR utilizado para el cálculo de los vectores y valores propios de una
matriz.
La descomposición QR de una matriz cuadrada real A es
A=QR, donde Q es una matriz ortogonal (QTQ = I ) y R es una matriz triangular superior.
Transformacion Householder: Es una transformación que refleja el espacio
con respecto a un plano determinado. Esta propiedad se puede utilizar para
realizar la transformación QR de una matriz si tenemos en cuenta que es
posible elegir la matriz de Householder de manera que un vector elegido
quede con una única componente no nula tras ser transformado (es decir,
premultiplicando por la matriz de Householder).
Anteriormente analizamos la factorización LU de una matriz el cual
conduce aun método muy eficiente para resolver un sistema lineal. Otro
método de factorización de una A, llamada factorización QR de A. Esta
factorización se usa ampliamente en los programas de computadora para
determinar valores propios de una matriz, para resolver sistemas lineales y
para determinar aproximaciones por mínimos cuadrados.
7.
Un método iterado de resolución del sistema Ax = b
es aquel que genera, a partir de un vector inicial x0, una
sucesión de vectores x1, x2, . . . xn..
Un método iterado se dirá que es consistente con el
sistema Ax = b, si el límite x de la sucesión (xn), en caso de
existir, es solución del sistema. Se dirá que el método es
convergente si la sucesión generada por cualquier vector
inicial x0 es convergente a la solución del sistema.
Es evidente que si un método es convergente es
consistente, sin embargo, el recíproco no es cierto.
Solución De Sistemas Lineales
Utilizando Métodos Iterativos
8.
1. Método De Gauss Seidel
El Método de Gauss Seidel emplea valores iniciales y después
itera para obtener estimaciones refinadas de la solución; es
particularmente adecuado para un gran número de ecuaciones, lo
cual en cierto modo lo hace un método más comúnmente usado. La
fórmula utilizada para hallar los xi viene dada por el despeje de cada
una de las xi en cada una de las ecuaciones y se les da un valor inicial
a cada xi de cero.
Observase que en el método de Gauss-Seidel los valores
actualizados de xi sustituyen de inmediato a los valores anteriores,
mientras que en el método de Jacobi todas las componentes nuevas
del vector se calculan antes de llevar a cabo la sustitución. Por contra,
en el método de Gauss-Seidel los cálculos deben llevarse a cabo por
orden, ya que el nuevo valor xi depende de los valores actualizados
de x1, x2, ..., x i-1.
La desventaja del método de Gauss-Seidel es que no
siempre converge a la solución exacta o algunas veces los hace de
manera muy lenta. Únicamente es confiable para aquellos sistemas
dominantes diagonalmente.
9.
2. Método de Jacobi
El Método de Jacobi transforma una matriz simétrica en una
matriz diagonal al eliminar de forma simétrica los elementos que
están fuera de la diagonal. Desafortunadamente, el método requiere
un número infinito de operaciones, ya que la eliminación de cada
elemento no cero a menudo crea un nuevo valor no cero en el
elemento cero anterior. Si A es diagonalmente dominante, entonces la
sucesión que resulta de la iteración de Jacobi converge a la solución de
Ax = b para cualquier vector inicial Xo. Partimos de una aproximación
inicial Xo para las soluciones Xi al sistema de ecuaciones y sustituimos
estos valores en la ecuación:
Que es la expresión que nos proporciona las nuevas
componentes del vector x (k) en función de vector anterior x (k-1) en la
iteración de Jacobi, en su respectivo algoritmo; donde el a el método
de Jacobi más que usar el último valor disponible de , con base en un
conjunto de las x anteriores (). De esta forma, como se generan nuevos
valores, no se usan en forma inmediata sino que se retienen para la
siguiente iteración.