1. República Bolivariana de Venezuela
Ministerio del Poder Popular para la Educación Universitaria
Universidad “Fermín Toro”
Facultad de ingeniería
Análisis Numérico: Solución de Sistemas de
Ecuaciones Lineales
Autor: Manuel Martínez
CI: V-23835127
Sección: SAIA ‘‘B’’
2. MÉTODO DE ELIMINACIÓN DE GAUSSIANA
El proceso de eliminación de Gaussisana o de Gauss, consiste en realizar
transformaciones elementales en el sistema inicial (intercambio de filas,
intercambio de columnas, multiplicación de filas o columnas por constantes,
operaciones con filas o columnas, . . . ), destinadas a transformarlo en un
sistema triangular superior, que resolveremos por remonte. Además, la matriz
de partida tiene el mismo determinante que la matriz de llegada, cuyo
determinante es el producto de los coeficientes diagonales de la matriz.
Uno de los problemas de la eliminación Gaussiana es que debemos dividir
entre el pivote; si este es un número muy pequeño, entonces un error de
redondeo puede arrojar serias dudas sobre la respuesta final. En forma
general este método propone la eliminación progresiva de variables en el
sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una
vez resuelta esta, se procede por sustitución regresiva hasta obtener los
valores de todas las variables.
3. MÉTODO DE GAUSS-JORDAN
En matemáticas, la eliminación de Gauss-Jordan, llamada así debido
a Carl Friedrich Gauss y Wilhelm Jordan, es un algoritmo del álgebra
lineal para determinar las soluciones de un sistema de ecuaciones
lineales, encontrar matrices e inversas.
Un sistema de ecuaciones se resuelve por el método de Gauss
cuando se obtienen sus soluciones mediante la reducción del sistema
dado a otro equivalente en el que cada ecuación tiene una incógnita
menos que la anterior. El método de Gauss transforma la matriz de
coeficientes en una matriz triangular superior. El método de Gauss-
Jordan continúa el proceso de transformación hasta obtener una
matriz diagonal.
4. DESCOMPOSICIÓN LU
El método de Descomposición LU se basa en demostrar que una matriz A
se puede factorizar como el producto de una matriz triangular inferior L con
una matriz triangular superior U, donde en el paso de eliminación sólo se
involucran operaciones sobre los coeficientes de la matriz, permitiendo así
evaluar los términos independientes bi de manera eficiente.
La implementación del algoritmo de la Descomposición LU tiene sus
variantes en cuanto a los valores iniciales de la diagonal que tomen las
matrices L y U, es decir si los valores de la diagonal de la matriz L tiene
números 1, formalmente esto se refiere a la Descomposición de Doolitle.
Pero si los valores de la diagonal de la matriz U tiene números 1,
formalmente esto se refiere a la Descomposición de Crout
5. FACTORIZACIÓN DE CHOLESKY
Una matriz simétrica es aquella donde Aij = Aji para toda i y j, En otras
palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas de
ambos contextos: el matemático y el de ingeniería.
Ellos ofrecen ventajas computacionales ya que sólo se necesita la mitad de
almacenamiento y, en la mayoría de los casos, sólo se requiere la mitad del
tiempo de cálculo para su solución.
Al contrario de la Descomposición LU, no requiere de pivoteo. El método de
Factorización de Cholesky se basa en demostrar que si una matriz A es
simétrica y definida positiva en lugar de factorizarse como LU, puede ser
factorizada como el producto de una matriz triangular inferior y la traspuesta de
la matriz triangular inferior, es decir los factores triangulares resultantes son la
traspuesta de cada uno.
6. MÉTODO DE GAUSS-SEIDEL
En análisis numérico el método de Gauss-Seidel es un método iterativo
utilizado para resolver sistemas de ecuaciones lineales. El método se llama
así en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp
Ludwig von Seidel y es similar al método de Jacobi.
Aunque este método puede aplicarse a cualquier sistema de ecuaciones
lineales que produzca una matriz (cuadrada, naturalmente pues para que
exista solución única, el sistema debe tener tantas ecuaciones como
incógnitas) de coeficientes con los elementos de su diagonal no-nulos, la
convergencia del método solo se garantiza si la matriz es diagonalmente
dominante o si es simétrica y, a la vez, definida positiva.
La desventaja del método de Gauss-Seidel es que no siempre
converge a la solución exacta o algunas veces los hace de manera muy
lenta. Únicamente es confiable para aquellos sistemas dominantes
diagonalmente.
7. MÉTODO DE JACOBI
En análisis numérico el método de Jacobi es un método iterativo, usado para
resolver sistemas de ecuaciones lineales del tipo Ax+ b. El algoritmo toma su
nombre del matemático alemán Carl Gustav Jakob Jacobi. El método de
Jacobi consiste en usar fórmulas como iteración de punto fijo.
La base del método consiste en construir una sucesión convergente definida
iterativamente. El límite de esta sucesión es precisamente la solución del
sistema. A efectos prácticos si el algoritmo se detiene después de un número
finito de pasos se llega a una aproximación al valor de x de la solución del
sistema.
El método de Jacobi es el método iterativo más elemental; método iterativo ya
que el proceso se repite tantas veces hasta llegara una tolerancia, a partir de
un vecotr inicial (el vector de ceros la mayoría de las veces).