Este documento resume diversos métodos numéricos para resolver sistemas de ecuaciones, incluyendo el método de eliminación de Gauss, el método de Gauss-Jordan, la descomposición LU, la factorización de Cholesky, y métodos iterativos como Gauss-Seidel y Jacobi. Explica que estos métodos utilizan operaciones matriciales para eliminar variables gradualmente y obtener la solución de sistemas de ecuaciones de manera numérica.
El sistema solar el gran descubrimiento del sistema solar .pptx
Resumen analisis numerico
1. UNIVERSIDAD FERMÍN TORO
VICERECTORADO ACADEMICO
FACULTAD DE INGENIERÍA
ESCUELA DE COMPUTACIÓN
CABUDARE- EDO. LARA
Análisis numérico
Autora:
María Escalona
CABUDARE, JULIO DEL 2017
2. Métodos numéricos para resolver sistemas de ecuaciones
En el presente resumen se explorara diversas metodologías para la resolución de
sistemas de ecuaciones, empleando matrices que permiten utilizar algoritmos para
solucionar estos sistemas.
En este sentido los métodos son:
Métodos De Eliminación Gaussiana:
El proceso de eliminación de Gauss, consiste en la eliminación gradual de variables en
el sistema de ecuaciones, hasta que se obtenga sólo una ecuación con una incógnita y
una vez resultado, se procede a sustituir hasta obtener los valores de todas las variables
asimismo se emplean operaciones elementales por filas utilizando matrices.
El problema de la eliminación Gauss es que se debe dividir entre el pivote y si es un
número muy pequeño, el error de redondeo puede presentar ciertas dudas en el
resultado
Método de Gauss-Jordan:
El proceso de eliminación de Gauss Jordán consiste en realizar Transformaciones
elementales en el sistema inicial, predestinadas a convertirlo en un sistema diagonal. El
número de operaciones elementales de este método, es superior al del método de Gauss
Descomposición LU :
Este se fundamente en manifestar que una matriz A se puede factorizar como el producto de una
matriz triangular inferior L con una matriz triangular superior U, donde en el paso de
eliminación sólo se involucran operaciones sobre los coeficientes de la matriz, permitiendo así
evaluar los términos independientes bi de manera eficiente. Asimismo puede variar dependiendo
de los valores iniciales de la diagonal que tomas las matrices, puesto que si los valores de la
diagonal de la matriz L tienen 1 es una descomposición Doolitle pero si los valores de la
diagonal de U tiene 1 es una descomposición Crout
Factorización De Cholesky:
Una matriz es simétrica si [A] = [A] T, asimismo es importante destacar que no requiere
pivoteo. Este método se consiste en demostrar que si una matriz A es simétrica y definida
positiva , puede ser factorizada como el producto de una matriz triangular inferior y la
traspuesta de la matriz triangular inferior, es decir los factores triangulares resultantes son la
traspuesta de cada uno.
Factorización de QR, Householder:
Este consiste en descomponer la matriz Amxn en el producto de dos matrices:
Una matriz Ortogonal: Qmxn ® QT. Q = INxN
Una matriz Triangular Superior: U = RNxN
Solución De Sistemas Lineales Utilizando Métodos Iterativos:
Es aquel que produce, a partir de un vector inicial x0, una sucesión de vectores x1, x2, .
. . xn.. , se categoriza como consistente con el sistema Ax = b, si el límite x de la
sucesión (xn), en caso de existir, esta solución del sistema. Asimismo el método es
3. convergente si la sucesión generada por cualquier vector inicial x0 es convergente a la
solución del sistema.
Método De Gauss Seidel:
Este utiliza valores iniciales y después itera para obtener estimaciones refinadas de la
solución por ende los valores se van actualizando; asimismo es adecuado emplearlo
cuando se tiene un gran número de ecuaciones. La fórmula utilizada para hallar la xi
viene proporcionada por el despeje de cada una de las xi en cada una de las ecuaciones y
se les da un valor inicial a cada xi de cero.
Método de Jacobi:
Este transforma una matriz simétrica en una matriz diagonal al eliminar de forma
simétrica los elementos que están fuera de la diagonal, lamentablemente este método
amerita un número infinito de operaciones , puesto que al eliminar cada elemento
diferente de 0 porque comúnmente crea un nuevo valor diferente a 0 , en el elemento 0
anterior. Por otra parte si A es diagonalmente dominante, entonces la sucesión que
resulta de la iteración de Jacobi converge a la solución de Ax = b para cualquier vector
inicial Xo. Partimos de una aproximación inicial Xo para las soluciones Xi al sistema de
ecuaciones y sustituimos estos valores en la ecuación.