1. República Bolivariana De Venezuela
Universidad Fermín Toro
Escuela de Ingeniería
Cabudare/Lara
Análisis Numérico
Integrantes:
Jose Carlo Rodriguez P.
CI: 22.200.397
2. ELIMINACION DE GAUSSIANA
DEFINICION
El método de eliminación Gaussiana para la solución de sistemas de ecuaciones
lineales consiste en convertir a través de operaciones básicas llamadas operaciones
de renglón un sistema en otro equivalente más sencillo cuya respuesta pueda leerse
de manera directa. El método de eliminación Gaussiana es el mismo para sistemas de
ecuaciones 2×2, 3×3, 4×4 y así sucesivamente siempre y cuando se respete la
relación de al menos una ecuación por cada variable.
Antes de ilustrar el método con un ejemplo, es necesario primeramente conocer las
operaciones básicas de renglón las cuales son presentas a continuación:
1. Ambos miembros de una ecuación pueden multiplicarse por una constante diferente
de cero.
2. Los múltiplos diferentes de cero de una ecuación pueden sumarse a otra ecuación
3. El orden de las ecuaciones es intercambiable.
METODO DE GAUSS-JORDAN
En matemáticas, la eliminación de Gauss-Jordan, llamada así debido a Carl Friedrich
Gauss y Wilhelm Jordan, es un algoritmo del álgebra lineal para determinar las
soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un
sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus
soluciones mediante la reducción del sistema dado a otro equivalente en el que cada
ecuación tiene una incógnita menos que la anterior. El método de Gauss transforma la
matriz de coeficientes en una matriz triangular superior. El método de Gauss-Jordan
continúa el proceso de transformación hasta obtener una matriz diagonal.
Algoritmo de eliminación de Gauss-Jordan
1. Ir a la columna no cero extrema izquierda
2. Si la primera fila tiene un cero en esta columna, intercambiarlo con otra que no
lo tenga.
3. Luego, obtener ceros debajo de este elemento delantero, sumando múltiplos
adecuados del renglón superior a los renglones debajo de él.
4. Cubrir el renglón superior y repetir el proceso anterior con la submatriz
restante. Repetir con el resto de los renglones (en este punto la matriz se
encuentra en forma escalonada).
5. Comenzando con el último renglón no cero, avanzar hacia arriba: para cada
renglón obtener un 1 delantero e introducir ceros arriba de éste sumando
múltiplos correspondientes a los renglones correspondientes.
3. Una variante interesante de la eliminación de Gauss es la que llamamos eliminación
de Gauss-Jordan, (debido al mencionado Gauss y a Wilhelm Jordan), esta consiste en
ir obteniendo los 1 delanteros durante los pasos uno al cuatro (llamados paso directo)
así para cuando estos finalicen ya se obtendrá la matriz en forma escalonada
reducida.
DESCOMPOSICION LU
En el álgebra lineal, la factorización o descomposición LU (del inglés Lower-Upper) es
una forma de factorización de una matriz como el producto de una matriz triangular
inferior y una superior. Debido a la inestabilidad de este método, deben tenerse en
cuenta algunos casos especiales, por ejemplo, si uno o varios elementos de la
diagonal principal de la matriz a factorizar es cero, es necesario premultiplicar la matriz
por una o varias matrices elementales de permutación. Método llamado factorización
o con pivote. Esta descomposición se usa en el análisis numérico
para resolver sistemas de ecuaciones (más eficientemente) o encontrar las matrices
inversas.
FACTORIZACION DE CHOLESKY
En matemáticas, la factorización o descomposición de Cholesky toma su nombre del
matemático André-Louis Cholesky, quien encontró que una matriz simétrica definida
positiva puede ser descompuesta como el producto de una matriz triangular inferior y
la traspuesta de la matriz triangular inferior. La matriz triangular inferior es el triángulo
de Cholesky de la matriz original positiva definida. El resultado de Cholesky ha sido
extendido a matrices con entradas complejas. Es una manera de resolver sistemas de
ecuaciones matriciales y se deriva de la factorización LU con una pequeña variación.
Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el producto
de una matriz triangular inferior L y una matriz triangular superior U; esto recibe el
nombre de factorización LU. Sin embargo, si A es simétrica y definida positiva, se
pueden escoger los factores tales que U es la transpuesta de L, y esto se llama la
descomposición o factorización de Cholesky. Tanto la descomposición LU como la
descomposición de Cholesky son usadas para resolver sistemas de ecuaciones
lineales. Cuando es aplicable, la descomposición de Cholesky es dos veces más
eficiente que la descomposición LU.
FACTORIZACION QR
En álgebralineal,ladescomposición ofactorizaciónQRde unamatriz esuna descomposición
de la mismacomo productode una matrizortogonal por unatriangularsuperior.La
descomposiciónQResla base del algoritmoQRutilizadoparael cálculode los vectores y
valorespropios de unamatriz.
La descomposición QR de una matriz cuadrada real A es
Donde Q es una matriz ortogonal (QT
Q = I) y R es una matriz
triangular superior.
4. METODO DE GAUSS SEDIEL
En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado para
resolver sistemas de ecuaciones lineales. El método se llama así en honor a los
matemáticos alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es similar al
método de Jacobi.
Aunque este método puede aplicarse a cualquier sistema de ecuaciones lineales que
produzca una matriz (cuadrada, naturalmente pues para que exista solución única, el
sistema debe tener tantas ecuaciones como incógnitas) de coeficientes con los
elementos de su diagonal no-nulos, la convergencia del método solo se garantiza si la
matriz es diagonalmente dominante o si es simétrica y, a la vez, definida positiva.
METODO DE JACOBI
En análisis numérico el método de Jacobi es un método iterativo, usado para resolver
sistemas de ecuaciones lineales del tipo . El algoritmo toma su nombre del
matemático alemán Carl Gustav Jakob Jacobi. El método de Jacobi consiste en usar
fórmulas como iteración de punto fijo.
Convergencia: El método de Jacobi siempre converge si la matriz A es estrictamente
diagonal dominante y puede converger incluso si esta condición no se satisface.
Para verificar la convergencia del método se calcula el radio espectral (ρ):
es la condición necesaria y suficiente para la convergencia, siendo R = L + U . No es
necesario que los elementos de la diagonal en la matriz sean mayores (en magnitud)
que los otros elementos (la matriz es diagonalmente dominante), pero en el caso de
serlo, la matriz converge.