1. REPUBLICA BOLIVARIANA DE VENEZUELA
UNIVERSIDAD FERMIN TORO
VICERRECTORADO ACADEMICO
FACULTAD DE INGENIERÍA
METODOS DE ELIMINACION
GAUSSIANA.
Integrante: José Contreras 25.571.441
2. SOLUCIONES DE SISTEMAS DE ECUACIÓN LINEAL
Método de eliminación gaussiana .
Método de Gauss Jordan.
Descomposición LU determinante de una matriz.
Factorización de Cholesky
Factorización QR
Solución de sistemas lineales utilizando método interactivo.
Método de Gauss-Seidel.
Método de Jacobi
3. MÉTODO DE
ELIMINACIÓN
GAUSSIANA
Este método propone la eliminación
progresiva de variables en el sistema de
ecuaciones, hasta tener sólo una ecuación con una
incógnita. Una vez resuelta esta, se procede por
sustitución regresiva hasta obtener los valores de
todas las variables.
Ejemplo:
x1+2x2+3x3= 9
4x1+5x2+6x3= 24
3x1+x2+2x3= 4
Se simplificará el sistema si multiplicamos por
-4 ambos lados de la primera ecuación y sumando
esta a la segunda. Entonces:
-4x1-8x2-12x3=-36
4x1+5x2+6x3=24
sumándolas resulta
-3x2-6x3=-12
La nueva ecuación se puede sustituir por
cualquiera de las dos. Ahora tenemos:
x1+2x2+3x3= 9
0x1-3x2-6x3= -12
3x1+x2-2x3= 4
4. MÉTODO DE
ELIMINACIÓN
GAUSSIANA
Luego, la primera se multiplica por -3 y se
le suma a la tercera, obteniendo:
x1+2x2+3x3= 9
0x1-3x2-6x3= -12
0x1-5x2-11x3=-23
Acto seguido, la segunda ecuación se
divide entre -3.
Ahora se multiplica por 5 y se le suma a la
tercera:
x1+2x2+3x3= 9
0x1+x2+2x3= 4
0x1+0x2+x3= 3
En este momento ya tenemos el valor de
x3, ahora simplemente se procede a hacer la
sustitución hacia atrás, y automáticamente se
van obteniendo los valores de las otras
incógnitas. Se obtendrá:
x3= 3
x2= 4-2(x3) = -2
x1= 9-3(x3)-2(x2) = 4
5. MÉTODO DE GAUSS JORDAN
Es un método por el cual pueden resolverse sistemas de ecuaciones lineales con n números de variables,
encontrar matrices y matrices inversas, en este caso desarrollaremos la primera aplicación.
6. DESCOMPOSICIÓN LU. DETERMINANTE
DE UNA MATRIZ
Sea A una matriz no singular (si lo fuera, entonces la descomposición podría no ser única) A= LU
donde L y U son matrices inferiores y superiores triangulares respectivamente.
Para matrices , esto es:
Por otro lado la descomposición PLU tiene esta forma:
Se basa en demostrar que una matriz A se puede factorizar como el producto de
una matriz triangular inferior L con una matriz triangular superior U, donde en el paso
de eliminación sólo se involucran operaciones sobre los coeficientes de la matriz,
permitiendo así evaluar los términos independientes bi de manera eficiente.
7. FACTORIZACIÓN DE CHOLESKY
Puede ser descompuesta como el producto de una matriz triangular inferior y
la traspuesta de la matriz triangular inferior. La matriz triangular inferior es el
triángulo de Cholesky de la matriz original positiva definida. El resultado de
Cholesky ha sido extendido a matrices con entradas complejas. Es una manera de
resolver sistemas de ecuación matricial y se deriva de la factorización LU con una
pequeña variación.
9. FACTORIZACIÓN QR
Ej: la descomposición QR de
Si A es una matriz m×n con columnas linealmente independientes,
entonces A puede factorizarse en la forma:
A = QR (1)
en la que Q es una matriz con columnas ortonormales y R es una matriz
triangular superior.
se escribe QR descomposición {{1,2},{3,4},{5,6}}
10. SOLUCIÓN DE SISTEMAS LINEALES
UTILIZANDO MÉTODOS ITERATIVOS
Trata de resolver un problema (como una ecuación o
un sistema de ecuaciones) mediante aproximaciones
sucesivas a la solución, empezando desde una estimación
inicial. Esta aproximación contrasta con los métodos
directos, que tratan de resolver el problema de una sola
vez (como resolver un sistema de ecuaciones Ax = b
encontrando la inversa de la matriz A). Los métodos
iterativos son útiles para resolver problemas que
involucran un número grande de variables (a veces del
orden de millones), donde los métodos directos tendrían
un coste prohibitivo incluso con la potencia del mejor
computador disponible.
11. MÉTODO DE GAUSS-SEIDEL
Este método es iterativo o de aproximación y es similar a las técnicas que se usan en los
métodos anteriores para obtener raíces. Aquellos métodos consisten en la determinación de
un valor inicial a partir del cual, mediante una técnica sistemática se obtiene una mejor
aproximación a la raíz.
La razón por la cual los métodos iterativos son útiles en la disminución de los errores de
redondeo en sistemas, se debe a que un método de aproximación se puede continuar hasta
que converja dentro de alguna tolerancia de error previamente especificada.
Las técnicas iterativas se emplean rara vez para resolver problemas de dimensiones
pequeñas ya que el tiempo requerido para lograr una precisión suficiente excede a las técnicas
directas. Sin embargo, para sistemas grandes con un gran porcentaje de ceros, ésta técnica es
eficiente.
Los sistemas de este tipo surgen frecuentemente en la solución numérica de problemas
de valores frontera y de ecuaciones diferenciales parciales.
12. EJERCICIOS DE GAUSS SEIDEL
Resuelva el siguiente sistema de ecuaciones lineales usando el método iterativo de Gauss – Seidel
4x1 + 10x2 + 8x3 = 142
2x1 + 6x2 + 7x3 = 89.5
9x1 + 2x2 + 3x3= 56.5
Paso 1.
Ordenar los renglones para que pueda ser resuelto.
9x1 + 2x2 + 3x3= 56.5
4x1 + 10x2 + 8x3 = 142
2x1 + 6x2 + 7x3 = 89.5
Paso 2.
Determinar si puede ser resuelta por este método, determinando si es predominantemente dominante en su diagonal.
Paso 3.
Despejar las variables.
X1 = -2x2/9 – 3x3/9 + 56.5/9 = -0.2222x2 – 0.3333x3 + 6.2778
X2 = -4x1/10 – 8x3/10 +142/10 = - 0.4 – 0.8x3 + 14.2
X3 = - 2x1/7 – 6x2/7 + 89.5/7 = - 0.2857x1 – 0.8571x2 + 12.7857
Paso 4.
Se les asigna un valor inicial de 0 x0 = [0, 0, 0, 0]
Paso 5
Se substituye esta solución temporal en las ecuaciones para obtener las nuevas x’s., pero solo cuando no se cuente con la anterior
Iteración 1
X1 = - 0.2222(0) – 0.3333(0) + 6.2778 = 6.2778
X2 = - 0.4(6.2778) – 0.8(0) + 14.2 = 11.6888
X3 = - 0.2857(6.2778) – 0.8571(11.6888) + 12.7857 = 0.9736
Se sustituye en alguna ecuación y se observa si el resultado ya es adecuado:
4(6.2778) + 10(11.6888) + 8(0.9736) =
25.1112 + 116.888 + 7.7888 = 149.788 <> 142
error = abs(142 – 149.788) = 7.788
Pero si 1% = 1.42 entonces error = 7.78 = 5.48%
Aun el error es muy grande. Se repite el paso 5, pero tomado los valores obtenidos en la ecuación anterior
Iteración 2
X1 = - 0.2222(11.6888) – 0.3333(0.9736) + 6.2778 = 3.356
X2 = - 0.4(3.356) – 0.8(0.9736) + 14.2 = 12.0787
X3 = - 0.2857(3.356) – 0.8571(12.0787) + 12.7857 = 1.4742
Se evalúa en una ecuación en este caso en la ecuación 1
4(3.356) + 120.787 + 8(1.4742)= 146.0046 <> 142
Si 1% = 1.42
error = abs(142 – 146.0046) = 4.0046
entonces error = 2.82%
Iteración 3.
X1 = - 0.2222(12.0787) – 0.3333(1.4742) + 6.2778 = 5.0407
X2 = - 0.4(5.0407) – 0.8(1.4742) + 14.2 = 11.0043
X3 = - 0.2857(5.0407) – 0.8571(11.0043) + 12.7857 = 1.9137
Se sustituye
4(5.0407) + 110.043 + 8(1.9137)= 145.51, diferencia 3.51609
error = 2.47%
14. MÉTODO DE JACOBI
Aproxima la solución del siguiente sistema de ecuaciones lineales, con 5 iteraciones y determina la
cantidad de cifras significativas exactas de la quinta iteración. Utiliza como iteración inicial
Para la primera iteración consideraremos , de donde:
La base del método consiste en construir una sucesión convergente definida iterativamente. El límite de
esta sucesión es precisamente la solución del sistema. A efectos prácticos si el algoritmo se detiene después de
un número finito de pasos se llega a una aproximación al valor de x de la solución del sistema.
La sucesión se construye descomponiendo la matriz del sistema en la forma siguiente:
A= D + L + U
15. MÉTODO DE JACOBI
Similarmente para las otras tres iteraciones resulta la
tabla de aproximaciones:
Iteración
0 0.0000 0.0000 0.0000
1 2.0000 0.6000 2.0000
2 1.4250 1.0000 2.2800
3 1.3050 0.9705 2.0850
4 1.3574 0.9390 2.0669
5 1.3659 0.9424 2.0837