presentación del desensamble y ensamble del equipo de computo en base a las n...
Ecuaciones lineales
1. Republica Bolivariana de Venezuela
Universidad “Fermín Toro”
Escuela de Ingeniería
Alumno
Jesús Sánchez CI: 21506130
Asignatura: Análisis Numérico
Sección: SAIA “A”
Prof. Domingo Mendez
Barquisimeto 23 de Julio del 2017
2. Solución de Sistemas de Ecuaciones Lineales
El proceso de eliminación de Gaussisana o de Gauss, consiste en realizar
transformaciones elementales en el sistema inicial (intercambio de filas,
intercambio de columnas, multiplicación de filas o columnas por constantes, operaciones
con filas o columnas,...), destinadas a transformarlo en un sistema triangular superior, que
resolveremos por remonte. Además, la matriz de partida tiene el mismo determinante que la
matriz de llegada, cuyo determinante es el producto de los coeficientes diagonales de la
matriz.
Uno de los problemas de la eliminación Gaussiana es que debemos dividir entre el
pivote; si este es un número muy pequeño, entonces un error de redondeo puede arrojar
serias dudas sobre la respuesta final. En forma general este método propone
la eliminación progresiva de variables en el sistema de ecuaciones, hasta tener sólo una
ecuación con una incógnita. Una vez resuelta esta, se procede por sustitución regresiva
hasta obtener los valores de todas las variables.
Métodos De Eliminación Gaussiana
En forma general este método propone la eliminación progresiva de variables en el
sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez resuelta
esta, se procede por sustitución regresiva hasta obtener los valores de todas las variables.
Sea por ejemplo el siguiente sistema de ecuaciones:
Lo que buscamos son 3 números, que satisfagan a las tres ecuaciones. El método de
solución será simplificar las ecuaciones, de tal modo que las soluciones se puedan
identificar con facilidad. Se comienza dividiendo la primera ecuación entre 2, obteniendo:
x1+2x2+3x3= 9
4x1+5x2+6x3= 24
3x1+x2+2x3= 4
Se simplificará el sistema si multiplicamos por -4 ambos lados de la primera
ecuación y sumando está a la segunda. Entonces:
3. -4x1-8x2-12x3=-36
4x1+5x2+6x3=24
Sumándolas resulta
-3x2-6x3=-12
La nueva ecuación se puede sustituir por cualquiera de las dos. Ahora tenemos:
x1+2x2+3x3= 9
0x1-3x2-6x3= -12
3x1+x2-2x3= 4
Luego, la primera se multiplica por -3 y se le suma a la tercera, obteniendo:
x1+2x2+3x3= 9
0x1-3x2-6x3= -12
0x1-5x2-11x3=-23
Acto seguido, la segunda ecuación se divide entre -3.
Ahora se multiplica por 5 y se le suma a la tercera:
x1+2x2+3x3= 9
0x1+x2+2x3= 4
0x1+0x2+x3= 3
En este momento ya tenemos el valor de x3, ahora simplemente se procede a hacer
la sustitución hacia atrás, y automáticamente se van obteniendo los valores de las otras
incógnitas. Se obtendrá:
x3= 3
x2= 4-2(x3) = -2
x1= 9-3(x3)-2(x2) = 4
Se ha visto que al multiplicar o dividir los lados de una ecuación por un número
diferente de cero se obtiene una ecuación nueva y válida.
Método de Gauss-Jordan
El proceso de eliminación de Gauss - Jordán consiste en realizar transformaciones
elementales en el sistema inicial, destinadas a transformarlo en un sistema diagonal. El
número de operaciones elementales de este método, es superior al del método de Gauss
(alrededor de un 50% más). Sin embargo, a la hora de resolver el sistema de llegada por
4. remonte, el número de operaciones es menor, motivo por el cual, el método de Gauss -
Jordán es un método computacionalmente bueno cuando tenemos que resolver varios
sistemas con la misma matriz A y resolverlos simultáneamente, utilizando el algoritmo de
Gauss-Jordán
Como hemos visto, el método de Gauss transforma la matriz de coeficientes en una
matriz triangular superior. El método de Gauss-Jordan continúa el proceso de
transformación hasta obtener una matriz diagonal unitaria (aij=0 para cualquier ).
Veamos el método de Gauss-Jordan siguiendo con el ejemplo empleado en el apartado
anterior. Aplicando el método de Gauss habíamos llegado a la siguiente ecuación:
Ahora seguiremos un procedimiento similar al empleado en el método de Gauss.
Tomaremos como pivote el elemento a44=-3; multiplicamos la cuarta ecuación por y la
restamos a la primera:
Realizamos la misma operación con la segunda y tercera fila, obteniendo:
5. Ahora tomamos como pivote el elemento a33=2, multiplicamos la tercera ecuación
por y la restamos a la primera:
Repetimos la operación con la segunda fila:
Finalmente, tomamos como pivote a22=-4, multiplicamos la segunda ecuación por y la
sumamos a la primera:
El sistema de ecuaciones anterior es, como hemos visto, fácil de resolver.
Empleando la ecuación (46) obtenemos las soluciones:
Descomposición LU Se basa en demostrar que una matriz A se puede factorizar
como el producto de una matriz triangular inferior L con una matriz triangular superior U,
donde en el paso de eliminación sólo se involucran operaciones sobre los coeficientes de la
matriz, permitiendo así evaluar los términos independientes bi de manera eficiente. La
6. implementación del algoritmo de la Descomposición LU tiene sus variantes en cuanto a los
valores iniciales de la diagonal que tomen las matrices L y U, es decir si los valores de la
diagonal de la matriz L tiene números 1, formalmente esto se refiere a la Descomposición
de Doolitle. Pero si los valores de la diagonal de la matriz U tiene números 1, formalmente
esto se refiere a la Descomposición de Crout Para un mayor entendimiento de este método
veamos un ejemplo práctico del método de descomposición LU.
Factorización De Cholesky Una matriz simétrica es aquella donde Aij = Aji para
toda i y j, En otras palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas
de ambos contextos: el matemático y el de ingeniería. Ellos ofrecen ventajas
computacionales ya que sólo se necesita la mitad de almacenamiento y, en la mayoría de
los casos, sólo se requiere la mitad del tiempo de cálculo para su solución. Al contrario de
la Descomposición LU, no requiere de pivoteo. El método de Factorización de Cholesky se
basa en demostrar que si una matriz A es simétrica y definida positiva en lugar de
factorizarse como LU, puede ser factorizada como el producto de una matriz triangular
inferior y la traspuesta de la matriz triangular inferior, es decir los factores triangulares
resultantes son la traspuesta de cada uno. A = L . LT Para un mayor entendimiento de este
método veamos un ejemplo práctico del método de Cholesky Factorización de Cholesky.
Para resolver un sistema lineal Ax = b con A simétrica definida positiva y dada su
factorizaciòn de Cholesky , primero debemos resolver Ly = b y entonces
resolver para lograr x.
Una variante de la factorización de Cholesky es de la forma , donde R es una
matriz triangular superior, en algunas aplicaciones se desea ver la matriz en esa forma y no
de otra.
Para encontrar la factorización , bastaría ver la forma de L y observar las
ecuaciones que el producto derecho nos conduce al igualar elementos:
7. así obtendríamos que:
a11 = l11
2
a21 = l21l11
a22=l21
2
+ l2
22
a32=l31l21+l32l22 l32=(a32-l31l21)/l22, etc.
y de manera general, para y :
Ahora bien, ya que A es simétrica y definida positiva, podemos asegurar que los
elementos sobre la diagonal de L son positivos y los restantes elementos reales desde luego.
Una de las aplicaciones de la factorización de Cholesky es resolver las ecuaciones
normales de un problema de cuadrados mínimos, esas ecuaciones son: , en
la que es simétrica y definida positiva.
Factorización de QR, Householder Anteriormente analizamos la factorización LU
de una matriz el cual conduce a un método muy eficiente para resolver un sistema lineal.
Otro método de factorización de una A, llamada factorización QR de A. Esta factorización
se usa ampliamente en los programas de computadora para determinar valores propios de
una matriz, para resolver sistemas lineales y para determinar aproximaciones por mínimos
cuadrados.
8. En muchas aplicaciones el número de filas (M) de una matriz de coeficientes A mxn
puede ser 3 al número de columnas (N). La Factorización QR consiste en descomponer la
matriz Amxn en el producto de dos matrices:
Una matriz Ortogonal: Qmxn ® QT . Q = INxN
Una matriz Triangular Superior: U = RNxN
Para encontrar las matrices Q y R se utiliza un método basado en Transformaciones
Sucesivas de Householder. Para un mayor entendimiento de este método veamos un
ejemplo práctico del método de factorización QR Factorización QR
Método De Gauss Seidel El Método de Gauss Seidel emplea valores iniciales y
después itera para obtener estimaciones refinadas de la solución; es particularmente
adecuado para un gran número de ecuaciones, lo cual en cierto modo lo hace un método
más comúnmente usado. La fórmula utilizada para hallar la xi viene dada por el despeje de
cada una de la xi en cada una de las ecuaciones y se les da un valor inicial a cada xi de cero.
Observase que en el método de Gauss-Seidel los valores actualizados de xi
sustituyen de inmediato a los valores anteriores, mientras que en el método de Jacobi todas
las componentes nuevas del vector se calculan antes de llevar a cabo la sustitución. Por
contra, en el método de Gauss-Seidel los cálculos deben llevarse a cabo por orden, ya que
el nuevo valor xi depende de los valores actualizados de x1, x2, ..., x i-1. La desventaja del
método de Gauss-Seidel es que no siempre converge a la solución exacta o algunas veces
los hace de manera muy lenta. Únicamente es confiable para aquellos sistemas dominantes
diagonalmente. Para un mayor entendimiento de este método veamos un
Método de Jacobi
Es un método iterativo, usado para resolver sistemas de ecuaciones lineales del tipo.
El algoritmo toma su nombre del matemático alemán Carl Gustav Jakob Jacobi. El método
de Jacobi consiste en usar fórmulas como iteración de punto fijo.
9. Ejemplo del Método de Jacobi
En la iteración de Jacobi, se escoge una matriz Q que es diagonal y cuyos
elementos diagonales son los mismos que los de la matriz A. La matriz Q toma la forma:
Y la ecuación general (63) se puede escribir como
Qx(k)
= (Q-A)x(k-1)
+ b (65)
Si denominamos R a la matriz A-Q:
La ecuación (65) se puede reescribir como:
Qx(k)
= -Rx(k-1)
+ b
El producto de la matriz Q por el vector columna x(k)
será un vector columna. De
modo análogo, el producto de la matriz R por el vector columna x(k-1)
será también un
vector columna. La expresión anterior, que es una ecuación vectorial, se puede expresar
por necuaciones escalares (una para cada componente del vector). De este modo, podemos
escribir, para un elemento icualquiera y teniendo en cuenta que se trata de un producto
matriz-vector:
Si tenemos en cuenta que en la matriz Q todos los elementos fuera de la diagonal
son cero, en el primer miembro el único término no nulo del sumatorio es el que contiene el
elemento diagonal qii, que es precisamente aii. Más aún, los elementos de la diagonal
10. de Rson cero, por lo que podemos eliminar el término i=j en el sumatorio del segundo
miembro. De acuerdo con lo dicho, la expresión anterior se puede reescribir como:
De donde despejando xi
(k)
obtenemos:
Que es la expresión que nos proporciona las nuevas componentes del vector x(k)
en
función de vector anterior x(k-1)
en la iteración de Jacobi. En la figura (14) se presenta un
algoritmo para el método de Jacobi.
Figure: Implementación del método de Jacobi.
El método de Jacobi se basa en escribir el sistema de ecuaciones en la forma: