Análisis Numérico
Solución de Sistemas de Ecuaciones
Lineales
Luisa Pérez CI 13527622
SAIA: B
Métodos De Eliminación Gaussiana
En forma general este método propone la eliminación progresiva de
variables en el sistema de ecuaciones, hasta tener sólo una ecuación con
una incógnita. Una vez resuelta esta, se procede por sustitución regresiva
hasta obtener los valores de todas las variables. Sea por ejemplo el
siguiente sistema de ecuaciones:
Lo que buscamos son 3 números, que satisfagan a las tres ecuaciones.
El método de solución será simplificar las ecuaciones, de tal modo que las
soluciones se puedan identificar con facilidad. Se comienza dividiendo la
primera ecuación entre 2, obteniendo:
Se simplificará el sistema si multiplicamos por -4 ambos lados de la
primera ecuación y sumando esta a la segunda. Entonces:
sumándolas resulta :
Métodos De Eliminación Gaussiana
La nueva ecuación se puede sustituir por cualquiera de las dos. Ahora
tenemos:
Luego, la primera se multiplica por -3 y se le suma a la tercera,
obteniendo:
Acto seguido, la segunda ecuación se divide entre -3.
Ahora se multiplica por 5 y se le suma a la tercera:
En este momento ya tenemos el valor de x3, ahora simplemente se
procede a hacer la sustitución hacia atrás, y automáticamente se van
obteniendo los valores de las otras incógnitas. Se obtendrá:
Método de Gauss-Jordan
El Método de Gauss – Jordan o también llamado eliminación de Gauss
– Jordan, es un método por el cual pueden resolverse sistemas de
ecuaciones lineales con n números de variables, encontrar matrices y
matrices inversas, en este caso desarrollaremos la primera aplicación
mencionada.
Para resolver sistemas de ecuaciones lineales aplicando este método,
se debe en primer lugar anotar los coeficientes de las variables del
sistema de ecuaciones lineales en su notación matricial:
Entonces, anotando como matriz (también llamada matriz aumentada):
Método de Gauss-Jordan
Una vez hecho esto, a continuación se procede a convertir dicha matriz
en una matriz identidad, es decir una matriz equivalente a la original,
la cual es de la forma:
Esto se logra aplicando a las distintas filas y columnas de las matrices
simples operaciones de suma, resta, multiplicación y división; teniendo
en cuenta que una operación se aplicara a todos los elementos de la fila
o de la columna, sea el caso.
Obsérvese que en dicha matriz identidad no aparecen los términos
independientes, esto se debe a que cuando nuestra matriz original
alcance la forma de la matriz identidad, dichos términos resultaran ser la
solución del sistema y verificaran la igualdad para cada una de las
variables, correspondiéndose de la siguiente forma:
d1 = x
d2 = y
d3 = z
Descomposición LU
El método de descomposición LU para la solución de sistemas de
ecuaciones lineales debe su nombre a que se basa en la descomposición
de la matriz original de coeficientes (A) en el producto de dos matrices (L y
U).
Esto es:
Donde:
L - Matriz triangular inferior
U - Matriz triangular superior con todos los elementos de la diagonal
principal iguales a 1.
De lo anterior, para matrices de 3x3 se escribe:
Si efectuamos la multiplicación de L y U, igualando los elementos
de ese producto con los de la matriz A correspondientes, se
obtiene:
Descomposición LU
De aquí que los elementos de L y U son, en este caso:
Si el sistema de ecuaciones original se escribe como:
A x = b
lo cual resulta lo mismo escribir:
L U X = b
Definiendo a:
U X = Y
podemos escribir:
L Y = b
Resolviendo para Y, encontramos:
Descomposición LU
El algoritmo de solución, una vez conocidas L, U y b, consiste en encontrar
primeramente los valores de "Y" por sustitución progresiva sobre "L Y = b".
En segundo lugar se resuelve "U x = y " por sustitución regresiva para
encontrar los valores de "x", obteniendo:
La determinación de los elementos de las matrices L y U se realizan
eficientemente aplicando una forma modificada del método de eliminación
de Gauss.
Factorización De Cholesky
Una matriz simétrica es aquella donde Aij = Aji para toda i y j, En otras
palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas
de ambos contextos: el matemático y el de ingeniería. Ellos ofrecen
ventajas computacionales ya que sólo se necesita la mitad de
almacenamiento y, en la mayoría de los casos, sólo se requiere la
mitad del tiempo de cálculo para su solución. Al contrario de la
Descomposición LU, no requiere de pivoteo. El método de
Factorización de Cholesky se basa en demostrar que si una matriz A
es simétrica y definida positiva en lugar de factorizarse como
LU, puede ser factorizada como el producto de una matriz triangular
inferior y la traspuesta de la matriz triangular inferior, es decir los
factores triangulares resultantes son la traspuesta de cada uno.
Ejemplo:
Obtener la factorización de Cholesky de la siguiente matriz (entrar sólo
los elementos de U, la triangular superior)
5 7 −8
7 14 −14
−8 −14 24
Factorización De Cholesky
√5 7/5 √5 −8/5 √5
0 1/5 1051/2 −2/15 1051/2
0 0 2/3 211/2
Entrar el valor del determinante:
Resolver el sistema lineal Ax=b cuando b es el vector siguiente
51
84
−90
Factorización:
En cada etapa de la resolución se muestran los valores actuales de la
matriz.
Los nuevos elementos calculados aparecen con su valor definitivo en
color
diferente.
Calculando el elemento (1,1)
5^(1/2) 7 -8
7 14 -14
Factorización De Cholesky
Tratando la fila/columna 1
5^(1/2) 7/5*5^ (1/2) -8/5*5^(1/2)
7/5*5^ (1/2) 14 -14
-8/5*5^ (1/2) -14 24
Calculando el elemento (2,2)
5^(1/2) 7/5*5^(1/2) -8/5*5^(1/2)
7/5*5^(1/2) 1/5*105^(1/2) -14
-8/5*5^(1/2) -14 24
Tratando la fila/columna 2
5^(1/2) 7/5*5^(1/2) -8/5*5^(1/2)
7/5*5^(1/2) 1/5*105^(1/2) -2/15*105^(1/2)
-8/5*5^(1/2) -2/15*105^(1/2) 24
Factorización De Cholesky
Calculando el elemento (3,3)
5^(1/2) 7/5*5^(1/2) -8/5*5^(1/2)
7/5*5^(1/2) 1/5*105^(1/2) -2/15*105^(1/2)
-8/5*5^(1/2) -2/15*105^(1/2) 2/3*21^(1/2)
La factorización final es la siguiente, en la que aparecen las matrices UT y
U, y el vector de permutaciones:
√5 0 0
7/5 √5 1/5 1051/2 0
−8/5 √5 −2/15 1051/2 2/3 211/2
√5 7/5 √5 −8/5 √5
0 1/5 1051/2 −2/15 1051/2
0 0 2/3 211/
El valor del determinante viene dado por el producto de los elementos de la
diagonal principal de U y coincide con la diagonal principal de UT. Por tanto,
es:
196
Factorización de QR, Householder
Factorización de QR, Householder
Solución De Sistemas Lineales Utilizando Métodos Iterativos
El método de Gauss y sus variantes son conocidos como métodos directos
para resolver el problema inicial Ax = b. Se ejecutan a través de un número
finito de pasos y generan una solución x que sería exacta sino fuera por los
errores de redondeo. En contraste, un método iterativo da lugar a una
sucesión de vectores que idealmente converge a la solución. El cálculo se
detiene cuando se cuenta con una solución aproximada con cierto grado
de precisión especificado de antemano o después de cierto número de
iteraciones. Los métodos indirectos son casi siempre iterativos.
Un método iterado de resolución del sistema Ax = b es aquel que
genera, a partir de un vector inicial x0, una sucesión de vectores x1, x2,
. . . xn.. "Un método iterado se dirá que es consistente con el sistema
Ax = b, si el límite x de la sucesión (xn), en caso de existir, es solución
del sistema. Se dirá que el método es convergente si la sucesión
generada por cualquier vector inicial x0 es convergente a la solución
del sistema".Es evidente que si un método es convergente es consistente,
sin embargo, el recíproco no es cierto
Método De Gauss Seidel
El Método de Gauss Seidel emplea valores iniciales y después itera para
obtener estimaciones refinadas de la solución; es particularmente adecuado
para un gran número de ecuaciones, lo cual en cierto modo lo hace un
método más comúnmente usado. La fórmula utilizada para hallar los xi viene
dada por el despeje de cada una de las xi en cada una de las ecuaciones y
se les da un valor inicial a cada xi de cero.
Observase que en el método de Gauss-Seidel los valores actualizados de xi
sustituyen de inmediato a los valores anteriores, mientras que en el método
de Jacobi todas las componentes nuevas del vector se calculan antes de
llevar a cabo la sustitución. Por contra, en el método de Gauss-Seidel los
cálculos deben llevarse a cabo por orden, ya que el nuevo valor xi depende
de los valores actualizados de x1, x2, ..., x i-1.
La desventaja del método de Gauss-Seidel es que no siempre converge a la
solución exacta o algunas veces los hace de manera muy lenta. Únicamente
es confiable para aquellos sistemas dominantes diagonalmente.
Método de Jacobi
El Método de Jacobi transforma una matriz simétrica en una matriz
diagonal al eliminar de forma simétrica los elementos que están fuera
de la diagonal. Desafortunadamente, el método requiere un número
infinito de operaciones, ya que la eliminación de cada elemento no cero
a menudo crea un nuevo valor no cero en el elemento cero anterior. Si
A es diagonalmente dominante, entonces la sucesión que resulta de la
iteración de Jacobi converge a la solución de Ax = b para cualquier
vector inicial Xo. Partimos de una aproximación inicial Xo para las
soluciones Xi al sistema de ecuaciones y sustituimos estos valores en
la ecuación:
Que es la expresión que nos proporciona las nuevas componentes del
vector x(k) en función de vector anterior x(k-1) en la iteración de Jacobi,
en su respectivo algoritmo; donde el a el método de Jacobi más que
usar el último valor disponible de , con base en un conjunto de las x
anteriores (). De esta forma, como se generan nuevos valores, no se
usan en forma inmediata sino que se retienen para la siguiente
iteración.

Solución de Sistemas de Ecuaciones Lineales Analisis numerico

  • 1.
    Análisis Numérico Solución deSistemas de Ecuaciones Lineales Luisa Pérez CI 13527622 SAIA: B
  • 2.
    Métodos De EliminaciónGaussiana En forma general este método propone la eliminación progresiva de variables en el sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez resuelta esta, se procede por sustitución regresiva hasta obtener los valores de todas las variables. Sea por ejemplo el siguiente sistema de ecuaciones: Lo que buscamos son 3 números, que satisfagan a las tres ecuaciones. El método de solución será simplificar las ecuaciones, de tal modo que las soluciones se puedan identificar con facilidad. Se comienza dividiendo la primera ecuación entre 2, obteniendo: Se simplificará el sistema si multiplicamos por -4 ambos lados de la primera ecuación y sumando esta a la segunda. Entonces: sumándolas resulta :
  • 3.
    Métodos De EliminaciónGaussiana La nueva ecuación se puede sustituir por cualquiera de las dos. Ahora tenemos: Luego, la primera se multiplica por -3 y se le suma a la tercera, obteniendo: Acto seguido, la segunda ecuación se divide entre -3. Ahora se multiplica por 5 y se le suma a la tercera: En este momento ya tenemos el valor de x3, ahora simplemente se procede a hacer la sustitución hacia atrás, y automáticamente se van obteniendo los valores de las otras incógnitas. Se obtendrá:
  • 4.
    Método de Gauss-Jordan ElMétodo de Gauss – Jordan o también llamado eliminación de Gauss – Jordan, es un método por el cual pueden resolverse sistemas de ecuaciones lineales con n números de variables, encontrar matrices y matrices inversas, en este caso desarrollaremos la primera aplicación mencionada. Para resolver sistemas de ecuaciones lineales aplicando este método, se debe en primer lugar anotar los coeficientes de las variables del sistema de ecuaciones lineales en su notación matricial: Entonces, anotando como matriz (también llamada matriz aumentada):
  • 5.
    Método de Gauss-Jordan Unavez hecho esto, a continuación se procede a convertir dicha matriz en una matriz identidad, es decir una matriz equivalente a la original, la cual es de la forma: Esto se logra aplicando a las distintas filas y columnas de las matrices simples operaciones de suma, resta, multiplicación y división; teniendo en cuenta que una operación se aplicara a todos los elementos de la fila o de la columna, sea el caso. Obsérvese que en dicha matriz identidad no aparecen los términos independientes, esto se debe a que cuando nuestra matriz original alcance la forma de la matriz identidad, dichos términos resultaran ser la solución del sistema y verificaran la igualdad para cada una de las variables, correspondiéndose de la siguiente forma: d1 = x d2 = y d3 = z
  • 6.
    Descomposición LU El métodode descomposición LU para la solución de sistemas de ecuaciones lineales debe su nombre a que se basa en la descomposición de la matriz original de coeficientes (A) en el producto de dos matrices (L y U). Esto es: Donde: L - Matriz triangular inferior U - Matriz triangular superior con todos los elementos de la diagonal principal iguales a 1. De lo anterior, para matrices de 3x3 se escribe: Si efectuamos la multiplicación de L y U, igualando los elementos de ese producto con los de la matriz A correspondientes, se obtiene:
  • 7.
    Descomposición LU De aquíque los elementos de L y U son, en este caso: Si el sistema de ecuaciones original se escribe como: A x = b lo cual resulta lo mismo escribir: L U X = b Definiendo a: U X = Y podemos escribir: L Y = b Resolviendo para Y, encontramos:
  • 8.
    Descomposición LU El algoritmode solución, una vez conocidas L, U y b, consiste en encontrar primeramente los valores de "Y" por sustitución progresiva sobre "L Y = b". En segundo lugar se resuelve "U x = y " por sustitución regresiva para encontrar los valores de "x", obteniendo: La determinación de los elementos de las matrices L y U se realizan eficientemente aplicando una forma modificada del método de eliminación de Gauss.
  • 9.
    Factorización De Cholesky Unamatriz simétrica es aquella donde Aij = Aji para toda i y j, En otras palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas de ambos contextos: el matemático y el de ingeniería. Ellos ofrecen ventajas computacionales ya que sólo se necesita la mitad de almacenamiento y, en la mayoría de los casos, sólo se requiere la mitad del tiempo de cálculo para su solución. Al contrario de la Descomposición LU, no requiere de pivoteo. El método de Factorización de Cholesky se basa en demostrar que si una matriz A es simétrica y definida positiva en lugar de factorizarse como LU, puede ser factorizada como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior, es decir los factores triangulares resultantes son la traspuesta de cada uno. Ejemplo: Obtener la factorización de Cholesky de la siguiente matriz (entrar sólo los elementos de U, la triangular superior) 5 7 −8 7 14 −14 −8 −14 24
  • 10.
    Factorización De Cholesky √57/5 √5 −8/5 √5 0 1/5 1051/2 −2/15 1051/2 0 0 2/3 211/2 Entrar el valor del determinante: Resolver el sistema lineal Ax=b cuando b es el vector siguiente 51 84 −90 Factorización: En cada etapa de la resolución se muestran los valores actuales de la matriz. Los nuevos elementos calculados aparecen con su valor definitivo en color diferente. Calculando el elemento (1,1) 5^(1/2) 7 -8 7 14 -14
  • 11.
    Factorización De Cholesky Tratandola fila/columna 1 5^(1/2) 7/5*5^ (1/2) -8/5*5^(1/2) 7/5*5^ (1/2) 14 -14 -8/5*5^ (1/2) -14 24 Calculando el elemento (2,2) 5^(1/2) 7/5*5^(1/2) -8/5*5^(1/2) 7/5*5^(1/2) 1/5*105^(1/2) -14 -8/5*5^(1/2) -14 24 Tratando la fila/columna 2 5^(1/2) 7/5*5^(1/2) -8/5*5^(1/2) 7/5*5^(1/2) 1/5*105^(1/2) -2/15*105^(1/2) -8/5*5^(1/2) -2/15*105^(1/2) 24
  • 12.
    Factorización De Cholesky Calculandoel elemento (3,3) 5^(1/2) 7/5*5^(1/2) -8/5*5^(1/2) 7/5*5^(1/2) 1/5*105^(1/2) -2/15*105^(1/2) -8/5*5^(1/2) -2/15*105^(1/2) 2/3*21^(1/2) La factorización final es la siguiente, en la que aparecen las matrices UT y U, y el vector de permutaciones: √5 0 0 7/5 √5 1/5 1051/2 0 −8/5 √5 −2/15 1051/2 2/3 211/2 √5 7/5 √5 −8/5 √5 0 1/5 1051/2 −2/15 1051/2 0 0 2/3 211/ El valor del determinante viene dado por el producto de los elementos de la diagonal principal de U y coincide con la diagonal principal de UT. Por tanto, es: 196
  • 13.
  • 14.
  • 15.
    Solución De SistemasLineales Utilizando Métodos Iterativos El método de Gauss y sus variantes son conocidos como métodos directos para resolver el problema inicial Ax = b. Se ejecutan a través de un número finito de pasos y generan una solución x que sería exacta sino fuera por los errores de redondeo. En contraste, un método iterativo da lugar a una sucesión de vectores que idealmente converge a la solución. El cálculo se detiene cuando se cuenta con una solución aproximada con cierto grado de precisión especificado de antemano o después de cierto número de iteraciones. Los métodos indirectos son casi siempre iterativos. Un método iterado de resolución del sistema Ax = b es aquel que genera, a partir de un vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un método iterado se dirá que es consistente con el sistema Ax = b, si el límite x de la sucesión (xn), en caso de existir, es solución del sistema. Se dirá que el método es convergente si la sucesión generada por cualquier vector inicial x0 es convergente a la solución del sistema".Es evidente que si un método es convergente es consistente, sin embargo, el recíproco no es cierto
  • 16.
    Método De GaussSeidel El Método de Gauss Seidel emplea valores iniciales y después itera para obtener estimaciones refinadas de la solución; es particularmente adecuado para un gran número de ecuaciones, lo cual en cierto modo lo hace un método más comúnmente usado. La fórmula utilizada para hallar los xi viene dada por el despeje de cada una de las xi en cada una de las ecuaciones y se les da un valor inicial a cada xi de cero. Observase que en el método de Gauss-Seidel los valores actualizados de xi sustituyen de inmediato a los valores anteriores, mientras que en el método de Jacobi todas las componentes nuevas del vector se calculan antes de llevar a cabo la sustitución. Por contra, en el método de Gauss-Seidel los cálculos deben llevarse a cabo por orden, ya que el nuevo valor xi depende de los valores actualizados de x1, x2, ..., x i-1. La desventaja del método de Gauss-Seidel es que no siempre converge a la solución exacta o algunas veces los hace de manera muy lenta. Únicamente es confiable para aquellos sistemas dominantes diagonalmente.
  • 17.
    Método de Jacobi ElMétodo de Jacobi transforma una matriz simétrica en una matriz diagonal al eliminar de forma simétrica los elementos que están fuera de la diagonal. Desafortunadamente, el método requiere un número infinito de operaciones, ya que la eliminación de cada elemento no cero a menudo crea un nuevo valor no cero en el elemento cero anterior. Si A es diagonalmente dominante, entonces la sucesión que resulta de la iteración de Jacobi converge a la solución de Ax = b para cualquier vector inicial Xo. Partimos de una aproximación inicial Xo para las soluciones Xi al sistema de ecuaciones y sustituimos estos valores en la ecuación: Que es la expresión que nos proporciona las nuevas componentes del vector x(k) en función de vector anterior x(k-1) en la iteración de Jacobi, en su respectivo algoritmo; donde el a el método de Jacobi más que usar el último valor disponible de , con base en un conjunto de las x anteriores (). De esta forma, como se generan nuevos valores, no se usan en forma inmediata sino que se retienen para la siguiente iteración.