TSU José Manzanilla 17597823
SAIA Análisis Numérico
Asignación III
REPUBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DE EDUCACIÓN SUPERIOR
UNIVERSIDAD “FERMÍN TORO”
VICERRECTORADO ACADÉMICO
FACULTAD DE INGENIERÍA
Métodos numéricos para determinar la solución aproximada
de un sistema de ecuaciones lineales
Métodos De Eliminación Gaussiana
El proceso de eliminación de Gaussisana o de Gauss, consiste en
realizar transformaciones elementales en el sistema inicial (intercambio
de filas, intercambio de columnas, multiplicación de filas o columnas
por constantes, operaciones con filas o columnas, . . . ), destinadas a
transformarlo en un sistema triangular superior, que resolveremos por
remonte. Además, la matriz de partida tiene el mismo determinante que
la matriz de llegada, cuyo determinante es el producto de los
coeficientes diagonales de la matriz.
Uno de los problemas de la eliminación Gaussiana es que debemos
dividir entre el pivote; si este es un número muy pequeño, entonces un
error de redondeo puede arrojar serias dudas sobre la respuesta final.
En forma general este método propone la eliminación progresiva de
variables en el sistema de ecuaciones, hasta tener sólo una ecuación
con una incógnita. Una vez resuelta esta, se procede por sustitución
regresiva hasta obtener los valores de todas las variables.
Método de Gauss-Jordan
Consiste en realizar transformaciones elementales en el sistema
inicial, destinadas a transformarlo en un sistema diagonal. El
número de operaciones elementales de este método, es superior
al del método de Gauss (alrededor de un 50% más).
Sin embargo, a la hora de resolver el sistema de llegada por remonte, el
número de operaciones es menor, motivo por el cual, el método de Gauss -
Jordán es un método computacionalmente bueno cuando tenemos que
resolver varios sistemas con la misma matriz A y resolverlos
simultáneamente, utilizando el algoritmo de Gauss-Jordán.
En base a lo anteriormente expuesto, solo haríamos un proceso de eliminación en la
matriz y la resolución de un sistema con esta matriz es muy fácil. Un ejemplo en el que
se suele usar Gauss - Jordán es en el cálculo de la matriz inversa, ya que calcular la
inversa de A, es calcular N sistemas con la misma matriz.
Descomposición LU
El método de Descomposición LU se basa en demostrar que una matriz A
se puede factorizar como el producto de una matriz triangular inferior L con
una matriz triangular superior U, donde en el paso de eliminación sólo se
involucran operaciones sobre los coeficientes de la matriz, permitiendo así
evaluar los términos independientes bi de manera eficiente
La implementación del algoritmo de la Descomposición LU tiene sus variantes en
cuanto a los valores iniciales de la diagonal que tomen las matrices L y U, es decir
si los valores de la diagonal de la matriz L tiene números 1, formalmente esto se
refiere a la descomposición de Doolitle. Pero si los valores de la diagonal de la
matriz U tiene números 1.
Factorización De Cholesky
Una matriz simétrica es aquella donde Aij = Aji para toda i y j, En
otras palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en
problemas de ambos contextos: el matemático y el de ingeniería.
Ellos ofrecen ventajas computacionales ya que sólo se necesita la
mitad de almacenamiento y, en la mayoría de los casos, sólo se
requiere la mitad del tiempo de cálculo para su solución. Al contrario
de la Descomposición LU, no requiere de pivoteo. El método de
Factorización de Cholesky se basa en demostrar que si una matriz A
es simétrica y definida positiva en lugar de factorizarse como LU,
puede ser factorizada como el producto de una matriz triangular
inferior y la traspuesta de la matriz triangular inferior, es decir los
factores triangulaes resultantes son la traspuesta de cada uno
A = L . LT
Factorización de QR.
En muchas aplicaciones el número de filas (M) de una matriz de
coeficientes A mxn puede ser 3 al número de columnas (N). La
Factorización QR consiste en descomponer la matriz Amxn en
el producto de dos matrices
Una matriz Ortogonal: Qmxn ® QT. Q = INxN
Una matriz Triangular Superior: U = RNxN
Para encontrar las matrices Q y R se utiliza un método basado
en Transformaciones Sucesivas de Householder.
Solución De Sistemas Lineales Utilizando Métodos Iterativos
El método de Gauss y sus variantes son conocidos como métodos directos para
resolver el problema inicial Ax = b. Se ejecutan a través de un número finito de
pasos y generan una solución x que sería exacta sino fuera por los errores de
redondeo. En contraste, un método iterativo da lugar a una sucesión de vectores
que idealmente converge a la solución. El cálculo se detiene cuando se cuenta con
una solución aproximada con cierto grado de precisión especificado de antemano
o después de cierto número de iteraciones. Los métodos indirectos son casi
siempre iterativos
Un método iterado de resolución del sistema Ax = b es aquel que genera, a
partir de un vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un
método iterado se dirá que es consistente con el sistema Ax = b, si el límite x de
la sucesión (xn), en caso de existir, es solución del sistema. Se dirá que el
método es convergente si la sucesión generada por cualquier vector
inicial x0 es convergente a la solución del sistema".
Método De Gauss Seidel
El Método de Gauss Seidel emplea valores iniciales y después itera para
obtener estimaciones refinadas de la solución; es particularmente
adecuado para un gran número de ecuaciones, lo cual en cierto modo lo
hace un método más comúnmente usado. La fórmula utilizada para hallar
los xi viene dada por el despeje de cada una de las xi en cada una de las
ecuaciones y se les da un valor inicial a cada xi de cero
Observase que en el método de Gauss-Seidel los valores actualizados
de xi sustituyen de inmediato a los valores anteriores, mientras que en el
método de Jacobi todas las componentes nuevas del vector se calculan antes
de llevar a cabo la sustitución. Por contra, en el método de Gauss-Seidel los
cálculos deben llevarse a cabo por orden, ya que el nuevo valor xi depende de
los valores actualizados de x1, x2, ..., x i-1
La desventaja del método de Gauss-Seidel es que no siempre converge a la
solución exacta o algunas veces los hace de manera muy lenta. Únicamente es
confiable para aquellos sistemas dominantes diagonalmente
Método de Jacobi
El Método de Jacobi transforma una matriz simétrica en una matriz diagonal
al eliminar de forma simétrica los elementos que están fuera de la diagonal.
Desafortunadamente, el método requiere un número infinito de
operaciones, ya que la eliminación de cada elemento no cero a menudo
crea un nuevo valor no cero en el elemento cero anterior. Si A es
diagonalmente dominante, entonces la sucesión que resulta de la iteración
de Jacobi converge a la solución de Ax = b para cualquier vector inicial Xo.
Partimos de una aproximación inicial Xo para las soluciones Xi al sistema
de ecuaciones y sustituimos estos valores en la ecuación:
Que es la expresión que nos proporciona las nuevas componentes del
vector x(k) en función de vector anterior x(k-1) en la iteración de Jacobi, en su
respectivo algoritmo; donde el a el método de Jacobi más que usar el último
valor disponible de , con base en un conjunto de las x anteriores (). De esta
forma, como se generan nuevos valores, no se usan en forma inmediata sino
que se retienen para la siguiente iteración
Método de Jacobi
El Método de Jacobi transforma una matriz simétrica en una matriz diagonal
al eliminar de forma simétrica los elementos que están fuera de la diagonal.
Desafortunadamente, el método requiere un número infinito de
operaciones, ya que la eliminación de cada elemento no cero a menudo
crea un nuevo valor no cero en el elemento cero anterior. Si A es
diagonalmente dominante, entonces la sucesión que resulta de la iteración
de Jacobi converge a la solución de Ax = b para cualquier vector inicial Xo.
Partimos de una aproximación inicial Xo para las soluciones Xi al sistema
de ecuaciones y sustituimos estos valores en la ecuación:
Que es la expresión que nos proporciona las nuevas componentes del
vector x(k) en función de vector anterior x(k-1) en la iteración de Jacobi, en su
respectivo algoritmo; donde el a el método de Jacobi más que usar el último
valor disponible de , con base en un conjunto de las x anteriores (). De esta
forma, como se generan nuevos valores, no se usan en forma inmediata sino
que se retienen para la siguiente iteración

Analisis Numerico... Jose Manzanilla

  • 1.
    TSU José Manzanilla17597823 SAIA Análisis Numérico Asignación III REPUBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DE EDUCACIÓN SUPERIOR UNIVERSIDAD “FERMÍN TORO” VICERRECTORADO ACADÉMICO FACULTAD DE INGENIERÍA Métodos numéricos para determinar la solución aproximada de un sistema de ecuaciones lineales
  • 2.
    Métodos De EliminaciónGaussiana El proceso de eliminación de Gaussisana o de Gauss, consiste en realizar transformaciones elementales en el sistema inicial (intercambio de filas, intercambio de columnas, multiplicación de filas o columnas por constantes, operaciones con filas o columnas, . . . ), destinadas a transformarlo en un sistema triangular superior, que resolveremos por remonte. Además, la matriz de partida tiene el mismo determinante que la matriz de llegada, cuyo determinante es el producto de los coeficientes diagonales de la matriz. Uno de los problemas de la eliminación Gaussiana es que debemos dividir entre el pivote; si este es un número muy pequeño, entonces un error de redondeo puede arrojar serias dudas sobre la respuesta final. En forma general este método propone la eliminación progresiva de variables en el sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez resuelta esta, se procede por sustitución regresiva hasta obtener los valores de todas las variables.
  • 3.
    Método de Gauss-Jordan Consisteen realizar transformaciones elementales en el sistema inicial, destinadas a transformarlo en un sistema diagonal. El número de operaciones elementales de este método, es superior al del método de Gauss (alrededor de un 50% más). Sin embargo, a la hora de resolver el sistema de llegada por remonte, el número de operaciones es menor, motivo por el cual, el método de Gauss - Jordán es un método computacionalmente bueno cuando tenemos que resolver varios sistemas con la misma matriz A y resolverlos simultáneamente, utilizando el algoritmo de Gauss-Jordán. En base a lo anteriormente expuesto, solo haríamos un proceso de eliminación en la matriz y la resolución de un sistema con esta matriz es muy fácil. Un ejemplo en el que se suele usar Gauss - Jordán es en el cálculo de la matriz inversa, ya que calcular la inversa de A, es calcular N sistemas con la misma matriz.
  • 4.
    Descomposición LU El métodode Descomposición LU se basa en demostrar que una matriz A se puede factorizar como el producto de una matriz triangular inferior L con una matriz triangular superior U, donde en el paso de eliminación sólo se involucran operaciones sobre los coeficientes de la matriz, permitiendo así evaluar los términos independientes bi de manera eficiente La implementación del algoritmo de la Descomposición LU tiene sus variantes en cuanto a los valores iniciales de la diagonal que tomen las matrices L y U, es decir si los valores de la diagonal de la matriz L tiene números 1, formalmente esto se refiere a la descomposición de Doolitle. Pero si los valores de la diagonal de la matriz U tiene números 1.
  • 5.
    Factorización De Cholesky Unamatriz simétrica es aquella donde Aij = Aji para toda i y j, En otras palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas de ambos contextos: el matemático y el de ingeniería. Ellos ofrecen ventajas computacionales ya que sólo se necesita la mitad de almacenamiento y, en la mayoría de los casos, sólo se requiere la mitad del tiempo de cálculo para su solución. Al contrario de la Descomposición LU, no requiere de pivoteo. El método de Factorización de Cholesky se basa en demostrar que si una matriz A es simétrica y definida positiva en lugar de factorizarse como LU, puede ser factorizada como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior, es decir los factores triangulaes resultantes son la traspuesta de cada uno A = L . LT
  • 6.
    Factorización de QR. Enmuchas aplicaciones el número de filas (M) de una matriz de coeficientes A mxn puede ser 3 al número de columnas (N). La Factorización QR consiste en descomponer la matriz Amxn en el producto de dos matrices Una matriz Ortogonal: Qmxn ® QT. Q = INxN Una matriz Triangular Superior: U = RNxN Para encontrar las matrices Q y R se utiliza un método basado en Transformaciones Sucesivas de Householder.
  • 7.
    Solución De SistemasLineales Utilizando Métodos Iterativos El método de Gauss y sus variantes son conocidos como métodos directos para resolver el problema inicial Ax = b. Se ejecutan a través de un número finito de pasos y generan una solución x que sería exacta sino fuera por los errores de redondeo. En contraste, un método iterativo da lugar a una sucesión de vectores que idealmente converge a la solución. El cálculo se detiene cuando se cuenta con una solución aproximada con cierto grado de precisión especificado de antemano o después de cierto número de iteraciones. Los métodos indirectos son casi siempre iterativos Un método iterado de resolución del sistema Ax = b es aquel que genera, a partir de un vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un método iterado se dirá que es consistente con el sistema Ax = b, si el límite x de la sucesión (xn), en caso de existir, es solución del sistema. Se dirá que el método es convergente si la sucesión generada por cualquier vector inicial x0 es convergente a la solución del sistema".
  • 8.
    Método De GaussSeidel El Método de Gauss Seidel emplea valores iniciales y después itera para obtener estimaciones refinadas de la solución; es particularmente adecuado para un gran número de ecuaciones, lo cual en cierto modo lo hace un método más comúnmente usado. La fórmula utilizada para hallar los xi viene dada por el despeje de cada una de las xi en cada una de las ecuaciones y se les da un valor inicial a cada xi de cero Observase que en el método de Gauss-Seidel los valores actualizados de xi sustituyen de inmediato a los valores anteriores, mientras que en el método de Jacobi todas las componentes nuevas del vector se calculan antes de llevar a cabo la sustitución. Por contra, en el método de Gauss-Seidel los cálculos deben llevarse a cabo por orden, ya que el nuevo valor xi depende de los valores actualizados de x1, x2, ..., x i-1 La desventaja del método de Gauss-Seidel es que no siempre converge a la solución exacta o algunas veces los hace de manera muy lenta. Únicamente es confiable para aquellos sistemas dominantes diagonalmente
  • 9.
    Método de Jacobi ElMétodo de Jacobi transforma una matriz simétrica en una matriz diagonal al eliminar de forma simétrica los elementos que están fuera de la diagonal. Desafortunadamente, el método requiere un número infinito de operaciones, ya que la eliminación de cada elemento no cero a menudo crea un nuevo valor no cero en el elemento cero anterior. Si A es diagonalmente dominante, entonces la sucesión que resulta de la iteración de Jacobi converge a la solución de Ax = b para cualquier vector inicial Xo. Partimos de una aproximación inicial Xo para las soluciones Xi al sistema de ecuaciones y sustituimos estos valores en la ecuación: Que es la expresión que nos proporciona las nuevas componentes del vector x(k) en función de vector anterior x(k-1) en la iteración de Jacobi, en su respectivo algoritmo; donde el a el método de Jacobi más que usar el último valor disponible de , con base en un conjunto de las x anteriores (). De esta forma, como se generan nuevos valores, no se usan en forma inmediata sino que se retienen para la siguiente iteración
  • 10.
    Método de Jacobi ElMétodo de Jacobi transforma una matriz simétrica en una matriz diagonal al eliminar de forma simétrica los elementos que están fuera de la diagonal. Desafortunadamente, el método requiere un número infinito de operaciones, ya que la eliminación de cada elemento no cero a menudo crea un nuevo valor no cero en el elemento cero anterior. Si A es diagonalmente dominante, entonces la sucesión que resulta de la iteración de Jacobi converge a la solución de Ax = b para cualquier vector inicial Xo. Partimos de una aproximación inicial Xo para las soluciones Xi al sistema de ecuaciones y sustituimos estos valores en la ecuación: Que es la expresión que nos proporciona las nuevas componentes del vector x(k) en función de vector anterior x(k-1) en la iteración de Jacobi, en su respectivo algoritmo; donde el a el método de Jacobi más que usar el último valor disponible de , con base en un conjunto de las x anteriores (). De esta forma, como se generan nuevos valores, no se usan en forma inmediata sino que se retienen para la siguiente iteración