SlideShare una empresa de Scribd logo
1 de 19
UNIVERSIDAD FERMIN TORO
AMILCAR TORRES
Eliminación Gaussiana
Los métodos numéricos para la solución de Sistemas de Ecuaciones Lineales se
dividen en dos categorías generales:
a. Métodos exactos
b. Métodos aproximados
Se usan comúnmente dos métodos; la eliminación gaussiana y el método de
Gauss-Jordan. Se recomienda utilizar la estrategia de pivoteo en cualquier
implementación que se haga de estos métodos sobre una computadora. Con la
ayuda de esta estrategia, los errores de redondeo disminuyen y se evitan los
problemas como división entre cero. Aunque en todos los demás sentidos son
iguales, la eliminación gausiana es preferible a Gauss-Jordan, ya que la primera
es un 50% más rápida. Sin embargo, el método de Gauss-Jordan sigue siendo útil
ya que se puede modificar un poco de manera que se pueda obtener la matriz
inversa como beneficio adicional en los cálculos. Aunque los métodos de
eliminación tienen una gran utilidad, el uso de toda la matriz de coeficientes puede
ser un factor muy importante cuando se trata de sistemas muy grandes y
dispersos.
El método de Gauss-Seidel es diferente a los métodos exactos, en cuanto que
éste, emplea un esquema iterativo en la obtención progresiva de aproximaciones
más cercanas a la solución. Por lo tanto, el efecto de redondeo es un punto
discutible dentro del método, ya que las iteraciones se pueden prolongar tanto
como sea posible para obtener la precisión deseada.
La desventaja del método de Gauss-Seidel es que no siempre converge a la
solución exacta o algunas veces los hace de manera muy lenta. Únicamente es
confiable para aquellos sistemas dominantes diagonalmente. Además, de que
muchos sistemas algebraicos lineales originados de problemas físicos muestran
dominancia diagonal, el método de Gauss-Seidel tiene gran utilidad en la solución
de problemas de ingeniería.
Teorema Fundamental de Equivalencia:
Puede aceptarse que las siguientes 3 operaciones sobre una matriz ampliada
producen otras correspondientes a un sistema equivalente:
1. Intercambiar dos renglones. ( ya que corresponde a reordenar las ecuaciones
del sistema).
2. Multiplicar todos los elementos de un renglón por una misma constante.
3. Sumar a los elementos de un renglón los correspondiente elementos de otro
multiplicados por una constante.
Método de Eliminación Gaussiana:
Este algoritmo consiste en dos procesos:
a) Eliminación hacia adelante: Esta fase reduce el conjunto de ecuaciones a un
sistema triangular Superior:
Paso 1: Consiste en dividir la primera ecuación por el coeficiente de la primera
incógnita aii (coeficiente pivote). A este procedimiento se le conoce como
normalización.
Paso 2: Después se multiplica la ecuación normalizada por el primer coeficiente
de la segunda ecuación.
Paso 3: Nótese que el primer termina de la primera ecuación es idéntico al primer
termino de la segunda. Por lo tanto, se puede eliminar, la primera incógnita de la
segunda ecuación restando la primera a la segunda.
Paso 4: Repetir el paso 2 y 3 hasta eliminar la primera incógnita de todas las
ecuaciones restantes.
Estos 4 pasos se repiten tomando como pivotes las ecuaciones restantes hasta
convertir el sistema en una matriz triangular superior.
b) Sustitución hacia atrás:
Ya obtenido el sistema equivalente que es un sistema triangular superior este es
más manejable y se puede resolver despejando primero la Xn y este valor
utilizarlo para obtener despejando la segunda incógnita hasta obtener el resultado
completo del sistema.
Método de Gauss-Jordan:
Este método también utiliza el teorema fundamental de equivalencia para resolver
un sistema de ecuaciones lineales. El método consiste en convertir el sistema
expresado como matriz ampliada y trabajar para trasformarlo en un la matriz
identidad quedando en el vector de términos independientes el resultado del
sistema. El procedimiento es similar al proceso de la eliminación gaussiana con la
diferencia que no solo elimina los términos debajo de la diagonal principal sino
también los que están sobre de ella.
Es importante mencionar que este método es muy adecuado para obtener la
matriz inversa de una matriz.
Método de Gauss-Seidel:
Este método es iterativo o de aproximación y es similar a las técnicas para obtener
raíces vistas en el tema anterior. Aquellos métodos consisten en la determinación
de un valor inicial a partir del cual, mediante una técnica sistemática se obtiene
una mejor aproximación a la raíz. La razón por la cual los métodos iterativos son
útiles en la disminución de los errores de redondeo en sistemas, se debe a que un
método de aproximación se puede continuar hasta que converga dentro de alguna
tolerancia de error previamente especificada. Las técnicas iterativas se emplean
rara vez para resolver problemas de dimensiones pequeñas ya que el tiempo
requerido para lograr una precisión suficiente excede al de las técnicas directas.
Sin embargo, para sistemas grandes con un gran porcentaje de ceros, ésta
técnica es eficiente. Los sistemas de este tipo surgen frecuentemente en la
solución numérica de problemas de valores frontera y de ecuaciones diferenciales
parciales.
Algoritmo:
1) Se debe despejar da cada ecuación despejar la variable sobre la diagonal
principal.
2) Dar un valor inicial a las incógnitas (X generalmente se establecen ceros).
3) Sustituir los valores iniciales en la primera ecuación para obtener un nuevo
valor para la primera incógnita.
4) Ese nuevo valor es usado para obtener el valor de la siguiente incógnita. Este
procedimiento se repite hasta obtener los nuevos valores de todas las incógnitas
despejadas.
5) Se evalúa la aproximación relativa de todas las incógnitas hasta que la solución
converja bastante cerca de la solución real, según la tolerancia establecida para el
método.
Factorización de Cholesky
Saltar a: navegación, búsqueda
Este artículo o sección necesita referencias que aparezcan en una
publicación acreditada, como revistas especializadas, monografías,
prensa diaria o páginas de Internet fidedignas.
Puedes añadirlas así o avisar al autor principal del artículo en su página de
discusión pegando: {{subst:Aviso referencias|Factorización de Cholesky}}
~~~~
En matemáticas, la factorización o descomposición de Cholesky toma su
nombre del matemático André-Louis Cholesky, quien encontró que una matriz
simétrica definida positiva puede ser descompuesta como el producto de una
matriz triangular inferior y la traspuesta de la matriz triangular inferior. La matriz
triangular inferior es el triángulo de Cholesky de la matriz original positiva
definida. El resultado de Cholesky ha sido extendido a matrices con entradas
complejas. Es una manera de resolver sistemas de ecuaciones matriciales y se
deriva de la factorización LU con una pequeña variación.
Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el
producto de una matriz triangular inferior L y una matriz triangular superior U; esto
recibe el nombre de factorización LU. Sin embargo, si A es simétrica y definida
positiva, se pueden escoger los factores tales que U es la transpuesta de L, y esto
se llama la descomposición o factorización de Cholesky. Tanto la descomposición
LU como la descomposición de Cholesky son usadas para resolver sistemas de
ecuaciones lineales. Cuando es aplicable, la descomposición de Cholesky es dos
veces más eficiente que la descomposición LU.
Índice
1 Definición
2 Aplicaciones
o 2.1 Mínimos cuadrados lineales
o 2.2 Simulación de Montecarlo
o 2.3 Filtro de Kalman
3 Links de interés
Definición
En general, si A es Hermitiana y definida positiva, entonces A puede ser
descompuesta como
donde L es una matriz triangular inferior con entradas diagonales estrictamente
positivas y L*
representa la conjugada traspuesta de L. Esta es la descomposición
de Cholesky.
La descomposición de Cholesky es única: dada una matriz Hermitiana positiva
definida A, hay una única matriz triangular inferior L con entradas diagonales
estrictamente positivas tales que A = LL*
. El recíproco se tiene trivialmente: si A se
puede escribir como LL*
para alguna matriz invertible L, triangular inferior o no,
entonces A es Hermitiana y definida positiva.
El requisito de que L tenga entradas diagonales estrictamente positivas puede
extenderse para el caso de la descomposición en el caso de ser semidefinida
positiva. La proposición se lee ahora: una matriz cuadrada A tiene una
descomposición de Cholesky si y sólo si A es Hermitiana y semidefinida positiva.
Las factorizaciones de Cholesky para matrices semidefinidas positivas no son
únicas en general.
En el caso especial que A es una matriz positiva definida simétrica con entradas
reales, L se puede asumir también con entradas reales. Una Matriz D diagonal con
entradas positivas en la diagonal (valores propios de A), es factorizable como
, donde es matriz cuya diagonal consiste en la raíz cuadrada
de cada elemento de D, que tomamos como positivos. Así:
La factorización puede ser calculada directamente a través de las siguientes
fórmulas (en este caso realizamos la factorizacón superior ):
para los elementos de la diagonal principal, y:
para el resto de los elementos. Donde son los
elementos de la matriz U.
Aplicaciones
La descomposición de Cholesky se usa principalmente para hallar la solución
numérica de ecuaciones lineales Ax = b. Si A es simétrica y positiva definida,
entonces se puede solucionar Ax = b calculando primero la descomposición de
Cholesky A = LLT
, luego resolviendo Ly = b para y, y finalmente resolviendo LT
x =
y para x.
Mínimos cuadrados lineales
Sistemas de la forma Ax = b con A simétrica y definida positiva aparecen a
menudo en la práctica. Por ejemplo, las ecuaciones normales en problemas de
mínimos cuadrados lineales son problemas de esta forma. Podría ocurrir que la
matriz A proviene de un funcional de energía el cual debe ser positivo bajo
consideraciones físicas; esto ocurre frecuentemente en la solución numérica de
ecuaciones diferenciales parciales.
Simulación de Montecarlo
La descomposición de Cholesky se usa comúnmente en el método de Montecarlo
para simular sistemas con variables múltiples correlacionadas: la matriz de
correlación entre variables es descompuesta, para obtener la triangular inferior L.
Aplicando ésta a un vector de ruidos simulados incorrelacionados, u produce un
vector Lu con las propiedades de covarianza del sistema a ser modelado.
Filtro de Kalman
Los filtros de Kalman usan frecuentemente la descomposición de Cholesky para
escoger un conjunto de puntos sigma. El filtro de Kalman sigue el estado promedio
de un sistema como un vector x de longitud N y covarianza dada por una matriz P
de tamaño N-by-N. La matriz P es siempre positiva semidefinida y puede
descomponerse como LLT
. Las columnas de L puede ser adicionadas y restadas
de la media x para formar un conjunto de 2N vectores llamados los puntos sigma.
Estos puntos sigma capturan la media y la covarianza del estado del sistema.
Factorización QR
Saltar a: navegación, búsqueda
En álgebra lineal, la descomposición o factorización QR de una matriz es una
descomposición de la misma como producto de una matriz ortogonal por una
triangular superior. La descomposición QR es la base del algoritmo QR utilizado
para el cálculo de los vectores y valores propios de una matriz.
Índice
1 Definición
2 Cálculo de la descomposición QR
o 2.1 Mediante el método de ortogonalización de Gram-Schmidt
 2.1.1 Ejemplo
o 2.2 Mediante el uso de reflexiones de Householder
 2.2.1 Ejemplo
o 2.3 Mediante rotaciones de Givens
 2.3.1 Ejemplo
3 Relación con el determinante
Definición
La descomposición QR de una matriz cuadrada real A es
donde Q es una matriz ortogonal (QT
Q = I ) y R es una matriz triangular superior.
Cálculo de la descomposición QR
Mediante el método de ortogonalización de Gram-Schmidt
Recurriendo al método de ortogonalización de Gram-Schmidt, con las columnas
de A como los vectores a procesar.
. Entonces
Naturalmente, utilizamos los ais de A para obtener:
Ahora estas ecuaciones pueden ser escritas en forma matricial de esta manera:
:::::::::
El producto de cada fila con cada columa de las matrices de arriba, nos da la
respectiva columna de A con la que comenzamos y, por tanto, dada la matriz A, la
hemos factorizado en una matriz ortogonal Q (la matriz de eks), aplicando el
proceso de Gram-Schmidt, y la matriz resultante triangular superior es R.
Alternativamente, la matriz puede clacularse de la siguiente manera:
Recordemos que: Entonces, tenemos
Note que y , entonces
.
Ejemplo
Si se considera la descomposición de
Se busca la matriz ortogonal tal que
Por lo que calculamos mediante Gram-Schmidt como sigue:
Por lo tanto, tenemos
Considerando errores numéricos de operar con precisión finita en MATLAB,
tenemos que
Mediante el uso de reflexiones de Householder
Una transformación de Householder o reflexión de Householder es una
transformación que refleja el espacio con respecto a un plano determinado. Esta
propiedad se puede utilizar para realizar la transformación QR de una matriz si
tenemos en cuenta que es posible elegir la matriz de Householder de manera que
un vector elegido quede con una única componente no nula tras ser transformado
(es decir, premultiplicando por la matriz de Householder). Gráficamente, esto
significa que es posible reflejar el vector elegido respecto de un plano de forma
que el reflejo quede sobre uno de los ejes de la base cartesiana.
La manera de elegir el plano de reflexión y formar la matriz de Householder
asociada es el siguiente:
Sea un vector columna arbitrario m-dimensional tal que || || = |α|, donde α es un
escalar; (si el algoritmo se implementa utilizando aritmética de coma flotante,
entonces α debe adoptar el signo contrario que 1 para evitar pérdida de
precisión).
Entonces, siendo el vector (1,0,...,0)T
, y ||·|| la norma euclídea, se define:
es un vector unitario perpendicular al plano de reflexión elegido. es una matriz
de Householder asociada a dicho plano.
Esta propiedad se puede usar para transformar gradualmente los vectores
columna de una matriz A de dimensiones m por n en una matriz triangular
superior. En primer lugar se multiplica A con la matriz de Householder Q1 que
obtenemos al elegir como vector la primera columna de la matriz. Esto
proporciona una matriz QA con ceros en la primera columna (excepto el elemento
de la primera fila).
el procedimiento se puede repetir para A′ (que se obtiene de A eliminando la
primera fila y columna), obteniendo así una matriz de Householder Q′2. Hay que
tener en cuenta que Q′2 es menor que Q1. Para conseguir que esta matriz opere
con Q1A en lugar de A′ es necesario expandirla hacia arriba a la izquierda,
completando con un uno en la diagonal, o en general:
Tras repetir el proceso veces, donde ,
es una matriz triangular superior. De forma que tomando
es una descomposición QR de la matriz .
Este método tiene una estabilidad numérica mayor que la del método de Gram-
Schmidt descrito arriba.
Una pequeña variación de este método se utiliza para obtener matrices
semejantes con la forma de Hessenberg, muy útiles en el cálculo de autovalores
por acelerar la convergencia del algoritmo QR reduciendo así enormemente su
coste computacional.
Ejemplo
Vamos a calcular la descomposición de la matriz
En primer lugar necesitamos encontrar una reflexión que transforme la primera
columna de la matriz A, vector , en
usando la expresión,
y
en nuestro caso :
y
Por lo tanto
y , entonces
Ahora observamos:
con lo que ya casi tenemos una matriz triangular. Sólo necesitamos hacer cero en
el elemento (3,2).
Tomando la submatriz bajo el (1, 1) y aplicando de nuevo el proceso a
Mediante el mismo método que antes obtenemos la matriz de Householder
Finalmente obtenemos
La matriz Q es ortogonal y R es triangular superior, de forma que A = QR es la
descomposición QR buscada.
Mediante rotaciones de Givens
Las descomposiciones QR también puden calcularse utilizando una serie de
rotaciones de Givens. Cada rotación anula (hace cero) un elemento en la
subdiagonal de la matriz, formando de este modo la matriz R. La concatenación de
todas las rotaciones de Givens realizadas, forma la matriz ortogonal Q.
En la práctica, las rotaciones de Givens no se utilizan en la actualidad para
construir una matriz completa y realizar un producto de matrices. En su lugar, se
utiliza un procedimiento de rotación de Givens, que es equivalente a la
multiplicación reducida de matrices de Givens, sin el trabajo extra de manejar los
elementos reducidos. El procedimiento de rotación de Givens es útil en situaciones
donde sólo pocos elementos fuera de la diagonal necesitan ser anulados y es más
fácil de paralelizar que las transformaciones de Householder.
Ejemplo
Calculemos la descomposición de
Primero, necesitamos formar una matriz de rotación tal que hagamos cero el
elemento más inferior a la izquierda, . Construimos esta matriz
empleando el método de la rotación de Givens y llamamos la matriz resultante .
Rotamos primero el vector , representándolo a lo largo del eje X. Este
vector forma un ángulo . Creamos la matriz ortogonal de
rotación de Givens, :
Y el resultado de tiene ahora un cero en el elemento.
Procedemos análogamente con las matrices de Givens y , que hacen cero
los elementos subdiagonales y , formando una matriz triangular . La
matriz ortogonal es formada a partir del producto en cadena de todas las
matrices de Givens . Luego tenemos ,
y la descomposición QR es .
Relación con el determinante
Es posible utilizar la descomposición QR para encontrar el valor absoluto del
determinante de una matriz. Suponiendo que una matriz se descompone según
. Entonces se tiene
Puesto que Q es unitaria, . Por tanto,
donde son los valores de la diagonal de R.
Método de Gauss-Seidel
Saltar a: navegación, búsqueda
En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado
para resolver sistemas de ecuaciones lineales. El método se llama así en honor a
los matemáticos alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es
similar al método de Jacobi.
Aunque este método puede aplicarse a cualquier sistema de ecuaciones lineales
que produzca una matriz (cuadrada, naturalmente pues para que exista solución
única, el sistema debe tener tantas ecuaciones como incógnitas) de coeficientes
con los elementos de su diagonal no-nulos, la convergencia del método solo se
garantiza si la matriz es diagonalmente dominante o si es simétrica y, a la vez,
definida positiva.
Índice
1 Descripción
2 Convergencia
3 Explicación
o 3.1 Implementación en C++
o 3.2 Implementación en Java
4 Enlaces externos
Descripción
Es un método iterativo, lo que significa que se parte de una aproximación inicial y
se repite el proceso hasta llegar a una solución con un margen de error tan
pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones
lineales, en notación matricial:
donde:
El método de iteración Gauss-Seidel se computa, para la iteración :
donde
definimos
y
,
donde los coeficientes de la matriz N se definen como si ,
si .
Considerando el sistema con la condición de que .
Entonces podemos escribir la fórmula de iteración del método
(*)
La diferencia entre este método y el de Jacobi es que, en este último, las mejoras
a las aproximaciones no se utilizan hasta completar las iteraciones.
Convergencia
Teorema: Suponga una matriz es una matriz no singular que
cumple la condición de
ó .
Entonces el método de Gauss-Seidel converge a una solución del sistema de
ecuaciones, y la convergencia es por lo menos tan rápida como la convergencia
del método de Jacobi.
Para ver los casos en que converge el método primero mostraremos que se puede
escribir de la siguiente forma:
(**)
(el término es la aproximación obtenida después de la k-ésima iteración) este
modo de escribir la iteración es la forma general de un método iterativo
estacionario.
Primeramente debemos demostrar que el problema lineal que queremos
resolver se puede representar en la forma (**), por este motivo debemos tratar de
escribir la matriz A como la suma de una matriz triangular inferior, una diagonal y
una triangular superior A=(L+D+U), D=diag( ). Haciendo los despejes
necesarios escribimos el método de esta forma
por lo tanto M=-(L+D)-1
U y c=(L+D)-1
b
Ahora podemos ver que la relación entre los errores, el cuál se puede calcular al
substraer x=Bx+c de (**)
Supongamos ahora que , i= 1, ..., n, son los valores propios que corresponden a
los vectores propios , i= 1,..., n, los cuales son linealmente independientes,
entonces podemos escribir el error inicial
(***)
Por lo tanto la iteración converge si y sólo si | λi|<1, i= 1, ..., n. De este hecho se
desprende el siguiente teorema:
Teorema: Una condición suficiente y necesaria para que un método iterativo
estacionario converja para una aproximación arbitraria
x^{(0)} es que
donde ρ(M) es el radio espectral de M.
Explicación
Se elige una aproximación inicial para .
Se calculan las matrices M y el vector c con las fórmulas mencionadas. El proceso
se repite hasta que sea lo suficientemente cercano a , donde k representa
el número de pasos en la iteración.Se tiene que despejar de la ecuación una de
variable distinta y determinante.Si al sumar los coeficientes de las variables
divididos entre si da 1 y -1 es más probable que el despeje funcione. Y se debe de
despejar en cada ecuación una variable distinta, una forma de encontrar que
variable despejar es despejando la variable que tenga el mayor coeficiente.
Ejemplos:
3x-y+z=1
x-5y+z=8
x-y+4z=11
Despejes:
x=(1+y-z)/3 y=(8-x-z)/-5 z=(11-x+y)/4
Después se necesita iniciar con las iteraciones,el valor inicial no es importante lo
importante es usar las iteraciones necesarias, para darte cuenta cuantas
iteraciones son necesarias necesitas observar cuando los decimales se estabilicen
en dos decimales pero se tiene que tener en cuenta que se tiene que seguir con
las iteraciones aunque una de las variables sea estable si las démas no han
llegado al valor buscado. Se sustituye los valores en los despejes, usando para
cada despeje el nuevo valor encontrado.
k x y z
0 0 0 0
1 0.333 -1.600 2.750
2 -1.117 -0.983 2.267
3 -0.750 -1.370 2.783
4 -1.051 -1.193 2.595
... ... ... ...
10 -0.982 -1.259 2.679
11 -0.979 -1.261 2.681
12 -0.980 -1.260 2.680
13 -0.980 -1.260 2.680
-0.980 -1.260 2.680
Estos son los resultados estimados para las variables y podemos observar que los
decimales se estabilizaron en dos decimales.
LA FORMULA DE GAUSS L

Más contenido relacionado

La actualidad más candente

Análisis numérico
Análisis numéricoAnálisis numérico
Análisis numéricojoseborgs
 
Resumen sadicth.sanchez
Resumen sadicth.sanchezResumen sadicth.sanchez
Resumen sadicth.sanchezsadicth
 
Analisis numerico
Analisis numericoAnalisis numerico
Analisis numericocesarjmm1
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesRebeca Oropeza Valdez
 
Métodos de eliminaciónGaussiana
Métodos de eliminaciónGaussianaMétodos de eliminaciónGaussiana
Métodos de eliminaciónGaussianaEstiwer Guevara
 
Solucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones LinealesSolucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones LinealesFernando Juhasz
 
Presentacion
PresentacionPresentacion
Presentacionmbarcat
 
Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)José Monsalve
 
Resumen de unidad 3
Resumen de unidad 3Resumen de unidad 3
Resumen de unidad 3Pier Bogadi
 
Métodos de resolución de sistemas de ecuaciones lineales
Métodos de resolución de sistemas de ecuaciones linealesMétodos de resolución de sistemas de ecuaciones lineales
Métodos de resolución de sistemas de ecuaciones linealesramiroeddy
 
Métodos directos para solución de sistemas ecuaciones lineales
Métodos directos para solución de sistemas ecuaciones linealesMétodos directos para solución de sistemas ecuaciones lineales
Métodos directos para solución de sistemas ecuaciones linealesCesar Mendoza
 
Sistemas ecuaciones saul u
Sistemas ecuaciones saul uSistemas ecuaciones saul u
Sistemas ecuaciones saul uASIGNACIONUFT
 
Solución de Sistemas de Ecuaciones
Solución de Sistemas de EcuacionesSolución de Sistemas de Ecuaciones
Solución de Sistemas de EcuacionesGabriel Colmenares
 
Analisis Numerico... Jose Manzanilla
Analisis Numerico... Jose Manzanilla Analisis Numerico... Jose Manzanilla
Analisis Numerico... Jose Manzanilla jgmc251
 

La actualidad más candente (20)

Metodos de resolucion
Metodos de resolucionMetodos de resolucion
Metodos de resolucion
 
Análisis numérico
Análisis numéricoAnálisis numérico
Análisis numérico
 
Froilan Ramos Métodos de Eliminación Gaussiana
Froilan Ramos Métodos de Eliminación GaussianaFroilan Ramos Métodos de Eliminación Gaussiana
Froilan Ramos Métodos de Eliminación Gaussiana
 
Resumen sadicth.sanchez
Resumen sadicth.sanchezResumen sadicth.sanchez
Resumen sadicth.sanchez
 
Analisis numerico
Analisis numericoAnalisis numerico
Analisis numerico
 
Analisis numerico 2
Analisis numerico 2Analisis numerico 2
Analisis numerico 2
 
Unidad iii
Unidad iiiUnidad iii
Unidad iii
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones lineales
 
Slideshare (analisis numerico)
Slideshare (analisis numerico)Slideshare (analisis numerico)
Slideshare (analisis numerico)
 
Métodos de eliminaciónGaussiana
Métodos de eliminaciónGaussianaMétodos de eliminaciónGaussiana
Métodos de eliminaciónGaussiana
 
Solucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones LinealesSolucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones Lineales
 
Presentacion
PresentacionPresentacion
Presentacion
 
Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)
 
Resumen de unidad 3
Resumen de unidad 3Resumen de unidad 3
Resumen de unidad 3
 
Métodos de resolución de sistemas de ecuaciones lineales
Métodos de resolución de sistemas de ecuaciones linealesMétodos de resolución de sistemas de ecuaciones lineales
Métodos de resolución de sistemas de ecuaciones lineales
 
Métodos directos para solución de sistemas ecuaciones lineales
Métodos directos para solución de sistemas ecuaciones linealesMétodos directos para solución de sistemas ecuaciones lineales
Métodos directos para solución de sistemas ecuaciones lineales
 
Analisis Numerico
Analisis NumericoAnalisis Numerico
Analisis Numerico
 
Sistemas ecuaciones saul u
Sistemas ecuaciones saul uSistemas ecuaciones saul u
Sistemas ecuaciones saul u
 
Solución de Sistemas de Ecuaciones
Solución de Sistemas de EcuacionesSolución de Sistemas de Ecuaciones
Solución de Sistemas de Ecuaciones
 
Analisis Numerico... Jose Manzanilla
Analisis Numerico... Jose Manzanilla Analisis Numerico... Jose Manzanilla
Analisis Numerico... Jose Manzanilla
 

Similar a Eliminación Gaussiana y métodos numéricos para sistemas de ecuaciones lineales

Sistema de ecuaciones lineales
Sistema de ecuaciones linealesSistema de ecuaciones lineales
Sistema de ecuaciones linealesyeliadan_16
 
Resumen de sistemas de ecuación lineales
Resumen de sistemas de ecuación linealesResumen de sistemas de ecuación lineales
Resumen de sistemas de ecuación linealesBCrist
 
Análisis Numerico
Análisis NumericoAnálisis Numerico
Análisis Numericojulio perez
 
Resumen analisis numerico
Resumen analisis numericoResumen analisis numerico
Resumen analisis numericoprettygood22
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesSolución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesJoshua M Noriega
 
Yosel Eviez, Metodos de Solucion de Ecuaciones Lineales
Yosel Eviez, Metodos de Solucion de Ecuaciones LinealesYosel Eviez, Metodos de Solucion de Ecuaciones Lineales
Yosel Eviez, Metodos de Solucion de Ecuaciones LinealesYosel97
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesdarwinxvb
 
Métodos de eliminación gaussiana
Métodos de eliminación gaussianaMétodos de eliminación gaussiana
Métodos de eliminación gaussianaJorge Rojas
 
Solución de sistemas de ecuaciones lineales.
Solución de sistemas de ecuaciones lineales. Solución de sistemas de ecuaciones lineales.
Solución de sistemas de ecuaciones lineales. Alida Marleny Ros Medrano
 
Mapa mental analisis numerico
Mapa mental analisis numericoMapa mental analisis numerico
Mapa mental analisis numericoSergio Alarcón
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesmanuelmrtnz
 
Solución de Sistemas de Ecuaciones Lineales Analisis numerico
    Solución de Sistemas de Ecuaciones Lineales   Analisis numerico    Solución de Sistemas de Ecuaciones Lineales   Analisis numerico
Solución de Sistemas de Ecuaciones Lineales Analisis numericolmpd124
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesSolución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesB3lleza Online
 
sistemas de ecuaciones lineales
sistemas de ecuaciones linealessistemas de ecuaciones lineales
sistemas de ecuaciones linealesIzra Rasta
 
Ecuaciones lineales
Ecuaciones linealesEcuaciones lineales
Ecuaciones linealesJesusS14
 

Similar a Eliminación Gaussiana y métodos numéricos para sistemas de ecuaciones lineales (20)

Sistema de ecuaciones lineales
Sistema de ecuaciones linealesSistema de ecuaciones lineales
Sistema de ecuaciones lineales
 
Resumen de sistemas de ecuación lineales
Resumen de sistemas de ecuación linealesResumen de sistemas de ecuación lineales
Resumen de sistemas de ecuación lineales
 
Análisis Numerico
Análisis NumericoAnálisis Numerico
Análisis Numerico
 
Resumen analisis numerico
Resumen analisis numericoResumen analisis numerico
Resumen analisis numerico
 
Emmanuel castaenda19262743
Emmanuel castaenda19262743Emmanuel castaenda19262743
Emmanuel castaenda19262743
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesSolución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones Lineales
 
Yosel Eviez, Metodos de Solucion de Ecuaciones Lineales
Yosel Eviez, Metodos de Solucion de Ecuaciones LinealesYosel Eviez, Metodos de Solucion de Ecuaciones Lineales
Yosel Eviez, Metodos de Solucion de Ecuaciones Lineales
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones lineales
 
Métodos de eliminación gaussiana
Métodos de eliminación gaussianaMétodos de eliminación gaussiana
Métodos de eliminación gaussiana
 
Resumen unidad III
Resumen unidad IIIResumen unidad III
Resumen unidad III
 
Solución de sistemas de ecuaciones lineales.
Solución de sistemas de ecuaciones lineales. Solución de sistemas de ecuaciones lineales.
Solución de sistemas de ecuaciones lineales.
 
Mapa mental analisis numerico
Mapa mental analisis numericoMapa mental analisis numerico
Mapa mental analisis numerico
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones lineales
 
Solución de Sistemas de Ecuaciones Lineales Analisis numerico
    Solución de Sistemas de Ecuaciones Lineales   Analisis numerico    Solución de Sistemas de Ecuaciones Lineales   Analisis numerico
Solución de Sistemas de Ecuaciones Lineales Analisis numerico
 
Ensayo
EnsayoEnsayo
Ensayo
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesSolución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones Lineales
 
sistemas de ecuaciones lineales
sistemas de ecuaciones linealessistemas de ecuaciones lineales
sistemas de ecuaciones lineales
 
Resumen
ResumenResumen
Resumen
 
Metoodos numericos
Metoodos numericosMetoodos numericos
Metoodos numericos
 
Ecuaciones lineales
Ecuaciones linealesEcuaciones lineales
Ecuaciones lineales
 

Más de ASIGNACIONUFT

Sistema ecuaciones leonardo ch
Sistema ecuaciones leonardo chSistema ecuaciones leonardo ch
Sistema ecuaciones leonardo chASIGNACIONUFT
 
Sistema ecuaciones luis linarez
Sistema ecuaciones luis linarezSistema ecuaciones luis linarez
Sistema ecuaciones luis linarezASIGNACIONUFT
 
Sistemas ecuaciones roger o
Sistemas ecuaciones roger oSistemas ecuaciones roger o
Sistemas ecuaciones roger oASIGNACIONUFT
 
Sistemas ecuaciones naudy
Sistemas ecuaciones naudySistemas ecuaciones naudy
Sistemas ecuaciones naudyASIGNACIONUFT
 
Sistemas ecuaciones jean c. segovia
Sistemas ecuaciones jean c. segoviaSistemas ecuaciones jean c. segovia
Sistemas ecuaciones jean c. segoviaASIGNACIONUFT
 
Sistemas de ecuaciones hergen
Sistemas de ecuaciones hergenSistemas de ecuaciones hergen
Sistemas de ecuaciones hergenASIGNACIONUFT
 
Paradigmasalexfreitez
ParadigmasalexfreitezParadigmasalexfreitez
ParadigmasalexfreitezASIGNACIONUFT
 
Estructura efrain palma
Estructura efrain palmaEstructura efrain palma
Estructura efrain palmaASIGNACIONUFT
 
Estructura antonio g
Estructura antonio gEstructura antonio g
Estructura antonio gASIGNACIONUFT
 
Contexto historico del positivismo
Contexto historico del positivismoContexto historico del positivismo
Contexto historico del positivismoASIGNACIONUFT
 
Unidad i maria valecillos
Unidad i maria valecillosUnidad i maria valecillos
Unidad i maria valecillosASIGNACIONUFT
 
Unidad i juan carlos
Unidad i juan carlosUnidad i juan carlos
Unidad i juan carlosASIGNACIONUFT
 
Unidad i efrain plama
Unidad i efrain plamaUnidad i efrain plama
Unidad i efrain plamaASIGNACIONUFT
 
Unidad i jose chavez
Unidad i jose chavezUnidad i jose chavez
Unidad i jose chavezASIGNACIONUFT
 

Más de ASIGNACIONUFT (20)

Sistema ecuaciones leonardo ch
Sistema ecuaciones leonardo chSistema ecuaciones leonardo ch
Sistema ecuaciones leonardo ch
 
Sistema ecuaciones luis linarez
Sistema ecuaciones luis linarezSistema ecuaciones luis linarez
Sistema ecuaciones luis linarez
 
Sistemas ecuaciones roger o
Sistemas ecuaciones roger oSistemas ecuaciones roger o
Sistemas ecuaciones roger o
 
Sistemas ecuaciones naudy
Sistemas ecuaciones naudySistemas ecuaciones naudy
Sistemas ecuaciones naudy
 
Sistemas ecuaciones jean c. segovia
Sistemas ecuaciones jean c. segoviaSistemas ecuaciones jean c. segovia
Sistemas ecuaciones jean c. segovia
 
Sistemas de ecuaciones hergen
Sistemas de ecuaciones hergenSistemas de ecuaciones hergen
Sistemas de ecuaciones hergen
 
Mapajavieragreda
MapajavieragredaMapajavieragreda
Mapajavieragreda
 
Paradigmasalexfreitez
ParadigmasalexfreitezParadigmasalexfreitez
Paradigmasalexfreitez
 
Paradigmasagustin
ParadigmasagustinParadigmasagustin
Paradigmasagustin
 
Estructura hugo
Estructura hugoEstructura hugo
Estructura hugo
 
Estructura efrain palma
Estructura efrain palmaEstructura efrain palma
Estructura efrain palma
 
Estructura antonio g
Estructura antonio gEstructura antonio g
Estructura antonio g
 
Contexto historico del positivismo
Contexto historico del positivismoContexto historico del positivismo
Contexto historico del positivismo
 
Unidad i maria valecillos
Unidad i maria valecillosUnidad i maria valecillos
Unidad i maria valecillos
 
Unidad i juan carlos
Unidad i juan carlosUnidad i juan carlos
Unidad i juan carlos
 
Unidad i efrain plama
Unidad i efrain plamaUnidad i efrain plama
Unidad i efrain plama
 
Unidad i jorge m
Unidad i jorge mUnidad i jorge m
Unidad i jorge m
 
Unidad i jose chavez
Unidad i jose chavezUnidad i jose chavez
Unidad i jose chavez
 
Unidad i franklin s
Unidad i franklin sUnidad i franklin s
Unidad i franklin s
 
Unidad i luis r
Unidad i luis rUnidad i luis r
Unidad i luis r
 

Eliminación Gaussiana y métodos numéricos para sistemas de ecuaciones lineales

  • 1. UNIVERSIDAD FERMIN TORO AMILCAR TORRES Eliminación Gaussiana Los métodos numéricos para la solución de Sistemas de Ecuaciones Lineales se dividen en dos categorías generales: a. Métodos exactos b. Métodos aproximados Se usan comúnmente dos métodos; la eliminación gaussiana y el método de Gauss-Jordan. Se recomienda utilizar la estrategia de pivoteo en cualquier implementación que se haga de estos métodos sobre una computadora. Con la ayuda de esta estrategia, los errores de redondeo disminuyen y se evitan los problemas como división entre cero. Aunque en todos los demás sentidos son iguales, la eliminación gausiana es preferible a Gauss-Jordan, ya que la primera es un 50% más rápida. Sin embargo, el método de Gauss-Jordan sigue siendo útil ya que se puede modificar un poco de manera que se pueda obtener la matriz inversa como beneficio adicional en los cálculos. Aunque los métodos de eliminación tienen una gran utilidad, el uso de toda la matriz de coeficientes puede ser un factor muy importante cuando se trata de sistemas muy grandes y dispersos. El método de Gauss-Seidel es diferente a los métodos exactos, en cuanto que éste, emplea un esquema iterativo en la obtención progresiva de aproximaciones más cercanas a la solución. Por lo tanto, el efecto de redondeo es un punto discutible dentro del método, ya que las iteraciones se pueden prolongar tanto como sea posible para obtener la precisión deseada. La desventaja del método de Gauss-Seidel es que no siempre converge a la solución exacta o algunas veces los hace de manera muy lenta. Únicamente es
  • 2. confiable para aquellos sistemas dominantes diagonalmente. Además, de que muchos sistemas algebraicos lineales originados de problemas físicos muestran dominancia diagonal, el método de Gauss-Seidel tiene gran utilidad en la solución de problemas de ingeniería. Teorema Fundamental de Equivalencia: Puede aceptarse que las siguientes 3 operaciones sobre una matriz ampliada producen otras correspondientes a un sistema equivalente: 1. Intercambiar dos renglones. ( ya que corresponde a reordenar las ecuaciones del sistema). 2. Multiplicar todos los elementos de un renglón por una misma constante. 3. Sumar a los elementos de un renglón los correspondiente elementos de otro multiplicados por una constante. Método de Eliminación Gaussiana: Este algoritmo consiste en dos procesos: a) Eliminación hacia adelante: Esta fase reduce el conjunto de ecuaciones a un sistema triangular Superior: Paso 1: Consiste en dividir la primera ecuación por el coeficiente de la primera incógnita aii (coeficiente pivote). A este procedimiento se le conoce como normalización. Paso 2: Después se multiplica la ecuación normalizada por el primer coeficiente de la segunda ecuación. Paso 3: Nótese que el primer termina de la primera ecuación es idéntico al primer termino de la segunda. Por lo tanto, se puede eliminar, la primera incógnita de la segunda ecuación restando la primera a la segunda. Paso 4: Repetir el paso 2 y 3 hasta eliminar la primera incógnita de todas las ecuaciones restantes.
  • 3. Estos 4 pasos se repiten tomando como pivotes las ecuaciones restantes hasta convertir el sistema en una matriz triangular superior. b) Sustitución hacia atrás: Ya obtenido el sistema equivalente que es un sistema triangular superior este es más manejable y se puede resolver despejando primero la Xn y este valor utilizarlo para obtener despejando la segunda incógnita hasta obtener el resultado completo del sistema. Método de Gauss-Jordan: Este método también utiliza el teorema fundamental de equivalencia para resolver un sistema de ecuaciones lineales. El método consiste en convertir el sistema expresado como matriz ampliada y trabajar para trasformarlo en un la matriz identidad quedando en el vector de términos independientes el resultado del sistema. El procedimiento es similar al proceso de la eliminación gaussiana con la diferencia que no solo elimina los términos debajo de la diagonal principal sino también los que están sobre de ella. Es importante mencionar que este método es muy adecuado para obtener la matriz inversa de una matriz. Método de Gauss-Seidel: Este método es iterativo o de aproximación y es similar a las técnicas para obtener raíces vistas en el tema anterior. Aquellos métodos consisten en la determinación de un valor inicial a partir del cual, mediante una técnica sistemática se obtiene una mejor aproximación a la raíz. La razón por la cual los métodos iterativos son útiles en la disminución de los errores de redondeo en sistemas, se debe a que un método de aproximación se puede continuar hasta que converga dentro de alguna tolerancia de error previamente especificada. Las técnicas iterativas se emplean
  • 4. rara vez para resolver problemas de dimensiones pequeñas ya que el tiempo requerido para lograr una precisión suficiente excede al de las técnicas directas. Sin embargo, para sistemas grandes con un gran porcentaje de ceros, ésta técnica es eficiente. Los sistemas de este tipo surgen frecuentemente en la solución numérica de problemas de valores frontera y de ecuaciones diferenciales parciales. Algoritmo: 1) Se debe despejar da cada ecuación despejar la variable sobre la diagonal principal. 2) Dar un valor inicial a las incógnitas (X generalmente se establecen ceros). 3) Sustituir los valores iniciales en la primera ecuación para obtener un nuevo valor para la primera incógnita. 4) Ese nuevo valor es usado para obtener el valor de la siguiente incógnita. Este procedimiento se repite hasta obtener los nuevos valores de todas las incógnitas despejadas. 5) Se evalúa la aproximación relativa de todas las incógnitas hasta que la solución converja bastante cerca de la solución real, según la tolerancia establecida para el método. Factorización de Cholesky Saltar a: navegación, búsqueda Este artículo o sección necesita referencias que aparezcan en una publicación acreditada, como revistas especializadas, monografías, prensa diaria o páginas de Internet fidedignas. Puedes añadirlas así o avisar al autor principal del artículo en su página de discusión pegando: {{subst:Aviso referencias|Factorización de Cholesky}} ~~~~ En matemáticas, la factorización o descomposición de Cholesky toma su nombre del matemático André-Louis Cholesky, quien encontró que una matriz simétrica definida positiva puede ser descompuesta como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La matriz triangular inferior es el triángulo de Cholesky de la matriz original positiva
  • 5. definida. El resultado de Cholesky ha sido extendido a matrices con entradas complejas. Es una manera de resolver sistemas de ecuaciones matriciales y se deriva de la factorización LU con una pequeña variación. Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el producto de una matriz triangular inferior L y una matriz triangular superior U; esto recibe el nombre de factorización LU. Sin embargo, si A es simétrica y definida positiva, se pueden escoger los factores tales que U es la transpuesta de L, y esto se llama la descomposición o factorización de Cholesky. Tanto la descomposición LU como la descomposición de Cholesky son usadas para resolver sistemas de ecuaciones lineales. Cuando es aplicable, la descomposición de Cholesky es dos veces más eficiente que la descomposición LU. Índice 1 Definición 2 Aplicaciones o 2.1 Mínimos cuadrados lineales o 2.2 Simulación de Montecarlo o 2.3 Filtro de Kalman 3 Links de interés Definición En general, si A es Hermitiana y definida positiva, entonces A puede ser descompuesta como donde L es una matriz triangular inferior con entradas diagonales estrictamente positivas y L* representa la conjugada traspuesta de L. Esta es la descomposición de Cholesky. La descomposición de Cholesky es única: dada una matriz Hermitiana positiva definida A, hay una única matriz triangular inferior L con entradas diagonales estrictamente positivas tales que A = LL* . El recíproco se tiene trivialmente: si A se puede escribir como LL* para alguna matriz invertible L, triangular inferior o no, entonces A es Hermitiana y definida positiva. El requisito de que L tenga entradas diagonales estrictamente positivas puede extenderse para el caso de la descomposición en el caso de ser semidefinida positiva. La proposición se lee ahora: una matriz cuadrada A tiene una descomposición de Cholesky si y sólo si A es Hermitiana y semidefinida positiva. Las factorizaciones de Cholesky para matrices semidefinidas positivas no son únicas en general.
  • 6. En el caso especial que A es una matriz positiva definida simétrica con entradas reales, L se puede asumir también con entradas reales. Una Matriz D diagonal con entradas positivas en la diagonal (valores propios de A), es factorizable como , donde es matriz cuya diagonal consiste en la raíz cuadrada de cada elemento de D, que tomamos como positivos. Así: La factorización puede ser calculada directamente a través de las siguientes fórmulas (en este caso realizamos la factorizacón superior ): para los elementos de la diagonal principal, y: para el resto de los elementos. Donde son los elementos de la matriz U. Aplicaciones La descomposición de Cholesky se usa principalmente para hallar la solución numérica de ecuaciones lineales Ax = b. Si A es simétrica y positiva definida, entonces se puede solucionar Ax = b calculando primero la descomposición de Cholesky A = LLT , luego resolviendo Ly = b para y, y finalmente resolviendo LT x = y para x. Mínimos cuadrados lineales Sistemas de la forma Ax = b con A simétrica y definida positiva aparecen a menudo en la práctica. Por ejemplo, las ecuaciones normales en problemas de mínimos cuadrados lineales son problemas de esta forma. Podría ocurrir que la matriz A proviene de un funcional de energía el cual debe ser positivo bajo consideraciones físicas; esto ocurre frecuentemente en la solución numérica de ecuaciones diferenciales parciales. Simulación de Montecarlo La descomposición de Cholesky se usa comúnmente en el método de Montecarlo para simular sistemas con variables múltiples correlacionadas: la matriz de correlación entre variables es descompuesta, para obtener la triangular inferior L. Aplicando ésta a un vector de ruidos simulados incorrelacionados, u produce un vector Lu con las propiedades de covarianza del sistema a ser modelado. Filtro de Kalman
  • 7. Los filtros de Kalman usan frecuentemente la descomposición de Cholesky para escoger un conjunto de puntos sigma. El filtro de Kalman sigue el estado promedio de un sistema como un vector x de longitud N y covarianza dada por una matriz P de tamaño N-by-N. La matriz P es siempre positiva semidefinida y puede descomponerse como LLT . Las columnas de L puede ser adicionadas y restadas de la media x para formar un conjunto de 2N vectores llamados los puntos sigma. Estos puntos sigma capturan la media y la covarianza del estado del sistema. Factorización QR Saltar a: navegación, búsqueda En álgebra lineal, la descomposición o factorización QR de una matriz es una descomposición de la misma como producto de una matriz ortogonal por una triangular superior. La descomposición QR es la base del algoritmo QR utilizado para el cálculo de los vectores y valores propios de una matriz. Índice 1 Definición 2 Cálculo de la descomposición QR o 2.1 Mediante el método de ortogonalización de Gram-Schmidt  2.1.1 Ejemplo o 2.2 Mediante el uso de reflexiones de Householder  2.2.1 Ejemplo o 2.3 Mediante rotaciones de Givens  2.3.1 Ejemplo 3 Relación con el determinante Definición La descomposición QR de una matriz cuadrada real A es donde Q es una matriz ortogonal (QT Q = I ) y R es una matriz triangular superior. Cálculo de la descomposición QR Mediante el método de ortogonalización de Gram-Schmidt Recurriendo al método de ortogonalización de Gram-Schmidt, con las columnas de A como los vectores a procesar.
  • 8. . Entonces Naturalmente, utilizamos los ais de A para obtener: Ahora estas ecuaciones pueden ser escritas en forma matricial de esta manera: ::::::::: El producto de cada fila con cada columa de las matrices de arriba, nos da la respectiva columna de A con la que comenzamos y, por tanto, dada la matriz A, la hemos factorizado en una matriz ortogonal Q (la matriz de eks), aplicando el proceso de Gram-Schmidt, y la matriz resultante triangular superior es R.
  • 9. Alternativamente, la matriz puede clacularse de la siguiente manera: Recordemos que: Entonces, tenemos Note que y , entonces . Ejemplo Si se considera la descomposición de Se busca la matriz ortogonal tal que Por lo que calculamos mediante Gram-Schmidt como sigue: Por lo tanto, tenemos
  • 10. Considerando errores numéricos de operar con precisión finita en MATLAB, tenemos que Mediante el uso de reflexiones de Householder Una transformación de Householder o reflexión de Householder es una transformación que refleja el espacio con respecto a un plano determinado. Esta propiedad se puede utilizar para realizar la transformación QR de una matriz si tenemos en cuenta que es posible elegir la matriz de Householder de manera que un vector elegido quede con una única componente no nula tras ser transformado (es decir, premultiplicando por la matriz de Householder). Gráficamente, esto significa que es posible reflejar el vector elegido respecto de un plano de forma que el reflejo quede sobre uno de los ejes de la base cartesiana. La manera de elegir el plano de reflexión y formar la matriz de Householder asociada es el siguiente: Sea un vector columna arbitrario m-dimensional tal que || || = |α|, donde α es un escalar; (si el algoritmo se implementa utilizando aritmética de coma flotante, entonces α debe adoptar el signo contrario que 1 para evitar pérdida de precisión). Entonces, siendo el vector (1,0,...,0)T , y ||·|| la norma euclídea, se define:
  • 11. es un vector unitario perpendicular al plano de reflexión elegido. es una matriz de Householder asociada a dicho plano. Esta propiedad se puede usar para transformar gradualmente los vectores columna de una matriz A de dimensiones m por n en una matriz triangular superior. En primer lugar se multiplica A con la matriz de Householder Q1 que obtenemos al elegir como vector la primera columna de la matriz. Esto proporciona una matriz QA con ceros en la primera columna (excepto el elemento de la primera fila). el procedimiento se puede repetir para A′ (que se obtiene de A eliminando la primera fila y columna), obteniendo así una matriz de Householder Q′2. Hay que tener en cuenta que Q′2 es menor que Q1. Para conseguir que esta matriz opere con Q1A en lugar de A′ es necesario expandirla hacia arriba a la izquierda, completando con un uno en la diagonal, o en general: Tras repetir el proceso veces, donde , es una matriz triangular superior. De forma que tomando es una descomposición QR de la matriz . Este método tiene una estabilidad numérica mayor que la del método de Gram- Schmidt descrito arriba. Una pequeña variación de este método se utiliza para obtener matrices semejantes con la forma de Hessenberg, muy útiles en el cálculo de autovalores
  • 12. por acelerar la convergencia del algoritmo QR reduciendo así enormemente su coste computacional. Ejemplo Vamos a calcular la descomposición de la matriz En primer lugar necesitamos encontrar una reflexión que transforme la primera columna de la matriz A, vector , en usando la expresión, y en nuestro caso : y Por lo tanto y , entonces
  • 13. Ahora observamos: con lo que ya casi tenemos una matriz triangular. Sólo necesitamos hacer cero en el elemento (3,2). Tomando la submatriz bajo el (1, 1) y aplicando de nuevo el proceso a Mediante el mismo método que antes obtenemos la matriz de Householder Finalmente obtenemos La matriz Q es ortogonal y R es triangular superior, de forma que A = QR es la descomposición QR buscada. Mediante rotaciones de Givens
  • 14. Las descomposiciones QR también puden calcularse utilizando una serie de rotaciones de Givens. Cada rotación anula (hace cero) un elemento en la subdiagonal de la matriz, formando de este modo la matriz R. La concatenación de todas las rotaciones de Givens realizadas, forma la matriz ortogonal Q. En la práctica, las rotaciones de Givens no se utilizan en la actualidad para construir una matriz completa y realizar un producto de matrices. En su lugar, se utiliza un procedimiento de rotación de Givens, que es equivalente a la multiplicación reducida de matrices de Givens, sin el trabajo extra de manejar los elementos reducidos. El procedimiento de rotación de Givens es útil en situaciones donde sólo pocos elementos fuera de la diagonal necesitan ser anulados y es más fácil de paralelizar que las transformaciones de Householder. Ejemplo Calculemos la descomposición de Primero, necesitamos formar una matriz de rotación tal que hagamos cero el elemento más inferior a la izquierda, . Construimos esta matriz empleando el método de la rotación de Givens y llamamos la matriz resultante . Rotamos primero el vector , representándolo a lo largo del eje X. Este vector forma un ángulo . Creamos la matriz ortogonal de rotación de Givens, : Y el resultado de tiene ahora un cero en el elemento.
  • 15. Procedemos análogamente con las matrices de Givens y , que hacen cero los elementos subdiagonales y , formando una matriz triangular . La matriz ortogonal es formada a partir del producto en cadena de todas las matrices de Givens . Luego tenemos , y la descomposición QR es . Relación con el determinante Es posible utilizar la descomposición QR para encontrar el valor absoluto del determinante de una matriz. Suponiendo que una matriz se descompone según . Entonces se tiene Puesto que Q es unitaria, . Por tanto, donde son los valores de la diagonal de R. Método de Gauss-Seidel Saltar a: navegación, búsqueda En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado para resolver sistemas de ecuaciones lineales. El método se llama así en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es similar al método de Jacobi. Aunque este método puede aplicarse a cualquier sistema de ecuaciones lineales que produzca una matriz (cuadrada, naturalmente pues para que exista solución única, el sistema debe tener tantas ecuaciones como incógnitas) de coeficientes con los elementos de su diagonal no-nulos, la convergencia del método solo se garantiza si la matriz es diagonalmente dominante o si es simétrica y, a la vez, definida positiva.
  • 16. Índice 1 Descripción 2 Convergencia 3 Explicación o 3.1 Implementación en C++ o 3.2 Implementación en Java 4 Enlaces externos Descripción Es un método iterativo, lo que significa que se parte de una aproximación inicial y se repite el proceso hasta llegar a una solución con un margen de error tan pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones lineales, en notación matricial: donde: El método de iteración Gauss-Seidel se computa, para la iteración : donde definimos y ,
  • 17. donde los coeficientes de la matriz N se definen como si , si . Considerando el sistema con la condición de que . Entonces podemos escribir la fórmula de iteración del método (*) La diferencia entre este método y el de Jacobi es que, en este último, las mejoras a las aproximaciones no se utilizan hasta completar las iteraciones. Convergencia Teorema: Suponga una matriz es una matriz no singular que cumple la condición de ó . Entonces el método de Gauss-Seidel converge a una solución del sistema de ecuaciones, y la convergencia es por lo menos tan rápida como la convergencia del método de Jacobi. Para ver los casos en que converge el método primero mostraremos que se puede escribir de la siguiente forma: (**) (el término es la aproximación obtenida después de la k-ésima iteración) este modo de escribir la iteración es la forma general de un método iterativo estacionario. Primeramente debemos demostrar que el problema lineal que queremos resolver se puede representar en la forma (**), por este motivo debemos tratar de escribir la matriz A como la suma de una matriz triangular inferior, una diagonal y una triangular superior A=(L+D+U), D=diag( ). Haciendo los despejes necesarios escribimos el método de esta forma
  • 18. por lo tanto M=-(L+D)-1 U y c=(L+D)-1 b Ahora podemos ver que la relación entre los errores, el cuál se puede calcular al substraer x=Bx+c de (**) Supongamos ahora que , i= 1, ..., n, son los valores propios que corresponden a los vectores propios , i= 1,..., n, los cuales son linealmente independientes, entonces podemos escribir el error inicial (***) Por lo tanto la iteración converge si y sólo si | λi|<1, i= 1, ..., n. De este hecho se desprende el siguiente teorema: Teorema: Una condición suficiente y necesaria para que un método iterativo estacionario converja para una aproximación arbitraria x^{(0)} es que donde ρ(M) es el radio espectral de M. Explicación Se elige una aproximación inicial para . Se calculan las matrices M y el vector c con las fórmulas mencionadas. El proceso se repite hasta que sea lo suficientemente cercano a , donde k representa el número de pasos en la iteración.Se tiene que despejar de la ecuación una de variable distinta y determinante.Si al sumar los coeficientes de las variables divididos entre si da 1 y -1 es más probable que el despeje funcione. Y se debe de despejar en cada ecuación una variable distinta, una forma de encontrar que variable despejar es despejando la variable que tenga el mayor coeficiente. Ejemplos: 3x-y+z=1 x-5y+z=8 x-y+4z=11
  • 19. Despejes: x=(1+y-z)/3 y=(8-x-z)/-5 z=(11-x+y)/4 Después se necesita iniciar con las iteraciones,el valor inicial no es importante lo importante es usar las iteraciones necesarias, para darte cuenta cuantas iteraciones son necesarias necesitas observar cuando los decimales se estabilicen en dos decimales pero se tiene que tener en cuenta que se tiene que seguir con las iteraciones aunque una de las variables sea estable si las démas no han llegado al valor buscado. Se sustituye los valores en los despejes, usando para cada despeje el nuevo valor encontrado. k x y z 0 0 0 0 1 0.333 -1.600 2.750 2 -1.117 -0.983 2.267 3 -0.750 -1.370 2.783 4 -1.051 -1.193 2.595 ... ... ... ... 10 -0.982 -1.259 2.679 11 -0.979 -1.261 2.681 12 -0.980 -1.260 2.680 13 -0.980 -1.260 2.680 -0.980 -1.260 2.680 Estos son los resultados estimados para las variables y podemos observar que los decimales se estabilizaron en dos decimales. LA FORMULA DE GAUSS L