Este documento describe métodos iterativos para resolver sistemas de ecuaciones lineales, incluyendo los métodos de Jacobi, Gauss-Seidel y relajación sucesiva. Explica que los métodos iterativos son menos sensibles a errores que los métodos directos y definen la convergencia. Además, compara la eficiencia de los diferentes métodos y cómo la técnica de relajación puede acelerar la convergencia.
La derivada de una función en un punto es la pendiente de la recta tangente a dicha recta en dicho punto. Físicamente, miden la rapidez con la que cambia una variable con respecto a otra. La misma, se aplica en casos donde es necesario medir la rapidez con que se produce el cambio de una situación. Por tanto, la derivada de una función para un valor de la variable es la tasa de variación instantánea de dicha función y para el valor concreto de la variable
DERIVACIÓN E INTEGRACIÓN DE FUNCIONES DE VARIAS VARIABLESStefanyMarcano
Links de los videos:
https://www.youtube.com/watch?v=Vnbi1S7x6Qg
https://www.youtube.com/watch?v=cPuE8bUEaUo
https://www.youtube.com/watch?v=XKgfHOaXhqs
La derivada de una función en un punto es la pendiente de la recta tangente a dicha recta en dicho punto. Físicamente, miden la rapidez con la que cambia una variable con respecto a otra. La misma, se aplica en casos donde es necesario medir la rapidez con que se produce el cambio de una situación. Por tanto, la derivada de una función para un valor de la variable es la tasa de variación instantánea de dicha función y para el valor concreto de la variable
DERIVACIÓN E INTEGRACIÓN DE FUNCIONES DE VARIAS VARIABLESStefanyMarcano
Links de los videos:
https://www.youtube.com/watch?v=Vnbi1S7x6Qg
https://www.youtube.com/watch?v=cPuE8bUEaUo
https://www.youtube.com/watch?v=XKgfHOaXhqs
derivación e integración de funciones de varias variables joselingomez5
En este apartado se estudia el concepto de límite de una función de varias variables y algunas de las técnicas utilizadas en su cálculo. Después, basándose en este concepto, se establece la definición de función continua y cómo estudiar la continuidad de una función de varias variables. En principio se comienza con campos escalares y después se extiende la definición a los campos vectoriales
derivación e integración de funciones de varias variables joselingomez5
En este apartado se estudia el concepto de límite de una función de varias variables y algunas de las técnicas utilizadas en su cálculo. Después, basándose en este concepto, se establece la definición de función continua y cómo estudiar la continuidad de una función de varias variables. En principio se comienza con campos escalares y después se extiende la definición a los campos vectoriales
Métodos directos para solución de sistemas ecuaciones lineales
Metodos iterativos
1. Parte 4. M´todos iterativos para la
e
resoluci´n de sistemas de ecuaciones
o
lineales
Gustavo Montero
Escuela T´cnica Superior de Ingenieros Industriales
e
Universidad de Las Palmas de Gran Canaria
Curso 2006-2007
2. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
3. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
4. Introducci´n
o
Ventaja frente a los m´todos directos
e
Son menos sensibles a los errores de blackondeo y esto se aprecia en sistemas de orden elevado donde los errores de
blackondeo de los m´todos directos son considerables
e
Definici´n de m´todo iterativo
o e
Un m´todo iterativo construye una sucesi´n de vectores xm tal que
e o
lim xm = x
m→∞
siendo x la soluci´n del sistema Ax = b.
o
Construcci´n de un m´todo iterativo
o e
Se parte de una aproximaci´n inicial x0 y luego se calcula
o
xm+1 = F (xm ), m = 0, 1, . . .
donde F se toma de forma lineal: F (x) = B x + c
xm+1 = B xm + c, m = 0, 1, . . .
La matriz B se denomina matriz de iteraci´n y de sus propiedades va a depender la convergencia del m´todo.
o e
5. Definici´n de convergencia
o
Definici´n de convergencia
o
Un m´todo se dice que es convergente si:
e
−1
lim xm = x = A b
m→∞
Teorema del Punto Fijo
Aplicando el Teorema del Punto Fijo,
||F (x ) − F (x )|| ≤ L||x − x ||
es decir,
||Bx − Bx || ≤ L||x − x ||
Luego si v = x − x =⇒ ||Bv || ≤ L||v ||
Teorema general para la convergencia de los m´todos
e
iterativos
Un m´todo iterativo del tipo anterior es convergente si y s´lo si se cumplen simult´neamente las siguientes
e o a
condiciones,
c = (I − B)A−1 b
ρ(B) < 1
6. Construcci´n de m´todos iterativos
o e
Sea A = M − N, con M invertible
Teorema de caracterizaci´n de m´todos iterativos
o e
Si se toma, −1
B = M N
−1
c = M b
el m´todo considerado cumple la primera condici´n anterior.
e o
Pero adem´s se debe cumplir la segunda condici´n,
a o
−1 −1
ρ(M N) < 1 o tambi´n
e ||M N|| < 1
Teorema de construcci´n de los m´todos iterativos
o e
Todo m´todo del tipo estudiado verifica las condiciones del teorema anterior con M − N = A y M invertible.
e
El m´todo resulta,
e
−1 −1
xm+1 = M Nxm + M b
es decir,
Mxm+1 = Nxm + b
Por tanto, conviene elegir M tal que sea f´cilmente invertible (diagonal o triangular).
a
El n´mero de operaciones de los m´todos iterativos es O(n2 ) × no iter
u e
7. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
8. Algoritmo de Jacobi
Matriz de iteraci´n de Jacobi
o
La matriz de iteraci´n de Jacobi resulta,
o
Descomposici´n suma de una matriz
o
Sea A = D − L − U, con a a13 a
0 − 12 1 1n
0 1
0 aa
11 0 a · · · · · ·0
− −
a11 C
a21 B 011 11
B
B a22 a23· · · 0 Ca2n C
B −D = B 0 − ··· −
B B C C
a . . a22 . . Ca; C
a22 B a . . .. . Ca22 C
B
B − 31 @ − . 32 . 0 ···.
A 3n C
B
− C
B
B a33 a33
0 0 ··· ann a33 C C
. . 1 . .
B C
B
. ··· . 0 . 0. . .
C
··· ·B·
· −a12 C −a13 ··· −a1n
0 1
0 B . . . .0 . C
B −a21 0 ·@·
· an1 · ·
· an2
0 C an3 B 0 0 A −a23 ··· −a2n
− − C− B··
·
C
B −a31 0
−a32 0 ann · ·
· 0
B C
ann C; U = B . . . .
C a B .. C
L=B nn
B . . . . C
B . . . .. . C
B . . . . . C
B . . . . . C
@ ···
C
@ . . . . A ··· ··· 0 −an−1n A
−an1 −an2 ··· −ann−1 0 0 ··· ··· ··· 0
Algoritmo
El m´todo de Jacobi consiste en elegir M = D y N = L + U, resultando en forma matricial,
e
Dxm+1 = (L + U)xm + b
n
X
es decir, aii (xm+1 )i = − aij (xm )j + bi ; i = 1, 2, . . . , n
j=1
j=i
9. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
10. Algoritmo de Gauss-Seidel
Algoritmo
El m´todo de Gauss-Seidel consiste en elegir M = D − L y N = U, resultando en forma matricial,
e
(D − L)xm+1 = Uxm + b
i n
es decir,
X X
aij (xm+1 )j = − aij (xm )j + bi ; i = 1, 2, . . . , n
j=1 j=i+1
o, finalmente, i−1
X n
X
aii (xm+1 )i = − aij (xm+1 )j − aij (xm )j + bi ; i = 1, 2, . . . , n
j=1 j=i+1
Ventaja frente a Jacobi
Menor requerimiento de almacenamiento respecto a Jacobi, ya que no necesita dos vectores para la
soluci´n (xm+1 , xm ). En el m´todo de Gauss-Seidel las actualizaciones de la soluci´n se guardan en las
o e o
posiciones de los valores anteriores
El m´todo de Gauss-Seidel tiene mejores condiciones de convergencia que el de Jacobi
e
11. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
12. Algoritmo de Relajaci´n Sucesiva
o
Algoritmo
Si tomamos un par´metro ω = 0, podemos hacer la descomposici´n de A de la forma,
a o
1 1−ω
A=D−L−U = D−L− D−U
ω ω
1 1−ω
y eligiendo M = D − L, N = D + U, resulta
ω ω
1 1−ω
„ « „ «
D − L xm+1 = D + U xm + b
ω ω
i−1 n
1 X 1−ω X
aii (xm+1 )i + aij (xm+1 )j = aii (xm )i − aij (xm )j + bi ; i = 1, 2, . . . , n
ω j=1
ω j=i+1
Algoritmo en dos pasos
El algoritmo SSOR se puede expresar en dos pasos, un primer paso que coincide con el m´todo de Gauss-Seidel un
e
segundo paso de relajaci´n de la soluci´n,
o o
i−1
X Xn
aii (¯m+1 )i +
x aij (xm+1 )j = aij (xm )j + bi ; i = 1, 2, . . . , n
j=1 j=i+1
(xm+1 )i − (xm )i = ω ((¯m+1 )i − (xm )i )
x
13. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
14. Resumen de resultados de Convergencia
Si A es sim´trica y definida positiva, el m´todo de Gauss-Seidel converge.
e e
Si A es sim´trica y la matriz
e
a11 −a12 ··· −a1n
0 1
B −a12 a22 ··· −a2n C
B C
D+L+U =B . . .. . C
B . . . . C
@ . . . A
−a1n −a2n ··· ann
es definida positiva, el m´todo de Jacobi es convergente.
e
Si A es sim´trica y definida positiva, el m´todo de relajaci´n converge si y s´lo si 0 < ω < 2.
e e o o
Si ω < 1 el m´todo se denomina de subrelajaci´n y si ω > 1, de sobrerrelajaci´n.
e o o
Si A es sim´trica, definida positiva y tridiagonal, el valor ´ptimo de ω para la convergencia del m´todo de
e o e
relajaci´n es,
o
2
ω= q
1 + 1 − ρ2 j
siendo ρj el radio espectral de la matriz de iteraci´n del m´todo de Jacobi.
o e
15. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
16. Resumen
Los m´todos iterativos tienen un coste computacional de O(n2 ) × no iteraciones.
e
Si el n´mero de iteraciones es peque˜o comparado con n, los m´todos iterativos
u n e
son preferibles a los directos. Asimismo, los errores de blackondeo no se
acumulan despu´s de cada iteraci´n, lo que supone una ventaja adicional.
e o
El m´todo de Gauss-Seidel es usualmente m´s eficiente que el de Jacobi
e a
Podemos acelerar la convergencia mediante la t´cnica de relajaci´n.
e o
Generalmente se suele utilizar valores de ω entre 1 y 2 (sobrerelajaci´n)
o
En la actualidad los m´todos iterativos estudiados en esta asignatura est´n
e a
obsoletos. Los m´todos m´s utilizados son los basados en los subespacios de
e a
Krylov.