SlideShare una empresa de Scribd logo
1 de 20
Descargar para leer sin conexión
Métodos iterativos

           Damián Ginestar Peiró

        Departamento de Matemática Aplicada
         Universidad Politécnica de Valencia


              Curso 2010-2011




(UPV)              Métodos iterativos          Curso 2010-2011   1 / 20
Índice



1   Introducción

2   Conceptos básicos

3   Métodos iterativos estacionarios

4   Precondicionadores
      Introducción
      Precondicionadores clásicos




         (UPV)                Métodos iterativos   Curso 2010-2011   2 / 20
Introducción


Dada una matriz invertible de tamaño n × n y un vector b ∈ Rn la única
solución del sistema
                                Ax = b
es
                              x = A−1 b


     Nosotros trabajaremos con matrices vacías (sparse) es decir
     matrices con un número de elementos no nulos (nz(A)) del orden

                                 nz(A) = c · n

     con c independiente de n.



         (UPV)                Métodos iterativos       Curso 2010-2011   3 / 20
Introducción




   No se puede hacer la inversión de A ya que:
     1   A−1 puede dejar de ser vacía, es decir se llena, =⇒ no se puede
         almacenar.
     2   Cálculo de A−1 puede costar O(n3 ) operaciones (tiempo de CPU:
         años).
   Buscaremos métodos aproximados para la resolución del sistema
   que se basan esencialmente en el producto matriz-vector.




         (UPV)                 Métodos iterativos         Curso 2010-2011   4 / 20
Conceptos básicos


   Un método iterativo obtiene una solución aproximada de Ax = b
   construyendo una sucesión de vectores:

                                x1 , x2 , . . . , xk

   desde un vector inicial arbitrario x0 .
   Un método iterativo se dice convergente si

                                 lim xk = x .
                                k →∞

   El vector error, en cada iteración, se define como

                                ek = x − xk .



        (UPV)                  Métodos iterativos      Curso 2010-2011   5 / 20
Conceptos básicos




   El vector residuo, en cada iteración, se define como

                            rk = b − Axk .

   Se puede probar

       lim xk = x    ⇐⇒     lim ek = 0           ⇐⇒   lim rk = 0
      k →∞                 k →∞                       k →∞




       (UPV)                Métodos iterativos          Curso 2010-2011   6 / 20
Conceptos básicos

   Un método iterativo nunca da la solución exacta incluso en
   precisión infinita.
   Los métodos directos teóricamente producen la solución exacta;
   pero en un ordenador dan errores numéricos.
   Se da a priori una precisión para nuestra solución. Sea TOL el
   error máximo permitido.

                                                         ek
    ek < TOL, (error absoluto)              o                 < TOL (error relativo)
                                                         x

   Pero x, y ek no son conocidos el criterio de parada no es útil.
   Se utiliza el criterio del residuo
                                                    rk
                rk < TOL (absoluto) o                    < TOL (relativo)
                                                    b

        (UPV)                  Métodos iterativos                    Curso 2010-2011   7 / 20
Conceptos básicos



   La relación entre el error y el residuo es

                    rk = b − Axk = Ax − Axk = Aek .

   Usando normas matriciales:

               rk ≤ A ek (1a);                  ek ≤ A−1   rk (1b)

   Notar además

       x ≤ A−1       b (2a);            b ≤ A A−1 b = A x (2b)




       (UPV)                   Métodos iterativos           Curso 2010-2011   8 / 20
Conceptos básicos



   Combinando (1a) con (2a) y (1b) con (2b) obtenemos

                  1        rk           ek                      rk
                                 ≤                ≤ A A−1
                A A−1      b            x                       b

   Finalmente, recordando que κ(A) = A A−1 :

                     1 rk              ek                  rk
                                 ≤                ≤ κ(A)
                    κ(A) b             x                   b

   Conclusión: Test del residuo es fiable si κ(A) no es muy grande.




       (UPV)                 Métodos iterativos                  Curso 2010-2011   9 / 20
Métodos iterativos estacionarios

Sea A la matriz del sistema Ax = b. Podemos considerar la partición
(splitting)
                             A=M −N
donde M = A es una matriz invertible.

Se construye el sistema iterativo

          xk +1 = M −1 Nxk + M −1 b = Hxk + q,       k = 0, 1, . . .

donde H es la matriz de iteración y x0 el vector inicial.

Definición
Se dice que un método iterativo es estacionario si la matriz de
iteración H es constante en todo el proceso.


         (UPV)                  Métodos iterativos           Curso 2010-2011   10 / 20
Métodos iterativos estacionarios

     Sea A tal que aii = 0 y consideremos la partición

                                 A=L+D+U


         L es la parte estrictamente triangular superior de A,
         D es la parte diagonal de A,
         U es la parte estrictamente triangular superior de A.

 1   Método de Jacobi: M = D y N = − (L + D)

                 xk +1 = −D −1 (L + U)xk + D −1 b,    k = 0, 1, . . .

 2   Método de Gauss-Seidel: M = D + L y N = −U

            xk +1 = −(D + L)−1 Uxk + (D + L)−1 b,        k = 0, 1, . . .

         (UPV)                   Métodos iterativos           Curso 2010-2011   11 / 20
Métodos iterativos estacionarios


   Una iteración de Jacobi es muy barata. Sólo hay que hacer
   multiplicación matriz-vector “vacía”. El número de multiplicaciones
   es del orden nz(A)) además de invertir los elementos diagonales
   de A.

      k             1        k        k                k
     x1 +1 =           −a12 x2 − a13 x3 − · · · − a1n xn + b1
                   a11
      k             1        k        k                k
     x2 +1 =           −a21 x1 − a23 x3 − · · · − a2n xn + b2
                   a22
               .
               .
               .
      k             1          k        k                   k
     xn +1 =             −an1 x1 − an3 x3 − · · · − an,n−1 xn−1 + bn
                   ann



       (UPV)                     Métodos iterativos         Curso 2010-2011   12 / 20
Métodos iterativos estacionarios




   Una iteración Gauss-Seidel es barata. Además tiene que resolver
   un sistema triangular inferior (D + L)xk +1 = b − Uxk “vacío”.
   Recordar que hay que evitar invertir matrices.
   En el método de Gauss-Seidel las componentes de xk +1 que ya
   conocemos se utilizan en la propia iteración k + 1.




       (UPV)               Métodos iterativos      Curso 2010-2011   13 / 20
Métodos iterativos estacionarios

Teorema
Sea A invertible. Un método iterativo estacionario converge, para
cualquier vector inicial x0 ∈ Rn , a la solución exacta del sistema lineal,
si y sólo si,
                                  ρ(H) < 1
es decir, el mayor valor propio en valor absoluto de la matriz de
iteración es menor que uno.

Definición
Una matriz A = [aij ] de tamaño n × n se dice que es estrictamente
diagonal dominante si
                        n
             |aii | >   j=1, j=i   |aij |,    para todo i = 1, 2, . . . , n.


         (UPV)                          Métodos iterativos             Curso 2010-2011   14 / 20
Métodos iterativos estacionarios




Teorema
Si la matriz A es estrictamente diagonal dominante entonces el
método de Jacobi y de Gauss-Seidel son convergentes.


    Se llama radio de convergencia a R = − log10 (ρ(H)). Cuanto más
    pequeño sea ρ(H) mayor será la convergencia.




        (UPV)                Métodos iterativos       Curso 2010-2011   15 / 20
Métodos iterativos estacionarios
Podemos definir otra descomposición de la matriz A de la forma

                   ωA = (D + ωL) − (−ωU + (1 − ω)D) ,

que da lugar al método ietrativo conocido como el método SOR
(successive over relaxation)

                (D + ωL)x k +1 = (−ωU + (1 − ω)D)x k + ωb ,

Análogamente, se puede definir otro método SOR de la forma

                (D + ωU)x k +1 = (−ωL + (1 − ω)D)x k + ωb .

Un método SOR simétrico, SSOR, viene definido por las ecuaciones

                (D + ωL)x k +1/2 = (−ωU + (1 − ω)D)x k + ωb ,
                (D + ωU)x k +1 = (−ωL + (1 − ω)D)x k +1/2 + ωb .


        (UPV)                    Métodos iterativos      Curso 2010-2011   16 / 20
Métodos iterativos estacionarios




Lema de Kahan
Sea A ∈ Cn×n con elementos diagonales no nulos. Entonces el
método SOR converge solamente si

                            0<ω<2




        (UPV)               Métodos iterativos     Curso 2010-2011   17 / 20
Precondicionadores. Introducción

    Precondicionar un sistema lineal no es otra cosa que
    (pre)multiplicar el sistema por una matriz nonsingular, denotada
    por M −1 ,
    Produce el sistema equivalente

                              M −1 Ax = M −1 b

• Qué hay que tener en cuenta para elegir el precondicionador?
    Condicionar mejor el sistema inicial,
    El precondicionador M −1 , debe ser fácil de invertir, es decir, debe
    producir un sistema lineal

                                     My = c

    fácil de resolver.

         (UPV)                 Métodos iterativos        Curso 2010-2011   18 / 20
Precondicionadores clásicos
   Precondicionador de Jacobi
   M = D donde D es la matriz diagonal D = diag(A), es decir,
   dii = aii
   Cálculo de M −1 rk +1 cuesta O(n) operaciones: muy barato.
   Factorización incompleta de Cholesky
        ˜˜           ˜
   M = LLT donde L es una aproximación del factor triangular
   obtenido por la factorización de Cholesky. Tenemos que resolver
   un sistema con la matriz M queremos que e L sea lo mas vacía
                                     ˜
   posible. Para ello se permite que L tenga los elementos no cero
   en las posiciones donde los tiene A, esto es
                     aij = 0 =⇒ lij ≡ 0,         IC(0)
   LU incompleta
                       ˜˜        ˜
   Se construye M = LU donde L es una matriz vacía triangular
                               ˜
   inferior que aproxima a L y U es una matriz vacía triangular
   superior que aproxima a U.
       (UPV)                Métodos iterativos           Curso 2010-2011   19 / 20
Precondicionadores clásicos
Fijado un subconjunto S ⊂ [1, . . . , n] × [1, . . . , n] de posiciones de
elementos en la matriz, entonces
                                        −1
                             aij − aik akk akj         si (i, j) ∈ S
                    aij :=
                             aij                       si (i, j) ∈ S

da una factorización incompleta de A que mantiene las propiedades
(SPD).
     Si se hace una factorización LU con el mismo patrón de ceros que
     la matriz A se obtiene el precondicionador ILU(0). ILU(m), si se
     permite que se llenen m posiciones en cada fila.
     La factorización incompleta puede fallar incluso si la matriz inicial
     admite factorización.
     El fallo ocurre cuando akk = 0. Sin embargo, en la práctica es raro
     que hayan fallos.

          (UPV)                   Métodos iterativos                   Curso 2010-2011   20 / 20

Más contenido relacionado

La actualidad más candente

Temas Examen Álgebra Lineal 2017 II
Temas Examen Álgebra Lineal 2017 IITemas Examen Álgebra Lineal 2017 II
Temas Examen Álgebra Lineal 2017 IIAngel Guale
 
Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121Cristhian Nasimba
 
Solución Álgebra Lineal 2017 2S 2do Parcial
Solución Álgebra Lineal 2017 2S 2do Parcial Solución Álgebra Lineal 2017 2S 2do Parcial
Solución Álgebra Lineal 2017 2S 2do Parcial Angel Guale
 
Bitácora n° 7 (19 mar a 23 mar)
Bitácora n° 7 (19 mar a 23 mar)Bitácora n° 7 (19 mar a 23 mar)
Bitácora n° 7 (19 mar a 23 mar)MiriJaneth
 
Integrales area electricidad, electronica y telecomunicaciones [muy bueno]
Integrales   area electricidad, electronica y telecomunicaciones [muy bueno]Integrales   area electricidad, electronica y telecomunicaciones [muy bueno]
Integrales area electricidad, electronica y telecomunicaciones [muy bueno]meltoguardado
 
Antenas lineales balumm y gamma
Antenas lineales balumm y gammaAntenas lineales balumm y gamma
Antenas lineales balumm y gammaMoisés Maidana
 
Aplicaciones del Control Estocástico al Análisis Semiclásico
Aplicaciones del Control Estocástico al Análisis SemiclásicoAplicaciones del Control Estocástico al Análisis Semiclásico
Aplicaciones del Control Estocástico al Análisis SemiclásicoJuliho Castillo
 
Examen Álgebra Lineal 2P 2017 IT
Examen Álgebra Lineal 2P 2017 ITExamen Álgebra Lineal 2P 2017 IT
Examen Álgebra Lineal 2P 2017 ITAngel Guale
 
Función directa y su gráfica
Función directa y su gráficaFunción directa y su gráfica
Función directa y su gráficapanickdiego
 

La actualidad más candente (18)

Temas Examen Álgebra Lineal 2017 II
Temas Examen Álgebra Lineal 2017 IITemas Examen Álgebra Lineal 2017 II
Temas Examen Álgebra Lineal 2017 II
 
Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121
 
Solución Álgebra Lineal 2017 2S 2do Parcial
Solución Álgebra Lineal 2017 2S 2do Parcial Solución Álgebra Lineal 2017 2S 2do Parcial
Solución Álgebra Lineal 2017 2S 2do Parcial
 
Bitácora n° 7 (19 mar a 23 mar)
Bitácora n° 7 (19 mar a 23 mar)Bitácora n° 7 (19 mar a 23 mar)
Bitácora n° 7 (19 mar a 23 mar)
 
Integrales area electricidad, electronica y telecomunicaciones [muy bueno]
Integrales   area electricidad, electronica y telecomunicaciones [muy bueno]Integrales   area electricidad, electronica y telecomunicaciones [muy bueno]
Integrales area electricidad, electronica y telecomunicaciones [muy bueno]
 
Tema03res
Tema03resTema03res
Tema03res
 
Al ap 02
Al ap 02Al ap 02
Al ap 02
 
Antenas lineales balumm y gamma
Antenas lineales balumm y gammaAntenas lineales balumm y gamma
Antenas lineales balumm y gamma
 
2.introduccion
2.introduccion2.introduccion
2.introduccion
 
Aplicaciones del Control Estocástico al Análisis Semiclásico
Aplicaciones del Control Estocástico al Análisis SemiclásicoAplicaciones del Control Estocástico al Análisis Semiclásico
Aplicaciones del Control Estocástico al Análisis Semiclásico
 
Examen Álgebra Lineal 2P 2017 IT
Examen Álgebra Lineal 2P 2017 ITExamen Álgebra Lineal 2P 2017 IT
Examen Álgebra Lineal 2P 2017 IT
 
Edo 3
Edo 3Edo 3
Edo 3
 
2.introduccion
2.introduccion2.introduccion
2.introduccion
 
Index 3 espacios_vectoriales
Index 3 espacios_vectorialesIndex 3 espacios_vectoriales
Index 3 espacios_vectoriales
 
Función directa y su gráfica
Función directa y su gráficaFunción directa y su gráfica
Función directa y su gráfica
 
Apuntes transformaciones lineales - UTFSM
Apuntes transformaciones lineales - UTFSMApuntes transformaciones lineales - UTFSM
Apuntes transformaciones lineales - UTFSM
 
Linealizacion (1)
Linealizacion (1)Linealizacion (1)
Linealizacion (1)
 
Vectores
VectoresVectores
Vectores
 

Destacado

3.2.5 metodos iterativos
3.2.5 metodos iterativos3.2.5 metodos iterativos
3.2.5 metodos iterativosRoger Burgos
 
Metodos abiertos
Metodos abiertosMetodos abiertos
Metodos abiertosNatalia
 
Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativoscyndy
 
2.metodo iterativo
2.metodo iterativo2.metodo iterativo
2.metodo iterativorjvillon
 
Unidad 1.teoria de errores
Unidad 1.teoria de erroresUnidad 1.teoria de errores
Unidad 1.teoria de erroresLuis Gala Nevew
 

Destacado (8)

Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativos
 
3.2.5 metodos iterativos
3.2.5 metodos iterativos3.2.5 metodos iterativos
3.2.5 metodos iterativos
 
Metodos abiertos
Metodos abiertosMetodos abiertos
Metodos abiertos
 
Metodos cerrados
Metodos cerradosMetodos cerrados
Metodos cerrados
 
Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativos
 
2.metodo iterativo
2.metodo iterativo2.metodo iterativo
2.metodo iterativo
 
Error
ErrorError
Error
 
Unidad 1.teoria de errores
Unidad 1.teoria de erroresUnidad 1.teoria de errores
Unidad 1.teoria de errores
 

Similar a Met iterativos (20)

Jacobi y gauss
Jacobi y gaussJacobi y gauss
Jacobi y gauss
 
Mr1i 753-2007-2
Mr1i 753-2007-2Mr1i 753-2007-2
Mr1i 753-2007-2
 
CALCULO
CALCULOCALCULO
CALCULO
 
Practica Nº 1
Practica Nº 1Practica Nº 1
Practica Nº 1
 
Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativos
 
Practica Nº 1
Practica Nº 1Practica Nº 1
Practica Nº 1
 
White y Box-Cox.pptx
White y Box-Cox.pptxWhite y Box-Cox.pptx
White y Box-Cox.pptx
 
Transformaciones en regresion
Transformaciones en regresionTransformaciones en regresion
Transformaciones en regresion
 
Problemas
ProblemasProblemas
Problemas
 
Dualidad
DualidadDualidad
Dualidad
 
Tema05res
Tema05resTema05res
Tema05res
 
funciones cuadraticas y raiz cuadrada.pdf
funciones cuadraticas y raiz cuadrada.pdffunciones cuadraticas y raiz cuadrada.pdf
funciones cuadraticas y raiz cuadrada.pdf
 
Ecuacion de laplace
Ecuacion de laplaceEcuacion de laplace
Ecuacion de laplace
 
2 integracion
2 integracion2 integracion
2 integracion
 
Métodos numéricos
Métodos numéricosMétodos numéricos
Métodos numéricos
 
072 076-fracciones algebraicas unidad 6
072 076-fracciones algebraicas unidad 6  072 076-fracciones algebraicas unidad 6
072 076-fracciones algebraicas unidad 6
 
Solucionario 3er sumativo cepunt 2010 - i
Solucionario 3er sumativo cepunt   2010 - iSolucionario 3er sumativo cepunt   2010 - i
Solucionario 3er sumativo cepunt 2010 - i
 
Herramientas matemáticas
Herramientas matemáticas Herramientas matemáticas
Herramientas matemáticas
 
Tema3
Tema3Tema3
Tema3
 
Formulario de matematicas
Formulario de matematicasFormulario de matematicas
Formulario de matematicas
 

Met iterativos

  • 1. Métodos iterativos Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2010-2011 (UPV) Métodos iterativos Curso 2010-2011 1 / 20
  • 2. Índice 1 Introducción 2 Conceptos básicos 3 Métodos iterativos estacionarios 4 Precondicionadores Introducción Precondicionadores clásicos (UPV) Métodos iterativos Curso 2010-2011 2 / 20
  • 3. Introducción Dada una matriz invertible de tamaño n × n y un vector b ∈ Rn la única solución del sistema Ax = b es x = A−1 b Nosotros trabajaremos con matrices vacías (sparse) es decir matrices con un número de elementos no nulos (nz(A)) del orden nz(A) = c · n con c independiente de n. (UPV) Métodos iterativos Curso 2010-2011 3 / 20
  • 4. Introducción No se puede hacer la inversión de A ya que: 1 A−1 puede dejar de ser vacía, es decir se llena, =⇒ no se puede almacenar. 2 Cálculo de A−1 puede costar O(n3 ) operaciones (tiempo de CPU: años). Buscaremos métodos aproximados para la resolución del sistema que se basan esencialmente en el producto matriz-vector. (UPV) Métodos iterativos Curso 2010-2011 4 / 20
  • 5. Conceptos básicos Un método iterativo obtiene una solución aproximada de Ax = b construyendo una sucesión de vectores: x1 , x2 , . . . , xk desde un vector inicial arbitrario x0 . Un método iterativo se dice convergente si lim xk = x . k →∞ El vector error, en cada iteración, se define como ek = x − xk . (UPV) Métodos iterativos Curso 2010-2011 5 / 20
  • 6. Conceptos básicos El vector residuo, en cada iteración, se define como rk = b − Axk . Se puede probar lim xk = x ⇐⇒ lim ek = 0 ⇐⇒ lim rk = 0 k →∞ k →∞ k →∞ (UPV) Métodos iterativos Curso 2010-2011 6 / 20
  • 7. Conceptos básicos Un método iterativo nunca da la solución exacta incluso en precisión infinita. Los métodos directos teóricamente producen la solución exacta; pero en un ordenador dan errores numéricos. Se da a priori una precisión para nuestra solución. Sea TOL el error máximo permitido. ek ek < TOL, (error absoluto) o < TOL (error relativo) x Pero x, y ek no son conocidos el criterio de parada no es útil. Se utiliza el criterio del residuo rk rk < TOL (absoluto) o < TOL (relativo) b (UPV) Métodos iterativos Curso 2010-2011 7 / 20
  • 8. Conceptos básicos La relación entre el error y el residuo es rk = b − Axk = Ax − Axk = Aek . Usando normas matriciales: rk ≤ A ek (1a); ek ≤ A−1 rk (1b) Notar además x ≤ A−1 b (2a); b ≤ A A−1 b = A x (2b) (UPV) Métodos iterativos Curso 2010-2011 8 / 20
  • 9. Conceptos básicos Combinando (1a) con (2a) y (1b) con (2b) obtenemos 1 rk ek rk ≤ ≤ A A−1 A A−1 b x b Finalmente, recordando que κ(A) = A A−1 : 1 rk ek rk ≤ ≤ κ(A) κ(A) b x b Conclusión: Test del residuo es fiable si κ(A) no es muy grande. (UPV) Métodos iterativos Curso 2010-2011 9 / 20
  • 10. Métodos iterativos estacionarios Sea A la matriz del sistema Ax = b. Podemos considerar la partición (splitting) A=M −N donde M = A es una matriz invertible. Se construye el sistema iterativo xk +1 = M −1 Nxk + M −1 b = Hxk + q, k = 0, 1, . . . donde H es la matriz de iteración y x0 el vector inicial. Definición Se dice que un método iterativo es estacionario si la matriz de iteración H es constante en todo el proceso. (UPV) Métodos iterativos Curso 2010-2011 10 / 20
  • 11. Métodos iterativos estacionarios Sea A tal que aii = 0 y consideremos la partición A=L+D+U L es la parte estrictamente triangular superior de A, D es la parte diagonal de A, U es la parte estrictamente triangular superior de A. 1 Método de Jacobi: M = D y N = − (L + D) xk +1 = −D −1 (L + U)xk + D −1 b, k = 0, 1, . . . 2 Método de Gauss-Seidel: M = D + L y N = −U xk +1 = −(D + L)−1 Uxk + (D + L)−1 b, k = 0, 1, . . . (UPV) Métodos iterativos Curso 2010-2011 11 / 20
  • 12. Métodos iterativos estacionarios Una iteración de Jacobi es muy barata. Sólo hay que hacer multiplicación matriz-vector “vacía”. El número de multiplicaciones es del orden nz(A)) además de invertir los elementos diagonales de A. k 1 k k k x1 +1 = −a12 x2 − a13 x3 − · · · − a1n xn + b1 a11 k 1 k k k x2 +1 = −a21 x1 − a23 x3 − · · · − a2n xn + b2 a22 . . . k 1 k k k xn +1 = −an1 x1 − an3 x3 − · · · − an,n−1 xn−1 + bn ann (UPV) Métodos iterativos Curso 2010-2011 12 / 20
  • 13. Métodos iterativos estacionarios Una iteración Gauss-Seidel es barata. Además tiene que resolver un sistema triangular inferior (D + L)xk +1 = b − Uxk “vacío”. Recordar que hay que evitar invertir matrices. En el método de Gauss-Seidel las componentes de xk +1 que ya conocemos se utilizan en la propia iteración k + 1. (UPV) Métodos iterativos Curso 2010-2011 13 / 20
  • 14. Métodos iterativos estacionarios Teorema Sea A invertible. Un método iterativo estacionario converge, para cualquier vector inicial x0 ∈ Rn , a la solución exacta del sistema lineal, si y sólo si, ρ(H) < 1 es decir, el mayor valor propio en valor absoluto de la matriz de iteración es menor que uno. Definición Una matriz A = [aij ] de tamaño n × n se dice que es estrictamente diagonal dominante si n |aii | > j=1, j=i |aij |, para todo i = 1, 2, . . . , n. (UPV) Métodos iterativos Curso 2010-2011 14 / 20
  • 15. Métodos iterativos estacionarios Teorema Si la matriz A es estrictamente diagonal dominante entonces el método de Jacobi y de Gauss-Seidel son convergentes. Se llama radio de convergencia a R = − log10 (ρ(H)). Cuanto más pequeño sea ρ(H) mayor será la convergencia. (UPV) Métodos iterativos Curso 2010-2011 15 / 20
  • 16. Métodos iterativos estacionarios Podemos definir otra descomposición de la matriz A de la forma ωA = (D + ωL) − (−ωU + (1 − ω)D) , que da lugar al método ietrativo conocido como el método SOR (successive over relaxation) (D + ωL)x k +1 = (−ωU + (1 − ω)D)x k + ωb , Análogamente, se puede definir otro método SOR de la forma (D + ωU)x k +1 = (−ωL + (1 − ω)D)x k + ωb . Un método SOR simétrico, SSOR, viene definido por las ecuaciones (D + ωL)x k +1/2 = (−ωU + (1 − ω)D)x k + ωb , (D + ωU)x k +1 = (−ωL + (1 − ω)D)x k +1/2 + ωb . (UPV) Métodos iterativos Curso 2010-2011 16 / 20
  • 17. Métodos iterativos estacionarios Lema de Kahan Sea A ∈ Cn×n con elementos diagonales no nulos. Entonces el método SOR converge solamente si 0<ω<2 (UPV) Métodos iterativos Curso 2010-2011 17 / 20
  • 18. Precondicionadores. Introducción Precondicionar un sistema lineal no es otra cosa que (pre)multiplicar el sistema por una matriz nonsingular, denotada por M −1 , Produce el sistema equivalente M −1 Ax = M −1 b • Qué hay que tener en cuenta para elegir el precondicionador? Condicionar mejor el sistema inicial, El precondicionador M −1 , debe ser fácil de invertir, es decir, debe producir un sistema lineal My = c fácil de resolver. (UPV) Métodos iterativos Curso 2010-2011 18 / 20
  • 19. Precondicionadores clásicos Precondicionador de Jacobi M = D donde D es la matriz diagonal D = diag(A), es decir, dii = aii Cálculo de M −1 rk +1 cuesta O(n) operaciones: muy barato. Factorización incompleta de Cholesky ˜˜ ˜ M = LLT donde L es una aproximación del factor triangular obtenido por la factorización de Cholesky. Tenemos que resolver un sistema con la matriz M queremos que e L sea lo mas vacía ˜ posible. Para ello se permite que L tenga los elementos no cero en las posiciones donde los tiene A, esto es aij = 0 =⇒ lij ≡ 0, IC(0) LU incompleta ˜˜ ˜ Se construye M = LU donde L es una matriz vacía triangular ˜ inferior que aproxima a L y U es una matriz vacía triangular superior que aproxima a U. (UPV) Métodos iterativos Curso 2010-2011 19 / 20
  • 20. Precondicionadores clásicos Fijado un subconjunto S ⊂ [1, . . . , n] × [1, . . . , n] de posiciones de elementos en la matriz, entonces −1 aij − aik akk akj si (i, j) ∈ S aij := aij si (i, j) ∈ S da una factorización incompleta de A que mantiene las propiedades (SPD). Si se hace una factorización LU con el mismo patrón de ceros que la matriz A se obtiene el precondicionador ILU(0). ILU(m), si se permite que se llenen m posiciones en cada fila. La factorización incompleta puede fallar incluso si la matriz inicial admite factorización. El fallo ocurre cuando akk = 0. Sin embargo, en la práctica es raro que hayan fallos. (UPV) Métodos iterativos Curso 2010-2011 20 / 20