SlideShare una empresa de Scribd logo
1 de 22
Solución de Sistemas de
Ecuaciones Lineales
BARQUISIMETO, JUNIO DE 2013
UNIVERSIDAD FERMIN TORO
VICE RECTORADO ACADEMICO
ESCUELA DE ELECTRICA
INTEGRANTE: YELIMAR YEPEZ
TUTOR: DOMINGO MÉNDEZ
El proceso de eliminación de Gaussisana o de Gauss, consiste
en realizar transformaciones elementales en el sistema inicial
(intercambio de filas, intercambio de columnas, multiplicación de
filas o columnas por constantes, operaciones con filas o columnas,
. . . ), destinadas a transformarlo en un sistema triangular
superior, que se resolvera por remonte. Además, la matriz de
partida tiene el mismo determinante que la matriz de llegada, cuyo
determinante es el producto de los coeficientes diagonales de la
matriz.
Uno de los problemas de la eliminación Gaussiana es que se
debe dividir entre el pivote; si este es un número muy pequeño,
entonces un error de redondeo puede arrojar serias dudas sobre la
respuesta final.
En forma general este método propone la eliminación
progresiva de variables en el sistema de ecuaciones, hasta tener
sólo una ecuación con una incógnita. Una vez resuelta esta, se
procede por sustitución regresiva hasta obtener los valores de
todas las variables.
El proceso de eliminación de Gauss - Jordán consiste en
realizar transformaciones elementales en el sistema inicial,
destinadas a transformarlo en un sistema diagonal. El número de
operaciones elementales de este método, es superior al del
método de Gauss (alrededor de un 50% más).
Sin embargo, a la hora de resolver el sistema de llegada por
remonte, el número de operaciones es menor, motivo por el cual,
el método de Gauss - Jordán es un método computacionalmente
bueno cuando se tiene que resolver varios sistemas con la misma
matriz A y resolverlos simultáneamente, utilizando el algoritmo de
Gauss-Jordán.
En base a lo anteriormente expuesto, solo se haria un
proceso de eliminación en la matriz y la resolución de un sistema
con esta matriz es muy fácil. Un ejemplo en el que se suele usar
Gauss - Jordán es en el cálculo de la matriz inversa, ya que
calcular la inversa de A, es calcular N sistemas con la misma
matriz.
El método de Descomposición LU se basa en demostrar que
una matriz A se puede factorizar como el producto de una matriz
triangular inferior L con una matriz triangular superior U, donde
en el paso de eliminación sólo se involucran operaciones sobre
los coeficientes de la matriz, permitiendo así evaluar los
términos independientes bi de manera eficiente.
La implementación del algoritmo de la descomposición LU
tiene sus variantes en cuanto a los valores iniciales de la
diagonal que tomen las matrices L y U, es decir, si los valores de
la diagonal de la matriz L tiene números 1, formalmente esto se
refiere a la Descomposición de Doolitle. Pero si los valores de la
diagonal de la matriz U tiene números 1, formalmente esto se
refiere a la Descomposición de Crout
Una matriz simétrica es aquella donde Aij = Aji para toda i y j,
En otras palabras, [A] =[A] T. Tales sistemas ocurren comúnmente
en problemas de ambos contextos: el matemático y el de
ingeniería.
Ellos ofrecen ventajas computacionales ya que sólo se
necesita la mitad de almacenamiento y, en la mayoría de los
casos, sólo se requiere la mitad del tiempo de cálculo para su
solución.
Al contrario de la Descomposición LU, no requiere de pivoteo.
El método de Factorización de Cholesky se basa en demostrar
que si una matriz A es simétrica y definida positiva en lugar de
factorizarse como LU, puede ser factorizada como el producto de
una matriz triangular inferior y la traspuesta de la matriz
triangular inferior, es decir los factores triangulares resultantes
son la traspuesta de cada uno.
A = L . LT
Anteriormente se analizo la factorización LU de una matriz el
cual conduce a un método muy eficiente para resolver un sistema
lineal.
Otro método de factorización de una A, llamada factorización
QR de A. Esta factorización se usa ampliamente en los
programas de computadora para determinar valores propios de
una matriz, para resolver sistemas lineales y para determinar
aproximaciones por mínimos cuadrados
En muchas aplicaciones el número de filas (M) de una matriz
de coeficientes Amxn puede ser 3 al número de columnas (N). La
Factorización QR consiste en descomponer la matriz Amxn en el
producto de dos matrices:
Una matriz Ortogonal: Qmxn ® QT. Q = INxN
Una matriz Triangular Superior: U = RNxN
Para encontrar las matrices Q y R se utiliza un método basado en
Transformaciones Sucesivas de Householder.
El método de Gauss y sus variantes son conocidos como métodos
directos para resolver el problema inicial Ax = b. Se ejecutan a
través de un número finito de pasos y generan una solución x que
sería exacta sino fuera por los errores de redondeo. En contraste, un
método iterativo da lugar a una sucesión de vectores que idealmente
converge a la solución. El cálculo se detiene cuando se cuenta con
una solución aproximada con cierto grado de precisión especificado
de antemano o después de cierto número de iteraciones. Los
métodos indirectos son casi siempre iterativos.
Un método iterado de resolución del sistema Ax = b es aquel que
genera, a partir de un vector inicial x0, una sucesión de vectores x1,
x2, . . . xn.. "Un método iterado se dirá que es consistente con el
sistema Ax = b, si el límite x de la sucesión (xn), en caso de existir,
es solución del sistema. Se dirá que el método es convergente si la
sucesión generada por cualquier vector inicial x0 es convergente a
la solución del sistema".
Es evidente que si un método es convergente es consistente, sin
embargo, el recíproco no es cierto.
El Método de Gauss Seidel emplea valores iniciales y
después itera para obtener estimaciones refinadas de la
solución; es particularmente adecuado para un gran número de
ecuaciones, lo cual en cierto modo lo hace un método más
comúnmente usado. La fórmula utilizada para hallar los xi viene
dada por el despeje de cada una de las xi en cada una de las
ecuaciones y se les da un valor inicial a cada xi de cero.
En el método de Gauss-Seidel los valores actualizados de xi
sustituyen de inmediato a los valores anteriores, mientras que en
el método de Jacobi todas las componentes nuevas del vector se
calculan antes de llevar a cabo la sustitución. Por contra, en el
método de Gauss-Seidel los cálculos deben llevarse a cabo por
orden, ya que el nuevo valor xi depende de los valores
actualizados de x1, x2, ..., x i-1.
La desventaja del método de Gauss-Seidel es que no siempre
converge a la solución exacta o algunas veces los hace de
manera muy lenta. Únicamente es confiable para aquellos
sistemas dominantes diagonalmente.
El Método de Jacobi transforma una matriz simétrica en una
matriz diagonal al eliminar de forma simétrica los elementos que
están fuera de la diagonal.
Desafortunadamente, el método requiere un número infinito
de operaciones, ya que la eliminación de cada elemento no cero
a menudo crea un nuevo valor no cero en el elemento cero
anterior.
Si A es diagonalmente dominante, entonces la sucesión que
resulta de la iteración de Jacobi converge a la solución de Ax = b
para cualquier vector inicial Xo. Partimos de una aproximación
inicial Xo para las soluciones Xi al sistema de ecuaciones y
sustituimos estos valores en la ecuación.
Que es la expresión que proporciona las nuevas
componentes del vector x(k) en función de vector anterior x(k-1)
en la iteración de Jacobi, en su respectivo algoritmo; donde el a
el método de Jacobi más que usar el último valor disponible de ,
con base en un conjunto de las x anteriores (). De esta forma,
como se generan nuevos valores, no se usan en forma inmediata
sino que se retienen para la siguiente iteración.
Sistema de ecuaciones lineales

Más contenido relacionado

La actualidad más candente

Unidad educativa mayor
Unidad educativa mayorUnidad educativa mayor
Unidad educativa mayorKaren Chico
 
Diversas formas de la ecuacion de la recta y circunferencias
Diversas formas de la ecuacion de la recta y circunferenciasDiversas formas de la ecuacion de la recta y circunferencias
Diversas formas de la ecuacion de la recta y circunferenciasgaby_2013
 
Ecuaciones de la Recta Vroskyhann
Ecuaciones de la Recta VroskyhannEcuaciones de la Recta Vroskyhann
Ecuaciones de la Recta VroskyhannVrosky
 
Ecuacion de la recta ppt.ppt mark
Ecuacion de la recta ppt.ppt markEcuacion de la recta ppt.ppt mark
Ecuacion de la recta ppt.ppt markjmedinah666
 
Geometria en el espacio
Geometria en el espacioGeometria en el espacio
Geometria en el espacioalinger campos
 
Investigacion derivada-de-una-curva-en-forma-parametrica
Investigacion derivada-de-una-curva-en-forma-parametricaInvestigacion derivada-de-una-curva-en-forma-parametrica
Investigacion derivada-de-una-curva-en-forma-parametricaM Marcos
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesRebeca Oropeza Valdez
 
Geometría analítica en el espacio
Geometría analítica en el espacioGeometría analítica en el espacio
Geometría analítica en el espacioKarina Parra Gil
 

La actualidad más candente (15)

La recta
La rectaLa recta
La recta
 
Unidad educativa mayor
Unidad educativa mayorUnidad educativa mayor
Unidad educativa mayor
 
Diversas formas de la ecuacion de la recta y circunferencias
Diversas formas de la ecuacion de la recta y circunferenciasDiversas formas de la ecuacion de la recta y circunferencias
Diversas formas de la ecuacion de la recta y circunferencias
 
Calse modelo
Calse modeloCalse modelo
Calse modelo
 
Ecuaciones de la Recta Vroskyhann
Ecuaciones de la Recta VroskyhannEcuaciones de la Recta Vroskyhann
Ecuaciones de la Recta Vroskyhann
 
Linea recta
Linea rectaLinea recta
Linea recta
 
SISTEMA DE EJES COORDENADOS
SISTEMA DE EJES COORDENADOSSISTEMA DE EJES COORDENADOS
SISTEMA DE EJES COORDENADOS
 
Ecuaciones de la recta
Ecuaciones de la rectaEcuaciones de la recta
Ecuaciones de la recta
 
Ecuacion de la recta ppt.ppt mark
Ecuacion de la recta ppt.ppt markEcuacion de la recta ppt.ppt mark
Ecuacion de la recta ppt.ppt mark
 
Edna
EdnaEdna
Edna
 
Unidad 8
Unidad 8Unidad 8
Unidad 8
 
Geometria en el espacio
Geometria en el espacioGeometria en el espacio
Geometria en el espacio
 
Investigacion derivada-de-una-curva-en-forma-parametrica
Investigacion derivada-de-una-curva-en-forma-parametricaInvestigacion derivada-de-una-curva-en-forma-parametrica
Investigacion derivada-de-una-curva-en-forma-parametrica
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones lineales
 
Geometría analítica en el espacio
Geometría analítica en el espacioGeometría analítica en el espacio
Geometría analítica en el espacio
 

Destacado (7)

Sesion 03 - Recta y Parabola
Sesion 03 - Recta y ParabolaSesion 03 - Recta y Parabola
Sesion 03 - Recta y Parabola
 
Sistemas de ecuaciones lineales.
Sistemas de ecuaciones lineales. Sistemas de ecuaciones lineales.
Sistemas de ecuaciones lineales.
 
Tema 7 Curvas Cnicas
Tema 7 Curvas CnicasTema 7 Curvas Cnicas
Tema 7 Curvas Cnicas
 
01 Presentación
01 Presentación01 Presentación
01 Presentación
 
Intersección de funciones
Intersección de funcionesIntersección de funciones
Intersección de funciones
 
Conceptos basicos de geometria plana
Conceptos basicos de geometria planaConceptos basicos de geometria plana
Conceptos basicos de geometria plana
 
Función Lineal. Dominio y Rango
Función Lineal. Dominio y RangoFunción Lineal. Dominio y Rango
Función Lineal. Dominio y Rango
 

Similar a Sistema de ecuaciones lineales

Analisis numerico
Analisis numericoAnalisis numerico
Analisis numericocesarjmm1
 
Analisis Numerico... Jose Manzanilla
Analisis Numerico... Jose Manzanilla Analisis Numerico... Jose Manzanilla
Analisis Numerico... Jose Manzanilla jgmc251
 
Resumen de sistemas de ecuación lineales
Resumen de sistemas de ecuación linealesResumen de sistemas de ecuación lineales
Resumen de sistemas de ecuación linealesBCrist
 
Análisis Numerico
Análisis NumericoAnálisis Numerico
Análisis Numericojulio perez
 
Analisis numerico tema3
Analisis numerico tema3Analisis numerico tema3
Analisis numerico tema3claudiasofiahp
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesdarwinxvb
 
Scrib 3 analisis numerico
Scrib 3 analisis numericoScrib 3 analisis numerico
Scrib 3 analisis numericoMaria Moreno
 
Laura rodríguez
Laura rodríguezLaura rodríguez
Laura rodríguezLauramrb12
 
analisis numerico
analisis numericoanalisis numerico
analisis numericoAlvi Vargas
 
Solución de Sistemas de Ecuaciones
Solución de Sistemas de EcuacionesSolución de Sistemas de Ecuaciones
Solución de Sistemas de EcuacionesGabriel Colmenares
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesSolución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesJoshua M Noriega
 
Mapa mental analisis numerico
Mapa mental analisis numericoMapa mental analisis numerico
Mapa mental analisis numericoSergio Alarcón
 
Yosel Eviez, Metodos de Solucion de Ecuaciones Lineales
Yosel Eviez, Metodos de Solucion de Ecuaciones LinealesYosel Eviez, Metodos de Solucion de Ecuaciones Lineales
Yosel Eviez, Metodos de Solucion de Ecuaciones LinealesYosel97
 
Métodos de eliminaciónGaussiana
Métodos de eliminaciónGaussianaMétodos de eliminaciónGaussiana
Métodos de eliminaciónGaussianaEstiwer Guevara
 
Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)José Monsalve
 
Métodos de eliminación gaussiana
Métodos de eliminación gaussianaMétodos de eliminación gaussiana
Métodos de eliminación gaussianaJorge Rojas
 
Análisis numérico
Análisis numéricoAnálisis numérico
Análisis numéricojoseborgs
 

Similar a Sistema de ecuaciones lineales (20)

Analisis numerico
Analisis numericoAnalisis numerico
Analisis numerico
 
Analisis Numerico... Jose Manzanilla
Analisis Numerico... Jose Manzanilla Analisis Numerico... Jose Manzanilla
Analisis Numerico... Jose Manzanilla
 
Resumen de sistemas de ecuación lineales
Resumen de sistemas de ecuación linealesResumen de sistemas de ecuación lineales
Resumen de sistemas de ecuación lineales
 
Análisis Numerico
Análisis NumericoAnálisis Numerico
Análisis Numerico
 
Metodos de resolucion
Metodos de resolucionMetodos de resolucion
Metodos de resolucion
 
Analisis numerico tema3
Analisis numerico tema3Analisis numerico tema3
Analisis numerico tema3
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones lineales
 
Scrib 3 analisis numerico
Scrib 3 analisis numericoScrib 3 analisis numerico
Scrib 3 analisis numerico
 
Laura rodríguez
Laura rodríguezLaura rodríguez
Laura rodríguez
 
analisis numerico
analisis numericoanalisis numerico
analisis numerico
 
Solución de Sistemas de Ecuaciones
Solución de Sistemas de EcuacionesSolución de Sistemas de Ecuaciones
Solución de Sistemas de Ecuaciones
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesSolución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones Lineales
 
Mapa mental analisis numerico
Mapa mental analisis numericoMapa mental analisis numerico
Mapa mental analisis numerico
 
Froilan Ramos Métodos de Eliminación Gaussiana
Froilan Ramos Métodos de Eliminación GaussianaFroilan Ramos Métodos de Eliminación Gaussiana
Froilan Ramos Métodos de Eliminación Gaussiana
 
Yosel Eviez, Metodos de Solucion de Ecuaciones Lineales
Yosel Eviez, Metodos de Solucion de Ecuaciones LinealesYosel Eviez, Metodos de Solucion de Ecuaciones Lineales
Yosel Eviez, Metodos de Solucion de Ecuaciones Lineales
 
Métodos de eliminaciónGaussiana
Métodos de eliminaciónGaussianaMétodos de eliminaciónGaussiana
Métodos de eliminaciónGaussiana
 
Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)
 
Métodos de eliminación gaussiana
Métodos de eliminación gaussianaMétodos de eliminación gaussiana
Métodos de eliminación gaussiana
 
Slideshare (analisis numerico)
Slideshare (analisis numerico)Slideshare (analisis numerico)
Slideshare (analisis numerico)
 
Análisis numérico
Análisis numéricoAnálisis numérico
Análisis numérico
 

Más de yeliadan_16

Asignacion Resistencia de los Materiales
Asignacion Resistencia de los MaterialesAsignacion Resistencia de los Materiales
Asignacion Resistencia de los Materialesyeliadan_16
 
Circuitos Electricos
Circuitos ElectricosCircuitos Electricos
Circuitos Electricosyeliadan_16
 
Basquetbol y voleibol
Basquetbol y voleibolBasquetbol y voleibol
Basquetbol y voleibolyeliadan_16
 
Aerobica y anaerobica
Aerobica y anaerobicaAerobica y anaerobica
Aerobica y anaerobicayeliadan_16
 
Plan nacional de ciencia
Plan nacional de cienciaPlan nacional de ciencia
Plan nacional de cienciayeliadan_16
 
Calculo proposicional
Calculo proposicionalCalculo proposicional
Calculo proposicionalyeliadan_16
 

Más de yeliadan_16 (7)

Asignacion Resistencia de los Materiales
Asignacion Resistencia de los MaterialesAsignacion Resistencia de los Materiales
Asignacion Resistencia de los Materiales
 
Circuitos Electricos
Circuitos ElectricosCircuitos Electricos
Circuitos Electricos
 
Basquetbol y voleibol
Basquetbol y voleibolBasquetbol y voleibol
Basquetbol y voleibol
 
Aerobica y anaerobica
Aerobica y anaerobicaAerobica y anaerobica
Aerobica y anaerobica
 
Conjuntos
ConjuntosConjuntos
Conjuntos
 
Plan nacional de ciencia
Plan nacional de cienciaPlan nacional de ciencia
Plan nacional de ciencia
 
Calculo proposicional
Calculo proposicionalCalculo proposicional
Calculo proposicional
 

Sistema de ecuaciones lineales

  • 1.
  • 2. Solución de Sistemas de Ecuaciones Lineales BARQUISIMETO, JUNIO DE 2013 UNIVERSIDAD FERMIN TORO VICE RECTORADO ACADEMICO ESCUELA DE ELECTRICA INTEGRANTE: YELIMAR YEPEZ TUTOR: DOMINGO MÉNDEZ
  • 3. El proceso de eliminación de Gaussisana o de Gauss, consiste en realizar transformaciones elementales en el sistema inicial (intercambio de filas, intercambio de columnas, multiplicación de filas o columnas por constantes, operaciones con filas o columnas, . . . ), destinadas a transformarlo en un sistema triangular superior, que se resolvera por remonte. Además, la matriz de partida tiene el mismo determinante que la matriz de llegada, cuyo determinante es el producto de los coeficientes diagonales de la matriz.
  • 4. Uno de los problemas de la eliminación Gaussiana es que se debe dividir entre el pivote; si este es un número muy pequeño, entonces un error de redondeo puede arrojar serias dudas sobre la respuesta final. En forma general este método propone la eliminación progresiva de variables en el sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez resuelta esta, se procede por sustitución regresiva hasta obtener los valores de todas las variables.
  • 5. El proceso de eliminación de Gauss - Jordán consiste en realizar transformaciones elementales en el sistema inicial, destinadas a transformarlo en un sistema diagonal. El número de operaciones elementales de este método, es superior al del método de Gauss (alrededor de un 50% más).
  • 6. Sin embargo, a la hora de resolver el sistema de llegada por remonte, el número de operaciones es menor, motivo por el cual, el método de Gauss - Jordán es un método computacionalmente bueno cuando se tiene que resolver varios sistemas con la misma matriz A y resolverlos simultáneamente, utilizando el algoritmo de Gauss-Jordán.
  • 7. En base a lo anteriormente expuesto, solo se haria un proceso de eliminación en la matriz y la resolución de un sistema con esta matriz es muy fácil. Un ejemplo en el que se suele usar Gauss - Jordán es en el cálculo de la matriz inversa, ya que calcular la inversa de A, es calcular N sistemas con la misma matriz.
  • 8. El método de Descomposición LU se basa en demostrar que una matriz A se puede factorizar como el producto de una matriz triangular inferior L con una matriz triangular superior U, donde en el paso de eliminación sólo se involucran operaciones sobre los coeficientes de la matriz, permitiendo así evaluar los términos independientes bi de manera eficiente.
  • 9. La implementación del algoritmo de la descomposición LU tiene sus variantes en cuanto a los valores iniciales de la diagonal que tomen las matrices L y U, es decir, si los valores de la diagonal de la matriz L tiene números 1, formalmente esto se refiere a la Descomposición de Doolitle. Pero si los valores de la diagonal de la matriz U tiene números 1, formalmente esto se refiere a la Descomposición de Crout
  • 10. Una matriz simétrica es aquella donde Aij = Aji para toda i y j, En otras palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas de ambos contextos: el matemático y el de ingeniería. Ellos ofrecen ventajas computacionales ya que sólo se necesita la mitad de almacenamiento y, en la mayoría de los casos, sólo se requiere la mitad del tiempo de cálculo para su solución.
  • 11. Al contrario de la Descomposición LU, no requiere de pivoteo. El método de Factorización de Cholesky se basa en demostrar que si una matriz A es simétrica y definida positiva en lugar de factorizarse como LU, puede ser factorizada como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior, es decir los factores triangulares resultantes son la traspuesta de cada uno. A = L . LT
  • 12. Anteriormente se analizo la factorización LU de una matriz el cual conduce a un método muy eficiente para resolver un sistema lineal. Otro método de factorización de una A, llamada factorización QR de A. Esta factorización se usa ampliamente en los programas de computadora para determinar valores propios de una matriz, para resolver sistemas lineales y para determinar aproximaciones por mínimos cuadrados
  • 13. En muchas aplicaciones el número de filas (M) de una matriz de coeficientes Amxn puede ser 3 al número de columnas (N). La Factorización QR consiste en descomponer la matriz Amxn en el producto de dos matrices: Una matriz Ortogonal: Qmxn ® QT. Q = INxN Una matriz Triangular Superior: U = RNxN Para encontrar las matrices Q y R se utiliza un método basado en Transformaciones Sucesivas de Householder.
  • 14. El método de Gauss y sus variantes son conocidos como métodos directos para resolver el problema inicial Ax = b. Se ejecutan a través de un número finito de pasos y generan una solución x que sería exacta sino fuera por los errores de redondeo. En contraste, un método iterativo da lugar a una sucesión de vectores que idealmente converge a la solución. El cálculo se detiene cuando se cuenta con una solución aproximada con cierto grado de precisión especificado de antemano o después de cierto número de iteraciones. Los métodos indirectos son casi siempre iterativos.
  • 15. Un método iterado de resolución del sistema Ax = b es aquel que genera, a partir de un vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un método iterado se dirá que es consistente con el sistema Ax = b, si el límite x de la sucesión (xn), en caso de existir, es solución del sistema. Se dirá que el método es convergente si la sucesión generada por cualquier vector inicial x0 es convergente a la solución del sistema". Es evidente que si un método es convergente es consistente, sin embargo, el recíproco no es cierto.
  • 16. El Método de Gauss Seidel emplea valores iniciales y después itera para obtener estimaciones refinadas de la solución; es particularmente adecuado para un gran número de ecuaciones, lo cual en cierto modo lo hace un método más comúnmente usado. La fórmula utilizada para hallar los xi viene dada por el despeje de cada una de las xi en cada una de las ecuaciones y se les da un valor inicial a cada xi de cero.
  • 17. En el método de Gauss-Seidel los valores actualizados de xi sustituyen de inmediato a los valores anteriores, mientras que en el método de Jacobi todas las componentes nuevas del vector se calculan antes de llevar a cabo la sustitución. Por contra, en el método de Gauss-Seidel los cálculos deben llevarse a cabo por orden, ya que el nuevo valor xi depende de los valores actualizados de x1, x2, ..., x i-1.
  • 18. La desventaja del método de Gauss-Seidel es que no siempre converge a la solución exacta o algunas veces los hace de manera muy lenta. Únicamente es confiable para aquellos sistemas dominantes diagonalmente.
  • 19. El Método de Jacobi transforma una matriz simétrica en una matriz diagonal al eliminar de forma simétrica los elementos que están fuera de la diagonal. Desafortunadamente, el método requiere un número infinito de operaciones, ya que la eliminación de cada elemento no cero a menudo crea un nuevo valor no cero en el elemento cero anterior.
  • 20. Si A es diagonalmente dominante, entonces la sucesión que resulta de la iteración de Jacobi converge a la solución de Ax = b para cualquier vector inicial Xo. Partimos de una aproximación inicial Xo para las soluciones Xi al sistema de ecuaciones y sustituimos estos valores en la ecuación.
  • 21. Que es la expresión que proporciona las nuevas componentes del vector x(k) en función de vector anterior x(k-1) en la iteración de Jacobi, en su respectivo algoritmo; donde el a el método de Jacobi más que usar el último valor disponible de , con base en un conjunto de las x anteriores (). De esta forma, como se generan nuevos valores, no se usan en forma inmediata sino que se retienen para la siguiente iteración.