El documento describe varios métodos para resolver sistemas de ecuaciones lineales y no lineales, incluyendo el método de Jacobi, el método de Gauss-Seidel, y el método de Newton-Raphson. También describe la descomposición LU para factorizar una matriz como el producto de una matriz triangular inferior y una superior con el fin de resolver sistemas de ecuaciones de manera más eficiente.
Ensayo sobre métodos numéricos Jacobi, Gauss-Seidel y punto fijo para sistemas de ecuaciones
1. Universidad Fermín Toro
Vice-Rectorado Académico
Facultad de Ingeniería de Mantenimiento Mecánico
Ensayo de la unidad III
Alumno:
Deivys Pinto
20.540.758
Profesor: Domingo Méndez
Saia B
Barquisimeto, diciembre de 2016
2. Ensayo
De la unidad III
MÉTODO DE JACOBI: En análisis numérico el método de Jacobi es un método
iterativo, usado para resolver sistemas de ecuaciones lineales del tipo Ax = b. El
algoritmo toma su nombre del matemático alemán Carl Gustav Jakob Jacobi. La
base del método consiste en construir una sucesión convergente definida
iterativamente. El límite de esta sucesión es precisamente la solución del sistema.
A efectos prácticos si el algoritmo se detiene después de un número finito de
pasos se llega a una aproximación al valor de x de la solución del sistema. La
sucesión se construye descomponiendo la matriz del sistema en la forma
siguiente: A= D + L + U Donde: D, es una matriz diagonal. L, es una matriz
triangular inferior. U, es una matriz triangular superior Partiendo de AX=b podemos
rescribir dicha ecuación como: Dx + (L+U) x=b Luego: Si aii ≠ 0 para cada i. Por la
regla iterativa, la definición del Método de Jacobi puede ser expresado de la
forma: donde k es el contador de iteración, Finalmente tenemos: Cabe destacar
que al calcular xi (k+1) se necesitan todos los elementos en x(k), excepto el que
tenga el mismo i. Por eso, al contrario que en el método Gauss-Seidel, no se
puede sobre escribir xi (k) con xi (k+1), ya que su valor será necesario para el
resto de los cálculos. Esta es la diferencia más significativa entre los métodos de
Jacobi y Gauss-Seidel. La cantidad mínima de almacenamiento es de dos
vectores de dimensión n, y será necesario realizar un copiado explícito. El método
de Jacobi siempre converge si la matriz A es estrictamente diagonal dominante y
puede converger incluso si esta condición no se satisface. Es necesario, sin
embargo, que los elementos de la diagonal en la matriz sean mayores (en
magnitud) que los otros elementos. El método de Jacobi se puede escribir en
forma de algoritmo de la siguiente manera: Ejemplo 1: Aproxima la solución del
siguiente sistema de ecuaciones lineales, con 5 iteraciones y determina la
cantidad de cifras significativas exactas de la quinta iteración. Utiliza como
iteración inicial Solución: Primeramente notamos que la matriz de coeficientes del
sistema sí es diagonalmente dominante. Por lo tanto, podemos emplear la fórmula
recursiva del método de Jacobi, obteniendo: Para la primera iteración
consideraremos de donde. Para la segunda iteración utilizamos los valores de la
primera iteración: Similarmente para las otras tres iteraciones resulta la tabla de
aproximaciones: Los errores relativos para cada variable son: De esta forma se
puede asegurar que la aproximación para, y en la quinta iteración sólo tienen dos
cifras significativas exactas. Ejemplo2: 10X1 + 1X2 = 11 2X1 + 10X2 = 12 Despeje
de X1 en la ecuación 1 Despeje de X1 en la ecuación 2 1 Iteración 2 Iteración 3
3. Iteración Sustitución de valores en la ecuación 1 y 2. 10X1 + 1X2 = 11 10(1)+1 (1)
= 11 11=11 MÉTODO DE GAUSS-SEIDEL: El método de Gauss-Seidel es el
método iterativo más comúnmente usado. Supongamos que se da un sistema
de n ecuaciones. [A] [X] = {B} Suponga que se limita a un conjunto de ecuaciones
de 3 X 3. Si los elementos de la diagonal no son todos cero, la primera ecuación
se puede resolver para X 1, la segunda para X2 y la tercera para X3, para obtener:
Ahora se puede empezar el proceso de solución al escoger valores iniciales para
las x. una forma simple para obtener los valores iniciales es suponer que todos
son cero. Estos ceros se sustituyen en la primera ecuación, la cual se utiliza para
calcular un nuevo valor X1 = b1 /a11. Después, se sustituye este nuevo valor de
X1 junto con el valor previo cero de X3 en la segunda ecuación y se calcula el
nuevo valor de X2. Este proceso se repite con la última ecuación para calcular un
nuevo valor de X3. Después se regresa a la primera ecuación y se repite todo el
procedimiento hasta que la solución converja suficientemente cerca a los valores
verdaderos. La convergencia se verifica usando el criterio. Para toda la i, donde j y
j-1 son las iteraciones actuales y previas, respectivamente. Conforme un nuevo
valor de x se calcula con el método de Gauss-Seidel, este se usa inmediatamente
en la siguiente ecuación para determinar el otro valor de x. de esta forma, si la
solución es convergente, se empleará la mejor aproximación disponible. Un
método alternativo, llamado iteración de Jacobi, emplea una táctica algo diferente.
CRITERIO DE CONVERGENCIA PARA EL METODO DE GAUSS-SEIDEL:
Observe que el método de Gauss-Seidel es similar en esencial a la técnica de
iteración de punto fijo que se uso para obtener las raíces de una sola ecuación.
Recuerde que la iteración de punto fijo presenta dos problemas fundamentales:
1. En algunas ocasiones no es convergente. Cuando converge, con frecuencia lo
hace en forma muy lenta. El método de Gauss-Seidel puede también presentar
estas desventajas. El criterio de convergencia se puede desarrollar al recordar de
la sección 6.5.1 que las condiciones suficientes para la convergencia de dos
ecuaciones no lineales, u (x,y) y v(x,y), son: Este criterio se aplica también a las
ecuaciones lineales que se resuelven con el método de Gauss-Seidel. Por
ejemplo, en el caso de dos ecuaciones simultaneas, el algoritmo de Gauss-Seidel
se expresa como: Las derivadas parciales de estas ecuaciones se evalúan con
respecto a cada una de las incógnitas así: Que se sustituyen en la ecuación para
dar: En otras palabras el valor, absoluto de las pendientes debe ser menor que la
unidad para asegurar la convergencia, lo cual se muestra gráficamente en la
siguiente figura. Esto es, el elemento diagonal debe ser mayor que el elemento
fuera de la diagonal para cada renglón. La generalización de lo anterior
para n ecuaciones es directa y se expresa como: Es decir el coeficiente diagonal
en cada una de las ecuaciones debe ser mayor que la suma del valor absoluto de
los otros coeficientes de la ecuación. EJEMPLO: Planteamiento del problema: use
el método de Gauss-Seidel para obtener la solución del sistema. 3X1 – 0.1X2
4. 0.2X3 = 7.85 0.1X1 + 7X2 – 0.3X3 = 19.3 0.3X1 – 0.2X2 + 10X3 = 71.4
Recuerde que la verdadera solución es: X1= 3,X2 = -2.5 Y X3 = 7
Solución: Primero, despeje la incógnita sobre la diagonal para cada una de las
ecuaciones. Suponiendo que X2 y X3 son cero, se utiliza la primera ecuación para
calcular: Este valor, junto con el valor de x3 = 0 se sustituye en la segunda
ecuación para calcular: La primera interacción termina al sustituir los valores
calculados para x1 y x2 en la tercera ecuación: En la segunda iteración, se repite
el mismo proceso para calcular. El método es, por lo tanto, convergente hacia la
verdadera solución. Es posible aplicar iteraciones para mejorar los resultados. Sin
embargo, en un problema real, no se podría saber a priori el resultado correcto. En
consecuencia, la nos da un medio para estimar el error. Por ejemplo, para X1.
Para X2 y X3, los errores son Observe que, como cuando se determinaron las
raíces de una sola ecuación, las formulaciones como la ecuación usualmente
ofrecen una valoración conservativa de la convergencia. Así, como estas se
satisfacen, aseguran que el resultado se conozca con, al menos, la tolerancia
especifica por SISTEMAS DE ECUACIONES NO LINEALES: Un problema
relacionado con éste método consiste en obtener las raíces de un conjunto de
ecuaciones simultaneas. La solución de este sistema consta de un conjunto de
valores xi que simultáneamente hacen que todas las ecuaciones sean iguales a
cero. Para el caso que las ecuaciones simultáneas son lineales, es decir se
pueden expresar en la forma general. Donde la b y la a son constantes. A las
ecuaciones algebraicas y trascendentales que no se pueden expresar de esta
forma se les llama ecuaciones no lineales. Por ejemplo: Son dos ecuaciones
simultaneas no lineales con dos incógnitas, x y y, las cuales se expresan en la
forma de la ecuación (6.14) como Así, la solución serán los valores de x y de y que
hacen a las funciones u(x, y) y v(x, y) iguales a cero. La mayoría de los métodos
para determinar tales soluciones son extensiones de los métodos abiertos para
resolver ecuaciones simples. Dos de ellos son: iteración de punto fijo y Newton –
Rapson. ITERACIÓN DE PUNTO FIJO: El método de iteración de punto fijo puede
para modificarse para resolver dos ecuaciones simultáneas no lineales. Este
método se ilustra ene le siguiente ejemplo. Iteración de punto fijo para un sistema
no lineal. Planteamiento del problema. Con el método de iteración de punto fijo
determine las raíces de la ecuación (6.16). Observe que un par correcto de raíces
es x=2 y y=3. Inicie el cálculo con el valor inicial x=1.5 y y = 3.5 Solución. En la
ecuación (6.16a) se despeja x Y en la ecuación (6.16b) se despeja y Observe que
dejaremos los subíndices en el resto del ejemplo. Con base en los valores
iniciales, la ecuación (E6.10.1) se utiliza para determinar un nuevo valor de x: Este
resultado y el valor inicial de y = 3.5 se sustituye en la ecuación (E6.10.2) para
determinar un nuevo valor de y:Y = 57 – 3 (2.21429) (3.5) 2 = - 24.37516 Así,
parece que el método diverge. Este comportamiento es aun más pronunciado en
la segunda iteración: En efecto, la aproximación se está descomponiendo. Se
5. repite el cálculo, pero con la ecuación original puesta en forma diferente. Por
ejemplo, un despeje alternativo a la ecuación (6.16a) es: Y de la ecuación (6.16b)
es Ahora los resultados son más satisfactorios: Así, la aproximación converge
hacia la solución correcta x=2 y y=3 Newton - Raphson EL MÉTODO NEWTON–
RAPHSON: se utilizo empleando la derivada (al evaluar, es la pendiente de la
recta tangente) de un función, para calcular su intersección con el eje de la
variable independiente; esto es, la raíz. Dicho calculo se baso en la expansión de
la serie de Taylor de primer orden. Donde es el valor inicial de la raíz y es el valor
en el cual la recta tangente intercepta al eje x. En esta intersección, es, por
definición, igual a cero y la ecuación (6.17) se reordena para tener. Que es la
forma del método de Newton-Raphson para una sola ecuación. La forma para
múltiples ecuaciones se obtiene en forma idéntica. Sin embargo, se debe usar una
serie de Taylor de múltiples variables para tomar en cuenta el hecho de que más
de una variable independiente contribuye a la determinación de la raíz. En el caso
de dos variables, una serie de Taylor de primer orden se escribe para cada
ecuación no lineal como y de la misma manera como en la versión para una sola
ecuación, la raíz aproximada corresponde a los valores de x y y, donde son
iguales a cero. En tal situación, se reordena la ecuación (6.19) como: Debido a
que se conocen todos los valores con subíndice i (corresponde al último valor
estimado), las únicas incógnitas son y Entonces, la ecuación (6.20) es un conjunto
de dos ecuaciones lineales con dos incógnitas. En consecuencia, se pueden usar
manipulaciones algebraicas (por ejemplo, la regla de Cramer) para resolverlo: El
denominador de cada una de estas ecuaciones se conoce formalmente como el
determinante Jacobiano del sistema. La ecuación (6.21) es la versión para dos
ecuaciones del Método de Newton-Raphson. Como en el siguiente ejemplo, se
puede emplear en forma iterativa para determinar las raíces de dos ecuaciones
simultaneas. Newton-Raphson para un sistema no lineal. Ejemplo 1.Planteamiento
del problema. Con el método de Newton-Raphson para múltiples ecuaciones
determine las raíces de la ecuación (6.16). Observe que un par correcto de raíces
es x=2 y y=3. Use como valores iniciales x=1.5 y y=3.5. Solución. Primero calcule
las derivadas parciales y evalúelas con los valores iniciales de x y y: Así, el
determinante jacobiano para la primera iteración es Los valores de las funciones
se evalúan con los valores iniciales como estos valores se sustituyen en la
ecuación (6.21) Así, los resultados están convergiendo a los valores verdaderos
x=2 y x=3. Los cálculos se repiten hasta que se obtenga una precisión aceptable.
LA FACTORIZACIÓN O DESCOMPOSICIÓN LU: es una forma de factorización
de una matriz como el producto de una matriz triangular inferior y una superior.
Debido a la inestabilidad de este método, deben tenerse en cuenta algunos casos
especiales, por ejemplo, si uno o varios elementos de la diagonal principal de la
matriz a factorizar es cero, es necesario pre multiplicar la matriz por una o varias
matrices elementales de permutación. Método llamado factorización PA=LU o LU
6. pivote. Esta descomposición se usa en el análisis numérico para resolver sistemas
de ecuaciones (más eficientemente) o encontrar las matrices inversas. Sea A una
matriz no singular (si lo fuera, entonces la descomposición podría no ser única) A
= LU donde L y U son matrices inferiores y superiores triangulares
respectivamente. Para matrices de 3x3, esto es:
ELIMINACIÓN GAUSSIANA SIMPLE: El método de eliminación Gaussiana para
la solución de sistemas de ecuaciones lineales consiste en convertir a través de
operaciones básicas llamadas operaciones de renglón un sistema en otro
equivalente más sencillo cuya respuesta pueda leerse de manera directa. El
método de eliminación Gaussiana es el mismo para sistemas de ecuaciones 2×2,
3×3, 4×4 y así sucesivamente siempre y cuando se respete la relación de al
menos una ecuación por cada variable. Antes de ilustrar el método con un
ejemplo, es necesario primeramente conocer las operaciones básicas de renglón
las cuales son presentas a continuación: 1. Ambos miembros de una ecuación
pueden multiplicarse por una constante diferente de cero. 2. Los múltiplos
diferentes de cero de una ecuación pueden sumarse a otra ecuación 3. El orden
de las ecuaciones es intercambiable. Una vez conocidas las operaciones que en
mi afán por resolver un sistema de ecuaciones puedo realizar procedo a ilustrar el
método con un ejemplo: 1. Resolver el siguiente sistema de ecuaciones: x + 2y +
3z = 1; 4x + 5y + 6z= −2; 7x + 8y + 10z = 5 Donde cada ecuación representa un
renglón y las variables iguales de las 3 ecuaciones representan las columnas 1, 2
y 3 respectivamente. Usando el método de eliminación Gaussiana. Solución: Para
simplificar las operaciones se retiran las variables y se mantienen exclusivamente
los coeficientes de cada una, el signo de igual también es eliminado pero se
mantienen los datos del lado derecho de la ecuación. Quedando como sigue:
Diagonal principal La diagonal principal de la matriz busca quede conformada por
solo unidades (1) la parte inferior a la diagonal debe quedar en ceros. Esto se
hace utilizando las operaciones básicas de renglón para las ecuaciones, de arriba
hacia abajo y de izquierda a derecha. Multiplico la ecuación 1 por −4 y la resto de
la ecuación 2, de igual forma la multiplico por −7 y la resto de la 3 obteniendo.
Después divido la ecuación 2 (renglón 2) entre −3 para hacer el componente de la
diagonal principal 1 quedando como sigue: Multiplico la ecuación 2 (renglón 2) por
6 y lo sumo a la ecuación 3 (renglón 3). Una vez lograda la diagonal principal
formada por unidades y los datos por debajo de la diagonal principal ceros
reintegro las variables en cada ecuación y también el signo igual de las
ecuaciones obteniendo: Donde el valor de z= 10 y al sustituir este valor en la
ecuación resultante 2, tendríamos y + 2z = 2 al sustituir el valor de z obtenemos
que: y + 2(10) = 2; y + 20 = 2; y = 2- 20; y = −18 Al sustituir estos valores en la
ecuación resultante 1 se tiene: 1x + 2y + 3z = 1 Si z= 10 y y=−18, entonces el
valor de x será: 1x + 2y + 3z = 1; x + 2(−18) + 3(10)= 1; x – 36 + 30 = 1; x – 6 = 1;
7. x = 1 + 6; x = 7 La solución del sistema de ecuaciones sería x= 7, y= −18, y z= 10.
El sistema de eliminación gaussiana es el mismo no importando si es un sistema
de ecuaciones lineales del tipo 2×2, 3×3, 4×4 etc. siempre y cuando se respete la
relación de al menos tener el mismo número de ecuaciones que de variables. LA
FACTORIZACIÓN O DESCOMPOSICIÓN DE CHOLESKY: toma su nombre del
matemático André-Louis Cholesky, quien encontró que una matriz simétrica
definida positiva puede ser descompuesta como el producto de una matriz
triangular inferior y la traspuesta de la matriz triangular inferior. La matriz triangular
inferior es el triángulo de Cholesky de la matriz original positiva definida. El
resultado de Cholesky ha sido extendido a matrices con entradas complejas. Es
una manera de resolver sistemas de ecuaciones matriciales y se deriva de la
factorización LU con una pequeña variación. Cualquier matriz cuadrada A con
pivotes no nulos puede ser escrita como el producto de una matriz triangular
inferior L y una matriz triangular superior U; esto recibe el nombre de factorización
LU. Sin embargo, si A es simétrica y definida positiva, se pueden escoger los
factores tales que U es la transpuesta de L, y esto se llama la descomposición o
factorización de Cholesky. Tanto la descomposición LU como la descomposición
de Cholesky son usadas para resolver sistemas de ecuaciones lineales. Cuando
es aplicable, la descomposición de Cholesky es dos veces más eficiente que la
descomposición LU. LA DESCOMPOSICIÓN O FACTORIZACIÓN QR: de una
matriz es una descomposición de la misma como producto de una matriz ortogonal
por una triangular superior. La descomposición QR es la base del algoritmo QR
utilizado para el cálculo de los vectores y valores propios de una matriz. Una
transformación de Householder o reflexión de Householder es una transformación
que refleja el espacio con respecto a un plano determinado. Esta propiedad se
puede utilizar para realizar la transformación QR de una matriz si tenemos en
cuenta que es posible elegir la matriz de Householder de manera que un vector
elegido quede con una única componente no nula tras ser transformado (es decir,
premultiplicando por la matriz de Householder). Gráficamente, esto significa que
es posible reflejar el vector elegido respecto de un plano de forma que el reflejo
quede sobre uno de los ejes de la base cartesiana.