SlideShare una empresa de Scribd logo
1 de 16
Unidad 6
Solución de sistemas de ecuaciones no lineales
Puesto que, como se acaba de señalar, los métodos que abordaremos serán de tipo iterativo
y en ellos se generara una sucesión de vectores que, en el mejor de los casos, se vayan
aproximando hacia un vector solución, conviene comenzar recordando algunos conceptos
sobre sucesiones. En este sentido, en primer lugar, nos ubicaremos en conjuntos sobre los
que se haya de finido una forma de medir la distancia entre sus elementos (esto es en un
espacio métrico (E, d)). En este espacio métrico comenzamos recordando la siguiente de
finición:

Dada una sucesión infinita de elementos {xi}∞i=1del espacio métrico (E, d) se dice que la
sucesión es convergente hacia el elemento x∗∈E, si para cualquier valor ε > 0 siempre se
puede encontrar un numero natural N tal que para todo ´índice n > N se verifica que d(xn,
x∗) < ε. Al elemento x∗ anterior se le denomina, si existe, límite de la sucesión {xi}∞i=1
Dada una sucesión infinita de elementos {xi}∞i=1 del espacio métrico (E, d) se dice que la
sucesión es una sucesión de Cauchy, si para cualquier valor ε > 0 siempre se puede
encontrar un número natural N tal que para todo par de ´índices n > N y m > N se verifica
que d(xn, xm) < ε.
Método de Jacobi
En análisis numérico el método de Jacobi es un método iterativo, usado para resolver
sistemas de ecuaciones lineales del tipo        . El algoritmo toma su nombre del
matemático alemán Carl Gustav Jakob Jacobi. El método de Jacobi consiste en usar
fórmulas como iteración de punto fijo.


La sucesión se construye descomponiendo la matriz del sistema           en la forma siguiente:



donde

          , es una matriz diagonal.
          , es una matriz triangular inferior.
           , es una matriz triangular superior.

Partiendo de            , podemos reescribir dicha ecuación como:



Luego,



Si aii ≠ 0 para cada i. Por la regla iterativa, la definición del Método de Jacobi puede ser
expresado de la forma:




donde es el contador de iteración, Finalmente tenemos:




Cabe destacar que al calcular xi(k+1) se necesitan todos los elementos en x(k), excepto el que
tenga el mismo i. Por eso, al contrario que en el método Gauss-Seidel, no se puede
sobreescribir xi(k) con xi(k+1), ya que su valor será necesario para el resto de los cálculos. Esta
es la diferencia más significativa entre los métodos de Jacobi y Gauss-Seidel. La cantidad
mínima de almacenamiento es de dos vectores de dimensión n, y será necesario realizar un
copiado explícito
Convergencia


es la condición necesaria y suficiente para la convergencia, siendo R = L + U. No es
necesario que los elementos de la diagonal en la matriz sean mayores (en magnitud) que los
otros elementos (la matriz es diagonalmente dominante), pero en el caso de serlo, la matriz
converge

Algoritmo

El método de Jacobi se puede escribir en forma de algoritmo de la siguiente manera:

Algoritmo Método de Jacobi
función Jacobi (    ,   )

       //   es una aproximación inicial a la solución//
       para         hasta convergencia hacer
       para         hasta hacer

       para           hasta   hacer
       si          entonces

       fin para



       fin para
       comprobar si se alcanza convergencia
       fin para
Ejemplo

Un sistema linear de la forma            con una estimación inicial           esta dado por




Usamos la ecuación                                , descrita anteriormente, para estimar
 . Primero, reescribimos la ecuación de una manera mas conveniente
                                       , donde                    y                   . vea que
               donde      y   son las partes inferior y superior de       . de los valores
conocidos.




determinamos                             como




C es encontrada como




con T y C calculadas, estimaremos      como                           :




siguientes iteraciones.
este proceso se repetirá hasta que converja (i.e., hasta que              es menor). la
solución después de 25 iteraciones es:




Método de Gauss-Seidel
En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado para
resolver sistemas de ecuaciones lineales. El método se llama así en honor a los matemáticos
alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es similar al método de
Jacobi.

Aunque este método puede aplicarse a cualquier sistema de ecuaciones lineales que
produzca una matriz (cuadrada, naturalmente pues para que exista solución única, el
sistema debe tener tantas ecuaciones como incógnitas) de coeficientes con los elementos de
su diagonal no-nulos, la convergencia del método solo se garantiza si la matriz es
diagonalmente dominante o si es simétrica y, a la vez, definida positiva.

Descripción

Es un método iterativo, lo que significa que se parte de una aproximación inicial y se repite
el proceso hasta llegar a una solución con un margen de error tan pequeño como se quiera.
Buscamos la solución a un sistema de ecuaciones lineales, en notación matricial:



donde:
}El método de iteración Gauss-Seidel se computa, para la iteración             :



donde



definimos



y

                    ,

donde los coeficientes de la matriz N se definen como               si     ,            si
      .

Considerando el sistema          con la condición de que                            .
Entonces podemos escribir la fórmula de iteración del método




        (*)

La diferencia entre este método y el de Jacobi es que, en este último, las mejoras a las
aproximaciones no se utilizan hasta completar las iteraciones

Convergencia

Teorema: Suponga una matriz                             es una matriz no singular que
cumple la condición de


                                        ó                          .
Entonces el método de Gauss-Seidel converge a una solución del sistema de
ecuaciones, y la convergencia es por lo menos tan rápida como la convergencia del
método de Jacobi.

Para ver los casos en que converge el método primero mostraremos que se puede escribir
de la siguiente forma:
(**)

(el término        es la aproximación obtenida después de la k-ésima iteración) este modo de
escribir la iteración es la forma general de un método iterativo estacionario.

Primeramente debemos demostrar que el problema lineal              que queremos resolver
se puede representar en la forma (**), por este motivo debemos tratar de escribir la matriz
A como la suma de una matriz triangular inferior, una diagonal y una triangular superior
A=(L+D+U), D=diag( ). Haciendo los despejes necesarios escribimos el método de esta
forma




por lo tanto M=-(L+D)-1 U y c=(L+D)-1b

Ahora podemos ver que la relación entre los errores, el cuál se puede calcular al substraer
x=Bx+c de (**)




Supongamos ahora que , i= 1, ..., n, son los valores propios que corresponden a los
vectores propios , i= 1,..., n, los cuales son linealmente independientes, entonces
podemos escribir el error inicial



                                                       (***)

Por lo tanto la iteración converge si y sólo si | λi|<1, i= 1, ..., n. De este hecho se desprende
el siguiente teorema:

Teorema: Una condición suficiente y necesaria para que un método iterativo
estacionario                               converja para una aproximación arbitraria
x^{(0)} es que


donde ρ(M) es el radio espectral de M.
Explicación

Se elige una aproximación inicial para      .
Se calculan las matrices M y el vector c con las fórmulas mencionadas. El proceso se repite
hasta que      sea lo suficientemente cercano a       , donde k representa el número de
pasos en la iteración.Se tiene que despejar de la ecuacion una de variable distinta y
determinante.Si al sumar los coeficientes de las variables divididos entre si da 1 y -1 es más
probable que el despeje funcione. Y se debe de despejar en cada ecuacion una variable
distinta, una forma de encontrar que variable despejar es despejando la variable que tenga
el mayor coeficiente.

Ejemplos:
3x-y+z=1
x-5y+z=8
x-y+4z=11

Despejes:

x=(1+y-z)/3 y=(8-x-z)/-5 z=(11-x+y)/4

Despues se necesita iniciar con las iteraciones,el valor inicial no es importante lo
importante es usar las iteraciones necesarias, para darte cuenta cuantas iteraciones son
necesarias necesitas observar cuando los decimales se estabilicen en dos decimales pero se
tiene que tener en cuenta que se tiene que seguir con las iteraciones aunque una de las
variables sea estable si las démas no han llegado al valor buscado. Se sustituye los valores
en los despejes, usando para cada despeje el nuevo valor encontrado.

 k      x      Y      z
0 0        0      0
1 0.333 -1.600 2.750
2 -1.117 -0.983 2.267
3 -0.750 -1.370 2.783
4 -1.051 -1.193 2.595
... ...    ...    ...
10 -0.982 -1.259 2.679
11 -0.979 -1.261 2.681
12 -0.980 -1.260 2.680
13 -0.980 -1.260 2.680
    -0.980 -1.260 2.680
Método de Newton
En análisis numérico, el método de Newton (conocido también como el método de
Newton-Raphson o el método de Newton-Fourier) es un algoritmo eficiente para
encontrar aproximaciones de los ceros o raíces de una función real. También puede ser
usado para encontrar el máximo o mínimo de una función, encontrando los ceros de su
primera derivada.

Descripción del método

El método de Newton-Raphson es un método abierto,
en el sentido de que su convergencia global no está
garantizada. La única manera de alcanzar la
convergencia es seleccionar un valor inicial lo
suficientemente cercano a la raíz buscada. Así, se ha
de comenzar la iteración con un valor razonablemente
cercano al cero (denominado punto de arranque o
valor supuesto). La relativa cercanía del punto inicial a
la raíz depende mucho de la naturaleza de la propia
función; si ésta presenta múltiples puntos de inflexión
o pendientes grandes en el entorno de la raíz, entonces
las probabilidades de que el algoritmo diverja
aumentan, lo cual exige seleccionar un valor supuesto
cercano a la raíz. Una vez que se ha hecho esto, el método linealiza la función por la recta
tangente en ese valor supuesto. La abscisa en el origen de dicha recta será, según el método,
una mejor aproximación de la raíz que el valor anterior. Se realizarán sucesivas iteraciones
hasta que el método haya convergido lo suficiente. f'(x)= 0 Sea f : [a, b] -> R función
derivable definida en el intervalo real [a, b]. Empezamos con un valor inicial x0 y definimos
para cada número natural n




Donde f ' denota la derivada de f.

Nótese que el método descrito es de aplicación exclusiva para funciones de una sola
variable con forma analítica o implícita conocible. Existen variantes del método aplicables
a sistemas discretos que permiten estimar las raíces de la tendencia, así como algoritmos
que extienden el método de Newton a sistemas multivariables, sistemas de ecuaciones, etc.
Obtención del Algoritmo
Tres son las formas principales por las que tradicionalmente se ha obtenido el algoritmo de
Newton-Raphson.

La primera de ellas es una simple interpretación geométrica. En efecto, atendiendo al
desarrollo geométrico del método de la secante, podría pensarse en que si los puntos de
iteración están lo suficientemente cerca (a una distancia infinitesimal), entonces la secante
se sustituye por la tangente a la curva en el punto. Así pues, si por un punto de iteración
trazamos la tangente a la curva, por extensión con el método de la secante, el nuevo punto
de iteración se tomará como la abscisa en el origen de la tangente (punto de corte de la
tangente con el eje X). Esto es equivalente a linealizar la función, es decir, f se reemplaza
por una recta tal que contiene al punto ( , ( )) y cuya pendiente coincide con la
derivada de la función en el punto,          . La nueva aproximación a la raíz, , se logra
la intersección de la función lineal con el eje X de abscisas. Matemáticamente:




En la ilustración adjunta del método de Newton se puede ver que           es una mejor
aproximación que       para el cero (x) de la función f.

Una forma alternativa de obtener el algoritmo es desarrollando la función f (x) en serie de
Taylor, para un entorno del punto     :




Si se trunca el desarrollo a partir del término de grado 2, y evaluamos en       :




Si además se acepta que        tiende a la raíz, se ha de cumplir que                 , luego,
sustituyendo en la expresión anterior, obtenemos el algoritmo.

Finalmente, hay que indicar que el método de Newton-Raphson puede interpretarse como
un método de iteración de punto fijo. Así, dada la ecuación              , se puede
considerar el siguiente método de iteración de punto fijo:
Se escoge h (x) de manera que g'(r)=0 (r es la raíz buscada). Dado que g'(r) es:



Entonces:




Como h (x) no tiene que ser única, se escoge de la forma más sencilla:




Por tanto, imponiendo subíndices:




Expresión que coincide con la del algoritmo de Newton-Raphson



Convergencia del Método

El orden de convergencia de este método es, por lo menos, cuadrático. Sin embargo, si la
raíz buscada es de multiplicidad algebraica mayor a uno (i.e, una raíz doble, triple, ...), el
método de Newton-Raphson pierde su convergencia cuadrática y pasa a ser lineal de
constante asintótica de convergencia 1-1/m, con m la multiplicidad de la raíz.

Existen numerosas formas de evitar este problema, como pudieran ser los métodos de
aceleración de la convergencia tipo Δ² de Aitken o el método de Steffensen. Derivados de
Newton-Raphson destacan el método de Ralston-Rabinowitz, que restaura la convergencia
cuadrática sin más que modificar el algoritmo a:




Evidentemente, este método exige conocer de antemano la multiplicidad de la raíz, lo cual
no siempre es posible. Por ello también se puede modificar el algoritmo tomando una
función auxiliar g(x) = f(x)/f'(x), resultando:
Su principal desventaja en este caso sería lo costoso que pudiera ser hallar g(x) y g'(x) si
f(x) no es fácilmente derivable.

Por otro lado, la convergencia del método se demuestra cuadrática para el caso más
habitual en base a tratar el método como uno de punto fijo: si g '(r)=0, y g''(r) es distinto de
0, entonces la convergencia es cuadrática. Sin embargo, está sujeto a las particularidades de
estos métodos.

Nótese de todas formas que el método de Newton-Raphson es un método abierto: la
convergencia no está garantizada por un teorema de convergencia global como podría
estarlo en los métodos de falsa posición o de bisección. Así, es necesario partir de una
aproximación inicial próxima a la raíz buscada para que el método converja y cumpla el
teorema de convergencia local.

Teorema de Convergencia Local del Método de Newton

Sea                   . Si             ,            y             , entonces existe un r>0 tal
que si                  , entonces la sucesión xn con         verifica que:

                        para todo n y xn tiende a p cuando n tiende a infinito.

Si además                    , entonces la convergencia es cuadrática.

Teorema de Convergencia Global del Método de Newton

Sea                verificando1 :

      1.
      2.            para todo
      3.                     para todo


      4.

Entonces existe un único              tal que             por lo que la sucesión converge a s.
Estimación del Error
Se puede demostrar que el método de Newton-Raphson tiene convergencia cuadrática: si
es raíz, entonces:



para una cierta constante . Esto significa que si en algún momento el error es menor o
igual a 0,1, a cada nueva iteración doblamos (aproximadamente) el número de decimales
exactos. En la práctica puede servir para hacer una estimación aproximada del error:

Error relativo entre dos aproximaciones sucesivas:




Con lo cual se toma el error relativo como si la última aproximación fuera el valor exacto.
Se detiene el proceso iterativo cuando este error relativo es aproximadamente menor que
una cantidad fijada previamente.

Ejemplo

Consideremos el problema de encontrar un número positivo x tal que cos(x) = x3.
Podríamos tratar de encontrar el cero de f(x) = cos(x) - x3.

Sabemos que f '(x) = -sin(x) - 3x2. Ya que cos(x) ≤ 1 para todo x y x3 > 1 para x>1,
deducimos que nuestro cero está entre 0 y 1. Comenzaremos probando con el valor inicial
x0 = 0,5




Los dígitos correctos están subrayados. En particular, x6 es correcto para el número de
decimales pedidos. Podemos ver que el número de dígitos correctos después de la coma se
incrementa desde 2 (para x3) a 5 y 10, ilustando la convergencia cuadrática.
Aplicación de las matrices y los determinantes a los
sistemas de ecuaciones lineales
Un sistema de ecuaciones lineales (s.e.l.) es un conjunto de m ecuaciones con n incógnitas
de la forma:




donde aij son los coeficientes, xi las incógnitas y bi son los términos independientes.
Representación matricial de un s.e.l.

El anterior sistema se puede expresar en forma matricial, usando el producto de matrices de
la forma:




De modo simplificado suele escribirse Am,n · Xn,1 = Bm,1 , donde la matriz A de orden m x n
se denomina matriz de coeficientes.
También usaremos la matriz ampliada, que representaremos por A', que es la matriz de
coeficientes a la cual le hemos añadido la columna del término independiente:
Discusión de un s.e.l.: Teorema de Rouché-Fröbenius
Dado un sistema de ecuaciones con matriz de coeficientes A, matriz ampliada A' y rangos
respectivos r y r' se verifican:

1. El sistema de ecuaciones es compatible cuando rango(A) = rango(A')

2. En caso de compatibilidad existen dos posibilidades:

Si r = r' = n (nº de incógnitas)   Sistema compatible determinado (una única solución)

Si r = r' < n (nº de incógnitas)   Sistema compatible indeterminado (infinitas soluciones)

Al valor n - r se le llama grado de libertad del sistema.

Resolución de un s.e.l.
a) Regla de Cramer

Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas (n=m) y es
compatible determinado (a un s.e.l. qu cumple estas condiciones se le llama un sistema de
Cramer).

El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el determinate
de la matriz de coeficientes, y cuyo numerador es el determinante que se obtiene al cambiar
la columna i del determinante anterior por la columna de los términos independientes.
INTITUTO TECNOLOGICO SUPERIOR DE
MACUSPANA


MATERIA: METODOS MUNERICOS


UNIDAD V


MAESTRO: ABRAHAM LINCOLN MARTINE
RUIZ


ALUMNO: OSCAR         DE   JESUS   LOPEZ
MARTINEZ


CARRERA: ING. CIVIL

Más contenido relacionado

La actualidad más candente

Ejercicios jacobi
Ejercicios jacobiEjercicios jacobi
Ejercicios jacobidjp951
 
Solución de ecuaciones diferenciales (1)
Solución de ecuaciones diferenciales (1)Solución de ecuaciones diferenciales (1)
Solución de ecuaciones diferenciales (1)Johana Martinez
 
2) ECUACIONES EN DERIVADAS PARCIALES
2) ECUACIONES EN DERIVADAS PARCIALES2) ECUACIONES EN DERIVADAS PARCIALES
2) ECUACIONES EN DERIVADAS PARCIALESedvinogo
 
Método de jacobi
Método de jacobiMétodo de jacobi
Método de jacobiTensor
 
Análisis Numerico
Análisis NumericoAnálisis Numerico
Análisis Numericojulio perez
 
Presentación metodos numericos (metodo rigido y metodo multipasos)
Presentación metodos numericos (metodo rigido y metodo multipasos)Presentación metodos numericos (metodo rigido y metodo multipasos)
Presentación metodos numericos (metodo rigido y metodo multipasos)Eleazar Merida
 
Resumen de la unidad iii (analisis numerico) Mirian Rodriguez
Resumen de la unidad iii (analisis numerico) Mirian RodriguezResumen de la unidad iii (analisis numerico) Mirian Rodriguez
Resumen de la unidad iii (analisis numerico) Mirian Rodriguezthaiz050681
 
2da evaluacion de matematica, presentacion
2da evaluacion de matematica, presentacion2da evaluacion de matematica, presentacion
2da evaluacion de matematica, presentacionfabiana733179
 
Ecuación de Euler-Lagrange: Deducción utilizando Cálculo Básico
Ecuación de Euler-Lagrange: Deducción utilizando Cálculo BásicoEcuación de Euler-Lagrange: Deducción utilizando Cálculo Básico
Ecuación de Euler-Lagrange: Deducción utilizando Cálculo Básicoguest6f168da
 
Scrib 3 analisis numerico
Scrib 3 analisis numericoScrib 3 analisis numerico
Scrib 3 analisis numericoMaria Moreno
 
Resumen sadicth.sanchez
Resumen sadicth.sanchezResumen sadicth.sanchez
Resumen sadicth.sanchezsadicth
 
Analisis Numerico... Jose Manzanilla
Analisis Numerico... Jose Manzanilla Analisis Numerico... Jose Manzanilla
Analisis Numerico... Jose Manzanilla jgmc251
 
Calculo de centroides
Calculo de centroidesCalculo de centroides
Calculo de centroidesAbraham Aj
 
Unidad 3.conceptos preliminares de teoría de la medida
Unidad 3.conceptos preliminares de teoría de la medidaUnidad 3.conceptos preliminares de teoría de la medida
Unidad 3.conceptos preliminares de teoría de la medidaPEDRO LARA MALDONADO
 
Ecuaciones polinomiales
Ecuaciones polinomialesEcuaciones polinomiales
Ecuaciones polinomialesJuan Arroba
 

La actualidad más candente (20)

Analisis Numerico
Analisis NumericoAnalisis Numerico
Analisis Numerico
 
Unidad iii
Unidad iiiUnidad iii
Unidad iii
 
Ejercicios jacobi
Ejercicios jacobiEjercicios jacobi
Ejercicios jacobi
 
Solución de ecuaciones diferenciales (1)
Solución de ecuaciones diferenciales (1)Solución de ecuaciones diferenciales (1)
Solución de ecuaciones diferenciales (1)
 
2) ECUACIONES EN DERIVADAS PARCIALES
2) ECUACIONES EN DERIVADAS PARCIALES2) ECUACIONES EN DERIVADAS PARCIALES
2) ECUACIONES EN DERIVADAS PARCIALES
 
Método de jacobi
Método de jacobiMétodo de jacobi
Método de jacobi
 
Subespacios vectoriales
Subespacios vectorialesSubespacios vectoriales
Subespacios vectoriales
 
Análisis Numerico
Análisis NumericoAnálisis Numerico
Análisis Numerico
 
Presentación metodos numericos (metodo rigido y metodo multipasos)
Presentación metodos numericos (metodo rigido y metodo multipasos)Presentación metodos numericos (metodo rigido y metodo multipasos)
Presentación metodos numericos (metodo rigido y metodo multipasos)
 
Resumen de la unidad iii (analisis numerico) Mirian Rodriguez
Resumen de la unidad iii (analisis numerico) Mirian RodriguezResumen de la unidad iii (analisis numerico) Mirian Rodriguez
Resumen de la unidad iii (analisis numerico) Mirian Rodriguez
 
2da evaluacion de matematica, presentacion
2da evaluacion de matematica, presentacion2da evaluacion de matematica, presentacion
2da evaluacion de matematica, presentacion
 
Ecuación de Euler-Lagrange: Deducción utilizando Cálculo Básico
Ecuación de Euler-Lagrange: Deducción utilizando Cálculo BásicoEcuación de Euler-Lagrange: Deducción utilizando Cálculo Básico
Ecuación de Euler-Lagrange: Deducción utilizando Cálculo Básico
 
Scrib 3 analisis numerico
Scrib 3 analisis numericoScrib 3 analisis numerico
Scrib 3 analisis numerico
 
Resumen sadicth.sanchez
Resumen sadicth.sanchezResumen sadicth.sanchez
Resumen sadicth.sanchez
 
Analisis Numerico... Jose Manzanilla
Analisis Numerico... Jose Manzanilla Analisis Numerico... Jose Manzanilla
Analisis Numerico... Jose Manzanilla
 
Derivada
DerivadaDerivada
Derivada
 
Calculo de centroides
Calculo de centroidesCalculo de centroides
Calculo de centroides
 
Espacios y Subespacios Vectoriales
Espacios y Subespacios VectorialesEspacios y Subespacios Vectoriales
Espacios y Subespacios Vectoriales
 
Unidad 3.conceptos preliminares de teoría de la medida
Unidad 3.conceptos preliminares de teoría de la medidaUnidad 3.conceptos preliminares de teoría de la medida
Unidad 3.conceptos preliminares de teoría de la medida
 
Ecuaciones polinomiales
Ecuaciones polinomialesEcuaciones polinomiales
Ecuaciones polinomiales
 

Similar a Unidad 6 metodos

Ensayo de la unidad iii. analisis numerico
Ensayo de la unidad iii. analisis numericoEnsayo de la unidad iii. analisis numerico
Ensayo de la unidad iii. analisis numericodeivys pinto
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidelCesar Mendoza
 
METODO JACOBI Y GAUSS SEIDEL
METODO JACOBI Y GAUSS SEIDELMETODO JACOBI Y GAUSS SEIDEL
METODO JACOBI Y GAUSS SEIDELCesar Mendoza
 
Métodos de eliminacion de Ecuaciones
Métodos de eliminacion de EcuacionesMétodos de eliminacion de Ecuaciones
Métodos de eliminacion de EcuacionesJesus Quiñonez
 
Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)José Monsalve
 
Ecuaciones lineales
Ecuaciones linealesEcuaciones lineales
Ecuaciones linealesJesusS14
 
Solución de Sistemas de Ecuaciones Lineales Analisis numerico
    Solución de Sistemas de Ecuaciones Lineales   Analisis numerico    Solución de Sistemas de Ecuaciones Lineales   Analisis numerico
Solución de Sistemas de Ecuaciones Lineales Analisis numericolmpd124
 
Métodos de eliminación numerica
Métodos de eliminación numericaMétodos de eliminación numerica
Métodos de eliminación numericajose duran
 
Método de gauss siedel
Método de gauss siedelMétodo de gauss siedel
Método de gauss siedelTensor
 
Unidad III de analisis numerico
Unidad III de analisis numericoUnidad III de analisis numerico
Unidad III de analisis numericoEliezer Pacheco
 
METODO ELIMINACION GAUSSIANA UNIDAD III
METODO ELIMINACION GAUSSIANA UNIDAD IIIMETODO ELIMINACION GAUSSIANA UNIDAD III
METODO ELIMINACION GAUSSIANA UNIDAD IIIjoseimonteroc
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesSolución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones Linealesazuajesimon
 
Actividad 1 iv sistemas de ecuaciones y gauss-jordan
Actividad 1 iv sistemas de ecuaciones y gauss-jordanActividad 1 iv sistemas de ecuaciones y gauss-jordan
Actividad 1 iv sistemas de ecuaciones y gauss-jordanLuisa Mee 666
 
SOLUCION DE ECUACIONES NO LINEALES
SOLUCION DE ECUACIONES NO LINEALESSOLUCION DE ECUACIONES NO LINEALES
SOLUCION DE ECUACIONES NO LINEALESJagg602
 
Acti iii analisis numerico
Acti iii analisis numericoActi iii analisis numerico
Acti iii analisis numericoErick Gil
 

Similar a Unidad 6 metodos (20)

Ensayo de la unidad iii. analisis numerico
Ensayo de la unidad iii. analisis numericoEnsayo de la unidad iii. analisis numerico
Ensayo de la unidad iii. analisis numerico
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidel
 
METODO JACOBI Y GAUSS SEIDEL
METODO JACOBI Y GAUSS SEIDELMETODO JACOBI Y GAUSS SEIDEL
METODO JACOBI Y GAUSS SEIDEL
 
Resumen
ResumenResumen
Resumen
 
Métodos de eliminacion de Ecuaciones
Métodos de eliminacion de EcuacionesMétodos de eliminacion de Ecuaciones
Métodos de eliminacion de Ecuaciones
 
Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)
 
Ecuaciones lineales
Ecuaciones linealesEcuaciones lineales
Ecuaciones lineales
 
Metodos de resolucion
Metodos de resolucionMetodos de resolucion
Metodos de resolucion
 
Solución de Sistemas de Ecuaciones Lineales Analisis numerico
    Solución de Sistemas de Ecuaciones Lineales   Analisis numerico    Solución de Sistemas de Ecuaciones Lineales   Analisis numerico
Solución de Sistemas de Ecuaciones Lineales Analisis numerico
 
Métodos de eliminación numerica
Métodos de eliminación numericaMétodos de eliminación numerica
Métodos de eliminación numerica
 
Método de gauss siedel
Método de gauss siedelMétodo de gauss siedel
Método de gauss siedel
 
Resumen unidad III
Resumen unidad IIIResumen unidad III
Resumen unidad III
 
Unidad III de analisis numerico
Unidad III de analisis numericoUnidad III de analisis numerico
Unidad III de analisis numerico
 
METODO ELIMINACION GAUSSIANA UNIDAD III
METODO ELIMINACION GAUSSIANA UNIDAD IIIMETODO ELIMINACION GAUSSIANA UNIDAD III
METODO ELIMINACION GAUSSIANA UNIDAD III
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesSolución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones Lineales
 
Actividad 1 iv sistemas de ecuaciones y gauss-jordan
Actividad 1 iv sistemas de ecuaciones y gauss-jordanActividad 1 iv sistemas de ecuaciones y gauss-jordan
Actividad 1 iv sistemas de ecuaciones y gauss-jordan
 
SOLUCION DE ECUACIONES NO LINEALES
SOLUCION DE ECUACIONES NO LINEALESSOLUCION DE ECUACIONES NO LINEALES
SOLUCION DE ECUACIONES NO LINEALES
 
Ecuaciones lineales
Ecuaciones linealesEcuaciones lineales
Ecuaciones lineales
 
Acti iii analisis numerico
Acti iii analisis numericoActi iii analisis numerico
Acti iii analisis numerico
 
Analisis numerico
Analisis numericoAnalisis numerico
Analisis numerico
 

Unidad 6 metodos

  • 1. Unidad 6 Solución de sistemas de ecuaciones no lineales Puesto que, como se acaba de señalar, los métodos que abordaremos serán de tipo iterativo y en ellos se generara una sucesión de vectores que, en el mejor de los casos, se vayan aproximando hacia un vector solución, conviene comenzar recordando algunos conceptos sobre sucesiones. En este sentido, en primer lugar, nos ubicaremos en conjuntos sobre los que se haya de finido una forma de medir la distancia entre sus elementos (esto es en un espacio métrico (E, d)). En este espacio métrico comenzamos recordando la siguiente de finición: Dada una sucesión infinita de elementos {xi}∞i=1del espacio métrico (E, d) se dice que la sucesión es convergente hacia el elemento x∗∈E, si para cualquier valor ε > 0 siempre se puede encontrar un numero natural N tal que para todo ´índice n > N se verifica que d(xn, x∗) < ε. Al elemento x∗ anterior se le denomina, si existe, límite de la sucesión {xi}∞i=1 Dada una sucesión infinita de elementos {xi}∞i=1 del espacio métrico (E, d) se dice que la sucesión es una sucesión de Cauchy, si para cualquier valor ε > 0 siempre se puede encontrar un número natural N tal que para todo par de ´índices n > N y m > N se verifica que d(xn, xm) < ε.
  • 2. Método de Jacobi En análisis numérico el método de Jacobi es un método iterativo, usado para resolver sistemas de ecuaciones lineales del tipo . El algoritmo toma su nombre del matemático alemán Carl Gustav Jakob Jacobi. El método de Jacobi consiste en usar fórmulas como iteración de punto fijo. La sucesión se construye descomponiendo la matriz del sistema en la forma siguiente: donde , es una matriz diagonal. , es una matriz triangular inferior. , es una matriz triangular superior. Partiendo de , podemos reescribir dicha ecuación como: Luego, Si aii ≠ 0 para cada i. Por la regla iterativa, la definición del Método de Jacobi puede ser expresado de la forma: donde es el contador de iteración, Finalmente tenemos: Cabe destacar que al calcular xi(k+1) se necesitan todos los elementos en x(k), excepto el que tenga el mismo i. Por eso, al contrario que en el método Gauss-Seidel, no se puede sobreescribir xi(k) con xi(k+1), ya que su valor será necesario para el resto de los cálculos. Esta es la diferencia más significativa entre los métodos de Jacobi y Gauss-Seidel. La cantidad mínima de almacenamiento es de dos vectores de dimensión n, y será necesario realizar un copiado explícito
  • 3. Convergencia es la condición necesaria y suficiente para la convergencia, siendo R = L + U. No es necesario que los elementos de la diagonal en la matriz sean mayores (en magnitud) que los otros elementos (la matriz es diagonalmente dominante), pero en el caso de serlo, la matriz converge Algoritmo El método de Jacobi se puede escribir en forma de algoritmo de la siguiente manera: Algoritmo Método de Jacobi función Jacobi ( , ) // es una aproximación inicial a la solución// para hasta convergencia hacer para hasta hacer para hasta hacer si entonces fin para fin para comprobar si se alcanza convergencia fin para
  • 4. Ejemplo Un sistema linear de la forma con una estimación inicial esta dado por Usamos la ecuación , descrita anteriormente, para estimar . Primero, reescribimos la ecuación de una manera mas conveniente , donde y . vea que donde y son las partes inferior y superior de . de los valores conocidos. determinamos como C es encontrada como con T y C calculadas, estimaremos como : siguientes iteraciones.
  • 5. este proceso se repetirá hasta que converja (i.e., hasta que es menor). la solución después de 25 iteraciones es: Método de Gauss-Seidel En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado para resolver sistemas de ecuaciones lineales. El método se llama así en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es similar al método de Jacobi. Aunque este método puede aplicarse a cualquier sistema de ecuaciones lineales que produzca una matriz (cuadrada, naturalmente pues para que exista solución única, el sistema debe tener tantas ecuaciones como incógnitas) de coeficientes con los elementos de su diagonal no-nulos, la convergencia del método solo se garantiza si la matriz es diagonalmente dominante o si es simétrica y, a la vez, definida positiva. Descripción Es un método iterativo, lo que significa que se parte de una aproximación inicial y se repite el proceso hasta llegar a una solución con un margen de error tan pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones lineales, en notación matricial: donde:
  • 6. }El método de iteración Gauss-Seidel se computa, para la iteración : donde definimos y , donde los coeficientes de la matriz N se definen como si , si . Considerando el sistema con la condición de que . Entonces podemos escribir la fórmula de iteración del método (*) La diferencia entre este método y el de Jacobi es que, en este último, las mejoras a las aproximaciones no se utilizan hasta completar las iteraciones Convergencia Teorema: Suponga una matriz es una matriz no singular que cumple la condición de ó . Entonces el método de Gauss-Seidel converge a una solución del sistema de ecuaciones, y la convergencia es por lo menos tan rápida como la convergencia del método de Jacobi. Para ver los casos en que converge el método primero mostraremos que se puede escribir de la siguiente forma:
  • 7. (**) (el término es la aproximación obtenida después de la k-ésima iteración) este modo de escribir la iteración es la forma general de un método iterativo estacionario. Primeramente debemos demostrar que el problema lineal que queremos resolver se puede representar en la forma (**), por este motivo debemos tratar de escribir la matriz A como la suma de una matriz triangular inferior, una diagonal y una triangular superior A=(L+D+U), D=diag( ). Haciendo los despejes necesarios escribimos el método de esta forma por lo tanto M=-(L+D)-1 U y c=(L+D)-1b Ahora podemos ver que la relación entre los errores, el cuál se puede calcular al substraer x=Bx+c de (**) Supongamos ahora que , i= 1, ..., n, son los valores propios que corresponden a los vectores propios , i= 1,..., n, los cuales son linealmente independientes, entonces podemos escribir el error inicial (***) Por lo tanto la iteración converge si y sólo si | λi|<1, i= 1, ..., n. De este hecho se desprende el siguiente teorema: Teorema: Una condición suficiente y necesaria para que un método iterativo estacionario converja para una aproximación arbitraria x^{(0)} es que donde ρ(M) es el radio espectral de M.
  • 8. Explicación Se elige una aproximación inicial para . Se calculan las matrices M y el vector c con las fórmulas mencionadas. El proceso se repite hasta que sea lo suficientemente cercano a , donde k representa el número de pasos en la iteración.Se tiene que despejar de la ecuacion una de variable distinta y determinante.Si al sumar los coeficientes de las variables divididos entre si da 1 y -1 es más probable que el despeje funcione. Y se debe de despejar en cada ecuacion una variable distinta, una forma de encontrar que variable despejar es despejando la variable que tenga el mayor coeficiente. Ejemplos: 3x-y+z=1 x-5y+z=8 x-y+4z=11 Despejes: x=(1+y-z)/3 y=(8-x-z)/-5 z=(11-x+y)/4 Despues se necesita iniciar con las iteraciones,el valor inicial no es importante lo importante es usar las iteraciones necesarias, para darte cuenta cuantas iteraciones son necesarias necesitas observar cuando los decimales se estabilicen en dos decimales pero se tiene que tener en cuenta que se tiene que seguir con las iteraciones aunque una de las variables sea estable si las démas no han llegado al valor buscado. Se sustituye los valores en los despejes, usando para cada despeje el nuevo valor encontrado. k x Y z 0 0 0 0 1 0.333 -1.600 2.750 2 -1.117 -0.983 2.267 3 -0.750 -1.370 2.783 4 -1.051 -1.193 2.595 ... ... ... ... 10 -0.982 -1.259 2.679 11 -0.979 -1.261 2.681 12 -0.980 -1.260 2.680 13 -0.980 -1.260 2.680 -0.980 -1.260 2.680
  • 9. Método de Newton En análisis numérico, el método de Newton (conocido también como el método de Newton-Raphson o el método de Newton-Fourier) es un algoritmo eficiente para encontrar aproximaciones de los ceros o raíces de una función real. También puede ser usado para encontrar el máximo o mínimo de una función, encontrando los ceros de su primera derivada. Descripción del método El método de Newton-Raphson es un método abierto, en el sentido de que su convergencia global no está garantizada. La única manera de alcanzar la convergencia es seleccionar un valor inicial lo suficientemente cercano a la raíz buscada. Así, se ha de comenzar la iteración con un valor razonablemente cercano al cero (denominado punto de arranque o valor supuesto). La relativa cercanía del punto inicial a la raíz depende mucho de la naturaleza de la propia función; si ésta presenta múltiples puntos de inflexión o pendientes grandes en el entorno de la raíz, entonces las probabilidades de que el algoritmo diverja aumentan, lo cual exige seleccionar un valor supuesto cercano a la raíz. Una vez que se ha hecho esto, el método linealiza la función por la recta tangente en ese valor supuesto. La abscisa en el origen de dicha recta será, según el método, una mejor aproximación de la raíz que el valor anterior. Se realizarán sucesivas iteraciones hasta que el método haya convergido lo suficiente. f'(x)= 0 Sea f : [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos con un valor inicial x0 y definimos para cada número natural n Donde f ' denota la derivada de f. Nótese que el método descrito es de aplicación exclusiva para funciones de una sola variable con forma analítica o implícita conocible. Existen variantes del método aplicables a sistemas discretos que permiten estimar las raíces de la tendencia, así como algoritmos que extienden el método de Newton a sistemas multivariables, sistemas de ecuaciones, etc.
  • 10. Obtención del Algoritmo Tres son las formas principales por las que tradicionalmente se ha obtenido el algoritmo de Newton-Raphson. La primera de ellas es una simple interpretación geométrica. En efecto, atendiendo al desarrollo geométrico del método de la secante, podría pensarse en que si los puntos de iteración están lo suficientemente cerca (a una distancia infinitesimal), entonces la secante se sustituye por la tangente a la curva en el punto. Así pues, si por un punto de iteración trazamos la tangente a la curva, por extensión con el método de la secante, el nuevo punto de iteración se tomará como la abscisa en el origen de la tangente (punto de corte de la tangente con el eje X). Esto es equivalente a linealizar la función, es decir, f se reemplaza por una recta tal que contiene al punto ( , ( )) y cuya pendiente coincide con la derivada de la función en el punto, . La nueva aproximación a la raíz, , se logra la intersección de la función lineal con el eje X de abscisas. Matemáticamente: En la ilustración adjunta del método de Newton se puede ver que es una mejor aproximación que para el cero (x) de la función f. Una forma alternativa de obtener el algoritmo es desarrollando la función f (x) en serie de Taylor, para un entorno del punto : Si se trunca el desarrollo a partir del término de grado 2, y evaluamos en : Si además se acepta que tiende a la raíz, se ha de cumplir que , luego, sustituyendo en la expresión anterior, obtenemos el algoritmo. Finalmente, hay que indicar que el método de Newton-Raphson puede interpretarse como un método de iteración de punto fijo. Así, dada la ecuación , se puede considerar el siguiente método de iteración de punto fijo:
  • 11. Se escoge h (x) de manera que g'(r)=0 (r es la raíz buscada). Dado que g'(r) es: Entonces: Como h (x) no tiene que ser única, se escoge de la forma más sencilla: Por tanto, imponiendo subíndices: Expresión que coincide con la del algoritmo de Newton-Raphson Convergencia del Método El orden de convergencia de este método es, por lo menos, cuadrático. Sin embargo, si la raíz buscada es de multiplicidad algebraica mayor a uno (i.e, una raíz doble, triple, ...), el método de Newton-Raphson pierde su convergencia cuadrática y pasa a ser lineal de constante asintótica de convergencia 1-1/m, con m la multiplicidad de la raíz. Existen numerosas formas de evitar este problema, como pudieran ser los métodos de aceleración de la convergencia tipo Δ² de Aitken o el método de Steffensen. Derivados de Newton-Raphson destacan el método de Ralston-Rabinowitz, que restaura la convergencia cuadrática sin más que modificar el algoritmo a: Evidentemente, este método exige conocer de antemano la multiplicidad de la raíz, lo cual no siempre es posible. Por ello también se puede modificar el algoritmo tomando una función auxiliar g(x) = f(x)/f'(x), resultando:
  • 12. Su principal desventaja en este caso sería lo costoso que pudiera ser hallar g(x) y g'(x) si f(x) no es fácilmente derivable. Por otro lado, la convergencia del método se demuestra cuadrática para el caso más habitual en base a tratar el método como uno de punto fijo: si g '(r)=0, y g''(r) es distinto de 0, entonces la convergencia es cuadrática. Sin embargo, está sujeto a las particularidades de estos métodos. Nótese de todas formas que el método de Newton-Raphson es un método abierto: la convergencia no está garantizada por un teorema de convergencia global como podría estarlo en los métodos de falsa posición o de bisección. Así, es necesario partir de una aproximación inicial próxima a la raíz buscada para que el método converja y cumpla el teorema de convergencia local. Teorema de Convergencia Local del Método de Newton Sea . Si , y , entonces existe un r>0 tal que si , entonces la sucesión xn con verifica que: para todo n y xn tiende a p cuando n tiende a infinito. Si además , entonces la convergencia es cuadrática. Teorema de Convergencia Global del Método de Newton Sea verificando1 : 1. 2. para todo 3. para todo 4. Entonces existe un único tal que por lo que la sucesión converge a s.
  • 13. Estimación del Error Se puede demostrar que el método de Newton-Raphson tiene convergencia cuadrática: si es raíz, entonces: para una cierta constante . Esto significa que si en algún momento el error es menor o igual a 0,1, a cada nueva iteración doblamos (aproximadamente) el número de decimales exactos. En la práctica puede servir para hacer una estimación aproximada del error: Error relativo entre dos aproximaciones sucesivas: Con lo cual se toma el error relativo como si la última aproximación fuera el valor exacto. Se detiene el proceso iterativo cuando este error relativo es aproximadamente menor que una cantidad fijada previamente. Ejemplo Consideremos el problema de encontrar un número positivo x tal que cos(x) = x3. Podríamos tratar de encontrar el cero de f(x) = cos(x) - x3. Sabemos que f '(x) = -sin(x) - 3x2. Ya que cos(x) ≤ 1 para todo x y x3 > 1 para x>1, deducimos que nuestro cero está entre 0 y 1. Comenzaremos probando con el valor inicial x0 = 0,5 Los dígitos correctos están subrayados. En particular, x6 es correcto para el número de decimales pedidos. Podemos ver que el número de dígitos correctos después de la coma se incrementa desde 2 (para x3) a 5 y 10, ilustando la convergencia cuadrática.
  • 14. Aplicación de las matrices y los determinantes a los sistemas de ecuaciones lineales Un sistema de ecuaciones lineales (s.e.l.) es un conjunto de m ecuaciones con n incógnitas de la forma: donde aij son los coeficientes, xi las incógnitas y bi son los términos independientes. Representación matricial de un s.e.l. El anterior sistema se puede expresar en forma matricial, usando el producto de matrices de la forma: De modo simplificado suele escribirse Am,n · Xn,1 = Bm,1 , donde la matriz A de orden m x n se denomina matriz de coeficientes. También usaremos la matriz ampliada, que representaremos por A', que es la matriz de coeficientes a la cual le hemos añadido la columna del término independiente:
  • 15. Discusión de un s.e.l.: Teorema de Rouché-Fröbenius Dado un sistema de ecuaciones con matriz de coeficientes A, matriz ampliada A' y rangos respectivos r y r' se verifican: 1. El sistema de ecuaciones es compatible cuando rango(A) = rango(A') 2. En caso de compatibilidad existen dos posibilidades: Si r = r' = n (nº de incógnitas) Sistema compatible determinado (una única solución) Si r = r' < n (nº de incógnitas) Sistema compatible indeterminado (infinitas soluciones) Al valor n - r se le llama grado de libertad del sistema. Resolución de un s.e.l. a) Regla de Cramer Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas (n=m) y es compatible determinado (a un s.e.l. qu cumple estas condiciones se le llama un sistema de Cramer). El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el determinate de la matriz de coeficientes, y cuyo numerador es el determinante que se obtiene al cambiar la columna i del determinante anterior por la columna de los términos independientes.
  • 16. INTITUTO TECNOLOGICO SUPERIOR DE MACUSPANA MATERIA: METODOS MUNERICOS UNIDAD V MAESTRO: ABRAHAM LINCOLN MARTINE RUIZ ALUMNO: OSCAR DE JESUS LOPEZ MARTINEZ CARRERA: ING. CIVIL