SlideShare una empresa de Scribd logo
Historia [editar]
El método de Newton fue descrito por Isaac Newton en De analysi per aequationes número terminorum
infinitas (escrito en 1669, publicado en 1711 por William Jones) y en De metodis fluxionum et serierum
infinitarum (escrito en 1671, traducido y publicado como Método de las fluxiones en 1736 por John Colson).
Sin embargo, su descripción difiere en forma sustancial de la descripción moderna presentada más arriba:
Newton aplica el método solo a polinomios. Él no computa las aproximaciones sucesivas xn, sino que
computa una secuencia de polinomios y recién al final llega a la aproximación de la raíz x. Finalmente,
Newton ve el método como puramente algebraico y falla al no ver la conexión con el cálculo. Isaac Newton
probablemente deriva su método de forma similar aunque menos precisa del método de François Viète. La
esencia del método de Viète puede encontrarse en el trabajo del matemático persa Sharaf al-Din al-Tusi.

Descripción del método [editar]
La idea de este método es la siguiente: se comienza con un valor razonablemente cercano al cero
(denominado punto de arranque), entonces se reemplaza la función por la recta tangente en ese valor, se
iguala a cero y se despeja (fácilmente, por ser una ecuación lineal). Este cero será, generalmente, una
aproximación mejor a la raíz de la función. Luego, se aplican tantas iteraciones como se deseen.

Supóngase f : [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos con un valor
inicial x0 y definimos para cada número natural n




Donde f ' denota la derivada de f.

Obtención del Algoritmo [editar]
Tres son las formas principales por las que tradicionalmente se ha obtenido el algoritmo de Newton-
Raphson.

La primera de ellas es una simple interpretación geométrica. En efecto, atendiendo al desarrollo geométrico
del método de la secante, podría pensarse en que si los puntos de iteración están lo suficientemente cerca (a
una distancia infinitesimal), entonces la secante se sustituye por la tangente a la curva en el punto. Así pues,
si por un punto de iteración trazamos la tangente a la curva, por extensión con el método de la secante, el
nuevo punto de iteración se tomará como la abcisa en el origen de la tangente (punto de corte de la tangente
con el eje X). Esto es equivalente a linealizar la función, es decir, f se reemplaza por una recta tal que
contiene al punto (x0, f (x0)) y cuya pendiente coincide con la derivada de la función en el punto, f'(x0). La
nueva aproximación a la raíz, x1, se logra la intersección de la función linear con el eje X de ordenadas.
Matemáticamente:
Ilustración de una iteración del método de Newton (la función f se demuestra en azul y la línea de la
tangente está en rojo). Vemos que xn + 1 es una aproximación mejor que xn para la raíz x de la función f.

En la ilustración adjunta del método de Newton se puede ver que xn + 1 es una mejor aproximación que xn para
el cero (x) de la función f.

Una forma alternativa de obtener el algoritmo es desarrollando la función f (x) en serie de Taylor, para un
entorno del punto xn:




Si se trunca el desarrollo a partir del término de grado 2, y evaluamos en xn + 1:



Si además se acepta que xn + 1 tiende a la raíz, se ha de cumplir que f(xn + 1) = 0, luego, sustituyendo en la
expresión anterior, obtenemos el algoritmo.

Finalmente, hay que indicar que el método de Newton-Raphson puede interpretarse como un método de
iteración de punto fijo. Así, dada la ecuación f(x) = 0, se puede considerar el siguiente método de iteración
de punto fijo:



Se escoge h (x) de manera que g'(r)=0 (r es la raíz buscada). Dado que g'(r) es:



Entonces:




Como h (x) no tiene que ser única, se escoge de la forma más sencilla:




Por tanto, imponiendo subíndices:




Expresión que coincide con la del algoritmo de Newton-Raphson

Convergencia del Método [editar]
El orden de convergencia de este método es, por lo menos, cuadrático. Sin embargo, si la raíz buscada es de
multiplicidad algebraica mayor a uno (i.e, una raíz doble, triple, ...), el método de Newton-Raphson pierde su
convergencia cuadrática y pasa a ser lineal de constante asintótica de convergencia 1-1/m, con m la
multiplicidad de la raíz.

Existen numerosas formas de evitar este problema, como pudieran ser los métodos de aceleración de la
convergencia tipo Δ² de Aitken o el método de Steffensen. Derivados de Newton-Raphson destacan el
método de Ralston-Rabinowitz, que restaura la convergencia cuadrática sin más que modificar el algoritmo
a:




Evidentemente, este método exige conocer de antemano la multiplicidad de la raíz, lo cual no siempre es
posible. Por ello también se puede modificar el algoritmo tomando una función auxiliar g(x) = f(x)/f'(x),
resultando:




Su principal desventaja en este caso sería lo costoso que pudiera ser hallar g(x) y g'(x) si f(x) no es
fácilmente derivable.

Por otro lado, la convergencia del método se demuestra cuadrática para el caso más habitual en base a tratar
el método como uno de punto fijo: si g'(r)=0, y g' '(r) es distinto de 0, entonces la convergencia es cuadrática.
Sin embargo, está sujeto a las particularidades de estos métodos.

Nótese de todas formas que el método de Newton-Raphson es un método abierto: la convergencia no está
garantizada por un teorema de convergencia global como podría estarlo en los métodos de falsa posición o
de bisección. Así, es necesario partir de una aproximación inicial próxima a la raíz buscada para que el
método converja y cumpla el teorema de convergencia local.

Estimación del Error [editar]
Se puede demostrar que el método de Newton-Raphson tiene convergencia cuadrática: si α es raíz, entonces:



para una cierta constante C. Esto significa que si en algun momento el error es menor o igual a 0,1, a cada
nueva iteración doblamos (aproximadamente) el número de decimales exactos. A la práctica se hace servir
una estimación aproximada del error:

Error relativo entre dos aproximaciones succesivas:




Con lo cual se toma el error relativo como si la última aproximación fuera el valor exacto. Se para el proceso
iterativo cuando este error relativo aproximadamente es menor que una cantidad fijada previamente.

Teorema de Convergencia Local del Método de Newton [editar]
Sea                   . Si            ,            y              , entonces existe un r > 0 tal que si | x0 − p | <
r, entonces la sucesión {xn} con          verifica que:

       | xn − p | < r para todo n y xn tiende a p cuando n tiende a infinito.

Si además                    , entonces la convergencia es cuadrática.

Ejemplo [editar]
Consideremos el problema de encontrar un número positivo x tal que cos(x) = x3. Podríamos tratar de
encontrar el cero de f(x) = cos(x) - x3.

Sabemos que f '(x) = -sin(x) - 3x2. Ya que cos(x) ≤ 1 para todo x y x3 > 1 para x>1, deducimos que nuestro
cero está entre 0 y 1. Comenzaremos probando con el valor inicial x0 = 0,5




Los dígitos correctos están subrayados. En particular, x6 es correcto para el número de decimales pedidos.
Podemos ver que el número de dígitos correctos después de la coma se incrementa desde 2 (para x3) a 5 y 10,
ilustando la convergencia cuadrática.

En pseudocódigo, esto es:

function newtonIterationFunction(x) {
    return x - (cos(x) - x^3) / (-sin(x) - 3*x^2)
}

var x := 0,5

for i from 0 to 99 {
    print "Iteraciones: " + i
    print "Valor aproximado: " + x
    xold := x
    x := newtonIterationFunction(x)
    if x = xold {
        print "Solución encontrada!"
        break
    }
}

Más contenido relacionado

La actualidad más candente

Metodo de la secante
Metodo de la secanteMetodo de la secante
Metodo de la secanteJORIVASAN
 
Metodo de newton raphson-ANTONIO ZEGARRA
Metodo de newton raphson-ANTONIO ZEGARRAMetodo de newton raphson-ANTONIO ZEGARRA
Metodo de newton raphson-ANTONIO ZEGARRA
Antonio Zegarra Vargas
 
Método de la Secante
Método de la Secante Método de la Secante
Método de la Secante Miguel Paredes
 
Método de la secante
Método de la secante Método de la secante
Método de la secante
Karen Jurado
 
Métodos numéricos
Métodos numéricosMétodos numéricos
Métodos numéricosAdrian210
 
Diferenciación numérica Metodos Numericos
Diferenciación numérica Metodos NumericosDiferenciación numérica Metodos Numericos
Diferenciación numérica Metodos Numericos
Tensor
 
Metodo romberg
Metodo rombergMetodo romberg
Metodo romberg
erickbaca
 
Métodos iterativos
Métodos  iterativosMétodos  iterativos
Métodos iterativos
Fernando Luz
 
Euler mejorado.pptx
Euler mejorado.pptxEuler mejorado.pptx
Euler mejorado.pptx
SAMMYperez9
 
Ventajas y Desventajas de Métodos de Bisección, Secante y Newton Raphson
Ventajas y Desventajas de Métodos de Bisección, Secante y Newton RaphsonVentajas y Desventajas de Métodos de Bisección, Secante y Newton Raphson
Ventajas y Desventajas de Métodos de Bisección, Secante y Newton Raphson
Diana Laura Ochoa Gallegos
 
Regla de Simpson tres octavos
Regla de Simpson tres octavosRegla de Simpson tres octavos
Regla de Simpson tres octavos
Javier Aguilar Cruz
 
Métodos numéricos método de la secante
Métodos numéricos   método de la secanteMétodos numéricos   método de la secante
Métodos numéricos método de la secante
HELIMARIANO1
 
Método de romberg
Método de rombergMétodo de romberg
Método de romberg
Tensor
 
Introducción a los métodos númericos Clase 1
Introducción a los métodos númericos Clase 1Introducción a los métodos númericos Clase 1
Introducción a los métodos númericos Clase 1
Tensor
 
Método de la regla falsa (o metodo de la falsa posición) MN
Método de la regla falsa (o metodo de la falsa posición) MNMétodo de la regla falsa (o metodo de la falsa posición) MN
Método de la regla falsa (o metodo de la falsa posición) MN
Tensor
 
Ejercicios raíces de funciones
Ejercicios raíces de funciones Ejercicios raíces de funciones
Ejercicios raíces de funciones
Marco Jiménez
 
Metodos numericos-3-1212530740013750-9
Metodos numericos-3-1212530740013750-9Metodos numericos-3-1212530740013750-9
Metodos numericos-3-1212530740013750-9Xavier Davias
 
Metodo de biseccion y regla falsa
Metodo de biseccion y regla falsaMetodo de biseccion y regla falsa
Metodo de biseccion y regla falsaSool Egurrola
 
Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativoscyndy
 

La actualidad más candente (20)

Metodo de la secante
Metodo de la secanteMetodo de la secante
Metodo de la secante
 
Metodo de newton raphson-ANTONIO ZEGARRA
Metodo de newton raphson-ANTONIO ZEGARRAMetodo de newton raphson-ANTONIO ZEGARRA
Metodo de newton raphson-ANTONIO ZEGARRA
 
Método de la Secante
Método de la Secante Método de la Secante
Método de la Secante
 
Practica de matlab
Practica de matlabPractica de matlab
Practica de matlab
 
Método de la secante
Método de la secante Método de la secante
Método de la secante
 
Métodos numéricos
Métodos numéricosMétodos numéricos
Métodos numéricos
 
Diferenciación numérica Metodos Numericos
Diferenciación numérica Metodos NumericosDiferenciación numérica Metodos Numericos
Diferenciación numérica Metodos Numericos
 
Metodo romberg
Metodo rombergMetodo romberg
Metodo romberg
 
Métodos iterativos
Métodos  iterativosMétodos  iterativos
Métodos iterativos
 
Euler mejorado.pptx
Euler mejorado.pptxEuler mejorado.pptx
Euler mejorado.pptx
 
Ventajas y Desventajas de Métodos de Bisección, Secante y Newton Raphson
Ventajas y Desventajas de Métodos de Bisección, Secante y Newton RaphsonVentajas y Desventajas de Métodos de Bisección, Secante y Newton Raphson
Ventajas y Desventajas de Métodos de Bisección, Secante y Newton Raphson
 
Regla de Simpson tres octavos
Regla de Simpson tres octavosRegla de Simpson tres octavos
Regla de Simpson tres octavos
 
Métodos numéricos método de la secante
Métodos numéricos   método de la secanteMétodos numéricos   método de la secante
Métodos numéricos método de la secante
 
Método de romberg
Método de rombergMétodo de romberg
Método de romberg
 
Introducción a los métodos númericos Clase 1
Introducción a los métodos númericos Clase 1Introducción a los métodos númericos Clase 1
Introducción a los métodos númericos Clase 1
 
Método de la regla falsa (o metodo de la falsa posición) MN
Método de la regla falsa (o metodo de la falsa posición) MNMétodo de la regla falsa (o metodo de la falsa posición) MN
Método de la regla falsa (o metodo de la falsa posición) MN
 
Ejercicios raíces de funciones
Ejercicios raíces de funciones Ejercicios raíces de funciones
Ejercicios raíces de funciones
 
Metodos numericos-3-1212530740013750-9
Metodos numericos-3-1212530740013750-9Metodos numericos-3-1212530740013750-9
Metodos numericos-3-1212530740013750-9
 
Metodo de biseccion y regla falsa
Metodo de biseccion y regla falsaMetodo de biseccion y regla falsa
Metodo de biseccion y regla falsa
 
Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativos
 

Similar a Historia metodo de newton

Método de newton
Método de newtonMétodo de newton
SOLUCION DE ECUACIONES NO LINEALES
SOLUCION DE ECUACIONES NO LINEALESSOLUCION DE ECUACIONES NO LINEALES
SOLUCION DE ECUACIONES NO LINEALES
Jagg602
 
Presetacion de numerica_mandar
Presetacion de numerica_mandarPresetacion de numerica_mandar
Presetacion de numerica_mandar
GABRIELATOLEDO44
 
Presetacion de numerica mandar
Presetacion de numerica mandarPresetacion de numerica mandar
Presetacion de numerica mandar
Leo Karaz
 
Progracion numerica
Progracion numericaProgracion numerica
Progracion numerica
Yhonny Ochoa
 
Exposicion de meodos numericos - UNIVERSIDAD DE LOS ANGELES COMALCALCO
Exposicion de meodos numericos - UNIVERSIDAD DE LOS ANGELES COMALCALCOExposicion de meodos numericos - UNIVERSIDAD DE LOS ANGELES COMALCALCO
Exposicion de meodos numericos - UNIVERSIDAD DE LOS ANGELES COMALCALCO
Eden Cano
 
Actividad slideshare
Actividad slideshareActividad slideshare
Actividad slideshare
Luis Verde
 
Métodos numéricos - Solución de Raíces De Ecuaciones
Métodos numéricos - Solución de Raíces De EcuacionesMétodos numéricos - Solución de Raíces De Ecuaciones
Métodos numéricos - Solución de Raíces De Ecuaciones
David A. Baxin López
 
Metodos abiertos
Metodos abiertosMetodos abiertos
Metodos abiertosNatalia
 
ECUACIONES NO LINEALES
ECUACIONES NO LINEALESECUACIONES NO LINEALES
ECUACIONES NO LINEALES
sdiupg1
 
Modelos matematicos
Modelos matematicosModelos matematicos
Modelos matematicos
gerarduchija
 
Método de Newton
Método de NewtonMétodo de Newton
Método de NewtonKike Prieto
 
metodo-de-la-falsa-posicion
metodo-de-la-falsa-posicionmetodo-de-la-falsa-posicion
metodo-de-la-falsa-posicion
Novato de la Weeb Fox Weeb
 
Métodos numéricos. Unidad 2.
Métodos numéricos. Unidad 2.Métodos numéricos. Unidad 2.
Métodos numéricos. Unidad 2.
Karime Luis Sánchez
 
Analisis numerico slideshare
Analisis numerico slideshareAnalisis numerico slideshare
Analisis numerico slideshare
JoseJchm16
 
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdfPRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
pumadesalvador
 
03 - SOLUCION ECUACIONES NO LINEALES.pdf
03 - SOLUCION ECUACIONES NO LINEALES.pdf03 - SOLUCION ECUACIONES NO LINEALES.pdf
03 - SOLUCION ECUACIONES NO LINEALES.pdf
marcobetancourt10
 

Similar a Historia metodo de newton (20)

Método de newton
Método de newtonMétodo de newton
Método de newton
 
SOLUCION DE ECUACIONES NO LINEALES
SOLUCION DE ECUACIONES NO LINEALESSOLUCION DE ECUACIONES NO LINEALES
SOLUCION DE ECUACIONES NO LINEALES
 
Presetacion de numerica_mandar
Presetacion de numerica_mandarPresetacion de numerica_mandar
Presetacion de numerica_mandar
 
Presetacion de numerica mandar
Presetacion de numerica mandarPresetacion de numerica mandar
Presetacion de numerica mandar
 
Puntofijo
PuntofijoPuntofijo
Puntofijo
 
Newton
NewtonNewton
Newton
 
Progracion numerica
Progracion numericaProgracion numerica
Progracion numerica
 
Exposicion de meodos numericos - UNIVERSIDAD DE LOS ANGELES COMALCALCO
Exposicion de meodos numericos - UNIVERSIDAD DE LOS ANGELES COMALCALCOExposicion de meodos numericos - UNIVERSIDAD DE LOS ANGELES COMALCALCO
Exposicion de meodos numericos - UNIVERSIDAD DE LOS ANGELES COMALCALCO
 
Actividad slideshare
Actividad slideshareActividad slideshare
Actividad slideshare
 
Métodos numéricos - Solución de Raíces De Ecuaciones
Métodos numéricos - Solución de Raíces De EcuacionesMétodos numéricos - Solución de Raíces De Ecuaciones
Métodos numéricos - Solución de Raíces De Ecuaciones
 
Metodos abiertos
Metodos abiertosMetodos abiertos
Metodos abiertos
 
Analisis numerico
Analisis numericoAnalisis numerico
Analisis numerico
 
ECUACIONES NO LINEALES
ECUACIONES NO LINEALESECUACIONES NO LINEALES
ECUACIONES NO LINEALES
 
Modelos matematicos
Modelos matematicosModelos matematicos
Modelos matematicos
 
Método de Newton
Método de NewtonMétodo de Newton
Método de Newton
 
metodo-de-la-falsa-posicion
metodo-de-la-falsa-posicionmetodo-de-la-falsa-posicion
metodo-de-la-falsa-posicion
 
Métodos numéricos. Unidad 2.
Métodos numéricos. Unidad 2.Métodos numéricos. Unidad 2.
Métodos numéricos. Unidad 2.
 
Analisis numerico slideshare
Analisis numerico slideshareAnalisis numerico slideshare
Analisis numerico slideshare
 
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdfPRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
PRESENTACION_SISTEMAS_ECUACIONES_NO_LINEALES.pdf
 
03 - SOLUCION ECUACIONES NO LINEALES.pdf
03 - SOLUCION ECUACIONES NO LINEALES.pdf03 - SOLUCION ECUACIONES NO LINEALES.pdf
03 - SOLUCION ECUACIONES NO LINEALES.pdf
 

Historia metodo de newton

  • 1. Historia [editar] El método de Newton fue descrito por Isaac Newton en De analysi per aequationes número terminorum infinitas (escrito en 1669, publicado en 1711 por William Jones) y en De metodis fluxionum et serierum infinitarum (escrito en 1671, traducido y publicado como Método de las fluxiones en 1736 por John Colson). Sin embargo, su descripción difiere en forma sustancial de la descripción moderna presentada más arriba: Newton aplica el método solo a polinomios. Él no computa las aproximaciones sucesivas xn, sino que computa una secuencia de polinomios y recién al final llega a la aproximación de la raíz x. Finalmente, Newton ve el método como puramente algebraico y falla al no ver la conexión con el cálculo. Isaac Newton probablemente deriva su método de forma similar aunque menos precisa del método de François Viète. La esencia del método de Viète puede encontrarse en el trabajo del matemático persa Sharaf al-Din al-Tusi. Descripción del método [editar] La idea de este método es la siguiente: se comienza con un valor razonablemente cercano al cero (denominado punto de arranque), entonces se reemplaza la función por la recta tangente en ese valor, se iguala a cero y se despeja (fácilmente, por ser una ecuación lineal). Este cero será, generalmente, una aproximación mejor a la raíz de la función. Luego, se aplican tantas iteraciones como se deseen. Supóngase f : [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos con un valor inicial x0 y definimos para cada número natural n Donde f ' denota la derivada de f. Obtención del Algoritmo [editar] Tres son las formas principales por las que tradicionalmente se ha obtenido el algoritmo de Newton- Raphson. La primera de ellas es una simple interpretación geométrica. En efecto, atendiendo al desarrollo geométrico del método de la secante, podría pensarse en que si los puntos de iteración están lo suficientemente cerca (a una distancia infinitesimal), entonces la secante se sustituye por la tangente a la curva en el punto. Así pues, si por un punto de iteración trazamos la tangente a la curva, por extensión con el método de la secante, el nuevo punto de iteración se tomará como la abcisa en el origen de la tangente (punto de corte de la tangente con el eje X). Esto es equivalente a linealizar la función, es decir, f se reemplaza por una recta tal que contiene al punto (x0, f (x0)) y cuya pendiente coincide con la derivada de la función en el punto, f'(x0). La nueva aproximación a la raíz, x1, se logra la intersección de la función linear con el eje X de ordenadas. Matemáticamente:
  • 2. Ilustración de una iteración del método de Newton (la función f se demuestra en azul y la línea de la tangente está en rojo). Vemos que xn + 1 es una aproximación mejor que xn para la raíz x de la función f. En la ilustración adjunta del método de Newton se puede ver que xn + 1 es una mejor aproximación que xn para el cero (x) de la función f. Una forma alternativa de obtener el algoritmo es desarrollando la función f (x) en serie de Taylor, para un entorno del punto xn: Si se trunca el desarrollo a partir del término de grado 2, y evaluamos en xn + 1: Si además se acepta que xn + 1 tiende a la raíz, se ha de cumplir que f(xn + 1) = 0, luego, sustituyendo en la expresión anterior, obtenemos el algoritmo. Finalmente, hay que indicar que el método de Newton-Raphson puede interpretarse como un método de iteración de punto fijo. Así, dada la ecuación f(x) = 0, se puede considerar el siguiente método de iteración de punto fijo: Se escoge h (x) de manera que g'(r)=0 (r es la raíz buscada). Dado que g'(r) es: Entonces: Como h (x) no tiene que ser única, se escoge de la forma más sencilla: Por tanto, imponiendo subíndices: Expresión que coincide con la del algoritmo de Newton-Raphson Convergencia del Método [editar] El orden de convergencia de este método es, por lo menos, cuadrático. Sin embargo, si la raíz buscada es de multiplicidad algebraica mayor a uno (i.e, una raíz doble, triple, ...), el método de Newton-Raphson pierde su convergencia cuadrática y pasa a ser lineal de constante asintótica de convergencia 1-1/m, con m la multiplicidad de la raíz. Existen numerosas formas de evitar este problema, como pudieran ser los métodos de aceleración de la convergencia tipo Δ² de Aitken o el método de Steffensen. Derivados de Newton-Raphson destacan el
  • 3. método de Ralston-Rabinowitz, que restaura la convergencia cuadrática sin más que modificar el algoritmo a: Evidentemente, este método exige conocer de antemano la multiplicidad de la raíz, lo cual no siempre es posible. Por ello también se puede modificar el algoritmo tomando una función auxiliar g(x) = f(x)/f'(x), resultando: Su principal desventaja en este caso sería lo costoso que pudiera ser hallar g(x) y g'(x) si f(x) no es fácilmente derivable. Por otro lado, la convergencia del método se demuestra cuadrática para el caso más habitual en base a tratar el método como uno de punto fijo: si g'(r)=0, y g' '(r) es distinto de 0, entonces la convergencia es cuadrática. Sin embargo, está sujeto a las particularidades de estos métodos. Nótese de todas formas que el método de Newton-Raphson es un método abierto: la convergencia no está garantizada por un teorema de convergencia global como podría estarlo en los métodos de falsa posición o de bisección. Así, es necesario partir de una aproximación inicial próxima a la raíz buscada para que el método converja y cumpla el teorema de convergencia local. Estimación del Error [editar] Se puede demostrar que el método de Newton-Raphson tiene convergencia cuadrática: si α es raíz, entonces: para una cierta constante C. Esto significa que si en algun momento el error es menor o igual a 0,1, a cada nueva iteración doblamos (aproximadamente) el número de decimales exactos. A la práctica se hace servir una estimación aproximada del error: Error relativo entre dos aproximaciones succesivas: Con lo cual se toma el error relativo como si la última aproximación fuera el valor exacto. Se para el proceso iterativo cuando este error relativo aproximadamente es menor que una cantidad fijada previamente. Teorema de Convergencia Local del Método de Newton [editar] Sea . Si , y , entonces existe un r > 0 tal que si | x0 − p | < r, entonces la sucesión {xn} con verifica que: | xn − p | < r para todo n y xn tiende a p cuando n tiende a infinito. Si además , entonces la convergencia es cuadrática. Ejemplo [editar]
  • 4. Consideremos el problema de encontrar un número positivo x tal que cos(x) = x3. Podríamos tratar de encontrar el cero de f(x) = cos(x) - x3. Sabemos que f '(x) = -sin(x) - 3x2. Ya que cos(x) ≤ 1 para todo x y x3 > 1 para x>1, deducimos que nuestro cero está entre 0 y 1. Comenzaremos probando con el valor inicial x0 = 0,5 Los dígitos correctos están subrayados. En particular, x6 es correcto para el número de decimales pedidos. Podemos ver que el número de dígitos correctos después de la coma se incrementa desde 2 (para x3) a 5 y 10, ilustando la convergencia cuadrática. En pseudocódigo, esto es: function newtonIterationFunction(x) { return x - (cos(x) - x^3) / (-sin(x) - 3*x^2) } var x := 0,5 for i from 0 to 99 { print "Iteraciones: " + i print "Valor aproximado: " + x xold := x x := newtonIterationFunction(x) if x = xold { print "Solución encontrada!" break } }