Universidad Cat´olica del Maule C´alculo Num´erico
Facultad de Ciencias B´asicas Tema N◦2, 27 de Agosto de 2014
Ecuaciones e Iteraci´on funcional
La busqu´eda de ra´ıces de ecuaciones es fundamental en cualquier proceso de c´alculo y en
aplicaciones varias. Un problema muy usual, y al parecer simple, es la determinaci´on del
´area entre dos curvas, por ejemplo, el ´area entre las curvas definidas por las funciones
f(x) = ex
, g(x) = 2 − x2
lo que con ayuda de un graficador, nos muestra la existencia de esta ´area:
La determinaci´on del ´area es calcular
A =
x2
x1
(g(x) − f(x)) dx
A =
x2
x1
2 − x2
− ex
dx,
luego todo se basa en calcular x1 y x2, es decir, los valores donde f(x) = g(x). Si establecemos
la ecuaci´on
h(x) = g(x) − f(x)
estamos pidiendo encontrar los ceros o ra´ıces de la ecuaci´on h(x) = 0 ´o simplemente
2 − x2
− ex
= 0.
1
Lo anterior parece una ecuaci´on sencilla, pero no lo es, es una ecuaci´on trascendente y no
existen procesos algebraicos que nos permitan despejar x. Lo que si tenemos, es una idea de
donde se encuentran estas ra´ıces por la simplesa de las funciones y su grafica.
El ejemplo anterior es fuente de motivaci´on para estudiar y analizar m´etodos num´ericos para
calcular ceros de ecuaciones.
Teorema: Valor intermedio
Si f es una funci´on continua en un intervalo cerrado [a, b] y elegimos alg´un k ∈ (f(a), f(b)),
entonces siempre existe un valor c ∈ (a, b) tal que f(c) = k.
Obs: Si k = 0 entonces existe un c ∈ (a, b) tal que f(c) = 0 y por lo tanto hemos determinado
una ra´ız c de f, lo que indica que f(a) · f(b) < 0.(cambio de signo)
Obs: Lo anterior indica que el cambio de signo f en un intervalo (a, b) es la localizaci´on de
una ra´ız simple f.
M´etodo de la Bisecci´on
Uno de los m´etodos de b´usqueda de ra´ıces m´as intuitivo consiste en bisectar sucesivas veces
nuestro intervalo de localizaci´on (a, b) botando la mitad del intervalo donde no exista cambio
de signo. Esto es, sea x = p ra´ız de f (f(p) = 0), con p ∈ [a, b] dado que f(a) · f(b) < 0,
entonces determinamos el punto medio p1 =
a + b
2
∈ [a, b] , nombramos por a1 = a y b1 = b,
calculamos
f(a) · f(p1) y f(p1) · f(b)
y elegimos el de cambio de signo renombrando por a2 = a1 y b2 = p1 ´o a2 = p1 y b2 = b, ......,
seg´un sea el caso hasta acotar la ra´ız x = p. Luego el proceso es iterativo y consiste en
generar la sucesi´on {pn} tal que:
p ∈ [an, bn] con n ∈ Z.
2
Criterios de Parada
El proceso de la bisecci´on es iterativo hasta que f(pn) ≈ 0, es decir,
|f(pn)| < ε , 0 < ε 1
o
|pn − pn−1|
|pn|
< ε, pn = 0
Los criterios anteriores pueden tener dificultades, pn − pn−1 → 0 mientras que {pn} diverge
´o f(pn) → 0 pero |pn − pn−1| 1.
Teorema:
Si f es una funci´on continua en un intervalo cerrado [a, b] tal que f(a) · f(b) < 0. El m´etodo
de la bisecci´on genera una sucesi´on {pn} → p con la propiedad
|pn − p| ≤
b − a
2n
, con n ≥ 1
Dem: Para n ≥ 1 todo subintervalo [an, bn] satisface que su largo es la mitad del anterior,
esto es:
bn − an =
1
2
(bn−1 − an−1) =
1
2
1
2
(bn−2 − an−2) = ... =
1
2n−1
(b1 − a1) =
1
2n−1
(b − a)
y la ra´ız x = p ∈ (an, bn) . Como pn =
an + bn
2
, para todo n ≥ 1 entonces
|pn − p| =
an + bn
2
− p =
an − p + bn − p
2
≤
1
2
(|an − p| + |bn − p|)
|pn − p| ≤
1
2
(|an − p| + |bn − p|) ≤
1
2
|bn − an|
2
+
|bn − an|
2
=
|bn − an|
2
|pn − p| ≤
|bn − an|
2
=
1
2
1
2n−1
(b − a) =
b − a
2n
.
Obs: El teorema anterior muestra la convergencia del m´etodo de la Bisecci´on y una cota
para el error de aproximaci´on, con lo cu´al podemos detreminar dado un ε error el n´umero
de iteraciones del m´etodo, esto es:
|pn − p| ≤ b−a
2n < ε
b−a
2n < ε / log ⇔ log b−a
2n < log (ε ) ⇔ log (b − a) − n log (2) < log (ε )
⇔ log (b − a) − n log (2) < log (ε ) ⇔ n > log(b−a)−log(ε )
log(2)
⇔ n >
log


b − a
ε


log(2)
.
Ejercicio: Usemos el ejemplo motivacional del ´area para aplicar el m´etodo. Debemos
determinar dos ra´ıces de la ecuaci´on h(x) = 0, entonces para localizarlas, tenmos que:
3
1. h(−2) = −2. 135 3 y h(−1) = 0.632 12, luego h(−2)·h(−1) < 0 entonces x1 ∈ (−2, −1) .
Si consideramos ε = 10−3
como precisi´on entonces debemos hacer
n >
log
−1 − (−2)
10−3
log (2)
= 9. 965 8 iteraciones.
n an bn pn f(pn)
1 −2 −1 −1.5 −0.473 13
2 −1.5 −1 −1.25 0.151 00
3 −1.5 −1.25 −1.375 −0.143 46
4 −1.375 −1.25 −1.3125 8. 197 4 × 10−3
5 −1.375 −1.3125 −1.34375 −6. 653 0 × 10−2
6 −1.34375 −1.3125 −1.328125 −2. 889 0 × 10−2
7 −1.328125 −1.3125 −1.3203125 −1. 027 7 × 10−2
8 −1.3203125 −1.3125 −1.32078125 −1. 139 0 × 10−2
9 −1.32078125 −1.3125 −1.316640625 −1. 576 8 × 10−3
10 −1.316640625 −1.3125 −1.314570313 3. 315 2 × 10−3
11 −1.316640625 −1.314570313 −1.315605469 8. 704 3 × 10−4
2. h(0.4) = 0.348 18 y h(0.6) = −0.182 12 luego h(0.4)·h(0.6) < 0 entonces x2 ∈ (0.4, 0.6) .
Si consideramos ε = 10−3
como precisi´on entonces debemos hacer
n >
log
0.6 − (0.4)
10−3
log (2)
= 7. 643 9 iteraciones.
n an bn pn f(pn)
1 0.4 0.6 0.5 0.101 28
2 0.5 0.6 0.55 −3. 575 3 × 10−2
3 0.5 0.55 0.525 3. 391 6 × 10−2
4 0.525 0.55 0.5375 −6. 284 5 × 10−4
5 0.525 0.5375 0.53125 1. 671 6 × 10−2
6 0.53125 0.5375 0.534375 8. 061 9 × 10−3
7 0.534375 0.5375 0.5359375 3. 721 3 × 10−3
8 0.5359375 0.5375 0.53671875 1. 547 5 × 10−3
9 0.53671875 0.5375 0.537109375 4. 598 3 × 10−4
Obs: (M´etodo de Falsa Posici´on)
Para acelarar la convergencia del m´etodo de la Bisecci´on surge la ingeniosa idea de considerar
no el punto medio del intervalo [an, bn] sino pn valor que hace cero la recta L que une los
puntos (an, h(an)) y (bn, h(bn)) para n ≥ 1. Esto es,
L : y − h(bn) =
h(bn) − h(an)
bn − an
(x − bn)
L : y =
h(bn) − h(an)
bn − an
(x − bn) + h(bn)
4
y como y = 0 entonces
pn = bn −
h(bn)
h(bn)−h(an)
bn−an
pn = bn −
h(bn) (bn − an)
(h(bn) − h(an))
pn =
anh(bn) − bnh(an)
(h(bn) − h(an))
Ejercicio: Del ejercicio anterior podemos ver que para la primera ra´ız tenemos:
n an bn pn f(pn)
1 −2 −1 −1. 228 4 0.198 27
2 −2 −1. 228 4 −1. 294 0 5. 139 2 × 10−2
3 −2 −1. 294 0 −1. 310 6 1. 266 9 × 10−2
4 −2 −1. 310 6 −1. 314 7 3. 009 × 10−3
5 −2 −1. 314 7 −1. 315 7 6. 470 5 × 10−4
6 −2 −1. 315 7 −1. 315 9 1. 743 8 × 10−4
Tarea: Ejercitar para la otra ra´ız.
M´etodos de iteraci´on de Punto Fijo
Siempre que intentemos resolver una ecuaci´on h(x) = 0, es posible reescribirla despejando x
en la forma:
h(x) = 0
x − g(x) = 0
definiendo una funci´on g. Lo anterior intruduce el concepto de resolver nuevamente por la
igualaci´on de dos funciones
x = g(x)
5
donde x = I(x) funci´on identidad. Graficamente, tenemos
Def: Un punto fijo de una funci´on g es un n´umero p tal que g(p) = p.
Teorema: Funci´on de punto Fijo
1. Si g es una funci´on continua en un intervalo cerrado [a, b] y g(x) ∈ [a, b] para todo
x ∈ [a, b], entonces g tiene un punto fijo x = p ∈ [a, b] .
2. Si adem´as g (x) existe en (a, b) y existe una constante k < 1 tal que
|g (x)| ≤ k, ∀x ∈ (a, b) ,
6
entonces el punto fijo x = p ∈ [a, b] es ´unico.
Dem:
Si g(a) = a ´o g(b) = b, entonces g tendr´a un punto fijo en un extremo. Sino si g(a) > a
y g(b) < b entonces definiendo h(x) = g(x) − x funci´on continua en [a, b] (g(x) y I(x)
son continuas) se tiene que
h(a) = g(a) − a > 0 y h(b) = g(b) − b < 0
usando el Teorema del valor intermedio existe p ∈ (a, b) tal que h(p) = 0. As´ı g(p) = p,
existe siempre punto fijo. Adem´as, usando el conocido teorema del valor medio para
g, se tiene que:
Si g es funci´on continua y diferenciable en (a, b) entonces existe un n´umero ξ ∈ (a, b)
tal que
g (ξ) =
g(b) − g(a)
b − a
,
suponiendo que |g (x)| ≤ k < 1, ∀x ∈ (a, b) , y que x = p y x = q son puntos fijos de g
talque p = q podemos ver que
|p − q| = |g(p) − g(q)| = |g (ξ)| |p − q| ≤ k |p − q| < |p − q|
una contradicci´on, por lo tanto existe un ´unico punto fijo.
Ejercicio: De nuestro citado ejemplo buscaremos una funci´on de punto fijo para h(x) =
2 − x2
− ex
, Esto es, proponer una funci´on g(x) = −
√
2 − ex que satisfaga:
g(x) ∈ [−2, −1] .
7
En efecto, si
−2 ≤ x ≤ −1 / exp ⇔
1
e2
≤ ex
≤
1
e1
/ × (−1)
−
1
e
≤ −ex
≤ −
1
e2
/ + (2)
2 −
1
e
≤ 2 − ex
≤ 2 −
1
e2
/
√
2 −
1
e
≤
√
2 − ex ≤ 2 −
1
e2
/ × (−1)
− 2 −
1
e2
≤ −
√
2 − ex ≤ − 2 −
1
e
/ × (−1)
− 2 −
1
e2
≤ g(x) ≤ − 2 −
1
e
g(x) ∈ [−1. 365 5, −1. 277 5] ⊂ [−2, −1]
Por otro lado g (x) = −
1
2
−ex
√
2 − ex
entonces
|g (x)| =
1
2
ex
√
2 − ex
|g (x)| ≤
e−1
2
1
√
2 − e−2
= 0.134 7 < 1.
Luego g es funci´on de punto fijo. Ahora resolviendo :
n xn g(xn)
1 −2 −1. 365 5
2 −1. 365 5 −1. 320 9
3 −1. 320 9 −1. 316 5
4 −1. 316 5 −1. 316
5 −1. 316 −1. 316 0
8
lo que concuerda con la grafica:
Algoritmo de Punto fijo
Para aproximar el punto fijo de una funci´on g, escogemos una aproximaci´on inicial p0 y
haciendo
pn = g(pn−1), con n ≥ 1
obtenemos la sucesi´on {pn}n=0 . Si pn → p y g es continua tendremos
p = lim
n→∞
g(pn−1) = g lim
n→∞
pn−1 = g(p)
Obs: Si g satisface el teorema entonces
|pn − p| ≤ kn
max {|p0 − a| , |b − p0|}
y
|pn − p| ≤
kn
1 − k
|p0 − p1|
donde k es la cota de la derivada de g.
En efecto, sabemos que
|pn − p| = |g (pn−1) − g(p)| = |g (ξ)| |pn−1 − p| ≤ k |pn−1 − p|
as´ı,
|pn − p| ≤ k |pn−1 − p| ≤ k2
|pn−2 − p| ≤ k3
|pn−3 − p| ≤ ... ≤ kn
|p0 − p|
entonces
|pn − p| ≤ kn
|p0 − p| ≤ kn
max {|p0 − a| , |b − p0|}
9
dado que p ∈ [a, b] .
Por otro lado
|p0 − p| = |p0 − p1 + p1 − p| ≤ |p0 − p1| + |p1 − p| ≤ |p0 − p1| + k |p0 − p|
|p0 − p| ≤ |p0 − p1| + k |p0 − p|
|p0 − p| (1 − k) ≤ |p0 − p1|
y como 0 < k < 1
|p0 − p| ≤
1
(1 − k)
|p0 − p1| / × kn
|pn − p| ≤ kn
|p0 − p| ≤
kn
(1 − k)
|p0 − p1|
Obs: Las desigualdades anteriores son cotas para la convergencia del m´etodo de punto fijo,
es decir, si k es peque˜na la convergencia ser´a r´apida en la b´usqueda del punto fijo sino si k
es cercano a 1 la convergencia ser´a lenta.
Ejercicio: Usando el m´etodo de punto fijo determinar la menor ra´ız positiva de la ecuaci´on
h(x) = x − tan (x) = 0.
Sol: Claramente la menor ra´ız es x = p ∈
π
2
,
3π
2
, pero necesitamos un intevalo cerrado
para localizar la ra´ız, por ejemplo si I = [a, b] = [4, 4.7] se tiene que
h(4) = 2. 842 2 y h(4.7) = −76. 013
, por tanto h(4) · h(4.7) < 0 (cambio de signo). Por otra parte proponemos la obvia funci´on
g(x) = tan(x) como funci´on de punto fijo. En efecto:
4 ≤ x ≤ 4.7 / tan
tan(4) ≤ tan(x) ≤ tan(4.7)
1. 157 8 ≤ tan(x) ≤ 80. 713
pero [1. 157 8, 80. 713] /∈ [4, 4.7] . Buscaremos otra candidata, g(x) = π + arctan(x) (Ojo:
tan(x) = tan(x − π))
4 ≤ x ≤ 4.7 / arctan
arctan(4) ≤ arctan(x) ≤ arctan(4.7) / + π
arctan(4) + π ≤ arctan(x) + π ≤ arctan(4.7) + π
4. 467 4 ≤ g(x) ≤ 4. 502 7
10
entonces [4.467 4, 4. 502 7] ⊂ [4, 4.7] .Adem´as
|g´(x)| =
1
1 + x2
≤
1
17
< 1
Por lo tanto g(x) = π +arctan(x) es funci´on de punto fijo. Si proponemos una aproximaci´on
de 4 cifras significativas para el punto fijo, ε = 10−4
, usando las cotas de la observaci´on
anterior tenemos que:
|pn − p| ≤ kn
|p0 − p| ≤ kn
max {|p0 − a| , |b − p0|} < ε
y dado p0 = 4.5 ∈ [4, 4.7]
kn
max {|p0 − a| , |b − p0|} < 10−4
kn
max {|4.5 − 4| , |4.7 − 4.5|} < 10−4
kn 1
2
< 10−4
/ × 2
kn
< 2 × 10−4
/ log
n <
log (2 × 10−4
)
log(k)
usando k = 1/17 tenemos que el num´ero de iteraciones para la convergencia al punto fijo
con 4 cifras es de:
n <
log (2 × 10−4
)
log (1/17)
= 3. 006 2.
Veamos que hay de cierto
n xn g(xn)
1 4.5 4. 493 72
2 4. 493 72 4. 493 41
3 4. 493 41 4. 493 40
con menos de 3 iteraciones obtenemos 4 cifras significativas del punto fijo talque
4. 493 41 − tan(4. 493 41) = −1. 094 5 × 10−5
≈ 0
11
Finalmente seg´un la grafica corroboramos lo obtenido.
Convergencia de los m´etodos iterativos
Def: Supongamos que la sucesi´on {pn}∞+
n=0 es convergente a p, con pn = p, ∀n. Si las
constantes positivas λ y α existen, tales que:
lim
n→∞+
|pn+1 − p|
|pn − p|α = λ,
entonces {pn}∞+
n=0 converge a p con orden α y una constante de error asint´otico λ. Adem´as
si α = 1 se dice linealmente convergente y si α = 2 se dice cuadr´aticamente convergente. Es
decir, si α es m´as alto mayor es la rapidez de convergencia de la sucesi´on.
Ejemplo
Considere las sucesiones {pn}∞+
n=0 y {˜pn}∞+
n=0 tal que:
lim
n→∞+
|pn+1 − p|
|pn − p|
= 0.3 y lim
n→∞+
|˜pn+1 − p|
|˜pn − p|2 = 0.3
convergiendo a p = 0. Entonces
|pn − 0| = |pn| ≈ 0.3 |pn−1| ≈ (0.3)2
|pn−2| ≈ ... ≈ (0.3)n
|p0|
y
|˜pn − 0| = |˜pn| ≈ (0.3) |˜pn−1|2
≈ (0.3)3
|˜pn−2|4
≈ ... ≈ (0.3)2n−1
|˜p0|2n
.
12
Considerando |p0| = |˜p0| = 1, podemos ver la siguiente tabla que muestra la rapidez de
convergencia:
n {pn} {˜pn}
0 1 1
1 0.3 0.3
2 0.09 0.027
3 0.027 0.002187
4 0.0081 0.0000000143
5 0.00243 0.0000000000
6 0.000729 0.0000000000
Teorema Sea g ∈ C [a, b] y supongamos que g(x) ∈ [a, b] para todo x ∈ [a, b] . Supongamos,
adem´as que g ∈ C (a, b) tal que
|g (x)| ≤ k < 1, ∀x ∈ (a, b) .
Si g (p) = 0, entonces para cualquier p0 ∈ [a, b] el algoritmo de punto fijo genera una sucesi´on
pn = g(pn−1), n ≥ 1,
convergente linealmente al ´unico punto fijo p ∈ [a, b] .
Dem: Por las hip´otesis del teorema sabemos que existe k tal que
|g (x)| ≤ k < 1, ∀x ∈ (a, b) .
y que pn = g(pn−1) converge a p. Por otra parte del T.V.M
pn+1 − p = g (pn) − g(p) = g (ξn) (pn − p) ,
donde ξn ∈ (pn, p) . pero pn → p entonces ξn → p. Luego, como g ∈ C (a, b) tenemos
lim
n→∞+
g (ξn) = g (p).
As´ı,
lim
n→∞+
|pn+1 − p|
|pn − p|
= lim
n→∞+
pn+1 − p
pn − p
= lim
n→∞+
g (ξn) = |g (p)| .
Por lo tanto, el m´etodo de punto fijo converge linealmente si g (p) = 0.
Obs: Lo anterior sugiere que m´etodos de mayor convergencia (α > 1) existen para g (p) = 0.
13
M´etodo de Newton-Raphson
Sea p una soluci´on de la ecuaci´on x = g(x) y supongamos que g (p) = 0 y g es una funci´on
continua y estrictamente acotada por una constante positiva M en un intervalo I que contiene
a p. Entonces existe un δ > 0 tal que, para p0 ∈ [p0 − δ, p0 + δ], cuando n ≥ 1, converge al
menos cuadr´aticamente a p. Esto es:
|pn+1 − p| <
M
2
|pn − p|2
En efecto, si consideramos el algoritmo de punto fijo
pn = g(pn−1), n ≥ 1,
con g(x) = x − Φ(x)f(x), donde Φ(x) =
1
f (x)
, entonces:
1. Si p es un cero de f, g(p) = p − Φ(p)f(p) = p, es decir, p es punto fijo de g.
2. El algoritmo de punto fijo converge cuadr´aticamente si g (p) = 0. Esto es, g (x) =
1 − Φ (x)f(x) − Φ(x)f (x). Entonces
g (p) = 1 − Φ (p)f(p) − Φ(p)f (p) = 1 − Φ(p)f (p).
As´ı g (p) = 0 ssi
Φ(p) =
1
f (p)
, f (p) = 0.
Finalmente podemos deducir que bajo estas condiciones, el algoritmo de punto fijo es
efectivamente el conocido m´etodo de Newton-Raphson:
pn = g(pn−1) = pn−1 − Φ(pn−1)f(pn−1)
pn = g(pn−1) = pn−1 −
1
f (pn−1)
f(pn−1)
Obs: Seg´un lo anterior podemos decir que el algoritmo de N-R converge cuadr´aticamente
a p ∈ [a, b] si f (p) = 0, donde:



pn = pn−1 −
1
f (pn−1)
f(pn−1)
n ≥ 1
p0 dado
14
es decir, si p es una ra´ız simple. Su interpretaci´on geom´etrica se puede ver por:
Esto es, si reescribimos el algoritmo como:
f (pn−1) (pn − pn−1) = −f(pn−1)
f(pn−1) = f (pn−1) (pn−1 − pn)
f(pn−1) − f (pn) = f (pn−1) (pn−1 − pn)
con f(pn) = 0, podemos decir que el Algoritmo de N-R consiste en aproximar p me-
diante la recta tangente a la curva en P = (pn−1, f(pn−1)) al interceptarla con el eje
X.
Ejercicio: Considere la funci´on f(x) =
4x − 7
x − 2
y busquemos su ra´ız p. Entonces
f (x) = −
1
(x − 2)2 y f (x) =
2
(x − 2)3
nos dice que f es continua y dos veces diferenciable en un intervalo [a, b] que no contenga
a x = 2. As´ı, el algoritmo es:



pn = pn−1 −
1
− 1
(pn−1−2)2
4pn−1 − 7
pn−1 − 2
n ≥ 1
p0 dado
15
con pn−1 = 2. Luego la elecci´on de p0 es clave en la convergencia del m´etodo, si p0 ∈ [1.6, 1.9]
el m´etodo converge sin problemas.
n pn f (pn) |pn − pn−1|
0 1.65 1.1429
1 1.79 −0.761 9 0.14
2 1. 756 4 −0.105 09 0.0336
3 1. 750 2 −3. 202 6 × 10−3
6.2 × 10−3
4 1.75 0.0000000 2 × 10−4
¿Qu´e pasa con la elecci´on de p0 = 1.5?
Finalmente podemos ver el grafico de la b´usqueda de la ra´ız simple p = 1.75.
Obs: Varias dificultades se hacen patentes para trabajar con el m´etodo de N-R
1. La ayuda de un m´etodo de localizaci´on, como cualquier m´etodo de punto fijo.
2. La elecci´on del valor inicial p0.
3. El costoso c´alculo de la derivada en cada paso del algoritmo.
4. Su b´usqueda es solamante para raices simples.
16
M´etodo de la Secante
La necesidad de evaluar la derivada en cada paso involucra un costo alto de c´alculo asociado.
Para superar esta dificultad se propone variar el m´etodo de N-R sustituyendo
f´(pn−1) = lim
x→∞+
f(x) − f (pn−1)
x − pn−1
por
f´(pn−1) ≈
f(pn−2) − f (pn−1)
pn−2 − pn−1
es decir, tomando x = pn−2 y reemplazando. Por lo tanto obtenemos el conocido m´etodo de
la secante, dado por:



pn = pn−1 −
1
f(pn−2)−f(pn−1)
pn−2−pn−1
f(pn−1)
n ≥ 2
p0, p1 dados.
Lo que geom´etricamente es:
Esto es, si reescribimos el algoritmo como:
f (pn−1) (pn − pn−1) = −f(pn−1)
f(pn−1) = f(pn−2)−f(pn−1)
pn−2−pn−1
(pn−1 − pn)
f(pn−1) − f (pn) = f(pn−2)−f(pn−1)
pn−2−pn−1
(pn−1 − pn)
17
con f(pn) = 0, podemos decir que el Algoritmo de la Secante consiste en aproximar p medi-
ante la recta secante a la curva en P = (pn−1, f(pn−1)) y Q = (pn−2, f(pn−2)) al interceptarla
con el eje X.
Obs: Una variante valida es el m´etodo de Von Mises, el cu´al establece:
f (pn−1) = f (p0)
para todo n ≥ 1. Esto es mantener siempre la derivada en p0, lo que claramente trae una
menor rapidez de convergencia comparado con N-R.
Ejemplo: Usando el ejercicio anterior, la b´usqueda de la ra´ız de f(x) =
4x − 7
x − 2
localizada
en el intervalo I = [1.6, 1.9] , se puede realizar por estos m´etodos generando las iteraciones,
por ejemplo con Von Mises:
n pn f (pn) |pn − pn−1|
0 1.65 1.1429
1 1.79 −0.761 9 0.14
2 1. 696 7 0.702 93 0.0933
3 1. 782 8 −0.604 05 0.0861
4 1. 708 8 0.565 93 0.0748
. . . .
. . . .
y de manera similar para el m´etodo de la secante, es decir una menor rapidez de convergencia.
n pn f (pn) |pn − pn−1|
0 1.6 1.5
1 1.9 −6.0 0.3
2 1. 66 1. 058 8 0.24
3 1. 696 0 0.710 53 0.036
4 1. 7694 −0.3373 0.0734
5 1.7458 0.0661 0.0236
6 1.7497 0.052 0.00039
7 1.75 0.000 0.00003
M´etodo de Horner, ceros de polinomios
En el caso de polinomios de grado n, de la forma:
f(x) = anxn
+ an−1xn−1
+ ... + a1x + a0
donde an = 0, y ai son los coeficientes de f, la b´usqueda de sus ceros o raices pasa por
conceptos como el Teorema fundamental del Algebra, factorizaci´on de polinomios, multipli-
cidad de sus raices y la divisi´on sint´etica a lo que agregamos el m´etodo de N-R como una
herramienta adicional.
18
Teorema Fundamental del Algebra
Si f es un polinomio de grado n ≥ 1 con coeficientes reales o complejos, entonces f(x) = 0
tiene al menos una ra´ız.
Obs: Si f es un polinomio de grado n ≥ 1 con coeficientes reales o complejos, entonces
existen constantes ´unicas x1, x2, ..., xk y enteros positivos m1, m2, ..., mk tales que
k
i=1
mi = n,
y
f(x) = an (x − x1)m1
(x − x2)m2
· · · (x − xk)mk
.
El m´etodo de Horner no es m´as que realizar la divisi´on sint´etica entre f(x) y un polinomio
(x − x0) . Esto es, obtener de f(x) = anxn
+ an−1xn−1
+ ... + a1x + a0 los coeficientes del
polinomio cuociente Q(x) = bnxn−1
+ bn−1xn−2
+ ... + b2x + b1, dados por:
bn = an
bk = ak + bk+1x0
para k = n − 1, ..., 1. Lo que finalmente dice que:
f(x) = (x − x0) Q (x) + b0.
donde claramente f(x0) = b0. Pero
f (x) = Q(x) + (x − x0) Q (x)
entonces
f (x0) = Q(x0),
lo que sugiere una nueva alternativa (en caso de polinomios) de usar N-R para buscar sus
ra´ıces pero sin calcular su derivada en cada iteraci´on, esto es, s´olo evaluar en el polinomio
resultante Q de la divisi´on.
Ejemplo: Considere el polinomio f(x) = x3
− x − 1. En este polinomio se hace evidente
que tiene una ra´ız real positiva (x3
= 1 + x) en el intervalo I = [1, 2] ( f(1) · f(2) < 0 ) o
simplemente, dado que f (x) = 3x2
− 1 > 0 para x ∈ R.
Considerando x0 = p0 = 2 entonces N-R, tenemos:
x1 = p1 = p0 −
f(p0)
f (p0)
pero por Horner:
f(x) = (x − 2)Q(x) + 5
con Q(x) = x2
+ 2x + 3, entonces f (2) = Q(2) = 11.
x1 = p1 = 2 −
5
11
=
17
11
= 1. 545 5
19
tomando este valor tenemos que
f(x) = (x − 1.5455)Q(x) + 1. 1461
con Q(x) = x2
+ 1.5455x + 1.3886, entonces f (1.5455) = Q(1.5455) = 6. 165 7.
x2 = p2 = 1. 545 5 −
1. 1461
6. 165 7
= 1. 359 6
tomando este valor tenemos que
f(x) = (x − 1. 359 6)Q(x) + 0.153 64
con Q(x) = x2
+ 1.3596x + 0.84851, entonces f (1.3596) = Q(1.3596) = 4. 545 5.
x3 = p3 = 1.3596 −
0.153 64
4. 545 5
= 1. 3258.
Cuyo error es:
ER =
|x3 − x2|
|x2|
=
|1. 3258 − 1. 359 6|
|1. 359 6|
≈ 0.024 86 (2%)
Obs: Cuando se ha encontrado una ra´ız del polinomio se puede despreciar el resto y usar
Q(x) para buscar las restantes esto se conoce como Deflacci´on.
Ejercicio: Buscar todas las ra´ıces reales del polinimio f(x) = x4
− 2x3
− 4x2
+ 4x + 4 por
el m´etodo de Horner.
B´usqueda de ra´ıces con multiplicidad.
Abordamos el problema de buscar raices con multiplicidad para cualquier f(x), para esto
necesitamos algunas definiciones previas.
Def: Una soluci´on p de f(x) = 0 es un cero o ra´ız de multiplicidad m de f si
f(x) = (x − p)m
q(x)
donde lim
x→p
q(x) = 0.
Obs: f ∈ C1
[a, b] (con primera derivada continua) tiene una ra´ız de multiplicidad uno en
p ∈ (a, b) ssi
f(p) = 0 y f (p) = 0.
En general, f ∈ Cm
[a, b] (con m − ´esima derivada continua) tiene una ra´ız de multiplicidad
m en p ∈ (a, b) ssi
f(p) = 0, f (p) = 0, f (p) = 0, ...., f(m−1)
(p) = 0, f(m)
(p) = 0.
Tarea: Demuestre que f(x) = ex
− x − 1 tiene un cero p = 0 de multiplicidad m = 2 y por
lo tanto el m´etodo de N-R, no converge cuadr´aticamente.
Supongamos que f es una funci´on que tiene una ra´ız de multiplicidad m ≥ 1 en p. Si se
define la funci´on:
µ(x) =
f(x)
f (x)
20
entonces µ(x) tiene una ra´ız de multiplicidad m = 1 en x = p. En efecto µ(p) = 0 y para la
multiplicidad tenemos:
µ(x) =
f(x)
f (x)
=
(x − p)m
q(x)
m (x − p)m−1
q(x) + (x − p)m
q (x)
µ(x) =
f(x)
f (x)
=
(x − p)m
q(x)
(x − p)m−1
[mq(x) + (x − p) q (x)]
µ(x) =
f(x)
f (x)
= (x − p)
q(x)
[mq(x) + (x − p) q (x)]
µ(x) =
f(x)
f (x)
= (x − p) G(x)
entonces
lim
x→p
G(x) = lim
x→p
q(x)
[mq(x) + (x − p) q (x)]
=
1
m
= 0.
Con lo cu´al podermos formalizar el m´etodo de N-R modificado para la b´usqueda de ra´ıces
con multiplicidad m > 1, por:



pn = pn−1 −
1
µ (pn−1)
µ(pn−1)
n ≥ 1
p0 dado



pn = pn−1 −
f(pn−1)
f (pn−1)
[f (pn−1)]2
−f(pn−1)f (pn−1)
[f (pn−1)]2
n ≥ 1
p0 dado
entonces 


pn = pn−1 −
f(pn−1)f (pn−1)
[f (pn−1)]2
− f(pn−1)f (pn−1)
n ≥ 1
p0 dado
Ejercicio: Compruebe lo propuesto en la tarea anterior.
Sol: Aplicando el m´etodo de N-R modificado a la funci´on f(x) = ex
− x − 1 cuyas derivadas
son f (x) = ex
− 1 y f (x) = ex
entonces el algoritmo queda:



pn = pn−1 −
(epn−1
− pn−1 − 1) · (epn−1
− 1)
(epn−1 − 1)2
− (epn−1 − pn−1 − 1) · epn−1
n ≥ 1
p0 = 1 dado
21
y por lo tanto, la tabla de iteraciones muestra la convergencia a la ra´ız de x = 0 de
multiplicidad m = 2.
n pn f (pn) |pn − pn−1|
0 1.0 0.718 28
1 −0.234 21 2. 540 6 × 10−2
1.23421
2 −8. 458 2 × 10−3
3. 567 0 × 10−5
0.225 75
3 −1. 189 0 × 10−5
7. 068 6 × 10−11
8. 446 3 × 10−3
4 −2. 356 2 × 10−11
2. 775 8 × 10−22
1. 189 0 × 10−5
Gr´aficamente, esto es:
Aceleraci´on de convergencia
Desde la definici´on de convergencia, una sucesi´on {pn}∞+
n=0 es convergente linealmente a p,
con pn = p, ∀n. Si
lim
n→∞+
|pn+1 − p|
|pn − p|α = λ,
con α = 1 y pidiendo λ < 1. Luego parece evidente que de esta definici´on podamos decir
que:
en+1
en
=
pn+1 − p
pn − p
≈ λ ≈
pn+2 − p
pn+1 − p
=
en+2
en+1
para n suficientemente grande y cuando estas diferencias tienen el mismo signo. Entonces
(pn+1 − p)2
≈ (pn+2 − p) (pn − p) ,
22
por lo tanto
(pn+1 − p)2
≈ (pn+2 − p) (pn − p)
p2
− 2ppn+1 + p2
n+1 ≈ pnpn+2 − ppn − ppn+2 + p2
−2ppn+1 + p2
n+1 ≈ pnpn+2 − ppn − ppn+2
p (pn+2 − 2pn+1 + pn) ≈ pnpn+2 − p2
n+1
p ≈
pnpn+2 − p2
n+1
(pn+2 − 2pn+1 + pn)
introduciendo dos ceros convenientes (ni quita ni pone)
p ≈
pnpn+2 − p2
n+1 + (p2
n − p2
n) + (2pn+1pn − 2pn+1pn)
(pn+2 − 2pn+1 + pn)
p ≈
p2
n + pnpn+2 − 2pn+1pn − p2
n − 2pn+1pn + p2
n+1
(pn+2 − 2pn+1 + pn)
p ≈
pn (pn + pn+2 − 2pn+1) − p2
n − 2pn+1pn + p2
n+1
(pn+2 − 2pn+1 + pn)
p ≈ pn −
(pn − pn+1)2
(pn+2 − 2pn+1 + pn)
.
As´ı, estamos definiendo una subsucesi´on {ˆpn}∞+
n=0 desde la sucesi´on {ˆpn}∞+
n=0 generada por
alg´un algoritmo con convergencia lineal:
ˆpn ≈ pn −
(pn − pn+1)2
(pn+2 − 2pn+1 + pn)
la cual establece que;
lim
n→∞+
|ˆpn+1 − p|
|pn − p|
= 0,
es decir, {ˆpn}∞+
n=0 converge m´as rapido que {pn}∞+
n=0 .
Notaci´on
Solo como una forma de dar una mejor comprensi´on, se introduce la notaci´on de recurrencia
progresiva, que luego se puede retomar en interpolaci´on e integraci´on num´erica. Esta es,
dada la sucesi´on {pn}∞+
n=0 podemos definir la diferencia
∆pn = pn+1 − pn con n ≥ 0
y la diferencia progresiva
∆k
= ∆ ∆k−1
pn con k ≥ 2.
23
Por ejemplo, si k = 2
∆2
pn = ∆ (∆pn) = ∆ (pn+1 − pn ) = ∆pn+1 − ∆pn = pn+2 − pn+1 − (pn+1 − pn)
∆2
pn = pn+2 − 2pn+1 + pn
con lo cual, establecemos un nuevo algoritmo reescrito como:
ˆpn ≈ pn −
(∆pn)2
∆2pn
con n ≥ 0.
llamado el Algoritmo de Aitken.
Obs: Seg´un se ha visto, el m´etodo de Aitken es un algoritmo complementario a cualquier
m´etodo aplicado que tenga convergencia lineal y su contribuci´on es al usar ambos combinados
llegar a una convergencia superior a uno, cuadr´atica.
M´etodo de Steffensen
Este m´etodo es la combinaci´on de el Algoritmo de Aitken m´as el m´etodo de punto fijo de
convergencia lineal como es ya sabido. Como un resumen general podemos ver el esquema
para encontrar la soluci´on de p = g(p) es:
Paso 1. Comenzar con chute inicial p0.
Paso 2. Para n = 0, ...
p
(n)
0 = p0
p
(n)
1 = g p
(n)
0
p
(n)
2 = g p
(n)
1
y determinar
p0 = ˆp
(n+1)
0 = p
(n)
0 −
∆p
(n)
0
2
∆2p
(n)
0
Paso 3. Repetir hasta:
ˆp
(n+1)
0 − ˆp
(n)
0 < ε
para 0 < ε << 1, dado.
Ejercicio: Determinar las ra´ıces de f(x) = x2
− cos(x) usando el m´etodo de Steffensen y
comparar con N-R, punto fijo y Aitken.
Antes de resolver observemos que f(x) es una funci´on par
f(−x) = (−x)2
− cos(−x) = f(x)
24
luego su grafica tiene simetr´ıa con respecto al eje Y entonces si encontramos una ra´ız la otra
es su inverso aditivo.
Para usar Steffensen y Punto fijo debemos tener una funci´on de punto fijo, si I = [0, 1]
entonces
i) Sea x = g(x) = cos(x) entonces
0 ≤ x ≤ 1
cos(0) ≤ cos(x) ≤ cos(1) /
√
cos(0) ≤ cos(x) ≤ cos(1)
0.735 05 ≤ g(x) ≤ 1
luego g(x) ∈ [0.735 05, 1] ⊂ [0, 1] = I (existencia del punto fijo)
ii) La derivada de g es:
g (x) = −
1
2
√
cos x
sin x
|g (x)| = −
1
2
√
cos x
sin x = 1
2
|sin(1)|
√
cos 0
= 0.420 74 < 1
luego |g (x)| ≤ k = 0.42074. (punto fijo ´unico)
Considerando un chute inicial p0 = 1 las iteraciones del m´etodo de Steffensen son:
n p
(n)
0 p
(n)
1 = g p
(n)
0 p
(n)
2 = g p
(n)
0 p0 = ˆp
(n+1)
0 = p
(n)
0 −
∆p
(n)
0
2
∆2p
(n)
0
0 1.0 0.735 05 0.861 28 0.820 55
1 0.820 55 0.825 72 0.823 42 0.824 13
2 0.824 13 0.824 13 0.824 13 0.824 13
La tabla adjunta compara con otros m´etodos y deja claro la efectividad de Steffensen.
k P.fijo Aitken Steffensen N-R
0 1.0 0.820545868 0.820545868 1.0
1 0.735052587 0.823387630 0.824131023 0.838218410
2 0.861275501 0.823989495 0.824132312 0.824241868
3 0.807137107 0.824103654 0.824132319
4 0.831606374 0.824126663 0.824132312
5 . .
. . .
11 0.824106268 0.824132312
. . .
25 0.824132312
Obs: De igual forma que el m´etodo de N-R la convergencia del m´etodo de Steffensen es
cuadr´atica pero no sirve o no funciona bien para raices con multiplicidad m > 1 (g (p) = 0).
25
Tarea: Resolver
x3
+ 4x2
− 10 = 0,
usando los algoritmos estudiados y compare las iteraciones de cada uno en una tabla de
resultados.
26

Clase n°2

  • 1.
    Universidad Cat´olica delMaule C´alculo Num´erico Facultad de Ciencias B´asicas Tema N◦2, 27 de Agosto de 2014 Ecuaciones e Iteraci´on funcional La busqu´eda de ra´ıces de ecuaciones es fundamental en cualquier proceso de c´alculo y en aplicaciones varias. Un problema muy usual, y al parecer simple, es la determinaci´on del ´area entre dos curvas, por ejemplo, el ´area entre las curvas definidas por las funciones f(x) = ex , g(x) = 2 − x2 lo que con ayuda de un graficador, nos muestra la existencia de esta ´area: La determinaci´on del ´area es calcular A = x2 x1 (g(x) − f(x)) dx A = x2 x1 2 − x2 − ex dx, luego todo se basa en calcular x1 y x2, es decir, los valores donde f(x) = g(x). Si establecemos la ecuaci´on h(x) = g(x) − f(x) estamos pidiendo encontrar los ceros o ra´ıces de la ecuaci´on h(x) = 0 ´o simplemente 2 − x2 − ex = 0. 1
  • 2.
    Lo anterior pareceuna ecuaci´on sencilla, pero no lo es, es una ecuaci´on trascendente y no existen procesos algebraicos que nos permitan despejar x. Lo que si tenemos, es una idea de donde se encuentran estas ra´ıces por la simplesa de las funciones y su grafica. El ejemplo anterior es fuente de motivaci´on para estudiar y analizar m´etodos num´ericos para calcular ceros de ecuaciones. Teorema: Valor intermedio Si f es una funci´on continua en un intervalo cerrado [a, b] y elegimos alg´un k ∈ (f(a), f(b)), entonces siempre existe un valor c ∈ (a, b) tal que f(c) = k. Obs: Si k = 0 entonces existe un c ∈ (a, b) tal que f(c) = 0 y por lo tanto hemos determinado una ra´ız c de f, lo que indica que f(a) · f(b) < 0.(cambio de signo) Obs: Lo anterior indica que el cambio de signo f en un intervalo (a, b) es la localizaci´on de una ra´ız simple f. M´etodo de la Bisecci´on Uno de los m´etodos de b´usqueda de ra´ıces m´as intuitivo consiste en bisectar sucesivas veces nuestro intervalo de localizaci´on (a, b) botando la mitad del intervalo donde no exista cambio de signo. Esto es, sea x = p ra´ız de f (f(p) = 0), con p ∈ [a, b] dado que f(a) · f(b) < 0, entonces determinamos el punto medio p1 = a + b 2 ∈ [a, b] , nombramos por a1 = a y b1 = b, calculamos f(a) · f(p1) y f(p1) · f(b) y elegimos el de cambio de signo renombrando por a2 = a1 y b2 = p1 ´o a2 = p1 y b2 = b, ......, seg´un sea el caso hasta acotar la ra´ız x = p. Luego el proceso es iterativo y consiste en generar la sucesi´on {pn} tal que: p ∈ [an, bn] con n ∈ Z. 2
  • 3.
    Criterios de Parada Elproceso de la bisecci´on es iterativo hasta que f(pn) ≈ 0, es decir, |f(pn)| < ε , 0 < ε 1 o |pn − pn−1| |pn| < ε, pn = 0 Los criterios anteriores pueden tener dificultades, pn − pn−1 → 0 mientras que {pn} diverge ´o f(pn) → 0 pero |pn − pn−1| 1. Teorema: Si f es una funci´on continua en un intervalo cerrado [a, b] tal que f(a) · f(b) < 0. El m´etodo de la bisecci´on genera una sucesi´on {pn} → p con la propiedad |pn − p| ≤ b − a 2n , con n ≥ 1 Dem: Para n ≥ 1 todo subintervalo [an, bn] satisface que su largo es la mitad del anterior, esto es: bn − an = 1 2 (bn−1 − an−1) = 1 2 1 2 (bn−2 − an−2) = ... = 1 2n−1 (b1 − a1) = 1 2n−1 (b − a) y la ra´ız x = p ∈ (an, bn) . Como pn = an + bn 2 , para todo n ≥ 1 entonces |pn − p| = an + bn 2 − p = an − p + bn − p 2 ≤ 1 2 (|an − p| + |bn − p|) |pn − p| ≤ 1 2 (|an − p| + |bn − p|) ≤ 1 2 |bn − an| 2 + |bn − an| 2 = |bn − an| 2 |pn − p| ≤ |bn − an| 2 = 1 2 1 2n−1 (b − a) = b − a 2n . Obs: El teorema anterior muestra la convergencia del m´etodo de la Bisecci´on y una cota para el error de aproximaci´on, con lo cu´al podemos detreminar dado un ε error el n´umero de iteraciones del m´etodo, esto es: |pn − p| ≤ b−a 2n < ε b−a 2n < ε / log ⇔ log b−a 2n < log (ε ) ⇔ log (b − a) − n log (2) < log (ε ) ⇔ log (b − a) − n log (2) < log (ε ) ⇔ n > log(b−a)−log(ε ) log(2) ⇔ n > log   b − a ε   log(2) . Ejercicio: Usemos el ejemplo motivacional del ´area para aplicar el m´etodo. Debemos determinar dos ra´ıces de la ecuaci´on h(x) = 0, entonces para localizarlas, tenmos que: 3
  • 4.
    1. h(−2) =−2. 135 3 y h(−1) = 0.632 12, luego h(−2)·h(−1) < 0 entonces x1 ∈ (−2, −1) . Si consideramos ε = 10−3 como precisi´on entonces debemos hacer n > log −1 − (−2) 10−3 log (2) = 9. 965 8 iteraciones. n an bn pn f(pn) 1 −2 −1 −1.5 −0.473 13 2 −1.5 −1 −1.25 0.151 00 3 −1.5 −1.25 −1.375 −0.143 46 4 −1.375 −1.25 −1.3125 8. 197 4 × 10−3 5 −1.375 −1.3125 −1.34375 −6. 653 0 × 10−2 6 −1.34375 −1.3125 −1.328125 −2. 889 0 × 10−2 7 −1.328125 −1.3125 −1.3203125 −1. 027 7 × 10−2 8 −1.3203125 −1.3125 −1.32078125 −1. 139 0 × 10−2 9 −1.32078125 −1.3125 −1.316640625 −1. 576 8 × 10−3 10 −1.316640625 −1.3125 −1.314570313 3. 315 2 × 10−3 11 −1.316640625 −1.314570313 −1.315605469 8. 704 3 × 10−4 2. h(0.4) = 0.348 18 y h(0.6) = −0.182 12 luego h(0.4)·h(0.6) < 0 entonces x2 ∈ (0.4, 0.6) . Si consideramos ε = 10−3 como precisi´on entonces debemos hacer n > log 0.6 − (0.4) 10−3 log (2) = 7. 643 9 iteraciones. n an bn pn f(pn) 1 0.4 0.6 0.5 0.101 28 2 0.5 0.6 0.55 −3. 575 3 × 10−2 3 0.5 0.55 0.525 3. 391 6 × 10−2 4 0.525 0.55 0.5375 −6. 284 5 × 10−4 5 0.525 0.5375 0.53125 1. 671 6 × 10−2 6 0.53125 0.5375 0.534375 8. 061 9 × 10−3 7 0.534375 0.5375 0.5359375 3. 721 3 × 10−3 8 0.5359375 0.5375 0.53671875 1. 547 5 × 10−3 9 0.53671875 0.5375 0.537109375 4. 598 3 × 10−4 Obs: (M´etodo de Falsa Posici´on) Para acelarar la convergencia del m´etodo de la Bisecci´on surge la ingeniosa idea de considerar no el punto medio del intervalo [an, bn] sino pn valor que hace cero la recta L que une los puntos (an, h(an)) y (bn, h(bn)) para n ≥ 1. Esto es, L : y − h(bn) = h(bn) − h(an) bn − an (x − bn) L : y = h(bn) − h(an) bn − an (x − bn) + h(bn) 4
  • 5.
    y como y= 0 entonces pn = bn − h(bn) h(bn)−h(an) bn−an pn = bn − h(bn) (bn − an) (h(bn) − h(an)) pn = anh(bn) − bnh(an) (h(bn) − h(an)) Ejercicio: Del ejercicio anterior podemos ver que para la primera ra´ız tenemos: n an bn pn f(pn) 1 −2 −1 −1. 228 4 0.198 27 2 −2 −1. 228 4 −1. 294 0 5. 139 2 × 10−2 3 −2 −1. 294 0 −1. 310 6 1. 266 9 × 10−2 4 −2 −1. 310 6 −1. 314 7 3. 009 × 10−3 5 −2 −1. 314 7 −1. 315 7 6. 470 5 × 10−4 6 −2 −1. 315 7 −1. 315 9 1. 743 8 × 10−4 Tarea: Ejercitar para la otra ra´ız. M´etodos de iteraci´on de Punto Fijo Siempre que intentemos resolver una ecuaci´on h(x) = 0, es posible reescribirla despejando x en la forma: h(x) = 0 x − g(x) = 0 definiendo una funci´on g. Lo anterior intruduce el concepto de resolver nuevamente por la igualaci´on de dos funciones x = g(x) 5
  • 6.
    donde x =I(x) funci´on identidad. Graficamente, tenemos Def: Un punto fijo de una funci´on g es un n´umero p tal que g(p) = p. Teorema: Funci´on de punto Fijo 1. Si g es una funci´on continua en un intervalo cerrado [a, b] y g(x) ∈ [a, b] para todo x ∈ [a, b], entonces g tiene un punto fijo x = p ∈ [a, b] . 2. Si adem´as g (x) existe en (a, b) y existe una constante k < 1 tal que |g (x)| ≤ k, ∀x ∈ (a, b) , 6
  • 7.
    entonces el puntofijo x = p ∈ [a, b] es ´unico. Dem: Si g(a) = a ´o g(b) = b, entonces g tendr´a un punto fijo en un extremo. Sino si g(a) > a y g(b) < b entonces definiendo h(x) = g(x) − x funci´on continua en [a, b] (g(x) y I(x) son continuas) se tiene que h(a) = g(a) − a > 0 y h(b) = g(b) − b < 0 usando el Teorema del valor intermedio existe p ∈ (a, b) tal que h(p) = 0. As´ı g(p) = p, existe siempre punto fijo. Adem´as, usando el conocido teorema del valor medio para g, se tiene que: Si g es funci´on continua y diferenciable en (a, b) entonces existe un n´umero ξ ∈ (a, b) tal que g (ξ) = g(b) − g(a) b − a , suponiendo que |g (x)| ≤ k < 1, ∀x ∈ (a, b) , y que x = p y x = q son puntos fijos de g talque p = q podemos ver que |p − q| = |g(p) − g(q)| = |g (ξ)| |p − q| ≤ k |p − q| < |p − q| una contradicci´on, por lo tanto existe un ´unico punto fijo. Ejercicio: De nuestro citado ejemplo buscaremos una funci´on de punto fijo para h(x) = 2 − x2 − ex , Esto es, proponer una funci´on g(x) = − √ 2 − ex que satisfaga: g(x) ∈ [−2, −1] . 7
  • 8.
    En efecto, si −2≤ x ≤ −1 / exp ⇔ 1 e2 ≤ ex ≤ 1 e1 / × (−1) − 1 e ≤ −ex ≤ − 1 e2 / + (2) 2 − 1 e ≤ 2 − ex ≤ 2 − 1 e2 / √ 2 − 1 e ≤ √ 2 − ex ≤ 2 − 1 e2 / × (−1) − 2 − 1 e2 ≤ − √ 2 − ex ≤ − 2 − 1 e / × (−1) − 2 − 1 e2 ≤ g(x) ≤ − 2 − 1 e g(x) ∈ [−1. 365 5, −1. 277 5] ⊂ [−2, −1] Por otro lado g (x) = − 1 2 −ex √ 2 − ex entonces |g (x)| = 1 2 ex √ 2 − ex |g (x)| ≤ e−1 2 1 √ 2 − e−2 = 0.134 7 < 1. Luego g es funci´on de punto fijo. Ahora resolviendo : n xn g(xn) 1 −2 −1. 365 5 2 −1. 365 5 −1. 320 9 3 −1. 320 9 −1. 316 5 4 −1. 316 5 −1. 316 5 −1. 316 −1. 316 0 8
  • 9.
    lo que concuerdacon la grafica: Algoritmo de Punto fijo Para aproximar el punto fijo de una funci´on g, escogemos una aproximaci´on inicial p0 y haciendo pn = g(pn−1), con n ≥ 1 obtenemos la sucesi´on {pn}n=0 . Si pn → p y g es continua tendremos p = lim n→∞ g(pn−1) = g lim n→∞ pn−1 = g(p) Obs: Si g satisface el teorema entonces |pn − p| ≤ kn max {|p0 − a| , |b − p0|} y |pn − p| ≤ kn 1 − k |p0 − p1| donde k es la cota de la derivada de g. En efecto, sabemos que |pn − p| = |g (pn−1) − g(p)| = |g (ξ)| |pn−1 − p| ≤ k |pn−1 − p| as´ı, |pn − p| ≤ k |pn−1 − p| ≤ k2 |pn−2 − p| ≤ k3 |pn−3 − p| ≤ ... ≤ kn |p0 − p| entonces |pn − p| ≤ kn |p0 − p| ≤ kn max {|p0 − a| , |b − p0|} 9
  • 10.
    dado que p∈ [a, b] . Por otro lado |p0 − p| = |p0 − p1 + p1 − p| ≤ |p0 − p1| + |p1 − p| ≤ |p0 − p1| + k |p0 − p| |p0 − p| ≤ |p0 − p1| + k |p0 − p| |p0 − p| (1 − k) ≤ |p0 − p1| y como 0 < k < 1 |p0 − p| ≤ 1 (1 − k) |p0 − p1| / × kn |pn − p| ≤ kn |p0 − p| ≤ kn (1 − k) |p0 − p1| Obs: Las desigualdades anteriores son cotas para la convergencia del m´etodo de punto fijo, es decir, si k es peque˜na la convergencia ser´a r´apida en la b´usqueda del punto fijo sino si k es cercano a 1 la convergencia ser´a lenta. Ejercicio: Usando el m´etodo de punto fijo determinar la menor ra´ız positiva de la ecuaci´on h(x) = x − tan (x) = 0. Sol: Claramente la menor ra´ız es x = p ∈ π 2 , 3π 2 , pero necesitamos un intevalo cerrado para localizar la ra´ız, por ejemplo si I = [a, b] = [4, 4.7] se tiene que h(4) = 2. 842 2 y h(4.7) = −76. 013 , por tanto h(4) · h(4.7) < 0 (cambio de signo). Por otra parte proponemos la obvia funci´on g(x) = tan(x) como funci´on de punto fijo. En efecto: 4 ≤ x ≤ 4.7 / tan tan(4) ≤ tan(x) ≤ tan(4.7) 1. 157 8 ≤ tan(x) ≤ 80. 713 pero [1. 157 8, 80. 713] /∈ [4, 4.7] . Buscaremos otra candidata, g(x) = π + arctan(x) (Ojo: tan(x) = tan(x − π)) 4 ≤ x ≤ 4.7 / arctan arctan(4) ≤ arctan(x) ≤ arctan(4.7) / + π arctan(4) + π ≤ arctan(x) + π ≤ arctan(4.7) + π 4. 467 4 ≤ g(x) ≤ 4. 502 7 10
  • 11.
    entonces [4.467 4,4. 502 7] ⊂ [4, 4.7] .Adem´as |g´(x)| = 1 1 + x2 ≤ 1 17 < 1 Por lo tanto g(x) = π +arctan(x) es funci´on de punto fijo. Si proponemos una aproximaci´on de 4 cifras significativas para el punto fijo, ε = 10−4 , usando las cotas de la observaci´on anterior tenemos que: |pn − p| ≤ kn |p0 − p| ≤ kn max {|p0 − a| , |b − p0|} < ε y dado p0 = 4.5 ∈ [4, 4.7] kn max {|p0 − a| , |b − p0|} < 10−4 kn max {|4.5 − 4| , |4.7 − 4.5|} < 10−4 kn 1 2 < 10−4 / × 2 kn < 2 × 10−4 / log n < log (2 × 10−4 ) log(k) usando k = 1/17 tenemos que el num´ero de iteraciones para la convergencia al punto fijo con 4 cifras es de: n < log (2 × 10−4 ) log (1/17) = 3. 006 2. Veamos que hay de cierto n xn g(xn) 1 4.5 4. 493 72 2 4. 493 72 4. 493 41 3 4. 493 41 4. 493 40 con menos de 3 iteraciones obtenemos 4 cifras significativas del punto fijo talque 4. 493 41 − tan(4. 493 41) = −1. 094 5 × 10−5 ≈ 0 11
  • 12.
    Finalmente seg´un lagrafica corroboramos lo obtenido. Convergencia de los m´etodos iterativos Def: Supongamos que la sucesi´on {pn}∞+ n=0 es convergente a p, con pn = p, ∀n. Si las constantes positivas λ y α existen, tales que: lim n→∞+ |pn+1 − p| |pn − p|α = λ, entonces {pn}∞+ n=0 converge a p con orden α y una constante de error asint´otico λ. Adem´as si α = 1 se dice linealmente convergente y si α = 2 se dice cuadr´aticamente convergente. Es decir, si α es m´as alto mayor es la rapidez de convergencia de la sucesi´on. Ejemplo Considere las sucesiones {pn}∞+ n=0 y {˜pn}∞+ n=0 tal que: lim n→∞+ |pn+1 − p| |pn − p| = 0.3 y lim n→∞+ |˜pn+1 − p| |˜pn − p|2 = 0.3 convergiendo a p = 0. Entonces |pn − 0| = |pn| ≈ 0.3 |pn−1| ≈ (0.3)2 |pn−2| ≈ ... ≈ (0.3)n |p0| y |˜pn − 0| = |˜pn| ≈ (0.3) |˜pn−1|2 ≈ (0.3)3 |˜pn−2|4 ≈ ... ≈ (0.3)2n−1 |˜p0|2n . 12
  • 13.
    Considerando |p0| =|˜p0| = 1, podemos ver la siguiente tabla que muestra la rapidez de convergencia: n {pn} {˜pn} 0 1 1 1 0.3 0.3 2 0.09 0.027 3 0.027 0.002187 4 0.0081 0.0000000143 5 0.00243 0.0000000000 6 0.000729 0.0000000000 Teorema Sea g ∈ C [a, b] y supongamos que g(x) ∈ [a, b] para todo x ∈ [a, b] . Supongamos, adem´as que g ∈ C (a, b) tal que |g (x)| ≤ k < 1, ∀x ∈ (a, b) . Si g (p) = 0, entonces para cualquier p0 ∈ [a, b] el algoritmo de punto fijo genera una sucesi´on pn = g(pn−1), n ≥ 1, convergente linealmente al ´unico punto fijo p ∈ [a, b] . Dem: Por las hip´otesis del teorema sabemos que existe k tal que |g (x)| ≤ k < 1, ∀x ∈ (a, b) . y que pn = g(pn−1) converge a p. Por otra parte del T.V.M pn+1 − p = g (pn) − g(p) = g (ξn) (pn − p) , donde ξn ∈ (pn, p) . pero pn → p entonces ξn → p. Luego, como g ∈ C (a, b) tenemos lim n→∞+ g (ξn) = g (p). As´ı, lim n→∞+ |pn+1 − p| |pn − p| = lim n→∞+ pn+1 − p pn − p = lim n→∞+ g (ξn) = |g (p)| . Por lo tanto, el m´etodo de punto fijo converge linealmente si g (p) = 0. Obs: Lo anterior sugiere que m´etodos de mayor convergencia (α > 1) existen para g (p) = 0. 13
  • 14.
    M´etodo de Newton-Raphson Seap una soluci´on de la ecuaci´on x = g(x) y supongamos que g (p) = 0 y g es una funci´on continua y estrictamente acotada por una constante positiva M en un intervalo I que contiene a p. Entonces existe un δ > 0 tal que, para p0 ∈ [p0 − δ, p0 + δ], cuando n ≥ 1, converge al menos cuadr´aticamente a p. Esto es: |pn+1 − p| < M 2 |pn − p|2 En efecto, si consideramos el algoritmo de punto fijo pn = g(pn−1), n ≥ 1, con g(x) = x − Φ(x)f(x), donde Φ(x) = 1 f (x) , entonces: 1. Si p es un cero de f, g(p) = p − Φ(p)f(p) = p, es decir, p es punto fijo de g. 2. El algoritmo de punto fijo converge cuadr´aticamente si g (p) = 0. Esto es, g (x) = 1 − Φ (x)f(x) − Φ(x)f (x). Entonces g (p) = 1 − Φ (p)f(p) − Φ(p)f (p) = 1 − Φ(p)f (p). As´ı g (p) = 0 ssi Φ(p) = 1 f (p) , f (p) = 0. Finalmente podemos deducir que bajo estas condiciones, el algoritmo de punto fijo es efectivamente el conocido m´etodo de Newton-Raphson: pn = g(pn−1) = pn−1 − Φ(pn−1)f(pn−1) pn = g(pn−1) = pn−1 − 1 f (pn−1) f(pn−1) Obs: Seg´un lo anterior podemos decir que el algoritmo de N-R converge cuadr´aticamente a p ∈ [a, b] si f (p) = 0, donde:    pn = pn−1 − 1 f (pn−1) f(pn−1) n ≥ 1 p0 dado 14
  • 15.
    es decir, sip es una ra´ız simple. Su interpretaci´on geom´etrica se puede ver por: Esto es, si reescribimos el algoritmo como: f (pn−1) (pn − pn−1) = −f(pn−1) f(pn−1) = f (pn−1) (pn−1 − pn) f(pn−1) − f (pn) = f (pn−1) (pn−1 − pn) con f(pn) = 0, podemos decir que el Algoritmo de N-R consiste en aproximar p me- diante la recta tangente a la curva en P = (pn−1, f(pn−1)) al interceptarla con el eje X. Ejercicio: Considere la funci´on f(x) = 4x − 7 x − 2 y busquemos su ra´ız p. Entonces f (x) = − 1 (x − 2)2 y f (x) = 2 (x − 2)3 nos dice que f es continua y dos veces diferenciable en un intervalo [a, b] que no contenga a x = 2. As´ı, el algoritmo es:    pn = pn−1 − 1 − 1 (pn−1−2)2 4pn−1 − 7 pn−1 − 2 n ≥ 1 p0 dado 15
  • 16.
    con pn−1 =2. Luego la elecci´on de p0 es clave en la convergencia del m´etodo, si p0 ∈ [1.6, 1.9] el m´etodo converge sin problemas. n pn f (pn) |pn − pn−1| 0 1.65 1.1429 1 1.79 −0.761 9 0.14 2 1. 756 4 −0.105 09 0.0336 3 1. 750 2 −3. 202 6 × 10−3 6.2 × 10−3 4 1.75 0.0000000 2 × 10−4 ¿Qu´e pasa con la elecci´on de p0 = 1.5? Finalmente podemos ver el grafico de la b´usqueda de la ra´ız simple p = 1.75. Obs: Varias dificultades se hacen patentes para trabajar con el m´etodo de N-R 1. La ayuda de un m´etodo de localizaci´on, como cualquier m´etodo de punto fijo. 2. La elecci´on del valor inicial p0. 3. El costoso c´alculo de la derivada en cada paso del algoritmo. 4. Su b´usqueda es solamante para raices simples. 16
  • 17.
    M´etodo de laSecante La necesidad de evaluar la derivada en cada paso involucra un costo alto de c´alculo asociado. Para superar esta dificultad se propone variar el m´etodo de N-R sustituyendo f´(pn−1) = lim x→∞+ f(x) − f (pn−1) x − pn−1 por f´(pn−1) ≈ f(pn−2) − f (pn−1) pn−2 − pn−1 es decir, tomando x = pn−2 y reemplazando. Por lo tanto obtenemos el conocido m´etodo de la secante, dado por:    pn = pn−1 − 1 f(pn−2)−f(pn−1) pn−2−pn−1 f(pn−1) n ≥ 2 p0, p1 dados. Lo que geom´etricamente es: Esto es, si reescribimos el algoritmo como: f (pn−1) (pn − pn−1) = −f(pn−1) f(pn−1) = f(pn−2)−f(pn−1) pn−2−pn−1 (pn−1 − pn) f(pn−1) − f (pn) = f(pn−2)−f(pn−1) pn−2−pn−1 (pn−1 − pn) 17
  • 18.
    con f(pn) =0, podemos decir que el Algoritmo de la Secante consiste en aproximar p medi- ante la recta secante a la curva en P = (pn−1, f(pn−1)) y Q = (pn−2, f(pn−2)) al interceptarla con el eje X. Obs: Una variante valida es el m´etodo de Von Mises, el cu´al establece: f (pn−1) = f (p0) para todo n ≥ 1. Esto es mantener siempre la derivada en p0, lo que claramente trae una menor rapidez de convergencia comparado con N-R. Ejemplo: Usando el ejercicio anterior, la b´usqueda de la ra´ız de f(x) = 4x − 7 x − 2 localizada en el intervalo I = [1.6, 1.9] , se puede realizar por estos m´etodos generando las iteraciones, por ejemplo con Von Mises: n pn f (pn) |pn − pn−1| 0 1.65 1.1429 1 1.79 −0.761 9 0.14 2 1. 696 7 0.702 93 0.0933 3 1. 782 8 −0.604 05 0.0861 4 1. 708 8 0.565 93 0.0748 . . . . . . . . y de manera similar para el m´etodo de la secante, es decir una menor rapidez de convergencia. n pn f (pn) |pn − pn−1| 0 1.6 1.5 1 1.9 −6.0 0.3 2 1. 66 1. 058 8 0.24 3 1. 696 0 0.710 53 0.036 4 1. 7694 −0.3373 0.0734 5 1.7458 0.0661 0.0236 6 1.7497 0.052 0.00039 7 1.75 0.000 0.00003 M´etodo de Horner, ceros de polinomios En el caso de polinomios de grado n, de la forma: f(x) = anxn + an−1xn−1 + ... + a1x + a0 donde an = 0, y ai son los coeficientes de f, la b´usqueda de sus ceros o raices pasa por conceptos como el Teorema fundamental del Algebra, factorizaci´on de polinomios, multipli- cidad de sus raices y la divisi´on sint´etica a lo que agregamos el m´etodo de N-R como una herramienta adicional. 18
  • 19.
    Teorema Fundamental delAlgebra Si f es un polinomio de grado n ≥ 1 con coeficientes reales o complejos, entonces f(x) = 0 tiene al menos una ra´ız. Obs: Si f es un polinomio de grado n ≥ 1 con coeficientes reales o complejos, entonces existen constantes ´unicas x1, x2, ..., xk y enteros positivos m1, m2, ..., mk tales que k i=1 mi = n, y f(x) = an (x − x1)m1 (x − x2)m2 · · · (x − xk)mk . El m´etodo de Horner no es m´as que realizar la divisi´on sint´etica entre f(x) y un polinomio (x − x0) . Esto es, obtener de f(x) = anxn + an−1xn−1 + ... + a1x + a0 los coeficientes del polinomio cuociente Q(x) = bnxn−1 + bn−1xn−2 + ... + b2x + b1, dados por: bn = an bk = ak + bk+1x0 para k = n − 1, ..., 1. Lo que finalmente dice que: f(x) = (x − x0) Q (x) + b0. donde claramente f(x0) = b0. Pero f (x) = Q(x) + (x − x0) Q (x) entonces f (x0) = Q(x0), lo que sugiere una nueva alternativa (en caso de polinomios) de usar N-R para buscar sus ra´ıces pero sin calcular su derivada en cada iteraci´on, esto es, s´olo evaluar en el polinomio resultante Q de la divisi´on. Ejemplo: Considere el polinomio f(x) = x3 − x − 1. En este polinomio se hace evidente que tiene una ra´ız real positiva (x3 = 1 + x) en el intervalo I = [1, 2] ( f(1) · f(2) < 0 ) o simplemente, dado que f (x) = 3x2 − 1 > 0 para x ∈ R. Considerando x0 = p0 = 2 entonces N-R, tenemos: x1 = p1 = p0 − f(p0) f (p0) pero por Horner: f(x) = (x − 2)Q(x) + 5 con Q(x) = x2 + 2x + 3, entonces f (2) = Q(2) = 11. x1 = p1 = 2 − 5 11 = 17 11 = 1. 545 5 19
  • 20.
    tomando este valortenemos que f(x) = (x − 1.5455)Q(x) + 1. 1461 con Q(x) = x2 + 1.5455x + 1.3886, entonces f (1.5455) = Q(1.5455) = 6. 165 7. x2 = p2 = 1. 545 5 − 1. 1461 6. 165 7 = 1. 359 6 tomando este valor tenemos que f(x) = (x − 1. 359 6)Q(x) + 0.153 64 con Q(x) = x2 + 1.3596x + 0.84851, entonces f (1.3596) = Q(1.3596) = 4. 545 5. x3 = p3 = 1.3596 − 0.153 64 4. 545 5 = 1. 3258. Cuyo error es: ER = |x3 − x2| |x2| = |1. 3258 − 1. 359 6| |1. 359 6| ≈ 0.024 86 (2%) Obs: Cuando se ha encontrado una ra´ız del polinomio se puede despreciar el resto y usar Q(x) para buscar las restantes esto se conoce como Deflacci´on. Ejercicio: Buscar todas las ra´ıces reales del polinimio f(x) = x4 − 2x3 − 4x2 + 4x + 4 por el m´etodo de Horner. B´usqueda de ra´ıces con multiplicidad. Abordamos el problema de buscar raices con multiplicidad para cualquier f(x), para esto necesitamos algunas definiciones previas. Def: Una soluci´on p de f(x) = 0 es un cero o ra´ız de multiplicidad m de f si f(x) = (x − p)m q(x) donde lim x→p q(x) = 0. Obs: f ∈ C1 [a, b] (con primera derivada continua) tiene una ra´ız de multiplicidad uno en p ∈ (a, b) ssi f(p) = 0 y f (p) = 0. En general, f ∈ Cm [a, b] (con m − ´esima derivada continua) tiene una ra´ız de multiplicidad m en p ∈ (a, b) ssi f(p) = 0, f (p) = 0, f (p) = 0, ...., f(m−1) (p) = 0, f(m) (p) = 0. Tarea: Demuestre que f(x) = ex − x − 1 tiene un cero p = 0 de multiplicidad m = 2 y por lo tanto el m´etodo de N-R, no converge cuadr´aticamente. Supongamos que f es una funci´on que tiene una ra´ız de multiplicidad m ≥ 1 en p. Si se define la funci´on: µ(x) = f(x) f (x) 20
  • 21.
    entonces µ(x) tieneuna ra´ız de multiplicidad m = 1 en x = p. En efecto µ(p) = 0 y para la multiplicidad tenemos: µ(x) = f(x) f (x) = (x − p)m q(x) m (x − p)m−1 q(x) + (x − p)m q (x) µ(x) = f(x) f (x) = (x − p)m q(x) (x − p)m−1 [mq(x) + (x − p) q (x)] µ(x) = f(x) f (x) = (x − p) q(x) [mq(x) + (x − p) q (x)] µ(x) = f(x) f (x) = (x − p) G(x) entonces lim x→p G(x) = lim x→p q(x) [mq(x) + (x − p) q (x)] = 1 m = 0. Con lo cu´al podermos formalizar el m´etodo de N-R modificado para la b´usqueda de ra´ıces con multiplicidad m > 1, por:    pn = pn−1 − 1 µ (pn−1) µ(pn−1) n ≥ 1 p0 dado    pn = pn−1 − f(pn−1) f (pn−1) [f (pn−1)]2 −f(pn−1)f (pn−1) [f (pn−1)]2 n ≥ 1 p0 dado entonces    pn = pn−1 − f(pn−1)f (pn−1) [f (pn−1)]2 − f(pn−1)f (pn−1) n ≥ 1 p0 dado Ejercicio: Compruebe lo propuesto en la tarea anterior. Sol: Aplicando el m´etodo de N-R modificado a la funci´on f(x) = ex − x − 1 cuyas derivadas son f (x) = ex − 1 y f (x) = ex entonces el algoritmo queda:    pn = pn−1 − (epn−1 − pn−1 − 1) · (epn−1 − 1) (epn−1 − 1)2 − (epn−1 − pn−1 − 1) · epn−1 n ≥ 1 p0 = 1 dado 21
  • 22.
    y por lotanto, la tabla de iteraciones muestra la convergencia a la ra´ız de x = 0 de multiplicidad m = 2. n pn f (pn) |pn − pn−1| 0 1.0 0.718 28 1 −0.234 21 2. 540 6 × 10−2 1.23421 2 −8. 458 2 × 10−3 3. 567 0 × 10−5 0.225 75 3 −1. 189 0 × 10−5 7. 068 6 × 10−11 8. 446 3 × 10−3 4 −2. 356 2 × 10−11 2. 775 8 × 10−22 1. 189 0 × 10−5 Gr´aficamente, esto es: Aceleraci´on de convergencia Desde la definici´on de convergencia, una sucesi´on {pn}∞+ n=0 es convergente linealmente a p, con pn = p, ∀n. Si lim n→∞+ |pn+1 − p| |pn − p|α = λ, con α = 1 y pidiendo λ < 1. Luego parece evidente que de esta definici´on podamos decir que: en+1 en = pn+1 − p pn − p ≈ λ ≈ pn+2 − p pn+1 − p = en+2 en+1 para n suficientemente grande y cuando estas diferencias tienen el mismo signo. Entonces (pn+1 − p)2 ≈ (pn+2 − p) (pn − p) , 22
  • 23.
    por lo tanto (pn+1− p)2 ≈ (pn+2 − p) (pn − p) p2 − 2ppn+1 + p2 n+1 ≈ pnpn+2 − ppn − ppn+2 + p2 −2ppn+1 + p2 n+1 ≈ pnpn+2 − ppn − ppn+2 p (pn+2 − 2pn+1 + pn) ≈ pnpn+2 − p2 n+1 p ≈ pnpn+2 − p2 n+1 (pn+2 − 2pn+1 + pn) introduciendo dos ceros convenientes (ni quita ni pone) p ≈ pnpn+2 − p2 n+1 + (p2 n − p2 n) + (2pn+1pn − 2pn+1pn) (pn+2 − 2pn+1 + pn) p ≈ p2 n + pnpn+2 − 2pn+1pn − p2 n − 2pn+1pn + p2 n+1 (pn+2 − 2pn+1 + pn) p ≈ pn (pn + pn+2 − 2pn+1) − p2 n − 2pn+1pn + p2 n+1 (pn+2 − 2pn+1 + pn) p ≈ pn − (pn − pn+1)2 (pn+2 − 2pn+1 + pn) . As´ı, estamos definiendo una subsucesi´on {ˆpn}∞+ n=0 desde la sucesi´on {ˆpn}∞+ n=0 generada por alg´un algoritmo con convergencia lineal: ˆpn ≈ pn − (pn − pn+1)2 (pn+2 − 2pn+1 + pn) la cual establece que; lim n→∞+ |ˆpn+1 − p| |pn − p| = 0, es decir, {ˆpn}∞+ n=0 converge m´as rapido que {pn}∞+ n=0 . Notaci´on Solo como una forma de dar una mejor comprensi´on, se introduce la notaci´on de recurrencia progresiva, que luego se puede retomar en interpolaci´on e integraci´on num´erica. Esta es, dada la sucesi´on {pn}∞+ n=0 podemos definir la diferencia ∆pn = pn+1 − pn con n ≥ 0 y la diferencia progresiva ∆k = ∆ ∆k−1 pn con k ≥ 2. 23
  • 24.
    Por ejemplo, sik = 2 ∆2 pn = ∆ (∆pn) = ∆ (pn+1 − pn ) = ∆pn+1 − ∆pn = pn+2 − pn+1 − (pn+1 − pn) ∆2 pn = pn+2 − 2pn+1 + pn con lo cual, establecemos un nuevo algoritmo reescrito como: ˆpn ≈ pn − (∆pn)2 ∆2pn con n ≥ 0. llamado el Algoritmo de Aitken. Obs: Seg´un se ha visto, el m´etodo de Aitken es un algoritmo complementario a cualquier m´etodo aplicado que tenga convergencia lineal y su contribuci´on es al usar ambos combinados llegar a una convergencia superior a uno, cuadr´atica. M´etodo de Steffensen Este m´etodo es la combinaci´on de el Algoritmo de Aitken m´as el m´etodo de punto fijo de convergencia lineal como es ya sabido. Como un resumen general podemos ver el esquema para encontrar la soluci´on de p = g(p) es: Paso 1. Comenzar con chute inicial p0. Paso 2. Para n = 0, ... p (n) 0 = p0 p (n) 1 = g p (n) 0 p (n) 2 = g p (n) 1 y determinar p0 = ˆp (n+1) 0 = p (n) 0 − ∆p (n) 0 2 ∆2p (n) 0 Paso 3. Repetir hasta: ˆp (n+1) 0 − ˆp (n) 0 < ε para 0 < ε << 1, dado. Ejercicio: Determinar las ra´ıces de f(x) = x2 − cos(x) usando el m´etodo de Steffensen y comparar con N-R, punto fijo y Aitken. Antes de resolver observemos que f(x) es una funci´on par f(−x) = (−x)2 − cos(−x) = f(x) 24
  • 25.
    luego su graficatiene simetr´ıa con respecto al eje Y entonces si encontramos una ra´ız la otra es su inverso aditivo. Para usar Steffensen y Punto fijo debemos tener una funci´on de punto fijo, si I = [0, 1] entonces i) Sea x = g(x) = cos(x) entonces 0 ≤ x ≤ 1 cos(0) ≤ cos(x) ≤ cos(1) / √ cos(0) ≤ cos(x) ≤ cos(1) 0.735 05 ≤ g(x) ≤ 1 luego g(x) ∈ [0.735 05, 1] ⊂ [0, 1] = I (existencia del punto fijo) ii) La derivada de g es: g (x) = − 1 2 √ cos x sin x |g (x)| = − 1 2 √ cos x sin x = 1 2 |sin(1)| √ cos 0 = 0.420 74 < 1 luego |g (x)| ≤ k = 0.42074. (punto fijo ´unico) Considerando un chute inicial p0 = 1 las iteraciones del m´etodo de Steffensen son: n p (n) 0 p (n) 1 = g p (n) 0 p (n) 2 = g p (n) 0 p0 = ˆp (n+1) 0 = p (n) 0 − ∆p (n) 0 2 ∆2p (n) 0 0 1.0 0.735 05 0.861 28 0.820 55 1 0.820 55 0.825 72 0.823 42 0.824 13 2 0.824 13 0.824 13 0.824 13 0.824 13 La tabla adjunta compara con otros m´etodos y deja claro la efectividad de Steffensen. k P.fijo Aitken Steffensen N-R 0 1.0 0.820545868 0.820545868 1.0 1 0.735052587 0.823387630 0.824131023 0.838218410 2 0.861275501 0.823989495 0.824132312 0.824241868 3 0.807137107 0.824103654 0.824132319 4 0.831606374 0.824126663 0.824132312 5 . . . . . 11 0.824106268 0.824132312 . . . 25 0.824132312 Obs: De igual forma que el m´etodo de N-R la convergencia del m´etodo de Steffensen es cuadr´atica pero no sirve o no funciona bien para raices con multiplicidad m > 1 (g (p) = 0). 25
  • 26.
    Tarea: Resolver x3 + 4x2 −10 = 0, usando los algoritmos estudiados y compare las iteraciones de cada uno en una tabla de resultados. 26