1. 2017
JIMENEZ LIMON CESAR ALEJANDRO
FACULTAD DE ESTUDIOS SUPERIORES
ACATLAN
17/05/2017
METODOS NUMERICOS II
2. 1
Índice
1. Introducción de los métodos numéricos
1.1 Método del punto fijo
1.2 Método de Newton
1.3 Método de Newton modificado
1.4 Método de cuasi Newton
2. Interpolación y aproximación polinomial
2.1 Formula de Lagrange
Diferencias divididas
Interpolación de Newton
Método de Hermite
2.2 Teoría de la aproximación
Spline cubico
Mínimos cuadrados
3. Diferenciación e integración numérica
3.1 Derivación numérica
Extrapolación de Richardson
3.2 Formulas de Newton-Cotes
Regla trapezoidal
Regla de Simpson 1/3
Regla de Simpson 3/8
3.3 Integración de Romberg
3. 2
Introducción
Mediante un enfoque básico y aplicado, esta obra aborda varias facetas del
cálculo numérico: la presentación de los métodos, el desarrollo de los algoritmos,
la programación y su aplicación a la resolución de problemas.
La ciencia y la tecnología describen los fenómenos reales mediante modelos
matemáticos. El estudio de estos modelos permite un conocimiento más profundo
del fenómeno, así como de su evolución futura. La matemática aplicada es la rama
de las matemáticas que se dedica a buscar y aplicar las herramientas más
adecuadas a los problemas basados en estos modelos. Desafortunadamente, no
siempre es posible aplicar métodos analíticos clásicos por diferentes razones:
No se adecúan al modelo concreto.
Su aplicación resulta excesivamente compleja.
La solución formal es tan complicada que hace imposible cualquier
interpretación posterior.
Simplemente no existen métodos analíticos capaces de proporcionar
soluciones al problema.
En estos casos son útiles las técnicas numéricas, que mediante una labor de
cálculo más o menos intensa, conducen a soluciones aproximadas que son
siempre numéricos. El importante esfuerzo de cálculo que implica la mayoría de
estos métodos hace que su uso esté íntimamente ligado al empleo de
computadores. De hecho, sin el desarrollo que se ha producido en el campo de la
informática resultaría difícilmente imaginable el nivel actual de utilización de las
técnicas numéricas en ámbitos cada día más diversos.
4. 3
1.1 Método del punto fijo
La primera técnica para resolver sistemas no lineales consiste en escribir las ecuaciones
que componen el sistema de la forma:
fi(x1, x2, …, xn) = 0 para i = 1, 2, …, n,
y se trataran de encontrar los valores (x1, x2, …, xn) que satisfagan todas las ecuaciones
del sistema.
Cada una de las ecuaciones se resuelve para una variable de tal manera que se
obtenga: xi = gi(x1, x2, …, xn) para i = 1, 2, …, n.
Estas ecuaciones se toman como fórmulas recursivas para obtener una estimación
a partir de una estimación previa, para lo que se escriben de la siguiente forma:
xi(k+1) = gi(x1k, x2k, …, xnk) para i = 1, 2, …, n.
Se comienza con valores iniciales (x10, x20, …, xn0), se calculan nuevos valores
(x11, x21, …, xn1) y se repite el proceso, esperando que en cada iteración los
valores se aproximen a la raíz buscada, la cual cumple con: xi = gi(x1, x2, …, xn)
para i = 1, 2, …, n.
Ejemplo:
Sea el siguiente sistema de ecuaciones:
f1(x, y) = x2 - 2x – y + 0.5
f2(x, y) = x2 + 4y2 - 4
Para encontrar los puntos en que coinciden ambas funciones se requiere generar una
sucesión {(x(k), y(k))} convergente a una de las soluciones. Para ello, se debe despejar la
variable x de la primera ecuación, lo cual se puede hacer directamente; sin embargo para
despejar la variable y de la segunda, se le agrega un múltiplo “adecuado” a cada
miembro, en este caso -8y, para obtener x2 + 4y2 – 4 - 8y = -8y:
𝑥 = 𝑔1(𝑥,𝑦) =
x2 −y +0.5
2
𝑦 = 𝑔2(𝑥,𝑦) =
−x2 −4y2 +4+8y
8
Estas dos ecuaciones se emplean como fórmulas recursivas empezando con un punto
inicial (x0, y0) = (0, 1). Las iteraciones se muestran en la siguiente tabla:
5. 4
K X Y
0 0 1
1 -0.25 1
2 -0.21875 0.9921875
3 -0.22216797 0.99398804
4 -0.22231472 0.9938121
5 -0.22219413 0.99380288
6 -0.22221632 0.99380952
7 -0.22221471 0.99380833
8 -0.22221447 0.99380841
9 -0.22221457 0.99380842
En donde se puede observar que el punto de intersección es (-0.2222, 0.9938). Si se
intenta con otro punto, por ejemplo (2, 0), la sucesión diverge, ya que el esquema iterativo
empleado no sirve para encontrar la otra raíz, para lo cual es necesario escribir un par de
fórmulas distintas. Ahora se agregará -2x a la primera ecuación y -11y a la segunda:
𝑥 =
−x2 +4x +y −0.5
2
𝑦 =
−x2 −4y2 +11y+4
11
Los resultados de aplicar estas ecuaciones como fórmulas recursivas con un punto inicial
igual a (2,0) genera el punto (1.9, 0.3112). Como pudo observarse, el mismo par de
fórmulas no se puede emplear para obtener las dos raíces. Esto está directamente
relacionado con el valor de la derivada de la forma iterativa, la cual tiene que estar entre
cero y uno en el intervalo en cuestión, para una convergencia monótona o entre menos
uno y cero para una convergencia oscilante. En este caso al tratarse de funciones de
varias variables deben emplearse las derivadas parciales.
Ventajas y desventajas:
Es una extensión de los métodos de Jacobi y Gauss-Seidel.
La forma de despejar cada una de las variables a partir de las funciones afecta la
convergencia.
Si el método converge, lo hace linealmente.
La norma vectorial se utiliza como criterio de paro.
Una condición suficiente aunque no necesaria, para asegurar la convergencia es
que ∑ |𝜕𝑔𝑖 𝜕𝑥𝑗 |𝑛 𝑗=1 ≤ 𝑀 < 1, para i = 1, 2, …, n. Por otro lado, si M es muy
pequeña en una región de interés, la sucesión converge rápidamente, si M es
cercana a 1 en magnitud, entonces convergerá lentamente. Sin embargo, es muy
difícil encontrar el sistema para la forma iterativa que satisfaga esta condición.
Para acelerar la convergencia se pueden emplear los desplazamientos sucesivos
en lugar de los simultáneos.
6. 5
1.2 Método de Newton
Un sistema de ecuaciones no lineales puede representarse de la siguiente manera:
f1(x1, x2, …, xn) = 0
f2(x1, x2, …, xn) = 0
:
fn(x1, x2, …, xn) = 0
Donde fi(x1, x2, …, xn) = 0 para i = 1, 2, …, n es una función (lineal o no) de las variables
independientes x1, x2, …, xn.
Para resolver este tipo de sistemas de ecuaciones se requieren algunos conceptos
previos, los cuales se presentan a continuación.
Definición. Matriz jacobiana
variables (xj) independientes. Su matriz jacobiana J(x1,x2, …, xn), está dada por las
derivadas parciales de cada una de las funciones con respecto a cada una de las
variables:
J=
𝑓1𝑥1 𝑓1𝑥2 …
𝑓2𝑥1 𝑓2𝑥2 …
𝑓3𝑥1 𝑓3𝑥2 …
… 𝑓1𝑥𝑛
… 𝑓2𝑥𝑛
… 𝑓3𝑥𝑛
∶ : :
𝑓𝑛𝑥1 𝑓𝑛𝑥2 … … 𝑓𝑛𝑥𝑛
La diferencial. En una función de varias variables, la diferencial es el instrumento que se
usa para mostrar el efecto de los cambios de las variables independientes en las variables
dependientes. Supóngase que los valores de las funciones fi(x1, x2, …, xn) se conocen
en el punto (x10, x20, …, xn0) y se desean estimar sus valores en un punto cercano (x1,
x2, …, xn). Si se denotan con fi los cambios diferenciales en las variables dependientes y
es, esto puede escribirse
con notación matricial de la siguiente manera:
𝑓1𝑥1 𝑓1𝑥2 …
𝑓2𝑥1 𝑓2𝑥2 …
𝑓3𝑥1 𝑓3𝑥2 …
… 𝑓1𝑥𝑛
… 𝑓2𝑥𝑛
… 𝑓3𝑥𝑛
∆𝑥1
∆𝑥2
∆𝑥3
= _
𝑓1
𝑓2
𝑓3
∶ : :
𝑓𝑛𝑥1 𝑓𝑛𝑥2 … … 𝑓𝑛𝑥𝑛
:
∆𝑥𝑛
:
𝑓𝑛
7. 6
El diferencial es la ecuación matricial que se utiliza en los métodos para solución de
ecuaciones no lineales ya que puede transformarse en una forma iterativa.
Este método para resolver sistemas de ecuaciones no lineales es linealizar y resolver
repetidamente; esta es la estrategia que emplea el método de Newton para resolver una
sola ecuación no lineal y que se generaliza para sistemas no lineales.
Usando notación vectorial para escribir el sistema se tiene: F(X) = 0
Definiendo los vectores columna como
F = [f1, f2, …, fn)]t
X = [x1, x2, …, xn]t
La extensión del método de Newton para sistemas no lineales es:
X(k + 1) = X(k) – [F´(x(k))]-1F(x(k))
Donde F´(x(k)) es la matriz jacobiana.
Ejemplo:
Sea el siguiente sistema de ecuaciones:
(𝑥,𝑦) = 4−𝑥2 −𝑦2 = 0
(𝑥,𝑦) = 1−𝑒𝑥 −𝑦 = 0
Se obtienen las derivadas parciales para escribir la matriz jacobiana:
𝑓𝑥 = −2𝑥 𝑓𝑦 = −2𝑦
𝑔𝑥 = −𝑒𝑥 𝑔𝑦 = −1
8. 7
A partir de la gráfica, se elige como inicial valor (1, -1.7), valores de x0 y y0 que se
sustituyen en las derivadas con lo que obtiene la matriz jacobiana y el siguiente sistema:
(
−2 3.4
−2.7183 −1
)
∆𝑥0
∆𝑦0
= _
0.1100
−0.0183
Al resolver, los valores para ∆x0 = 0.0043 y ∆y0 = -0.298 con lo que se obtiene la nueva
aproximación x0 = 1.0043 y y0 = -1.7298. Estos valores ya coinciden con los valores de la
raíz aunque se puede hacer otra iteración para mejorar la aproximación.
(
−2.0085 3.4597
−2.7299 −1
)
∆𝑥1
∆𝑦1
= _
−0.0009
−0.00002
Al resolver este sistema, los valores para ∆x1 = -0.00008682 y ∆y1 = -1.0743E-8,
entonces la nueva aproximación es: x0 = 1.00416875 y y0 = -1.7298. Como puede verse,
el valor de los incrementos es muy pequeño, entonces las iteraciones se detienen cuando
la norma del vector de los incrementos es menor a una tolerancia previamente
establecida.
Ventajas y desventajas:
El método der Newton aplicado a un sistema de ecuaciones no lineales, reduce el
problema a la solución de un sistema de ecuaciones lineales (serie de Taylor) para
determinar los valores que mejoran la exactitud de las estimaciones.
El método de Newton tiene la ventaja de converger cuadráticamente, por lo menos
si se está cerca de la raíz, pero es costoso en términos de evaluaciones
funcionales.
Es importante recordar que la deducción del método de Newton se realiza a partir
de la serie de Taylor, en esta ocasión multivariada, lo que permite determinar la
convergencia cuadrática del método.
La sucesión generada por este método puede divergir si los valores iniciales no
están los suficientemente cercanos a la raíz.
9. 8
1.3 Método de Newton modificado
Este método de Newton-Raphson modificado consiste en aplicar n (n número de
ecuaciones) veces el método de Newton univariable, una para cada variable. Cada vez
que se hace esto, se consideran las otras variables fijas.
Sea el sistema: 𝑓 (𝑥1,2,⋯,𝑥𝑛) = 0 con i = 1, 2, …, n.
Se eligen los valores iniciales (𝑥1 𝑘, 𝑥2 𝑘,⋯, 𝑥𝑛 𝑘) y empleando el método de Newton se
calcula un nuevo valor, aunque al tratarse de una ecuación de varias variables se emplea
la derivada parcial evaluada en los valores iniciales:
𝑥𝑖 𝑘+1 = 𝑥𝑖 𝑘 −
𝑓 𝑖( 𝑥1 𝑘,𝑥2 𝑘,⋯,𝑥𝑛 𝑘)
𝜕𝑓 𝑖 𝑘
𝜕𝑥 𝑖 𝑘
Con lo cual se obtendría (𝑥1 1,2 1,⋯,𝑥𝑛 1) y se procede de forma sucesiva hasta alcanzar
una tolerancia previamente establecida. Normalmente este método converge si los
valores iniciales de las variables son cercanos a la raíz y requiere la evaluación de sólo 2n
funciones por paso. Al igual que en el método anterior se pueden emplear
desplazamientos simultáneos o sucesivos.
Ejemplo:
Resolver el siguiente sistema por el método de Newton modificado
f1(x, y) = x2 - 10x + y2 + 8 = 0
f2(x, y) = xy2 + x – 10y + 8 = 0
Se calculan las derivadas parciales
𝜕𝑓1
𝜕𝑥
= 2x-10,
𝜕𝑓2
𝜕𝑦
=2xy-10
10. 9
Iniciando con los valores iniciales (0, 0)
Desplazamientos simultáneos
K X Y f1 f2 df1/dx df2/dy
0 0 0 8 8 -10 -10
1 0.8 0.8 1.28 1.312 -8.4 -8.72
2 0.9524 0.95046 0.28659 0.30815 -8.09524 -8.1896
3 0.9878 0.98809 0.07419 0.07131 -8.02443 -8.04797
4 0.997 0.99695 0.01768 0.01851 -8.00594 -8.01203
5 0.9992 0.99926 0.00462 0.00442 -8.00153 -8.00301
6 0.9998 0.99981 0.0011 0.00115 -8.00037 -8.00075
7 1 0.99995 0.00029 0.00028 -8.0001 -8.00019
8 1 0.99999 6.9E-05 0.00007 -8.00002 -8.00005
Desplazamientos sucesivos
K X Y f1 df1/dx f2 df2/dy
0 0 0 8 -10 8.8 -10
1 0.8 0.88 1.4144 -8.4 0.918295 -8.29565
2 0.968381 0.9907 0.23543 -8.06324 0.069721 -8.0234
3 0.997579 0.99939 0.01815 -8.00484 0.004606 -8.00154
4 0.999846 0.99996 0.00116 -8.00031 0.000289 -8.0001
5 0.99999 1 0.00007 -8.00002 -1.99998 -10
Emplear desplazamientos sucesivos puede producir convergencia para algunos arreglos y
divergencia para otros (probar con el vector inicial (2, 3).
Ventajas y desventajas:
Este método, normalmente converge si los valores iniciales están muy cerca de la
raíz.
Sólo requiere la evaluación de 2n funciones por paso.
Dado que las variables prácticamente se van resolviendo por separado, es posible
que alguna de ellas diverja.
No hay manera de saber cuándo el vector inicial convergerá o no, siendo ésta la
principal desventaja del método.
11. 10
1.4 Método de cuasiNewton
Este método requiere n evaluaciones funcionales por iteración y también disminuye el
número de cálculos aritméticos a O(𝑛2), ya que reemplaza a la matriz Jacobiana con una
matriz de aproximación que se actualiza en cada iteración. Su desventaja radica en que
se pierde la convergencia cuadrática de Newton, al ser sustituida por una convergencia
denominada superlineal.
En la mayoría de las aplicaciones la reducción a la convergencia superlineal disminuye los
cálculos. Otra desventaja es que, a diferencia del método de Newton, no es
autocorregible. El método de Newton generalmente corregirá el error del redondeo, con
iteraciones sucesivas, no así el método de Broyden, salvo que se incorporen medidas
especiales de corrección.
El método de Broyden consiste en que a partir de una aproximación inicial X(0) a la
solución F(x) = 0, se calcula la siguiente aproximación X(1) por el método de Newton. No
obstante para calcular X(2) ya no se hace con el método de Newton y se recurre al
método de la secante. En el método de la secante univariable se emplea la siguiente
fórmula para sustituir el cálculo de la derivada:
𝑓´(𝑥1) =
𝑓(𝑥1) − 𝑓(𝑥0)
𝑥1 − 𝑥0
Dado que en el caso de los sistemas no lineales, X(1) – X(0) es un vector, el cociente
correspondiente esta indefinido. Sin embargo, el método procede de manera semejante al
método de Newton, porque la matriz J(X(1)) es reemplazada por una matriz A que tiene la
propiedad de que:
((1) − (0)) = ((1)) − ((0))
Esta matriz es la que se usa para determinar X(2) como:
(2) = (1) − 𝐴1−1((1))
Y cuyos componentes se obtienen con dos iteraciones previas 𝑋 𝑘 y 𝑋 𝑘−1, de la siguiente
manera
𝐴 𝑘
= 𝐴 𝑘−1
+
[𝐹(𝑋 𝑘) − 𝐹(𝑋 𝑘−1) − 𝐴(𝑘−1)(𝑋 𝑘 − 𝑋 𝑘−1)](𝑋 𝑘 −𝑋 𝑘−1)𝑡
‖(𝑋 𝑘 − 𝑋 𝑘−1)‖
O bien
𝐴 𝑘
= 𝐴 𝑘−1
+
[∆𝐹 𝑘 − 𝐴 𝑘−1∆𝑋 𝑘 ](∆𝑋 𝑘)𝑡
‖(∆𝑋 𝑘)‖
12. 11
Donde
∆𝐹 𝑘
= 𝐹(𝑋 𝑘
) − 𝐹(𝑋 𝑘−1
) y ∆𝑋 𝑘
=𝑋 𝑘
− 𝑋 𝑘−1
Ejemplo:
Usar método de Broyden para aproximar la solución del sistema
f1(x, y) = x2 – 10x + y2 + 8 = 0
f2(x, y) = xy2 + x – 10y + 8 = 0
Tomando como valor inicial X = [0, 0]t. Para empezar se realiza una iteración con el
método de Newton
𝑋1=(
0
0
) - (
−10 0
1 −10
)
−1
(
8
8
)=(
0.8
0.88
)
Se calcula la inversa con la ecuación empleando la matriz jacobiana para la primera
iteración.
(A(1))−1= (
−0.1 0
−0.01 −0.1
) +
( 0.8
0.88
) − (
−0.1 0
−0.01 −0.1
) ( −6.5856
−7.38048
) ( 0.8
0.88
)
𝑡
(
−0.1 0
−0.01 −0.1
)
( 0.8
0.88
)
𝑡
( −0.1 0
−0.01 −0.1
) ( −6.5856
−7.38048
)
= (
−0.11015 −0.010079
−0.01546 −0.105404
)
Ventajas y desventajas:
Tiene una convergencia superlineal, pero no cuadrática.
No es auto corregible.
El uso del método en esta forma no se justificaría, debido a la reducción a la
convergencia superlineal a partir de la convergencia cuadrática del método de
Newton.
13. 12
Interpolación y aproximación polinomial
En la cotidianeidad es fácil encontrarse con datos tabulados de la forma (xi, yi), para i = 0,
1, …, n, tales como la presión de una sustancia a diferentes temperaturas, la población en
diferentes tiempos, las distancias a diferentes velocidades, entre otros. En estos casos y =
f(x) y f(x) es una función desconocida; y es común la necesidad de conocer algún valor de
y para alguna x que no se encuentra en la tabla. Este procedimiento es lo que se conoce
como Interpolación.
Por consiguiente, interpolación es el cálculo de valores para una función tabulada en
puntos que no se encuentran en la tabla de valores. Mediante este proceso se puede
obtener una representación explícita de una aproximación a f(x), lo que permite además
construir fórmulas de diferenciación e integración numérica y obtener formas simplificadas
de funciones “complejas”.
2.1 Formula de Lagrange
Si se tiene un conjunto de n + 1 puntos (xi , yi) para i = 0, 1, ... , n para representar a y
como una función de valuación única de x, es posible encontrar un polinomio único de
grado n que pasa por los puntos. Por ejemplo, es posible encontrar una recta única que
pasa por dos puntos, y es posible encontrar un polinomio cuadrático único que pasa por
tres puntos.
La ecuación polinomial para y se puede modelar mediante
y= 𝑎0+𝑎1 𝑥+𝑎2 𝑥2+…+𝑎 𝑛 𝑥 𝑛
y los n + 1 puntos se pueden usar para escribir n + 1 ecuaciones para los coeficientes ai.
Estas ecuaciones son
𝑦𝑗=𝑎0+ 𝑎1 𝑥𝑗 + 𝑎2 𝑥𝑗
2+ … + 𝑎 𝑛−1 𝑥𝑗
𝑛 j=0,1,2,…,n
y constituyen un sistema de ecuaciones algebraicas lineales.
Los polinomios de Lagrange se pueden determinar especificando algunos puntos en el
plano por los cuales debe pasar.
Consideremos el problema de determinar un polinomio de grado 1 que pase por los
puntos distintos (x0, y0) y (x1, y1). Este problema es el mismo que el de aproximar una
función f, para la cual f(x0) = y0 y f(x1) = y1, por medio de un polinomio de primer grado,
interpolando entre, o coincidiendo con, los valores de f en los puntos dados.
Sea el polinomio
P(x)=
(𝑥−𝑥1)
(𝑥0−𝑥1)
y0 +
(𝑥−𝑥0)
(𝑥1−𝑥0)
y1
14. 13
cuando x = x0
P(x0)=
(𝑥0−𝑥1)
(𝑥0−𝑥1)
y0 +
(𝑥0−𝑥0)
(𝑥1−𝑥0)
y1=y0=f(x0)
así que P tiene las propiedades requeridas.
Para generalizar el concepto de interpolación lineal, considérese la construcción de un
polinomio a lo más de grado n que pase por los n+1 puntos (x0, f(x0)), (x1, f(x1)), (x2,
f(x2)), ... , (xn, f(xn)) El polinomio lineal que pasa por (x0, f(x0)) y (x1, f(x1)) se construye
usando los cocientes.
𝐿0(x)=
(𝑥−𝑥1)
(𝑥0−𝑥1)
𝐿1(x)=
(𝑥−𝑥0)
(𝑥1−𝑥0)
Cuando x = x0, L0(x0) = 1, mientras que L1(x0) = 0. Cuando x = x1, L0(x1) = 0, mientras
que L1(x1) = 1.
Para el caso general, se necesita construir, para cada k = 0, 1, ..., n, un cociente Ln,k(x)
con la propiedad de que Ln,k(xi) = 0 cuando i ≠ k y que Ln,k(xk) = 1 cuando x = xk.
Ejemplo:
Las densidades de sodio para tres temperaturas están dadas por
i Temperatura 𝒕𝒊 (en °C) Densidad 𝒅 𝒊
0 94 929
1 205 902
2 371 860
Determinar la densidad para t = 251°C
Para obtener el valor de los cocientes, se sustituye el valor
t = 251, entonces, la densidad del sodio a una temperatura de t = 251°C es d =
890.556117 kg/m3.
Ventajas y desventajas:
Para la construcción del polinomio de Lagrange es importante conocer de
antemano el grado del polinomio ya que cambiarlo implicaría realizar todos los
cálculos desde un inicio.
La implementación del método de Lagrange en un programa de computadora es
bastante sencillo.
Dada la sencillez del método, es común su uso como parte de otros métodos,
como por ejemplo, métodos para la solución de ecuaciones diferenciales.
Para la construcción del polinomio de Lagrange, los datos no requieren estar
ordenados, ni igualmente espaciados.
15. 14
El polinomio de Lagrange puede emplearse para deducir fórmulas de
diferenciación e integración numérica.
Los polinomios de interpolación generan oscilaciones conforme aumenta el grado
del mismo, por consiguiente se recomienda no emplear polinomios de grados muy
elevados, aunque sea necesario construir más de un polinomio con la misma tabla
de datos
16. 15
Diferencias divididas
Los métodos de interpolación iterada (Lagrange) sirven para determinar los valores de los
polinomios de interpolación de grado sucesivamente mayor en un punto particular. Sin
embargo, cada uno de los elementos en la tabla de interpolación depende del punto que
se está evaluando, así que la tabla no se puede usar para encontrar una representación
explícita del polinomio que aproxima a la función.
Los métodos para determinar la representación explícita de un polinomio de interpolación,
a partir de datos tabulados, se conocen como métodos de diferencias divididas, y pueden
usarse para derivar técnicas para aproximar las derivadas y las integrales de funciones,
así como para aproximar las soluciones de ecuaciones diferenciales.
El tratamiento de las tablas de diferencias divididas supone que la función f(x) es conocida
para varios valores de x. Dichos valores no necesariamente están igualmente espaciados
u obedecen algún orden (sin embargo, si están ordenados puede ser ventajoso).
Supóngase que Pn es un polinomio de grado a lo más n que coincide con la función f en
los números distintos x0, x1, ... , xn. Las diferencias divididas de f con respecto a x0, x1,
... , xn se pueden derivar demostrando que Pn tiene la representación:
𝑃𝑛(x)=𝑎0+𝑎1(𝑥 − 𝑥0)+ 𝑎2(𝑥− 𝑥0)(𝑥 − 𝑥1)+…+ 𝑎 𝑛(𝑥 − 𝑥0)(𝑥 − 𝑥1)…(𝑥 − 𝑥 𝑛−1)
con constantes apropiadas a0, a1, ... , an. Entonces, evaluando Pn en x0 queda
solamente el término constante a0, es decir, a0 = Pn(x0) = f(x0).
Similarmente, cuando Pn se evalúa en x1:
𝑓(𝑥0) + 𝑎1(𝑥1 − 𝑥0)= 𝑃𝑛(𝑥1)=𝑓(𝑥1)
así que: 𝑎1=
𝑓(𝑥1)−𝑓(𝑥0)
𝑥1−𝑥0
Es aquí donde se introduce la notación de diferencia dividida. La diferencia dividida cero
de la función f, con respecto a xi, se denota por f[xi], y es simplemente la evaluación de f
en xi.
𝑓[𝑥𝑖] = 𝑓(𝑥𝑖)
Las diferencias divididas restantes se definen inductivamente, la 1ª diferencia dividida de f
con respecto a xi y xi+1, se denota por f[xi, xi+1.] y está definida como:
𝑓[ 𝑥𝑖,𝑥𝑖+1]=
𝑓[ 𝑥𝑖+1]−𝑓[𝑥𝑖]
𝑥𝑖+1 − 𝑥𝑖
17. 16
Cuando las (k – 1) diferencias divididas
𝑓[ 𝑥𝑖,𝑥𝑖+1,𝑥𝑖+2,… ,𝑥𝑖+𝑘] 𝑦 𝑓[ 𝑥𝑖,𝑥𝑖+1,𝑥𝑖+2,… ,𝑥𝑖+𝑘]
se han determinado, la k-ésima diferencia dividida de f relativa a xi, xi+1, xi+2, ... , xi+k
Ejemplo:
Escribir el polinomio de interpolación de grado 3, empleando la siguiente tabla
𝒙 𝒊 𝒇𝒊 f(1) f(2) f(3) f(4)
3.2 22.0 8.400 2.856 -0.528 0.256
2.7 17.8 2.118 2.012 0.0865
1.0 14.2 6.342 2.263
4.8 38.3 16.750
5.6 51.7
P3(x) = 22.0 + 8.400(x – 3.2) + 2.856(x – 3.2)(x – 2.7) – 0.528(x – 3.2)(x – 2.7)(x – 1.0)
Nota:
Todos los polinomios que pasan por el mismo número de puntos y estos son los
mismos, son idénticos.
Cuando los valores tabulados corresponden a un polinomio de grado n, las n-
ésimas diferencias divididas van a ser iguales e iguales al coeficiente del término
de la xn.
18. 17
Interpolaciónde Newton
El método de interpolación de Newton es un poco más complicado en su programación
que el de Lagrange, pero también más versátil, ya que si los datos están ordenados e
igualmente espaciados la fórmula se puede simplificar y además mejorar la precisión.
Cuando x0, x1, ... , xn, están ordenados consecutivamente e igualmente espaciados, la
fórmula de diferencias divididas:
(𝑥) = [𝑥0]+∑ [𝑥0,1,…,𝑥𝑘](𝑥 −𝑥0)(𝑥−𝑥1)…(𝑥 −𝑥𝑘−1)
Se puede expresar en una forma simplificada:
Introduciendo la notación de h = xi+1 – xi para cada i = 0, 1, ... , n – 1
Haciendo x = x0 + sh, la diferencia (x – xi) puede escribirse como x – xi = (s – i)h;
Así que la fórmula se transforma en:
Pn(x) = Pn(x0 + sh) = f[x0] + shf[x0, x1] + s(s – 1)h2f[x0, x1, x2] + . . . + s(s – 1) (s – 2) …
(s – n + 1) hnf[x0, x1, … , xn]
Fórmula de diferencias divididas progresiva de Newton
Considerando que los datos están igualmente espaciados se puede construir el polinomio
haciendo uso de la notación de diferencia progresiva, Δ. Con esta notación:
[𝑥0,1]=
f(x1)− f(x0)
x1 − x0
=
∆f(x0)
ℎ
;
[𝑥0,1,𝑥2] =
∆f(x1)−∆f(x0)
2ℎ2 =
∆2f(x0)
2ℎ2
El polinomio queda de la siguiente forma:
(𝑥) = (𝑥0)+𝑠∆(𝑥0)+𝑠(𝑠 −1)
∆2f(x0)
2!
+⋯+ 𝑠(𝑠 −1)(𝑠 −2)…(𝑠 −𝑛 −1)
∆ 𝑛f(x0)
𝑛!
Ejemplo:
Construir una tabla de diferencias a partir de los siguientes datos e interpolar para x = 1.2
𝒙𝒊 𝒇(𝒙𝒊) ∆ 𝒇(𝒙𝒊) ∆ 𝟐
𝒇(𝒙𝒊) ∆ 𝟑
𝒇(𝒙𝒊) ∆ 𝟒
𝒇(𝒙𝒊)
1.0 0.765198 -0.145112 -0.019573 0.010672 0.000326
1.3 0.620086 -0.164684 -0.008899 0.011027
1.6 0.455402 -0.173583 0.002127
1.9 0.281819 -0.171456
2.2 0.110362
19. 18
Con h = 0.3 y s = 2/3, empleando la fórmula de diferencias progresivas de Newton, se
obtiene
𝑃4(1.2) = 0.67114889
Estos resultados son idénticos a los que se obtendrían con las fórmulas de diferencias
divididas o con la de diferencias divididas progresivas, ya que son equivalentes, pero en
este caso se sustituye el cálculo de las diferencias divididas sólo por diferencias.
Ventajas y desventajas:
Cuando se va a lleva a cabo sólo una interpolación, Newton y Lagrange requieren
de un esfuerzo de cálculo similar. Sin embargo, Lagrange es un poco más fácil de
programar. También existen casos en donde la forma de Newton es más
susceptible a los errores de redondeo. Debido a esto y a que no se requiere
calcular y almacenar diferencias divididas, la forma de Lagrange se usa, a
menudo, cuando el orden del polinomio se conoce con anterioridad.
La interpolación por diferencias de Newton es una modalidad de las tablas de
diferencias divididas pero con intervalos uniformes, lo que simplifica el polinomio y
la tabla de diferencias, disminuyendo el número de operaciones.
Los datos tienen que estar igualmente espaciados.
Los valores a interpolar tienen que ubicarse al final o al inicio de la tabla.
20. 19
Método de Hermite
Un polinomio se puede ajustar no solo a los valores de la función sino también a las
derivadas en los puntos. Los polinomios ajustados a los valores de la función y de su
derivada se llaman polinomios de interpolación de Hermite o polinomios oscilantes.
Si f ∈ C1[a, b] y x0, x1, x2, ..., xn ∈ [a, b] son distintos, el único polinomio de menor grado
que coincide con f y f’ en x0, x1, x2, ..., xn es un polinomio de grado a lo más 2n + 1 dado
por
𝐻2𝑛+1(x)=∑ 𝑓( 𝑥𝑗)𝑛
𝑗=0 𝐻 𝑛,𝑗(𝑥)+ ∑ 𝑓′( 𝑥𝑗)𝑛
𝑗=0 𝐻′ 𝑛,𝑗(𝑥)
Donde
𝐻 𝑛,𝑗( 𝑥) = [1 − 2(𝑥 − 𝑥 𝑗)𝐿′ 𝑛,𝑗( 𝑥) ] 𝐿2
𝑛,𝑗( 𝑥)
𝐻′ 𝑛,𝑗( 𝑥)=(𝑥 − 𝑥 𝑗) 𝐿2
𝑛,𝑗( 𝑥)
En este contexto, Ln,j denota al j-ésimo coeficiente polinomial de Lagrange de grado n.
Donde el término del error:
f(x)- 𝐻2𝑛+1(𝑥)=
(𝑥−𝑥0)2
… (𝑥−𝑥 𝑛)2
(2𝑛+2)!
𝑓
(2𝑛+2)
(𝜀)
para alguna ε con a < ε < b.
Ejemplo:
Con los siguientes datos, encontrar una aproximación para f(2.5)
x f(x) f’(x)
2.2 0.5207843 -0.0014878
2.4 0.5104147 -0.1004889
2.6 0.4813306 -0.1883635
Cocientes de Lagrange y sus derivadas
𝐿20(2.5) = -0.125 𝐿′20 (2.2) = -7.5
𝐿21 (2.5) = 0.75 𝐿′21 (2.4) = 0
𝐿22 (2.5) = 0.375 𝐿′22 (2.6) = 7.5
22. 21
2.2 Teoría de la aproximación (ajuste de curvas)
Spline cubico
Spline cúbico es otra manera de ajustar un polinomio a un conjunto de datos, solo que
éste lo hace a través de una curva suave, la cual puede ser de varios grados.
En general, un conjunto de polinomios de n-ésimo grado se ajusta entre cada par de
puntos adyacentes, gi(x), desde xi hasta xi+1. Si el grado del spline es uno (solo hay
rectas entre los puntos).
El problema con el spline lineal es que la pendiente es discontinua en los puntos (nodos).
Los problemas de grado superior al uno, no tienen este problema. Un polinomio de
interpolación que pasa por todos los puntos también es continúo en su pendiente, sin
embargo, pueden presentar otros problemas.
Los splines de grado mayor que uno tienen pendiente continua. Aunque los splines
pueden ser de cualquier grado, los cúbicos son los más conocidos.
La aproximación mediante splines (trazadores) cúbicos se aplica a n pares ordenados de
datos. Se buscan n-1 curvas que conectan los puntos 1 y 2, 2 y 3, ..., (n - 1) y n. Además
se requiere que las dos curvas que conectan los puntos (k-1) y k y los puntos k y (k+1)
tengan la misma pendiente en el punto k. De esta manera, el ajuste de la curva resultante
es continuo y suave.
Para relacionar las pendientes y las curvaturas de los splines de unión, se deriva gi(x):
𝑔′𝑖(xi) = 3𝑎 𝑖h2 + 2𝑏𝑖h + 𝑐𝑖
𝑔′′𝑖 (xi) = 6𝑎 𝑖h + 2𝑏𝑖
Aprovechando que 𝑔′′𝑖 (xi) es lineal en el intervalo [xi, xi+1] hacemos
𝑆𝑖= 𝑔′′𝑖 (𝑥𝑖) i = 0, 1, ..., n-1
𝑆 𝑛 = 𝑔′′ 𝑛−1 (𝑥 𝑛)
Entonces 𝑆 𝑛 = 6𝑎 𝑖 (xi – xi) + 2𝑏𝑖 = 𝑔′′𝑖 (xi) = 2𝑏𝑖
𝑆 𝑛+1 = 𝑔′′𝑖 (xi+1) = 6𝑎 𝑖 (xi+1 – xi) + 2𝑏𝑖 = 6𝑎 𝑖ℎ𝑖 + 2𝑏𝑖
Despejando las incógnitas:
𝑏𝑖 =
𝑆𝑖
2
𝑎𝑖 =
𝑆𝑖+1− 𝑆𝑖
6ℎ 𝑖
Sustituyendo los valores de ai, bi y di en gi(x) = yi+1 para despejar ci:
𝑦𝑖+1 = (
𝑆𝑖+1−𝑆𝑖
6ℎ 𝑖
)ℎ𝑖
3
+
𝑆𝑖
2
ℎ𝑖
2
+ 𝑐𝑖ℎ𝑖 + 𝑦𝑖
23. 22
𝑐𝑖 =
𝑦𝑖+1 − 𝑦𝑖
ℎ𝑖
+(
𝑆𝑖+1−2 𝑆𝑖
6
) + 𝑦𝑖
A menudo se usan cuatro alternativas:
1. Spline natural: S0 = 0 y Sn = 0, las cúbicas de los extremos se aproximen linealmente a
los puntos x0 y xn. (Aplana un poco los extremos).
2. Forzar en los extremos a una pendiente específica. Si no se conocen estos valores se
usa: f’(x0) = A y f´(xn) = B En el extremo izquierdo 2h0S0 + h0S1 = 6(f[x0, x1] – A)
En el extremo derecho 2hn-1Sn-1+ 2hn-1Sn = 6(B - f[xn-1, xn])
3. S0 = S1 y Sn = Sn-1: parábolas en los spline extremos.
4. Extrapolando S0 con S1 y S2 y Sn con Sn-1 y Sn-2 (produce demasiada curvatura en
los extremos).
5. En el extremo izquierdo
𝑆1−𝑆0
ℎ0
=
𝑆2−𝑆1
ℎ1
, 𝑠0 =
(ℎ0+ℎ1 )𝑆1−ℎ0 𝑆2
ℎ1
Ejemplo:
Ajustar los datos de la siguiente tabla y evaluar los valores del spline g(0.66) y g(1.75)
x f(x) 𝒉𝒊 𝒇(𝒙𝒊,𝒙𝒊+𝟏)
0.0 2 1.0 2.4366
1.0 4.4366 0.5 4.5536
1.5 6.7134 0.75 9.59947
2.25 13.9130
Empleando el spline natural para S0 = 0 y Sn = 0. Escribiendo el sistema:
[
2(1.5) 0.5
0.5 2(1.5)
] [
𝑆1
𝑆2
]=[
12.702
30.2752
]
y resolviendo: S1 = 2.292055 y S2 = 11.65167.
Una vez que tenemos estos valores sustituimos para obtener los coeficientes. Dado que
son 4 puntos, tendremos 3 subintervalos y por consiguiente tres curvas cúbicas.
Los polinomios quedan como:
g0(x) = 0.38216(x – 0)3 + 0(x – 0)2 + 2.0546(x – 0) + 2 para 0 ≤ x ≤ 1
g1(x) = 3.119872(x – 1)3 + 1.14603(x – 1)2 + 3.200618(x – 1) + 4.4366 para 1 ≤ x ≤ 1.5
g2(x) = -2.58926(x – 1.5)3 + 5.825835(x – 1.5)2 + 6.686549(x – 1.5) + 6.7134 para 1.5 ≤
x ≤ 2.25
y finalmente: g0(0.66) = 3.465509, g2(1.75) = 8.708669.
24. 23
Mínimos cuadrados
El método de mínimos cuadrados para resolver un problema requiere determinar la mejor
línea de aproximación, cuando el error es la suma de los cuadrados de las diferencias
entre los valores de y en la línea aproximada y los valores de y dados. Por tanto hay que
encontrar las constantes a0 y a1 que reduzcan al mínimo el error de mínimos cuadrados:
E2(a0,a1) = ∑[yi − (a1 xi + a0)]
10
i=1
2
El problema de ajustar la mejor recta con mínimos cuadrados a una colección de datos
{(xi,yi )}i=1, implica minimizar el error total
E = E2(a0,a1) = ∑[yi − (a1xi + a0)]
10
i=1
2
Ejemplo:
A partir de la siguiente tabla de datos, obtener la línea de mínimos cuadrados que
aproxima estos datos
Xi Yi xi2 xiyi P(xi) (yi-P(xi))^2
1 1.3 1 1.3 1.178 0.014884
2 3.5 4 7 2.716 0.614656
3 4.2 9 12.6 4.254 0.002916
4 5 16 20 5.792 0.627264
5 7 25 35 7.33 0.1089
6 8.8 36 52.8 8.868 0.004624
7 10.1 49 70.7 10.406 0.093636
8 12.5 64 100 11.944 0.309136
9 13 81 117 13.482 0.232324
10 15.6 100 156 15.02 0.3364
55 81 385 572.4 2.34474
Sustituyendo estos valores en las ecuaciones normales:
a0 =
385(81) − 55(572.4)
10(385) − (55)2 = −0.360 a1 =
10(572.4) − 55(81)
10(385) − (55)2 = 1.538
Entonces P(x) = 1.523x – 0.360.
25. 24
Ventajas y desventajas:
El método de mínimos cuadrados es el procedimiento más adecuado para determinar las
mejores aproximaciones lineales. Algunas consideraciones que lo favorecen son:
• El método minimax generalmente le da demasiado valor relativo a un pequeño elemento
de datos que contiene un gran error.
• La desviación absoluta solo promedia el error en varios puntos sin dar suficiente valor
relativo a un punto que está muy alejado de la aproximación.
• El método de mínimos cuadrados concede mayor valor relativo al punto que está alejado
del resto de los datos, pero no permite que ese punto domine la aproximación.
26. 25
3. Diferenciación e integración numérica
3.1 Derivación numérica
Una tabla de diferencias divididas se puede utilizar para estimar los valores de las
derivadas. Recordemos que el polinomio de interpolación de grado n que se satisface en
los puntos p0, p1, ..., pn es en términos de diferencias divididas.
Si Pn(x) representa una buena aproximación de f(x), también se podría obtener un
polinomio que aproxime la derivada, f’(x), diferenciando el polinomio Pn(x).
Nota:
No es sorprendente que la derivada salga exacta, ya que la función es un polinomio, que
es aproximado por un polinomio de interpolación de forma exacta. Si el polinomio es
exacto, su derivada también.
Ejemplo:
Estimar el valor f’(3.3) con un polinomio cuadrado, con i = 2.
i x f(x) 𝚫𝐟(𝐱) 𝚫 𝟐 𝐟(𝐱) 𝚫 𝟑 𝐟(𝐱) 𝚫 𝟒 𝐟(𝐱) 𝚫 𝟓 𝐟(𝐱)
0 1.3 3.669 3.017 2.479 2.041 1.672 1.386
1 1.9 6.686 5.496 4.520 3.713 3.058 2.504
2 2.5 12.182 10.016 8.233 6.771 5.562
3 3.1 22.198 18.249 15.004 12.333
4 3.7 40.447 33.253 27.337
5 4.3 73.700 60.590
6 4.9 134.290
h = 0.6, xi = 2.5 (la mejor elección). Para x = 3.3 tenemos s = (3.3 – 2.5) /0.6 = 4/3
𝑃′
2( 𝑥) =
1
0.6
{10.016 +
1
2
[(
4
3
− 1) + (
4
3
− 0)] 8.233
+
1
6
[(
4
3
− 1) (
4
3
− 2) + (
4
3
− 0) (
4
3
− 2) + (
4
3
− 0) (
4
3
− 1)] 6.771} = 27.875
Si se utiliza el siguiente término, para estimar el error, se obtiene el valor 0.315,
comparando con el error 0.238, no es una mala estimación.
27. 26
Extrapolación de Richardson
Existe una forma para mejorar la exactitud de las estimaciones de las derivadas a partir
de tablas de valores igualmente espaciados. Esta técnica es equivalente a usar fórmulas
basadas en polinomios de grado superior sin encontrar la fórmula explícitamente.
Ejemplo:
x f(x)
2 0.123060
2.1 0.105706
2.2 0.089584
2.3 0.074764
2.4 0.061277
2.5 0.049126
2.6 0.038288
2.7 0.028722
2.8 0.020371
Estimar el valor de f’(2.4) y f”(2.4), con las fórmulas (3.4) y (3.6), respectivamente, las
cuales tienen un orden del error de O(h2):
𝑓′(2.4) ≈
0.049126 −0.074764
0.2
= −0.12819 ⇒ 𝑓′(2.4) = −0.12819 +𝐾1(0.1)2
El error exacto entonces es, la aproximación más una cantidad proporcional a h2 (K1 es la
cantidad de proporcionalidad). Se repite el cálculo, ahora con h = 0.2,
𝑓′(2.4) ≈
0.038288 −0.089584
0.4
= −0.12824 ⇒ 𝑓′(2.4) = −0.12824 +𝐾2(0.2)2
Los valores K1 y K2 no suelen ser iguales, ya que cada uno de ellos implica el valor f’’’(є),
demostrarse que se comete un error de O(h4) al tomar los dos valores como iguales. Con
base en el supuesto de que las K son iguales, es posible resolver las dos ecuaciones para
eliminarlas
𝑓′(2.4)=-0.12819+
1
(
0.2
0.1
)2−1
(-0.12819-(-0.12824))=-0.12817+O(ℎ2)
El cálculo es el caso de una regla general: dadas dos estimaciones de un valor que tiene
errores de O(hn), donde las h están en razón de 2 a 1, es posible extrapolar a una mejor
estimación del valor exacto.
Mejor estimación = más exacto + 1 2𝑛−1(más exacto – menos exacto) El proceso puede
repetirse, ahora con h = 0.2 y h = 0.4
28. 27
𝑓′(2.4) ≈
0.020371 −0.123060
0.8
= -0.128361
𝑓′(2.4)=-0.12824+
1
( 2)2−1
(-0.12824-(-0.128361))=-0.12820+O(ℎ4)
Para obtener la extrapolación para la segunda derivada se procede de la misma forma,
empleando la fórmula. Los resultados se muestran en la siguiente tabla
h f’’(2.4) Est
(3.6)
Extrap. 1er
orden
Extrap. 2º
orden
0.1 0.133600 0.133817 0.133820
0.2 0.132950 0.133773
0.4 0.130481
La función del ejercicio anterior corresponde a f(x) = e-xsenx, por lo que se pueden
verificar los resultados anteriores f’(x) = e-x(cosx – senx) = -0.128171, f’’(x) = -2e-xcosx =
0.13379. Como puede observarse, los resultados obtenidos representan una buena
aproximación.
El procedimiento anterior se conoce como extrapolación de Richardson y puede aplicarse
cuando se quiere derivar numéricamente una función conocida. Con este método es
posible hacer más pequeños los valores de h, en vez de usar valores más grandes como
se requiere cuando la función solo se conoce por una tabla.
Ventajas y desventajas:
La extrapolación puede usarse tanto para mejorar la estimación en una función
dada, es decir trabajar únicamente con los valores o para generar nuevas
fórmulas con un orden del error mayor.
La extrapolación de Richardson sirve para generar resultados de gran exactitud
cuándo se usan fórmulas de bajo orden.
La extrapolación se utiliza principalmente en las aproximaciones de las integrales
y de las soluciones de ecuaciones deferenciales.
29. 28
3.2 Formulas de Newton-Cotes
Regla trapezoidal
La primera de las fórmulas de Newton-Cotes está basada en aproximar f(x) sobre (x0, x1)
mediante una línea recta, de ahí el nombre de “regla del trapecio”. La cual ya fue obtenida
mediante la integración de P1(xs); sin embargo, también puede considerarse como una
adaptación de la definición de la integral definida como una suma. Al evaluar
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎 , subdividiendo el intervalo de a a b en n subintervalos.
El área bajo la curva en cada subintervalo es aproximada por el trapecio formado al
sustituir la curva por su secante. Entonces, la integral es aproximada por la suma de todas
las áreas trapezoidales (si se conociera el límite de esta suma cuando el ancho del
intervalo tiende a cero, se tendría el valor exacto de la integral, pero en la integración
numérica, el número de intervalos es finito).
Los intervalos no tienen que ser igual de anchos, pero la fórmula es más simple si esto
sucede.
Formula:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎 =
ℎ
2
(𝑓0 + 2𝑓1 + 2𝑓2 + ⋯+ 2𝑓𝑛 + 𝑓𝑛)
Reglas de Simpson
La fórmula compuesta Newton-Cotes basada en un polinomio cuadrático, es conocida
como la regla de Simpson 1/3, y la que está basada en un polinomio cúbico, se conoce
como la regla de Simpson 3/8, estos nombres de deben a los coeficientes de las fórmulas.
Regla de Simpson 1/3
La fórmula de 2º grado de Newton – Cotes integra un polinomio cuadrático sobre dos
intervalos del mismo ancho (a estos intervalos se les suele llamar paneles). La fórmula
compuesta que se aplica a una subdivisión del intervalo de integración en n paneles (con
n par) es:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎 =
ℎ
3
(𝑓𝑎 + 4𝑓1 + 2𝑓2 + 4𝑓3 + 2𝑓4 + ⋯+ 4𝑓𝑛−1 + 𝑓𝑏)
30. 29
Regla de Simpson 3/8
La regla compuesta basada en un polinomio de 4 puntos o cúbico se conoce como
Simpson 3/8. Se aplica a un conjunto de subintervalos, cuyo valor para n es múltiplo de 3:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎 =
3ℎ
8
(𝑓𝑎 + 3𝑓1 + 3𝑓2 + 2𝑓3 + 3𝑓4 + ⋯+ 3𝑓𝑛−1 + 𝑓𝑏)
Se aplica igual que la regla de Simpson 1/3. Si la función es conocida se divide el
intervalo de integración en n paneles donde n debe ser divisible entre 3.
Nota:
La Regla de Simpson 3/8 es menos eficiente que Simpson 1/3. Sin embargo, se emplea
cuando se tienen una tabla de valores con n impar, ya que se combinan las dos reglas.
31. 30
3.3 Integración de Romberg
En la integración de Romberg se utiliza la regla compuesta del trapecio para obtener
aproximaciones preliminares, y luego el proceso de extrapolación de Richardson para
mejorar las aproximaciones. Como se sabe, las aproximaciones de la integral mejoran su
precisión conforme aumenta el número de subintervalos por lo que se sigue un proceso
secuencial de tomar n subintervalos, luego n/2, luego n/8 y así hasta alcanzar la precisión
deseada.
Ejemplo:
Se estimará la siguiente integral
∫
4
1 + 𝑥2 𝑑𝑥
1
0
Se comienza generando con la regla del trapecio una sucesión de aproximaciones con
tamaños de paso diferentes, en este caso sean h1 = 1, h2 = 0.5, h3 = 0.25 y h4 = 0.125.
Una vez que se tienen las aproximaciones por la regla del trapecio, se aplica de manera
sucesiva la fórmula de Romberg. Los resultados se presentan en la siguiente tabla:
K h 𝑰(𝒉) 𝒓.𝒕𝒓𝒂𝒑𝒆𝒄𝒊𝒐 O(𝒉 𝟒) O(𝒉 𝟔) O(𝒉 𝟖) O(𝒉 𝟏𝟎)
1 1 3.0
2 0.5 3.1 3.13333333
3 0.25 3.13117647 3.14156863 3.14211765
4 0.125 3.13898849 3.14159250 3.14159409 3.14158578
5 0.0625 3.14094161 3.14159265 3.14159266 3.14159264 3.14159267
Al duplicar el número de subintervalos se duplica, prácticamente, el número de
evaluaciones de la función.
El método de Romberg permite calcular íntegramente un nuevo renglón de la tabla con
sólo hacer una aplicación más de la regla del trapecio, y luego promediar los valores
previamente calculados para obtener los elementos sucesivos del renglón.
Como puede observarse, al aplicar la regla del trapecio con diferentes tamaños de paso,
algunas evaluaciones funcionales se repiten, por lo que parece pertinente modificar la
regla para los casos en que ésta será aplicada de forma sucesiva.
Nota:
El método tiene como finalidad el mejoramiento sucesivo de la aproximación de la
regla del Trapecio disminuyendo el tamaño de paso.
Al igual que la extrapolación de Richardson, puede aplicarse tanto a funciones
conocidas como a tablas de valores, en este caso, con la limitante de que no se
puede reducir el tamaño de paso, más allá de lo permitido por los mismos datos.