SlideShare una empresa de Scribd logo
1 de 31
2017
JIMENEZ LIMON CESAR ALEJANDRO
FACULTAD DE ESTUDIOS SUPERIORES
ACATLAN
17/05/2017
METODOS NUMERICOS II
1
Índice
1. Introducción de los métodos numéricos
1.1 Método del punto fijo
1.2 Método de Newton
1.3 Método de Newton modificado
1.4 Método de cuasi Newton
2. Interpolación y aproximación polinomial
2.1 Formula de Lagrange
Diferencias divididas
Interpolación de Newton
Método de Hermite
2.2 Teoría de la aproximación
Spline cubico
Mínimos cuadrados
3. Diferenciación e integración numérica
3.1 Derivación numérica
Extrapolación de Richardson
3.2 Formulas de Newton-Cotes
Regla trapezoidal
Regla de Simpson 1/3
Regla de Simpson 3/8
3.3 Integración de Romberg
2
Introducción
Mediante un enfoque básico y aplicado, esta obra aborda varias facetas del
cálculo numérico: la presentación de los métodos, el desarrollo de los algoritmos,
la programación y su aplicación a la resolución de problemas.
La ciencia y la tecnología describen los fenómenos reales mediante modelos
matemáticos. El estudio de estos modelos permite un conocimiento más profundo
del fenómeno, así como de su evolución futura. La matemática aplicada es la rama
de las matemáticas que se dedica a buscar y aplicar las herramientas más
adecuadas a los problemas basados en estos modelos. Desafortunadamente, no
siempre es posible aplicar métodos analíticos clásicos por diferentes razones:
 No se adecúan al modelo concreto.
 Su aplicación resulta excesivamente compleja.
 La solución formal es tan complicada que hace imposible cualquier
interpretación posterior.
 Simplemente no existen métodos analíticos capaces de proporcionar
soluciones al problema.
En estos casos son útiles las técnicas numéricas, que mediante una labor de
cálculo más o menos intensa, conducen a soluciones aproximadas que son
siempre numéricos. El importante esfuerzo de cálculo que implica la mayoría de
estos métodos hace que su uso esté íntimamente ligado al empleo de
computadores. De hecho, sin el desarrollo que se ha producido en el campo de la
informática resultaría difícilmente imaginable el nivel actual de utilización de las
técnicas numéricas en ámbitos cada día más diversos.
3
1.1 Método del punto fijo
La primera técnica para resolver sistemas no lineales consiste en escribir las ecuaciones
que componen el sistema de la forma:
fi(x1, x2, …, xn) = 0 para i = 1, 2, …, n,
y se trataran de encontrar los valores (x1, x2, …, xn) que satisfagan todas las ecuaciones
del sistema.
 Cada una de las ecuaciones se resuelve para una variable de tal manera que se
obtenga: xi = gi(x1, x2, …, xn) para i = 1, 2, …, n.
 Estas ecuaciones se toman como fórmulas recursivas para obtener una estimación
a partir de una estimación previa, para lo que se escriben de la siguiente forma:
xi(k+1) = gi(x1k, x2k, …, xnk) para i = 1, 2, …, n.
 Se comienza con valores iniciales (x10, x20, …, xn0), se calculan nuevos valores
(x11, x21, …, xn1) y se repite el proceso, esperando que en cada iteración los
valores se aproximen a la raíz buscada, la cual cumple con: xi = gi(x1, x2, …, xn)
para i = 1, 2, …, n.
Ejemplo:
Sea el siguiente sistema de ecuaciones:
f1(x, y) = x2 - 2x – y + 0.5
f2(x, y) = x2 + 4y2 - 4
Para encontrar los puntos en que coinciden ambas funciones se requiere generar una
sucesión {(x(k), y(k))} convergente a una de las soluciones. Para ello, se debe despejar la
variable x de la primera ecuación, lo cual se puede hacer directamente; sin embargo para
despejar la variable y de la segunda, se le agrega un múltiplo “adecuado” a cada
miembro, en este caso -8y, para obtener x2 + 4y2 – 4 - 8y = -8y:
𝑥 = 𝑔1(𝑥,𝑦) =
x2 −y +0.5
2
𝑦 = 𝑔2(𝑥,𝑦) =
−x2 −4y2 +4+8y
8
Estas dos ecuaciones se emplean como fórmulas recursivas empezando con un punto
inicial (x0, y0) = (0, 1). Las iteraciones se muestran en la siguiente tabla:
4
K X Y
0 0 1
1 -0.25 1
2 -0.21875 0.9921875
3 -0.22216797 0.99398804
4 -0.22231472 0.9938121
5 -0.22219413 0.99380288
6 -0.22221632 0.99380952
7 -0.22221471 0.99380833
8 -0.22221447 0.99380841
9 -0.22221457 0.99380842
En donde se puede observar que el punto de intersección es (-0.2222, 0.9938). Si se
intenta con otro punto, por ejemplo (2, 0), la sucesión diverge, ya que el esquema iterativo
empleado no sirve para encontrar la otra raíz, para lo cual es necesario escribir un par de
fórmulas distintas. Ahora se agregará -2x a la primera ecuación y -11y a la segunda:
𝑥 =
−x2 +4x +y −0.5
2
𝑦 =
−x2 −4y2 +11y+4
11
Los resultados de aplicar estas ecuaciones como fórmulas recursivas con un punto inicial
igual a (2,0) genera el punto (1.9, 0.3112). Como pudo observarse, el mismo par de
fórmulas no se puede emplear para obtener las dos raíces. Esto está directamente
relacionado con el valor de la derivada de la forma iterativa, la cual tiene que estar entre
cero y uno en el intervalo en cuestión, para una convergencia monótona o entre menos
uno y cero para una convergencia oscilante. En este caso al tratarse de funciones de
varias variables deben emplearse las derivadas parciales.
Ventajas y desventajas:
 Es una extensión de los métodos de Jacobi y Gauss-Seidel.
 La forma de despejar cada una de las variables a partir de las funciones afecta la
convergencia.
 Si el método converge, lo hace linealmente.
 La norma vectorial se utiliza como criterio de paro.
 Una condición suficiente aunque no necesaria, para asegurar la convergencia es
que ∑ |𝜕𝑔𝑖 𝜕𝑥𝑗 |𝑛 𝑗=1 ≤ 𝑀 < 1, para i = 1, 2, …, n. Por otro lado, si M es muy
pequeña en una región de interés, la sucesión converge rápidamente, si M es
cercana a 1 en magnitud, entonces convergerá lentamente. Sin embargo, es muy
difícil encontrar el sistema para la forma iterativa que satisfaga esta condición.
 Para acelerar la convergencia se pueden emplear los desplazamientos sucesivos
en lugar de los simultáneos.
5
1.2 Método de Newton
Un sistema de ecuaciones no lineales puede representarse de la siguiente manera:
f1(x1, x2, …, xn) = 0
f2(x1, x2, …, xn) = 0
:
fn(x1, x2, …, xn) = 0
Donde fi(x1, x2, …, xn) = 0 para i = 1, 2, …, n es una función (lineal o no) de las variables
independientes x1, x2, …, xn.
Para resolver este tipo de sistemas de ecuaciones se requieren algunos conceptos
previos, los cuales se presentan a continuación.
Definición. Matriz jacobiana
variables (xj) independientes. Su matriz jacobiana J(x1,x2, …, xn), está dada por las
derivadas parciales de cada una de las funciones con respecto a cada una de las
variables:
J=
𝑓1𝑥1 𝑓1𝑥2 …
𝑓2𝑥1 𝑓2𝑥2 …
𝑓3𝑥1 𝑓3𝑥2 …
… 𝑓1𝑥𝑛
… 𝑓2𝑥𝑛
… 𝑓3𝑥𝑛
∶ : :
𝑓𝑛𝑥1 𝑓𝑛𝑥2 … … 𝑓𝑛𝑥𝑛
La diferencial. En una función de varias variables, la diferencial es el instrumento que se
usa para mostrar el efecto de los cambios de las variables independientes en las variables
dependientes. Supóngase que los valores de las funciones fi(x1, x2, …, xn) se conocen
en el punto (x10, x20, …, xn0) y se desean estimar sus valores en un punto cercano (x1,
x2, …, xn). Si se denotan con fi los cambios diferenciales en las variables dependientes y
es, esto puede escribirse
con notación matricial de la siguiente manera:
𝑓1𝑥1 𝑓1𝑥2 …
𝑓2𝑥1 𝑓2𝑥2 …
𝑓3𝑥1 𝑓3𝑥2 …
… 𝑓1𝑥𝑛
… 𝑓2𝑥𝑛
… 𝑓3𝑥𝑛
∆𝑥1
∆𝑥2
∆𝑥3
= _
𝑓1
𝑓2
𝑓3
∶ : :
𝑓𝑛𝑥1 𝑓𝑛𝑥2 … … 𝑓𝑛𝑥𝑛
:
∆𝑥𝑛
:
𝑓𝑛
6
El diferencial es la ecuación matricial que se utiliza en los métodos para solución de
ecuaciones no lineales ya que puede transformarse en una forma iterativa.
Este método para resolver sistemas de ecuaciones no lineales es linealizar y resolver
repetidamente; esta es la estrategia que emplea el método de Newton para resolver una
sola ecuación no lineal y que se generaliza para sistemas no lineales.
Usando notación vectorial para escribir el sistema se tiene: F(X) = 0
Definiendo los vectores columna como
F = [f1, f2, …, fn)]t
X = [x1, x2, …, xn]t
La extensión del método de Newton para sistemas no lineales es:
X(k + 1) = X(k) – [F´(x(k))]-1F(x(k))
Donde F´(x(k)) es la matriz jacobiana.
Ejemplo:
Sea el siguiente sistema de ecuaciones:
(𝑥,𝑦) = 4−𝑥2 −𝑦2 = 0
(𝑥,𝑦) = 1−𝑒𝑥 −𝑦 = 0
Se obtienen las derivadas parciales para escribir la matriz jacobiana:
𝑓𝑥 = −2𝑥 𝑓𝑦 = −2𝑦
𝑔𝑥 = −𝑒𝑥 𝑔𝑦 = −1
7
A partir de la gráfica, se elige como inicial valor (1, -1.7), valores de x0 y y0 que se
sustituyen en las derivadas con lo que obtiene la matriz jacobiana y el siguiente sistema:
(
−2 3.4
−2.7183 −1
)
∆𝑥0
∆𝑦0
= _
0.1100
−0.0183
Al resolver, los valores para ∆x0 = 0.0043 y ∆y0 = -0.298 con lo que se obtiene la nueva
aproximación x0 = 1.0043 y y0 = -1.7298. Estos valores ya coinciden con los valores de la
raíz aunque se puede hacer otra iteración para mejorar la aproximación.
(
−2.0085 3.4597
−2.7299 −1
)
∆𝑥1
∆𝑦1
= _
−0.0009
−0.00002
Al resolver este sistema, los valores para ∆x1 = -0.00008682 y ∆y1 = -1.0743E-8,
entonces la nueva aproximación es: x0 = 1.00416875 y y0 = -1.7298. Como puede verse,
el valor de los incrementos es muy pequeño, entonces las iteraciones se detienen cuando
la norma del vector de los incrementos es menor a una tolerancia previamente
establecida.
Ventajas y desventajas:
 El método der Newton aplicado a un sistema de ecuaciones no lineales, reduce el
problema a la solución de un sistema de ecuaciones lineales (serie de Taylor) para
determinar los valores que mejoran la exactitud de las estimaciones.
 El método de Newton tiene la ventaja de converger cuadráticamente, por lo menos
si se está cerca de la raíz, pero es costoso en términos de evaluaciones
funcionales.
 Es importante recordar que la deducción del método de Newton se realiza a partir
de la serie de Taylor, en esta ocasión multivariada, lo que permite determinar la
convergencia cuadrática del método.
 La sucesión generada por este método puede divergir si los valores iniciales no
están los suficientemente cercanos a la raíz.
8
1.3 Método de Newton modificado
Este método de Newton-Raphson modificado consiste en aplicar n (n número de
ecuaciones) veces el método de Newton univariable, una para cada variable. Cada vez
que se hace esto, se consideran las otras variables fijas.
Sea el sistema: 𝑓 (𝑥1,2,⋯,𝑥𝑛) = 0 con i = 1, 2, …, n.
Se eligen los valores iniciales (𝑥1 𝑘, 𝑥2 𝑘,⋯, 𝑥𝑛 𝑘) y empleando el método de Newton se
calcula un nuevo valor, aunque al tratarse de una ecuación de varias variables se emplea
la derivada parcial evaluada en los valores iniciales:
𝑥𝑖 𝑘+1 = 𝑥𝑖 𝑘 −
𝑓 𝑖( 𝑥1 𝑘,𝑥2 𝑘,⋯,𝑥𝑛 𝑘)
𝜕𝑓 𝑖 𝑘
𝜕𝑥 𝑖 𝑘
Con lo cual se obtendría (𝑥1 1,2 1,⋯,𝑥𝑛 1) y se procede de forma sucesiva hasta alcanzar
una tolerancia previamente establecida. Normalmente este método converge si los
valores iniciales de las variables son cercanos a la raíz y requiere la evaluación de sólo 2n
funciones por paso. Al igual que en el método anterior se pueden emplear
desplazamientos simultáneos o sucesivos.
Ejemplo:
Resolver el siguiente sistema por el método de Newton modificado
f1(x, y) = x2 - 10x + y2 + 8 = 0
f2(x, y) = xy2 + x – 10y + 8 = 0
Se calculan las derivadas parciales
𝜕𝑓1
𝜕𝑥
= 2x-10,
𝜕𝑓2
𝜕𝑦
=2xy-10
9
Iniciando con los valores iniciales (0, 0)
Desplazamientos simultáneos
K X Y f1 f2 df1/dx df2/dy
0 0 0 8 8 -10 -10
1 0.8 0.8 1.28 1.312 -8.4 -8.72
2 0.9524 0.95046 0.28659 0.30815 -8.09524 -8.1896
3 0.9878 0.98809 0.07419 0.07131 -8.02443 -8.04797
4 0.997 0.99695 0.01768 0.01851 -8.00594 -8.01203
5 0.9992 0.99926 0.00462 0.00442 -8.00153 -8.00301
6 0.9998 0.99981 0.0011 0.00115 -8.00037 -8.00075
7 1 0.99995 0.00029 0.00028 -8.0001 -8.00019
8 1 0.99999 6.9E-05 0.00007 -8.00002 -8.00005
Desplazamientos sucesivos
K X Y f1 df1/dx f2 df2/dy
0 0 0 8 -10 8.8 -10
1 0.8 0.88 1.4144 -8.4 0.918295 -8.29565
2 0.968381 0.9907 0.23543 -8.06324 0.069721 -8.0234
3 0.997579 0.99939 0.01815 -8.00484 0.004606 -8.00154
4 0.999846 0.99996 0.00116 -8.00031 0.000289 -8.0001
5 0.99999 1 0.00007 -8.00002 -1.99998 -10
Emplear desplazamientos sucesivos puede producir convergencia para algunos arreglos y
divergencia para otros (probar con el vector inicial (2, 3).
Ventajas y desventajas:
 Este método, normalmente converge si los valores iniciales están muy cerca de la
raíz.
 Sólo requiere la evaluación de 2n funciones por paso.
 Dado que las variables prácticamente se van resolviendo por separado, es posible
que alguna de ellas diverja.
 No hay manera de saber cuándo el vector inicial convergerá o no, siendo ésta la
principal desventaja del método.
10
1.4 Método de cuasiNewton
Este método requiere n evaluaciones funcionales por iteración y también disminuye el
número de cálculos aritméticos a O(𝑛2), ya que reemplaza a la matriz Jacobiana con una
matriz de aproximación que se actualiza en cada iteración. Su desventaja radica en que
se pierde la convergencia cuadrática de Newton, al ser sustituida por una convergencia
denominada superlineal.
En la mayoría de las aplicaciones la reducción a la convergencia superlineal disminuye los
cálculos. Otra desventaja es que, a diferencia del método de Newton, no es
autocorregible. El método de Newton generalmente corregirá el error del redondeo, con
iteraciones sucesivas, no así el método de Broyden, salvo que se incorporen medidas
especiales de corrección.
El método de Broyden consiste en que a partir de una aproximación inicial X(0) a la
solución F(x) = 0, se calcula la siguiente aproximación X(1) por el método de Newton. No
obstante para calcular X(2) ya no se hace con el método de Newton y se recurre al
método de la secante. En el método de la secante univariable se emplea la siguiente
fórmula para sustituir el cálculo de la derivada:
𝑓´(𝑥1) =
𝑓(𝑥1) − 𝑓(𝑥0)
𝑥1 − 𝑥0
Dado que en el caso de los sistemas no lineales, X(1) – X(0) es un vector, el cociente
correspondiente esta indefinido. Sin embargo, el método procede de manera semejante al
método de Newton, porque la matriz J(X(1)) es reemplazada por una matriz A que tiene la
propiedad de que:
((1) − (0)) = ((1)) − ((0))
Esta matriz es la que se usa para determinar X(2) como:
(2) = (1) − 𝐴1−1((1))
Y cuyos componentes se obtienen con dos iteraciones previas 𝑋 𝑘 y 𝑋 𝑘−1, de la siguiente
manera
𝐴 𝑘
= 𝐴 𝑘−1
+
[𝐹(𝑋 𝑘) − 𝐹(𝑋 𝑘−1) − 𝐴(𝑘−1)(𝑋 𝑘 − 𝑋 𝑘−1)](𝑋 𝑘 −𝑋 𝑘−1)𝑡
‖(𝑋 𝑘 − 𝑋 𝑘−1)‖
O bien
𝐴 𝑘
= 𝐴 𝑘−1
+
[∆𝐹 𝑘 − 𝐴 𝑘−1∆𝑋 𝑘 ](∆𝑋 𝑘)𝑡
‖(∆𝑋 𝑘)‖
11
Donde
∆𝐹 𝑘
= 𝐹(𝑋 𝑘
) − 𝐹(𝑋 𝑘−1
) y ∆𝑋 𝑘
=𝑋 𝑘
− 𝑋 𝑘−1
Ejemplo:
Usar método de Broyden para aproximar la solución del sistema
f1(x, y) = x2 – 10x + y2 + 8 = 0
f2(x, y) = xy2 + x – 10y + 8 = 0
Tomando como valor inicial X = [0, 0]t. Para empezar se realiza una iteración con el
método de Newton
𝑋1=(
0
0
) - (
−10 0
1 −10
)
−1
(
8
8
)=(
0.8
0.88
)
Se calcula la inversa con la ecuación empleando la matriz jacobiana para la primera
iteración.
(A(1))−1= (
−0.1 0
−0.01 −0.1
) +
( 0.8
0.88
) − (
−0.1 0
−0.01 −0.1
) ( −6.5856
−7.38048
) ( 0.8
0.88
)
𝑡
(
−0.1 0
−0.01 −0.1
)
( 0.8
0.88
)
𝑡
( −0.1 0
−0.01 −0.1
) ( −6.5856
−7.38048
)
= (
−0.11015 −0.010079
−0.01546 −0.105404
)
Ventajas y desventajas:
 Tiene una convergencia superlineal, pero no cuadrática.
 No es auto corregible.
 El uso del método en esta forma no se justificaría, debido a la reducción a la
convergencia superlineal a partir de la convergencia cuadrática del método de
Newton.
12
Interpolación y aproximación polinomial
En la cotidianeidad es fácil encontrarse con datos tabulados de la forma (xi, yi), para i = 0,
1, …, n, tales como la presión de una sustancia a diferentes temperaturas, la población en
diferentes tiempos, las distancias a diferentes velocidades, entre otros. En estos casos y =
f(x) y f(x) es una función desconocida; y es común la necesidad de conocer algún valor de
y para alguna x que no se encuentra en la tabla. Este procedimiento es lo que se conoce
como Interpolación.
Por consiguiente, interpolación es el cálculo de valores para una función tabulada en
puntos que no se encuentran en la tabla de valores. Mediante este proceso se puede
obtener una representación explícita de una aproximación a f(x), lo que permite además
construir fórmulas de diferenciación e integración numérica y obtener formas simplificadas
de funciones “complejas”.
2.1 Formula de Lagrange
Si se tiene un conjunto de n + 1 puntos (xi , yi) para i = 0, 1, ... , n para representar a y
como una función de valuación única de x, es posible encontrar un polinomio único de
grado n que pasa por los puntos. Por ejemplo, es posible encontrar una recta única que
pasa por dos puntos, y es posible encontrar un polinomio cuadrático único que pasa por
tres puntos.
La ecuación polinomial para y se puede modelar mediante
y= 𝑎0+𝑎1 𝑥+𝑎2 𝑥2+…+𝑎 𝑛 𝑥 𝑛
y los n + 1 puntos se pueden usar para escribir n + 1 ecuaciones para los coeficientes ai.
Estas ecuaciones son
𝑦𝑗=𝑎0+ 𝑎1 𝑥𝑗 + 𝑎2 𝑥𝑗
2+ … + 𝑎 𝑛−1 𝑥𝑗
𝑛 j=0,1,2,…,n
y constituyen un sistema de ecuaciones algebraicas lineales.
Los polinomios de Lagrange se pueden determinar especificando algunos puntos en el
plano por los cuales debe pasar.
Consideremos el problema de determinar un polinomio de grado 1 que pase por los
puntos distintos (x0, y0) y (x1, y1). Este problema es el mismo que el de aproximar una
función f, para la cual f(x0) = y0 y f(x1) = y1, por medio de un polinomio de primer grado,
interpolando entre, o coincidiendo con, los valores de f en los puntos dados.
Sea el polinomio
P(x)=
(𝑥−𝑥1)
(𝑥0−𝑥1)
y0 +
(𝑥−𝑥0)
(𝑥1−𝑥0)
y1
13
cuando x = x0
P(x0)=
(𝑥0−𝑥1)
(𝑥0−𝑥1)
y0 +
(𝑥0−𝑥0)
(𝑥1−𝑥0)
y1=y0=f(x0)
así que P tiene las propiedades requeridas.
Para generalizar el concepto de interpolación lineal, considérese la construcción de un
polinomio a lo más de grado n que pase por los n+1 puntos (x0, f(x0)), (x1, f(x1)), (x2,
f(x2)), ... , (xn, f(xn)) El polinomio lineal que pasa por (x0, f(x0)) y (x1, f(x1)) se construye
usando los cocientes.
𝐿0(x)=
(𝑥−𝑥1)
(𝑥0−𝑥1)
𝐿1(x)=
(𝑥−𝑥0)
(𝑥1−𝑥0)
Cuando x = x0, L0(x0) = 1, mientras que L1(x0) = 0. Cuando x = x1, L0(x1) = 0, mientras
que L1(x1) = 1.
Para el caso general, se necesita construir, para cada k = 0, 1, ..., n, un cociente Ln,k(x)
con la propiedad de que Ln,k(xi) = 0 cuando i ≠ k y que Ln,k(xk) = 1 cuando x = xk.
Ejemplo:
Las densidades de sodio para tres temperaturas están dadas por
i Temperatura 𝒕𝒊 (en °C) Densidad 𝒅 𝒊
0 94 929
1 205 902
2 371 860
Determinar la densidad para t = 251°C
Para obtener el valor de los cocientes, se sustituye el valor
t = 251, entonces, la densidad del sodio a una temperatura de t = 251°C es d =
890.556117 kg/m3.
Ventajas y desventajas:
 Para la construcción del polinomio de Lagrange es importante conocer de
antemano el grado del polinomio ya que cambiarlo implicaría realizar todos los
cálculos desde un inicio.
 La implementación del método de Lagrange en un programa de computadora es
bastante sencillo.
 Dada la sencillez del método, es común su uso como parte de otros métodos,
como por ejemplo, métodos para la solución de ecuaciones diferenciales.
 Para la construcción del polinomio de Lagrange, los datos no requieren estar
ordenados, ni igualmente espaciados.
14
 El polinomio de Lagrange puede emplearse para deducir fórmulas de
diferenciación e integración numérica.
 Los polinomios de interpolación generan oscilaciones conforme aumenta el grado
del mismo, por consiguiente se recomienda no emplear polinomios de grados muy
elevados, aunque sea necesario construir más de un polinomio con la misma tabla
de datos
15
Diferencias divididas
Los métodos de interpolación iterada (Lagrange) sirven para determinar los valores de los
polinomios de interpolación de grado sucesivamente mayor en un punto particular. Sin
embargo, cada uno de los elementos en la tabla de interpolación depende del punto que
se está evaluando, así que la tabla no se puede usar para encontrar una representación
explícita del polinomio que aproxima a la función.
Los métodos para determinar la representación explícita de un polinomio de interpolación,
a partir de datos tabulados, se conocen como métodos de diferencias divididas, y pueden
usarse para derivar técnicas para aproximar las derivadas y las integrales de funciones,
así como para aproximar las soluciones de ecuaciones diferenciales.
El tratamiento de las tablas de diferencias divididas supone que la función f(x) es conocida
para varios valores de x. Dichos valores no necesariamente están igualmente espaciados
u obedecen algún orden (sin embargo, si están ordenados puede ser ventajoso).
Supóngase que Pn es un polinomio de grado a lo más n que coincide con la función f en
los números distintos x0, x1, ... , xn. Las diferencias divididas de f con respecto a x0, x1,
... , xn se pueden derivar demostrando que Pn tiene la representación:
𝑃𝑛(x)=𝑎0+𝑎1(𝑥 − 𝑥0)+ 𝑎2(𝑥− 𝑥0)(𝑥 − 𝑥1)+…+ 𝑎 𝑛(𝑥 − 𝑥0)(𝑥 − 𝑥1)…(𝑥 − 𝑥 𝑛−1)
con constantes apropiadas a0, a1, ... , an. Entonces, evaluando Pn en x0 queda
solamente el término constante a0, es decir, a0 = Pn(x0) = f(x0).
Similarmente, cuando Pn se evalúa en x1:
𝑓(𝑥0) + 𝑎1(𝑥1 − 𝑥0)= 𝑃𝑛(𝑥1)=𝑓(𝑥1)
así que: 𝑎1=
𝑓(𝑥1)−𝑓(𝑥0)
𝑥1−𝑥0
Es aquí donde se introduce la notación de diferencia dividida. La diferencia dividida cero
de la función f, con respecto a xi, se denota por f[xi], y es simplemente la evaluación de f
en xi.
𝑓[𝑥𝑖] = 𝑓(𝑥𝑖)
Las diferencias divididas restantes se definen inductivamente, la 1ª diferencia dividida de f
con respecto a xi y xi+1, se denota por f[xi, xi+1.] y está definida como:
𝑓[ 𝑥𝑖,𝑥𝑖+1]=
𝑓[ 𝑥𝑖+1]−𝑓[𝑥𝑖]
𝑥𝑖+1 − 𝑥𝑖
16
Cuando las (k – 1) diferencias divididas
𝑓[ 𝑥𝑖,𝑥𝑖+1,𝑥𝑖+2,… ,𝑥𝑖+𝑘] 𝑦 𝑓[ 𝑥𝑖,𝑥𝑖+1,𝑥𝑖+2,… ,𝑥𝑖+𝑘]
se han determinado, la k-ésima diferencia dividida de f relativa a xi, xi+1, xi+2, ... , xi+k
Ejemplo:
Escribir el polinomio de interpolación de grado 3, empleando la siguiente tabla
𝒙 𝒊 𝒇𝒊 f(1) f(2) f(3) f(4)
3.2 22.0 8.400 2.856 -0.528 0.256
2.7 17.8 2.118 2.012 0.0865
1.0 14.2 6.342 2.263
4.8 38.3 16.750
5.6 51.7
P3(x) = 22.0 + 8.400(x – 3.2) + 2.856(x – 3.2)(x – 2.7) – 0.528(x – 3.2)(x – 2.7)(x – 1.0)
Nota:
 Todos los polinomios que pasan por el mismo número de puntos y estos son los
mismos, son idénticos.
 Cuando los valores tabulados corresponden a un polinomio de grado n, las n-
ésimas diferencias divididas van a ser iguales e iguales al coeficiente del término
de la xn.
17
Interpolaciónde Newton
El método de interpolación de Newton es un poco más complicado en su programación
que el de Lagrange, pero también más versátil, ya que si los datos están ordenados e
igualmente espaciados la fórmula se puede simplificar y además mejorar la precisión.
Cuando x0, x1, ... , xn, están ordenados consecutivamente e igualmente espaciados, la
fórmula de diferencias divididas:
(𝑥) = [𝑥0]+∑ [𝑥0,1,…,𝑥𝑘](𝑥 −𝑥0)(𝑥−𝑥1)…(𝑥 −𝑥𝑘−1)
Se puede expresar en una forma simplificada:
 Introduciendo la notación de h = xi+1 – xi para cada i = 0, 1, ... , n – 1
 Haciendo x = x0 + sh, la diferencia (x – xi) puede escribirse como x – xi = (s – i)h;
Así que la fórmula se transforma en:
Pn(x) = Pn(x0 + sh) = f[x0] + shf[x0, x1] + s(s – 1)h2f[x0, x1, x2] + . . . + s(s – 1) (s – 2) …
(s – n + 1) hnf[x0, x1, … , xn]
Fórmula de diferencias divididas progresiva de Newton
Considerando que los datos están igualmente espaciados se puede construir el polinomio
haciendo uso de la notación de diferencia progresiva, Δ. Con esta notación:
[𝑥0,1]=
f(x1)− f(x0)
x1 − x0
=
∆f(x0)
ℎ
;
[𝑥0,1,𝑥2] =
∆f(x1)−∆f(x0)
2ℎ2 =
∆2f(x0)
2ℎ2
El polinomio queda de la siguiente forma:
(𝑥) = (𝑥0)+𝑠∆(𝑥0)+𝑠(𝑠 −1)
∆2f(x0)
2!
+⋯+ 𝑠(𝑠 −1)(𝑠 −2)…(𝑠 −𝑛 −1)
∆ 𝑛f(x0)
𝑛!
Ejemplo:
Construir una tabla de diferencias a partir de los siguientes datos e interpolar para x = 1.2
𝒙𝒊 𝒇(𝒙𝒊) ∆ 𝒇(𝒙𝒊) ∆ 𝟐
𝒇(𝒙𝒊) ∆ 𝟑
𝒇(𝒙𝒊) ∆ 𝟒
𝒇(𝒙𝒊)
1.0 0.765198 -0.145112 -0.019573 0.010672 0.000326
1.3 0.620086 -0.164684 -0.008899 0.011027
1.6 0.455402 -0.173583 0.002127
1.9 0.281819 -0.171456
2.2 0.110362
18
Con h = 0.3 y s = 2/3, empleando la fórmula de diferencias progresivas de Newton, se
obtiene
𝑃4(1.2) = 0.67114889
Estos resultados son idénticos a los que se obtendrían con las fórmulas de diferencias
divididas o con la de diferencias divididas progresivas, ya que son equivalentes, pero en
este caso se sustituye el cálculo de las diferencias divididas sólo por diferencias.
Ventajas y desventajas:
 Cuando se va a lleva a cabo sólo una interpolación, Newton y Lagrange requieren
de un esfuerzo de cálculo similar. Sin embargo, Lagrange es un poco más fácil de
programar. También existen casos en donde la forma de Newton es más
susceptible a los errores de redondeo. Debido a esto y a que no se requiere
calcular y almacenar diferencias divididas, la forma de Lagrange se usa, a
menudo, cuando el orden del polinomio se conoce con anterioridad.
 La interpolación por diferencias de Newton es una modalidad de las tablas de
diferencias divididas pero con intervalos uniformes, lo que simplifica el polinomio y
la tabla de diferencias, disminuyendo el número de operaciones.
 Los datos tienen que estar igualmente espaciados.
 Los valores a interpolar tienen que ubicarse al final o al inicio de la tabla.
19
Método de Hermite
Un polinomio se puede ajustar no solo a los valores de la función sino también a las
derivadas en los puntos. Los polinomios ajustados a los valores de la función y de su
derivada se llaman polinomios de interpolación de Hermite o polinomios oscilantes.
Si f ∈ C1[a, b] y x0, x1, x2, ..., xn ∈ [a, b] son distintos, el único polinomio de menor grado
que coincide con f y f’ en x0, x1, x2, ..., xn es un polinomio de grado a lo más 2n + 1 dado
por
𝐻2𝑛+1(x)=∑ 𝑓( 𝑥𝑗)𝑛
𝑗=0 𝐻 𝑛,𝑗(𝑥)+ ∑ 𝑓′( 𝑥𝑗)𝑛
𝑗=0 𝐻′ 𝑛,𝑗(𝑥)
Donde
𝐻 𝑛,𝑗( 𝑥) = [1 − 2(𝑥 − 𝑥 𝑗)𝐿′ 𝑛,𝑗( 𝑥) ] 𝐿2
𝑛,𝑗( 𝑥)
𝐻′ 𝑛,𝑗( 𝑥)=(𝑥 − 𝑥 𝑗) 𝐿2
𝑛,𝑗( 𝑥)
En este contexto, Ln,j denota al j-ésimo coeficiente polinomial de Lagrange de grado n.
Donde el término del error:
f(x)- 𝐻2𝑛+1(𝑥)=
(𝑥−𝑥0)2
… (𝑥−𝑥 𝑛)2
(2𝑛+2)!
𝑓
(2𝑛+2)
(𝜀)
para alguna ε con a < ε < b.
Ejemplo:
Con los siguientes datos, encontrar una aproximación para f(2.5)
x f(x) f’(x)
2.2 0.5207843 -0.0014878
2.4 0.5104147 -0.1004889
2.6 0.4813306 -0.1883635
Cocientes de Lagrange y sus derivadas
𝐿20(2.5) = -0.125 𝐿′20 (2.2) = -7.5
𝐿21 (2.5) = 0.75 𝐿′21 (2.4) = 0
𝐿22 (2.5) = 0.375 𝐿′22 (2.6) = 7.5
20
H20 = [1 – 2(2.5 – 2.2)(-7.5)](−0.125)2 = 0.0859375
H21 = [1 – 2(2.5 – 2.4)(0)](0.75)2 = 0.5625
H22 = [1 – 2(2.5 – 2.6)(7.5)](0.375)2 = 0.3515625
H20 = (2.5 – 2.2) (−0.125)2 = 0.0046875
H21 =(2.5 – 2.4) (0.75)2 = 0.05625
H22 = (2.5 – 2.6) (0.375)2 = -0.0140625
𝐻5(x) = (0.5207843)(0.0859375) + (0.5104147)(0.5625) + (0.4813306)(0.3515625) + (-
0.0014878)(0.0046875) + (-0.1004889)(0.05625) + (-0.1883635)(-0.0140625) =
0.498070345624
Con diferencias divididas:
𝒛 𝒊 f[zi] f[1] f[2] f[3] f[4] f[5]
2.2 0.5207843 -0.0014878 -0.251801 0.0429825 0.00845925 -0.000218
2.2 0.5207843 -0.051848 -0.2432045 0.0463662 0.008372
2.4 0.5104147 -0.1004889 -0.224658 0.049715
2.4 0.5104147 -0.1454205 0.214715
2.6 0.4813306 -0.1883635
2.6 0.4813306
P(x) = 0.5207843 + (2.5 – 2.2)(-0.0014878) + (2.5 – 2.2)2 (-0.251801) + (2.5 – 2.2)2 (2.5 –
2.4)(0.0429825) + (2.5 – 2.2)2(2.5 – 2.4)2(0.00845925) + (2.5 – 2.2)2 (2.5 – 2.4)2
(2.5 – 2.6)(-0.000218) = 0.498070345445
21
2.2 Teoría de la aproximación (ajuste de curvas)
Spline cubico
Spline cúbico es otra manera de ajustar un polinomio a un conjunto de datos, solo que
éste lo hace a través de una curva suave, la cual puede ser de varios grados.
En general, un conjunto de polinomios de n-ésimo grado se ajusta entre cada par de
puntos adyacentes, gi(x), desde xi hasta xi+1. Si el grado del spline es uno (solo hay
rectas entre los puntos).
El problema con el spline lineal es que la pendiente es discontinua en los puntos (nodos).
Los problemas de grado superior al uno, no tienen este problema. Un polinomio de
interpolación que pasa por todos los puntos también es continúo en su pendiente, sin
embargo, pueden presentar otros problemas.
Los splines de grado mayor que uno tienen pendiente continua. Aunque los splines
pueden ser de cualquier grado, los cúbicos son los más conocidos.
La aproximación mediante splines (trazadores) cúbicos se aplica a n pares ordenados de
datos. Se buscan n-1 curvas que conectan los puntos 1 y 2, 2 y 3, ..., (n - 1) y n. Además
se requiere que las dos curvas que conectan los puntos (k-1) y k y los puntos k y (k+1)
tengan la misma pendiente en el punto k. De esta manera, el ajuste de la curva resultante
es continuo y suave.
Para relacionar las pendientes y las curvaturas de los splines de unión, se deriva gi(x):
𝑔′𝑖(xi) = 3𝑎 𝑖h2 + 2𝑏𝑖h + 𝑐𝑖
𝑔′′𝑖 (xi) = 6𝑎 𝑖h + 2𝑏𝑖
Aprovechando que 𝑔′′𝑖 (xi) es lineal en el intervalo [xi, xi+1] hacemos
𝑆𝑖= 𝑔′′𝑖 (𝑥𝑖) i = 0, 1, ..., n-1
𝑆 𝑛 = 𝑔′′ 𝑛−1 (𝑥 𝑛)
Entonces 𝑆 𝑛 = 6𝑎 𝑖 (xi – xi) + 2𝑏𝑖 = 𝑔′′𝑖 (xi) = 2𝑏𝑖
𝑆 𝑛+1 = 𝑔′′𝑖 (xi+1) = 6𝑎 𝑖 (xi+1 – xi) + 2𝑏𝑖 = 6𝑎 𝑖ℎ𝑖 + 2𝑏𝑖
Despejando las incógnitas:
𝑏𝑖 =
𝑆𝑖
2
𝑎𝑖 =
𝑆𝑖+1− 𝑆𝑖
6ℎ 𝑖
Sustituyendo los valores de ai, bi y di en gi(x) = yi+1 para despejar ci:
𝑦𝑖+1 = (
𝑆𝑖+1−𝑆𝑖
6ℎ 𝑖
)ℎ𝑖
3
+
𝑆𝑖
2
ℎ𝑖
2
+ 𝑐𝑖ℎ𝑖 + 𝑦𝑖
22
𝑐𝑖 =
𝑦𝑖+1 − 𝑦𝑖
ℎ𝑖
+(
𝑆𝑖+1−2 𝑆𝑖
6
) + 𝑦𝑖
A menudo se usan cuatro alternativas:
1. Spline natural: S0 = 0 y Sn = 0, las cúbicas de los extremos se aproximen linealmente a
los puntos x0 y xn. (Aplana un poco los extremos).
2. Forzar en los extremos a una pendiente específica. Si no se conocen estos valores se
usa: f’(x0) = A y f´(xn) = B En el extremo izquierdo 2h0S0 + h0S1 = 6(f[x0, x1] – A)
En el extremo derecho 2hn-1Sn-1+ 2hn-1Sn = 6(B - f[xn-1, xn])
3. S0 = S1 y Sn = Sn-1: parábolas en los spline extremos.
4. Extrapolando S0 con S1 y S2 y Sn con Sn-1 y Sn-2 (produce demasiada curvatura en
los extremos).
5. En el extremo izquierdo
𝑆1−𝑆0
ℎ0
=
𝑆2−𝑆1
ℎ1
, 𝑠0 =
(ℎ0+ℎ1 )𝑆1−ℎ0 𝑆2
ℎ1
Ejemplo:
Ajustar los datos de la siguiente tabla y evaluar los valores del spline g(0.66) y g(1.75)
x f(x) 𝒉𝒊 𝒇(𝒙𝒊,𝒙𝒊+𝟏)
0.0 2 1.0 2.4366
1.0 4.4366 0.5 4.5536
1.5 6.7134 0.75 9.59947
2.25 13.9130
Empleando el spline natural para S0 = 0 y Sn = 0. Escribiendo el sistema:
[
2(1.5) 0.5
0.5 2(1.5)
] [
𝑆1
𝑆2
]=[
12.702
30.2752
]
y resolviendo: S1 = 2.292055 y S2 = 11.65167.
Una vez que tenemos estos valores sustituimos para obtener los coeficientes. Dado que
son 4 puntos, tendremos 3 subintervalos y por consiguiente tres curvas cúbicas.
Los polinomios quedan como:
g0(x) = 0.38216(x – 0)3 + 0(x – 0)2 + 2.0546(x – 0) + 2 para 0 ≤ x ≤ 1
g1(x) = 3.119872(x – 1)3 + 1.14603(x – 1)2 + 3.200618(x – 1) + 4.4366 para 1 ≤ x ≤ 1.5
g2(x) = -2.58926(x – 1.5)3 + 5.825835(x – 1.5)2 + 6.686549(x – 1.5) + 6.7134 para 1.5 ≤
x ≤ 2.25
y finalmente: g0(0.66) = 3.465509, g2(1.75) = 8.708669.
23
Mínimos cuadrados
El método de mínimos cuadrados para resolver un problema requiere determinar la mejor
línea de aproximación, cuando el error es la suma de los cuadrados de las diferencias
entre los valores de y en la línea aproximada y los valores de y dados. Por tanto hay que
encontrar las constantes a0 y a1 que reduzcan al mínimo el error de mínimos cuadrados:
E2(a0,a1) = ∑[yi − (a1 xi + a0)]
10
i=1
2
El problema de ajustar la mejor recta con mínimos cuadrados a una colección de datos
{(xi,yi )}i=1, implica minimizar el error total
E = E2(a0,a1) = ∑[yi − (a1xi + a0)]
10
i=1
2
Ejemplo:
A partir de la siguiente tabla de datos, obtener la línea de mínimos cuadrados que
aproxima estos datos
Xi Yi xi2 xiyi P(xi) (yi-P(xi))^2
1 1.3 1 1.3 1.178 0.014884
2 3.5 4 7 2.716 0.614656
3 4.2 9 12.6 4.254 0.002916
4 5 16 20 5.792 0.627264
5 7 25 35 7.33 0.1089
6 8.8 36 52.8 8.868 0.004624
7 10.1 49 70.7 10.406 0.093636
8 12.5 64 100 11.944 0.309136
9 13 81 117 13.482 0.232324
10 15.6 100 156 15.02 0.3364
55 81 385 572.4 2.34474
Sustituyendo estos valores en las ecuaciones normales:
a0 =
385(81) − 55(572.4)
10(385) − (55)2 = −0.360 a1 =
10(572.4) − 55(81)
10(385) − (55)2 = 1.538
Entonces P(x) = 1.523x – 0.360.
24
Ventajas y desventajas:
El método de mínimos cuadrados es el procedimiento más adecuado para determinar las
mejores aproximaciones lineales. Algunas consideraciones que lo favorecen son:
• El método minimax generalmente le da demasiado valor relativo a un pequeño elemento
de datos que contiene un gran error.
• La desviación absoluta solo promedia el error en varios puntos sin dar suficiente valor
relativo a un punto que está muy alejado de la aproximación.
• El método de mínimos cuadrados concede mayor valor relativo al punto que está alejado
del resto de los datos, pero no permite que ese punto domine la aproximación.
25
3. Diferenciación e integración numérica
3.1 Derivación numérica
Una tabla de diferencias divididas se puede utilizar para estimar los valores de las
derivadas. Recordemos que el polinomio de interpolación de grado n que se satisface en
los puntos p0, p1, ..., pn es en términos de diferencias divididas.
Si Pn(x) representa una buena aproximación de f(x), también se podría obtener un
polinomio que aproxime la derivada, f’(x), diferenciando el polinomio Pn(x).
Nota:
No es sorprendente que la derivada salga exacta, ya que la función es un polinomio, que
es aproximado por un polinomio de interpolación de forma exacta. Si el polinomio es
exacto, su derivada también.
Ejemplo:
Estimar el valor f’(3.3) con un polinomio cuadrado, con i = 2.
i x f(x) 𝚫𝐟(𝐱) 𝚫 𝟐 𝐟(𝐱) 𝚫 𝟑 𝐟(𝐱) 𝚫 𝟒 𝐟(𝐱) 𝚫 𝟓 𝐟(𝐱)
0 1.3 3.669 3.017 2.479 2.041 1.672 1.386
1 1.9 6.686 5.496 4.520 3.713 3.058 2.504
2 2.5 12.182 10.016 8.233 6.771 5.562
3 3.1 22.198 18.249 15.004 12.333
4 3.7 40.447 33.253 27.337
5 4.3 73.700 60.590
6 4.9 134.290
h = 0.6, xi = 2.5 (la mejor elección). Para x = 3.3 tenemos s = (3.3 – 2.5) /0.6 = 4/3
𝑃′
2( 𝑥) =
1
0.6
{10.016 +
1
2
[(
4
3
− 1) + (
4
3
− 0)] 8.233
+
1
6
[(
4
3
− 1) (
4
3
− 2) + (
4
3
− 0) (
4
3
− 2) + (
4
3
− 0) (
4
3
− 1)] 6.771} = 27.875
Si se utiliza el siguiente término, para estimar el error, se obtiene el valor 0.315,
comparando con el error 0.238, no es una mala estimación.
26
Extrapolación de Richardson
Existe una forma para mejorar la exactitud de las estimaciones de las derivadas a partir
de tablas de valores igualmente espaciados. Esta técnica es equivalente a usar fórmulas
basadas en polinomios de grado superior sin encontrar la fórmula explícitamente.
Ejemplo:
x f(x)
2 0.123060
2.1 0.105706
2.2 0.089584
2.3 0.074764
2.4 0.061277
2.5 0.049126
2.6 0.038288
2.7 0.028722
2.8 0.020371
Estimar el valor de f’(2.4) y f”(2.4), con las fórmulas (3.4) y (3.6), respectivamente, las
cuales tienen un orden del error de O(h2):
𝑓′(2.4) ≈
0.049126 −0.074764
0.2
= −0.12819 ⇒ 𝑓′(2.4) = −0.12819 +𝐾1(0.1)2
El error exacto entonces es, la aproximación más una cantidad proporcional a h2 (K1 es la
cantidad de proporcionalidad). Se repite el cálculo, ahora con h = 0.2,
𝑓′(2.4) ≈
0.038288 −0.089584
0.4
= −0.12824 ⇒ 𝑓′(2.4) = −0.12824 +𝐾2(0.2)2
Los valores K1 y K2 no suelen ser iguales, ya que cada uno de ellos implica el valor f’’’(є),
demostrarse que se comete un error de O(h4) al tomar los dos valores como iguales. Con
base en el supuesto de que las K son iguales, es posible resolver las dos ecuaciones para
eliminarlas
𝑓′(2.4)=-0.12819+
1
(
0.2
0.1
)2−1
(-0.12819-(-0.12824))=-0.12817+O(ℎ2)
El cálculo es el caso de una regla general: dadas dos estimaciones de un valor que tiene
errores de O(hn), donde las h están en razón de 2 a 1, es posible extrapolar a una mejor
estimación del valor exacto.
Mejor estimación = más exacto + 1 2𝑛−1(más exacto – menos exacto) El proceso puede
repetirse, ahora con h = 0.2 y h = 0.4
27
𝑓′(2.4) ≈
0.020371 −0.123060
0.8
= -0.128361
𝑓′(2.4)=-0.12824+
1
( 2)2−1
(-0.12824-(-0.128361))=-0.12820+O(ℎ4)
Para obtener la extrapolación para la segunda derivada se procede de la misma forma,
empleando la fórmula. Los resultados se muestran en la siguiente tabla
h f’’(2.4) Est
(3.6)
Extrap. 1er
orden
Extrap. 2º
orden
0.1 0.133600 0.133817 0.133820
0.2 0.132950 0.133773
0.4 0.130481
La función del ejercicio anterior corresponde a f(x) = e-xsenx, por lo que se pueden
verificar los resultados anteriores f’(x) = e-x(cosx – senx) = -0.128171, f’’(x) = -2e-xcosx =
0.13379. Como puede observarse, los resultados obtenidos representan una buena
aproximación.
El procedimiento anterior se conoce como extrapolación de Richardson y puede aplicarse
cuando se quiere derivar numéricamente una función conocida. Con este método es
posible hacer más pequeños los valores de h, en vez de usar valores más grandes como
se requiere cuando la función solo se conoce por una tabla.
Ventajas y desventajas:
 La extrapolación puede usarse tanto para mejorar la estimación en una función
dada, es decir trabajar únicamente con los valores o para generar nuevas
fórmulas con un orden del error mayor.
 La extrapolación de Richardson sirve para generar resultados de gran exactitud
cuándo se usan fórmulas de bajo orden.
 La extrapolación se utiliza principalmente en las aproximaciones de las integrales
y de las soluciones de ecuaciones deferenciales.
28
3.2 Formulas de Newton-Cotes
Regla trapezoidal
La primera de las fórmulas de Newton-Cotes está basada en aproximar f(x) sobre (x0, x1)
mediante una línea recta, de ahí el nombre de “regla del trapecio”. La cual ya fue obtenida
mediante la integración de P1(xs); sin embargo, también puede considerarse como una
adaptación de la definición de la integral definida como una suma. Al evaluar
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎 , subdividiendo el intervalo de a a b en n subintervalos.
El área bajo la curva en cada subintervalo es aproximada por el trapecio formado al
sustituir la curva por su secante. Entonces, la integral es aproximada por la suma de todas
las áreas trapezoidales (si se conociera el límite de esta suma cuando el ancho del
intervalo tiende a cero, se tendría el valor exacto de la integral, pero en la integración
numérica, el número de intervalos es finito).
Los intervalos no tienen que ser igual de anchos, pero la fórmula es más simple si esto
sucede.
Formula:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎 =
ℎ
2
(𝑓0 + 2𝑓1 + 2𝑓2 + ⋯+ 2𝑓𝑛 + 𝑓𝑛)
Reglas de Simpson
La fórmula compuesta Newton-Cotes basada en un polinomio cuadrático, es conocida
como la regla de Simpson 1/3, y la que está basada en un polinomio cúbico, se conoce
como la regla de Simpson 3/8, estos nombres de deben a los coeficientes de las fórmulas.
Regla de Simpson 1/3
La fórmula de 2º grado de Newton – Cotes integra un polinomio cuadrático sobre dos
intervalos del mismo ancho (a estos intervalos se les suele llamar paneles). La fórmula
compuesta que se aplica a una subdivisión del intervalo de integración en n paneles (con
n par) es:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎 =
ℎ
3
(𝑓𝑎 + 4𝑓1 + 2𝑓2 + 4𝑓3 + 2𝑓4 + ⋯+ 4𝑓𝑛−1 + 𝑓𝑏)
29
Regla de Simpson 3/8
La regla compuesta basada en un polinomio de 4 puntos o cúbico se conoce como
Simpson 3/8. Se aplica a un conjunto de subintervalos, cuyo valor para n es múltiplo de 3:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎 =
3ℎ
8
(𝑓𝑎 + 3𝑓1 + 3𝑓2 + 2𝑓3 + 3𝑓4 + ⋯+ 3𝑓𝑛−1 + 𝑓𝑏)
Se aplica igual que la regla de Simpson 1/3. Si la función es conocida se divide el
intervalo de integración en n paneles donde n debe ser divisible entre 3.
Nota:
La Regla de Simpson 3/8 es menos eficiente que Simpson 1/3. Sin embargo, se emplea
cuando se tienen una tabla de valores con n impar, ya que se combinan las dos reglas.
30
3.3 Integración de Romberg
En la integración de Romberg se utiliza la regla compuesta del trapecio para obtener
aproximaciones preliminares, y luego el proceso de extrapolación de Richardson para
mejorar las aproximaciones. Como se sabe, las aproximaciones de la integral mejoran su
precisión conforme aumenta el número de subintervalos por lo que se sigue un proceso
secuencial de tomar n subintervalos, luego n/2, luego n/8 y así hasta alcanzar la precisión
deseada.
Ejemplo:
Se estimará la siguiente integral
∫
4
1 + 𝑥2 𝑑𝑥
1
0
Se comienza generando con la regla del trapecio una sucesión de aproximaciones con
tamaños de paso diferentes, en este caso sean h1 = 1, h2 = 0.5, h3 = 0.25 y h4 = 0.125.
Una vez que se tienen las aproximaciones por la regla del trapecio, se aplica de manera
sucesiva la fórmula de Romberg. Los resultados se presentan en la siguiente tabla:
K h 𝑰(𝒉) 𝒓.𝒕𝒓𝒂𝒑𝒆𝒄𝒊𝒐 O(𝒉 𝟒) O(𝒉 𝟔) O(𝒉 𝟖) O(𝒉 𝟏𝟎)
1 1 3.0
2 0.5 3.1 3.13333333
3 0.25 3.13117647 3.14156863 3.14211765
4 0.125 3.13898849 3.14159250 3.14159409 3.14158578
5 0.0625 3.14094161 3.14159265 3.14159266 3.14159264 3.14159267
Al duplicar el número de subintervalos se duplica, prácticamente, el número de
evaluaciones de la función.
El método de Romberg permite calcular íntegramente un nuevo renglón de la tabla con
sólo hacer una aplicación más de la regla del trapecio, y luego promediar los valores
previamente calculados para obtener los elementos sucesivos del renglón.
Como puede observarse, al aplicar la regla del trapecio con diferentes tamaños de paso,
algunas evaluaciones funcionales se repiten, por lo que parece pertinente modificar la
regla para los casos en que ésta será aplicada de forma sucesiva.
Nota:
 El método tiene como finalidad el mejoramiento sucesivo de la aproximación de la
regla del Trapecio disminuyendo el tamaño de paso.
 Al igual que la extrapolación de Richardson, puede aplicarse tanto a funciones
conocidas como a tablas de valores, en este caso, con la limitante de que no se
puede reducir el tamaño de paso, más allá de lo permitido por los mismos datos.

Más contenido relacionado

La actualidad más candente

La actualidad más candente (20)

Ecuaciones diferenciales ordinarias
Ecuaciones diferenciales ordinariasEcuaciones diferenciales ordinarias
Ecuaciones diferenciales ordinarias
 
Sny cap7
Sny cap7Sny cap7
Sny cap7
 
P03 Metodo Gauss
P03 Metodo GaussP03 Metodo Gauss
P03 Metodo Gauss
 
Ecuaciones def sistema
Ecuaciones def sistemaEcuaciones def sistema
Ecuaciones def sistema
 
Ampte06
Ampte06Ampte06
Ampte06
 
Metodo de elementos finitos
Metodo de elementos finitosMetodo de elementos finitos
Metodo de elementos finitos
 
Mat4
Mat4Mat4
Mat4
 
Sistema de ed de primer orden
Sistema de ed de primer ordenSistema de ed de primer orden
Sistema de ed de primer orden
 
9.metododegauss
9.metododegauss9.metododegauss
9.metododegauss
 
Sistemas lineales(1)
Sistemas lineales(1)Sistemas lineales(1)
Sistemas lineales(1)
 
Cap7
Cap7Cap7
Cap7
 
2.metodo iterativo
2.metodo iterativo2.metodo iterativo
2.metodo iterativo
 
2011 runge kutta
2011 runge kutta2011 runge kutta
2011 runge kutta
 
3.metodo directo
3.metodo directo3.metodo directo
3.metodo directo
 
Ode45
Ode45Ode45
Ode45
 
Ecuaciones diferenciales _parciales
Ecuaciones diferenciales _parcialesEcuaciones diferenciales _parciales
Ecuaciones diferenciales _parciales
 
Metodo Gauss Seidel
Metodo Gauss SeidelMetodo Gauss Seidel
Metodo Gauss Seidel
 
Metodos numericos 5
Metodos numericos 5Metodos numericos 5
Metodos numericos 5
 
Sistemas De Ecuaciones Lineales
Sistemas De Ecuaciones LinealesSistemas De Ecuaciones Lineales
Sistemas De Ecuaciones Lineales
 
11.sistemas singulares
11.sistemas singulares11.sistemas singulares
11.sistemas singulares
 

Similar a Ebook

Métodos numéricos- Problemario
Métodos numéricos- ProblemarioMétodos numéricos- Problemario
Métodos numéricos- ProblemarioBren MA
 
ANALISIS NUMERICO UNIDAD III
ANALISIS NUMERICO UNIDAD IIIANALISIS NUMERICO UNIDAD III
ANALISIS NUMERICO UNIDAD IIIivangobbo94
 
Método de jacobi
Método de jacobiMétodo de jacobi
Método de jacobiTensor
 
Métodos de eliminación gaussiana
Métodos de eliminación gaussianaMétodos de eliminación gaussiana
Métodos de eliminación gaussianawilmerleon67
 
ECUACIONES NO LINEALES
ECUACIONES NO LINEALESECUACIONES NO LINEALES
ECUACIONES NO LINEALESsdiupg1
 
Sistemas lineales casos especiales
Sistemas lineales casos especialesSistemas lineales casos especiales
Sistemas lineales casos especialesKike Prieto
 
Apuntes metodos-numericos-aproximacion-funcional-e-interpolacion
Apuntes metodos-numericos-aproximacion-funcional-e-interpolacionApuntes metodos-numericos-aproximacion-funcional-e-interpolacion
Apuntes metodos-numericos-aproximacion-funcional-e-interpolacionmiguelcasa
 
UNIDAD 7 y 8 Intergración numérica y Ec Dif.pptx
UNIDAD 7 y 8  Intergración numérica y Ec Dif.pptxUNIDAD 7 y 8  Intergración numérica y Ec Dif.pptx
UNIDAD 7 y 8 Intergración numérica y Ec Dif.pptxPaulaInes2
 
Quadratic Sieve, algoritmos y ejemplos
Quadratic Sieve, algoritmos y ejemplosQuadratic Sieve, algoritmos y ejemplos
Quadratic Sieve, algoritmos y ejemplosDaniel Cam Urquizo
 
Clase 11 MDJ
Clase 11 MDJClase 11 MDJ
Clase 11 MDJTensor
 
Método de jacobi Metodos Numericos
Método de jacobi Metodos NumericosMétodo de jacobi Metodos Numericos
Método de jacobi Metodos NumericosTensor
 
Método de jacobi Métodos Númericos
Método de jacobi Métodos NúmericosMétodo de jacobi Métodos Númericos
Método de jacobi Métodos NúmericosTensor
 
“Año del Fortalecimiento de la Soberanía Nacional” (2).pdf
“Año del Fortalecimiento de la Soberanía Nacional” (2).pdf“Año del Fortalecimiento de la Soberanía Nacional” (2).pdf
“Año del Fortalecimiento de la Soberanía Nacional” (2).pdfTaniaLeguiaRojas
 
Alea 0506 resumen-----simulacion
Alea 0506 resumen-----simulacionAlea 0506 resumen-----simulacion
Alea 0506 resumen-----simulacionjosetax
 
Método de jacobi
Método de jacobiMétodo de jacobi
Método de jacobiTensor
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesNiel Velasquez
 

Similar a Ebook (20)

Métodos numéricos- Problemario
Métodos numéricos- ProblemarioMétodos numéricos- Problemario
Métodos numéricos- Problemario
 
ANALISIS NUMERICO UNIDAD III
ANALISIS NUMERICO UNIDAD IIIANALISIS NUMERICO UNIDAD III
ANALISIS NUMERICO UNIDAD III
 
Método de jacobi
Método de jacobiMétodo de jacobi
Método de jacobi
 
Métodos de eliminación gaussiana
Métodos de eliminación gaussianaMétodos de eliminación gaussiana
Métodos de eliminación gaussiana
 
Ibook cynthia
Ibook cynthiaIbook cynthia
Ibook cynthia
 
Sexto pdf
Sexto pdfSexto pdf
Sexto pdf
 
ECUACIONES NO LINEALES
ECUACIONES NO LINEALESECUACIONES NO LINEALES
ECUACIONES NO LINEALES
 
Sistemas lineales casos especiales
Sistemas lineales casos especialesSistemas lineales casos especiales
Sistemas lineales casos especiales
 
Apuntes metodos-numericos-aproximacion-funcional-e-interpolacion
Apuntes metodos-numericos-aproximacion-funcional-e-interpolacionApuntes metodos-numericos-aproximacion-funcional-e-interpolacion
Apuntes metodos-numericos-aproximacion-funcional-e-interpolacion
 
Continuation methods
Continuation methodsContinuation methods
Continuation methods
 
UNIDAD 7 y 8 Intergración numérica y Ec Dif.pptx
UNIDAD 7 y 8  Intergración numérica y Ec Dif.pptxUNIDAD 7 y 8  Intergración numérica y Ec Dif.pptx
UNIDAD 7 y 8 Intergración numérica y Ec Dif.pptx
 
Quadratic Sieve, algoritmos y ejemplos
Quadratic Sieve, algoritmos y ejemplosQuadratic Sieve, algoritmos y ejemplos
Quadratic Sieve, algoritmos y ejemplos
 
Clase 11 MDJ
Clase 11 MDJClase 11 MDJ
Clase 11 MDJ
 
Método de jacobi Metodos Numericos
Método de jacobi Metodos NumericosMétodo de jacobi Metodos Numericos
Método de jacobi Metodos Numericos
 
Método de jacobi Métodos Númericos
Método de jacobi Métodos NúmericosMétodo de jacobi Métodos Númericos
Método de jacobi Métodos Númericos
 
“Año del Fortalecimiento de la Soberanía Nacional” (2).pdf
“Año del Fortalecimiento de la Soberanía Nacional” (2).pdf“Año del Fortalecimiento de la Soberanía Nacional” (2).pdf
“Año del Fortalecimiento de la Soberanía Nacional” (2).pdf
 
Alea 0506 resumen-----simulacion
Alea 0506 resumen-----simulacionAlea 0506 resumen-----simulacion
Alea 0506 resumen-----simulacion
 
Método de jacobi
Método de jacobiMétodo de jacobi
Método de jacobi
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones lineales
 
Matlab
MatlabMatlab
Matlab
 

Último

codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinavergarakarina022
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxPRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxinformacionasapespu
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdfBaker Publishing Company
 
Informatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosInformatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosCesarFernandez937857
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFlor Idalia Espinoza Ortega
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFAROJosé Luis Palma
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxAna Fernandez
 
6° SEM30 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
6° SEM30 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx6° SEM30 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
6° SEM30 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docxCeciliaGuerreroGonza1
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADOJosé Luis Palma
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSjlorentemartos
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxSINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxlclcarmen
 
Herramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdfHerramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdfMARIAPAULAMAHECHAMOR
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleJonathanCovena1
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.amayarogel
 

Último (20)

codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karina
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxPRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf
 
Informatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosInformatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos Básicos
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamica
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docx
 
6° SEM30 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
6° SEM30 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx6° SEM30 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
6° SEM30 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
 
Sesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdfSesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdf
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
 
Razonamiento Matemático 1. Deta del año 2020
Razonamiento Matemático 1. Deta del año 2020Razonamiento Matemático 1. Deta del año 2020
Razonamiento Matemático 1. Deta del año 2020
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxSINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
 
Herramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdfHerramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdf
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo Sostenible
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.
 

Ebook

  • 1. 2017 JIMENEZ LIMON CESAR ALEJANDRO FACULTAD DE ESTUDIOS SUPERIORES ACATLAN 17/05/2017 METODOS NUMERICOS II
  • 2. 1 Índice 1. Introducción de los métodos numéricos 1.1 Método del punto fijo 1.2 Método de Newton 1.3 Método de Newton modificado 1.4 Método de cuasi Newton 2. Interpolación y aproximación polinomial 2.1 Formula de Lagrange Diferencias divididas Interpolación de Newton Método de Hermite 2.2 Teoría de la aproximación Spline cubico Mínimos cuadrados 3. Diferenciación e integración numérica 3.1 Derivación numérica Extrapolación de Richardson 3.2 Formulas de Newton-Cotes Regla trapezoidal Regla de Simpson 1/3 Regla de Simpson 3/8 3.3 Integración de Romberg
  • 3. 2 Introducción Mediante un enfoque básico y aplicado, esta obra aborda varias facetas del cálculo numérico: la presentación de los métodos, el desarrollo de los algoritmos, la programación y su aplicación a la resolución de problemas. La ciencia y la tecnología describen los fenómenos reales mediante modelos matemáticos. El estudio de estos modelos permite un conocimiento más profundo del fenómeno, así como de su evolución futura. La matemática aplicada es la rama de las matemáticas que se dedica a buscar y aplicar las herramientas más adecuadas a los problemas basados en estos modelos. Desafortunadamente, no siempre es posible aplicar métodos analíticos clásicos por diferentes razones:  No se adecúan al modelo concreto.  Su aplicación resulta excesivamente compleja.  La solución formal es tan complicada que hace imposible cualquier interpretación posterior.  Simplemente no existen métodos analíticos capaces de proporcionar soluciones al problema. En estos casos son útiles las técnicas numéricas, que mediante una labor de cálculo más o menos intensa, conducen a soluciones aproximadas que son siempre numéricos. El importante esfuerzo de cálculo que implica la mayoría de estos métodos hace que su uso esté íntimamente ligado al empleo de computadores. De hecho, sin el desarrollo que se ha producido en el campo de la informática resultaría difícilmente imaginable el nivel actual de utilización de las técnicas numéricas en ámbitos cada día más diversos.
  • 4. 3 1.1 Método del punto fijo La primera técnica para resolver sistemas no lineales consiste en escribir las ecuaciones que componen el sistema de la forma: fi(x1, x2, …, xn) = 0 para i = 1, 2, …, n, y se trataran de encontrar los valores (x1, x2, …, xn) que satisfagan todas las ecuaciones del sistema.  Cada una de las ecuaciones se resuelve para una variable de tal manera que se obtenga: xi = gi(x1, x2, …, xn) para i = 1, 2, …, n.  Estas ecuaciones se toman como fórmulas recursivas para obtener una estimación a partir de una estimación previa, para lo que se escriben de la siguiente forma: xi(k+1) = gi(x1k, x2k, …, xnk) para i = 1, 2, …, n.  Se comienza con valores iniciales (x10, x20, …, xn0), se calculan nuevos valores (x11, x21, …, xn1) y se repite el proceso, esperando que en cada iteración los valores se aproximen a la raíz buscada, la cual cumple con: xi = gi(x1, x2, …, xn) para i = 1, 2, …, n. Ejemplo: Sea el siguiente sistema de ecuaciones: f1(x, y) = x2 - 2x – y + 0.5 f2(x, y) = x2 + 4y2 - 4 Para encontrar los puntos en que coinciden ambas funciones se requiere generar una sucesión {(x(k), y(k))} convergente a una de las soluciones. Para ello, se debe despejar la variable x de la primera ecuación, lo cual se puede hacer directamente; sin embargo para despejar la variable y de la segunda, se le agrega un múltiplo “adecuado” a cada miembro, en este caso -8y, para obtener x2 + 4y2 – 4 - 8y = -8y: 𝑥 = 𝑔1(𝑥,𝑦) = x2 −y +0.5 2 𝑦 = 𝑔2(𝑥,𝑦) = −x2 −4y2 +4+8y 8 Estas dos ecuaciones se emplean como fórmulas recursivas empezando con un punto inicial (x0, y0) = (0, 1). Las iteraciones se muestran en la siguiente tabla:
  • 5. 4 K X Y 0 0 1 1 -0.25 1 2 -0.21875 0.9921875 3 -0.22216797 0.99398804 4 -0.22231472 0.9938121 5 -0.22219413 0.99380288 6 -0.22221632 0.99380952 7 -0.22221471 0.99380833 8 -0.22221447 0.99380841 9 -0.22221457 0.99380842 En donde se puede observar que el punto de intersección es (-0.2222, 0.9938). Si se intenta con otro punto, por ejemplo (2, 0), la sucesión diverge, ya que el esquema iterativo empleado no sirve para encontrar la otra raíz, para lo cual es necesario escribir un par de fórmulas distintas. Ahora se agregará -2x a la primera ecuación y -11y a la segunda: 𝑥 = −x2 +4x +y −0.5 2 𝑦 = −x2 −4y2 +11y+4 11 Los resultados de aplicar estas ecuaciones como fórmulas recursivas con un punto inicial igual a (2,0) genera el punto (1.9, 0.3112). Como pudo observarse, el mismo par de fórmulas no se puede emplear para obtener las dos raíces. Esto está directamente relacionado con el valor de la derivada de la forma iterativa, la cual tiene que estar entre cero y uno en el intervalo en cuestión, para una convergencia monótona o entre menos uno y cero para una convergencia oscilante. En este caso al tratarse de funciones de varias variables deben emplearse las derivadas parciales. Ventajas y desventajas:  Es una extensión de los métodos de Jacobi y Gauss-Seidel.  La forma de despejar cada una de las variables a partir de las funciones afecta la convergencia.  Si el método converge, lo hace linealmente.  La norma vectorial se utiliza como criterio de paro.  Una condición suficiente aunque no necesaria, para asegurar la convergencia es que ∑ |𝜕𝑔𝑖 𝜕𝑥𝑗 |𝑛 𝑗=1 ≤ 𝑀 < 1, para i = 1, 2, …, n. Por otro lado, si M es muy pequeña en una región de interés, la sucesión converge rápidamente, si M es cercana a 1 en magnitud, entonces convergerá lentamente. Sin embargo, es muy difícil encontrar el sistema para la forma iterativa que satisfaga esta condición.  Para acelerar la convergencia se pueden emplear los desplazamientos sucesivos en lugar de los simultáneos.
  • 6. 5 1.2 Método de Newton Un sistema de ecuaciones no lineales puede representarse de la siguiente manera: f1(x1, x2, …, xn) = 0 f2(x1, x2, …, xn) = 0 : fn(x1, x2, …, xn) = 0 Donde fi(x1, x2, …, xn) = 0 para i = 1, 2, …, n es una función (lineal o no) de las variables independientes x1, x2, …, xn. Para resolver este tipo de sistemas de ecuaciones se requieren algunos conceptos previos, los cuales se presentan a continuación. Definición. Matriz jacobiana variables (xj) independientes. Su matriz jacobiana J(x1,x2, …, xn), está dada por las derivadas parciales de cada una de las funciones con respecto a cada una de las variables: J= 𝑓1𝑥1 𝑓1𝑥2 … 𝑓2𝑥1 𝑓2𝑥2 … 𝑓3𝑥1 𝑓3𝑥2 … … 𝑓1𝑥𝑛 … 𝑓2𝑥𝑛 … 𝑓3𝑥𝑛 ∶ : : 𝑓𝑛𝑥1 𝑓𝑛𝑥2 … … 𝑓𝑛𝑥𝑛 La diferencial. En una función de varias variables, la diferencial es el instrumento que se usa para mostrar el efecto de los cambios de las variables independientes en las variables dependientes. Supóngase que los valores de las funciones fi(x1, x2, …, xn) se conocen en el punto (x10, x20, …, xn0) y se desean estimar sus valores en un punto cercano (x1, x2, …, xn). Si se denotan con fi los cambios diferenciales en las variables dependientes y es, esto puede escribirse con notación matricial de la siguiente manera: 𝑓1𝑥1 𝑓1𝑥2 … 𝑓2𝑥1 𝑓2𝑥2 … 𝑓3𝑥1 𝑓3𝑥2 … … 𝑓1𝑥𝑛 … 𝑓2𝑥𝑛 … 𝑓3𝑥𝑛 ∆𝑥1 ∆𝑥2 ∆𝑥3 = _ 𝑓1 𝑓2 𝑓3 ∶ : : 𝑓𝑛𝑥1 𝑓𝑛𝑥2 … … 𝑓𝑛𝑥𝑛 : ∆𝑥𝑛 : 𝑓𝑛
  • 7. 6 El diferencial es la ecuación matricial que se utiliza en los métodos para solución de ecuaciones no lineales ya que puede transformarse en una forma iterativa. Este método para resolver sistemas de ecuaciones no lineales es linealizar y resolver repetidamente; esta es la estrategia que emplea el método de Newton para resolver una sola ecuación no lineal y que se generaliza para sistemas no lineales. Usando notación vectorial para escribir el sistema se tiene: F(X) = 0 Definiendo los vectores columna como F = [f1, f2, …, fn)]t X = [x1, x2, …, xn]t La extensión del método de Newton para sistemas no lineales es: X(k + 1) = X(k) – [F´(x(k))]-1F(x(k)) Donde F´(x(k)) es la matriz jacobiana. Ejemplo: Sea el siguiente sistema de ecuaciones: (𝑥,𝑦) = 4−𝑥2 −𝑦2 = 0 (𝑥,𝑦) = 1−𝑒𝑥 −𝑦 = 0 Se obtienen las derivadas parciales para escribir la matriz jacobiana: 𝑓𝑥 = −2𝑥 𝑓𝑦 = −2𝑦 𝑔𝑥 = −𝑒𝑥 𝑔𝑦 = −1
  • 8. 7 A partir de la gráfica, se elige como inicial valor (1, -1.7), valores de x0 y y0 que se sustituyen en las derivadas con lo que obtiene la matriz jacobiana y el siguiente sistema: ( −2 3.4 −2.7183 −1 ) ∆𝑥0 ∆𝑦0 = _ 0.1100 −0.0183 Al resolver, los valores para ∆x0 = 0.0043 y ∆y0 = -0.298 con lo que se obtiene la nueva aproximación x0 = 1.0043 y y0 = -1.7298. Estos valores ya coinciden con los valores de la raíz aunque se puede hacer otra iteración para mejorar la aproximación. ( −2.0085 3.4597 −2.7299 −1 ) ∆𝑥1 ∆𝑦1 = _ −0.0009 −0.00002 Al resolver este sistema, los valores para ∆x1 = -0.00008682 y ∆y1 = -1.0743E-8, entonces la nueva aproximación es: x0 = 1.00416875 y y0 = -1.7298. Como puede verse, el valor de los incrementos es muy pequeño, entonces las iteraciones se detienen cuando la norma del vector de los incrementos es menor a una tolerancia previamente establecida. Ventajas y desventajas:  El método der Newton aplicado a un sistema de ecuaciones no lineales, reduce el problema a la solución de un sistema de ecuaciones lineales (serie de Taylor) para determinar los valores que mejoran la exactitud de las estimaciones.  El método de Newton tiene la ventaja de converger cuadráticamente, por lo menos si se está cerca de la raíz, pero es costoso en términos de evaluaciones funcionales.  Es importante recordar que la deducción del método de Newton se realiza a partir de la serie de Taylor, en esta ocasión multivariada, lo que permite determinar la convergencia cuadrática del método.  La sucesión generada por este método puede divergir si los valores iniciales no están los suficientemente cercanos a la raíz.
  • 9. 8 1.3 Método de Newton modificado Este método de Newton-Raphson modificado consiste en aplicar n (n número de ecuaciones) veces el método de Newton univariable, una para cada variable. Cada vez que se hace esto, se consideran las otras variables fijas. Sea el sistema: 𝑓 (𝑥1,2,⋯,𝑥𝑛) = 0 con i = 1, 2, …, n. Se eligen los valores iniciales (𝑥1 𝑘, 𝑥2 𝑘,⋯, 𝑥𝑛 𝑘) y empleando el método de Newton se calcula un nuevo valor, aunque al tratarse de una ecuación de varias variables se emplea la derivada parcial evaluada en los valores iniciales: 𝑥𝑖 𝑘+1 = 𝑥𝑖 𝑘 − 𝑓 𝑖( 𝑥1 𝑘,𝑥2 𝑘,⋯,𝑥𝑛 𝑘) 𝜕𝑓 𝑖 𝑘 𝜕𝑥 𝑖 𝑘 Con lo cual se obtendría (𝑥1 1,2 1,⋯,𝑥𝑛 1) y se procede de forma sucesiva hasta alcanzar una tolerancia previamente establecida. Normalmente este método converge si los valores iniciales de las variables son cercanos a la raíz y requiere la evaluación de sólo 2n funciones por paso. Al igual que en el método anterior se pueden emplear desplazamientos simultáneos o sucesivos. Ejemplo: Resolver el siguiente sistema por el método de Newton modificado f1(x, y) = x2 - 10x + y2 + 8 = 0 f2(x, y) = xy2 + x – 10y + 8 = 0 Se calculan las derivadas parciales 𝜕𝑓1 𝜕𝑥 = 2x-10, 𝜕𝑓2 𝜕𝑦 =2xy-10
  • 10. 9 Iniciando con los valores iniciales (0, 0) Desplazamientos simultáneos K X Y f1 f2 df1/dx df2/dy 0 0 0 8 8 -10 -10 1 0.8 0.8 1.28 1.312 -8.4 -8.72 2 0.9524 0.95046 0.28659 0.30815 -8.09524 -8.1896 3 0.9878 0.98809 0.07419 0.07131 -8.02443 -8.04797 4 0.997 0.99695 0.01768 0.01851 -8.00594 -8.01203 5 0.9992 0.99926 0.00462 0.00442 -8.00153 -8.00301 6 0.9998 0.99981 0.0011 0.00115 -8.00037 -8.00075 7 1 0.99995 0.00029 0.00028 -8.0001 -8.00019 8 1 0.99999 6.9E-05 0.00007 -8.00002 -8.00005 Desplazamientos sucesivos K X Y f1 df1/dx f2 df2/dy 0 0 0 8 -10 8.8 -10 1 0.8 0.88 1.4144 -8.4 0.918295 -8.29565 2 0.968381 0.9907 0.23543 -8.06324 0.069721 -8.0234 3 0.997579 0.99939 0.01815 -8.00484 0.004606 -8.00154 4 0.999846 0.99996 0.00116 -8.00031 0.000289 -8.0001 5 0.99999 1 0.00007 -8.00002 -1.99998 -10 Emplear desplazamientos sucesivos puede producir convergencia para algunos arreglos y divergencia para otros (probar con el vector inicial (2, 3). Ventajas y desventajas:  Este método, normalmente converge si los valores iniciales están muy cerca de la raíz.  Sólo requiere la evaluación de 2n funciones por paso.  Dado que las variables prácticamente se van resolviendo por separado, es posible que alguna de ellas diverja.  No hay manera de saber cuándo el vector inicial convergerá o no, siendo ésta la principal desventaja del método.
  • 11. 10 1.4 Método de cuasiNewton Este método requiere n evaluaciones funcionales por iteración y también disminuye el número de cálculos aritméticos a O(𝑛2), ya que reemplaza a la matriz Jacobiana con una matriz de aproximación que se actualiza en cada iteración. Su desventaja radica en que se pierde la convergencia cuadrática de Newton, al ser sustituida por una convergencia denominada superlineal. En la mayoría de las aplicaciones la reducción a la convergencia superlineal disminuye los cálculos. Otra desventaja es que, a diferencia del método de Newton, no es autocorregible. El método de Newton generalmente corregirá el error del redondeo, con iteraciones sucesivas, no así el método de Broyden, salvo que se incorporen medidas especiales de corrección. El método de Broyden consiste en que a partir de una aproximación inicial X(0) a la solución F(x) = 0, se calcula la siguiente aproximación X(1) por el método de Newton. No obstante para calcular X(2) ya no se hace con el método de Newton y se recurre al método de la secante. En el método de la secante univariable se emplea la siguiente fórmula para sustituir el cálculo de la derivada: 𝑓´(𝑥1) = 𝑓(𝑥1) − 𝑓(𝑥0) 𝑥1 − 𝑥0 Dado que en el caso de los sistemas no lineales, X(1) – X(0) es un vector, el cociente correspondiente esta indefinido. Sin embargo, el método procede de manera semejante al método de Newton, porque la matriz J(X(1)) es reemplazada por una matriz A que tiene la propiedad de que: ((1) − (0)) = ((1)) − ((0)) Esta matriz es la que se usa para determinar X(2) como: (2) = (1) − 𝐴1−1((1)) Y cuyos componentes se obtienen con dos iteraciones previas 𝑋 𝑘 y 𝑋 𝑘−1, de la siguiente manera 𝐴 𝑘 = 𝐴 𝑘−1 + [𝐹(𝑋 𝑘) − 𝐹(𝑋 𝑘−1) − 𝐴(𝑘−1)(𝑋 𝑘 − 𝑋 𝑘−1)](𝑋 𝑘 −𝑋 𝑘−1)𝑡 ‖(𝑋 𝑘 − 𝑋 𝑘−1)‖ O bien 𝐴 𝑘 = 𝐴 𝑘−1 + [∆𝐹 𝑘 − 𝐴 𝑘−1∆𝑋 𝑘 ](∆𝑋 𝑘)𝑡 ‖(∆𝑋 𝑘)‖
  • 12. 11 Donde ∆𝐹 𝑘 = 𝐹(𝑋 𝑘 ) − 𝐹(𝑋 𝑘−1 ) y ∆𝑋 𝑘 =𝑋 𝑘 − 𝑋 𝑘−1 Ejemplo: Usar método de Broyden para aproximar la solución del sistema f1(x, y) = x2 – 10x + y2 + 8 = 0 f2(x, y) = xy2 + x – 10y + 8 = 0 Tomando como valor inicial X = [0, 0]t. Para empezar se realiza una iteración con el método de Newton 𝑋1=( 0 0 ) - ( −10 0 1 −10 ) −1 ( 8 8 )=( 0.8 0.88 ) Se calcula la inversa con la ecuación empleando la matriz jacobiana para la primera iteración. (A(1))−1= ( −0.1 0 −0.01 −0.1 ) + ( 0.8 0.88 ) − ( −0.1 0 −0.01 −0.1 ) ( −6.5856 −7.38048 ) ( 0.8 0.88 ) 𝑡 ( −0.1 0 −0.01 −0.1 ) ( 0.8 0.88 ) 𝑡 ( −0.1 0 −0.01 −0.1 ) ( −6.5856 −7.38048 ) = ( −0.11015 −0.010079 −0.01546 −0.105404 ) Ventajas y desventajas:  Tiene una convergencia superlineal, pero no cuadrática.  No es auto corregible.  El uso del método en esta forma no se justificaría, debido a la reducción a la convergencia superlineal a partir de la convergencia cuadrática del método de Newton.
  • 13. 12 Interpolación y aproximación polinomial En la cotidianeidad es fácil encontrarse con datos tabulados de la forma (xi, yi), para i = 0, 1, …, n, tales como la presión de una sustancia a diferentes temperaturas, la población en diferentes tiempos, las distancias a diferentes velocidades, entre otros. En estos casos y = f(x) y f(x) es una función desconocida; y es común la necesidad de conocer algún valor de y para alguna x que no se encuentra en la tabla. Este procedimiento es lo que se conoce como Interpolación. Por consiguiente, interpolación es el cálculo de valores para una función tabulada en puntos que no se encuentran en la tabla de valores. Mediante este proceso se puede obtener una representación explícita de una aproximación a f(x), lo que permite además construir fórmulas de diferenciación e integración numérica y obtener formas simplificadas de funciones “complejas”. 2.1 Formula de Lagrange Si se tiene un conjunto de n + 1 puntos (xi , yi) para i = 0, 1, ... , n para representar a y como una función de valuación única de x, es posible encontrar un polinomio único de grado n que pasa por los puntos. Por ejemplo, es posible encontrar una recta única que pasa por dos puntos, y es posible encontrar un polinomio cuadrático único que pasa por tres puntos. La ecuación polinomial para y se puede modelar mediante y= 𝑎0+𝑎1 𝑥+𝑎2 𝑥2+…+𝑎 𝑛 𝑥 𝑛 y los n + 1 puntos se pueden usar para escribir n + 1 ecuaciones para los coeficientes ai. Estas ecuaciones son 𝑦𝑗=𝑎0+ 𝑎1 𝑥𝑗 + 𝑎2 𝑥𝑗 2+ … + 𝑎 𝑛−1 𝑥𝑗 𝑛 j=0,1,2,…,n y constituyen un sistema de ecuaciones algebraicas lineales. Los polinomios de Lagrange se pueden determinar especificando algunos puntos en el plano por los cuales debe pasar. Consideremos el problema de determinar un polinomio de grado 1 que pase por los puntos distintos (x0, y0) y (x1, y1). Este problema es el mismo que el de aproximar una función f, para la cual f(x0) = y0 y f(x1) = y1, por medio de un polinomio de primer grado, interpolando entre, o coincidiendo con, los valores de f en los puntos dados. Sea el polinomio P(x)= (𝑥−𝑥1) (𝑥0−𝑥1) y0 + (𝑥−𝑥0) (𝑥1−𝑥0) y1
  • 14. 13 cuando x = x0 P(x0)= (𝑥0−𝑥1) (𝑥0−𝑥1) y0 + (𝑥0−𝑥0) (𝑥1−𝑥0) y1=y0=f(x0) así que P tiene las propiedades requeridas. Para generalizar el concepto de interpolación lineal, considérese la construcción de un polinomio a lo más de grado n que pase por los n+1 puntos (x0, f(x0)), (x1, f(x1)), (x2, f(x2)), ... , (xn, f(xn)) El polinomio lineal que pasa por (x0, f(x0)) y (x1, f(x1)) se construye usando los cocientes. 𝐿0(x)= (𝑥−𝑥1) (𝑥0−𝑥1) 𝐿1(x)= (𝑥−𝑥0) (𝑥1−𝑥0) Cuando x = x0, L0(x0) = 1, mientras que L1(x0) = 0. Cuando x = x1, L0(x1) = 0, mientras que L1(x1) = 1. Para el caso general, se necesita construir, para cada k = 0, 1, ..., n, un cociente Ln,k(x) con la propiedad de que Ln,k(xi) = 0 cuando i ≠ k y que Ln,k(xk) = 1 cuando x = xk. Ejemplo: Las densidades de sodio para tres temperaturas están dadas por i Temperatura 𝒕𝒊 (en °C) Densidad 𝒅 𝒊 0 94 929 1 205 902 2 371 860 Determinar la densidad para t = 251°C Para obtener el valor de los cocientes, se sustituye el valor t = 251, entonces, la densidad del sodio a una temperatura de t = 251°C es d = 890.556117 kg/m3. Ventajas y desventajas:  Para la construcción del polinomio de Lagrange es importante conocer de antemano el grado del polinomio ya que cambiarlo implicaría realizar todos los cálculos desde un inicio.  La implementación del método de Lagrange en un programa de computadora es bastante sencillo.  Dada la sencillez del método, es común su uso como parte de otros métodos, como por ejemplo, métodos para la solución de ecuaciones diferenciales.  Para la construcción del polinomio de Lagrange, los datos no requieren estar ordenados, ni igualmente espaciados.
  • 15. 14  El polinomio de Lagrange puede emplearse para deducir fórmulas de diferenciación e integración numérica.  Los polinomios de interpolación generan oscilaciones conforme aumenta el grado del mismo, por consiguiente se recomienda no emplear polinomios de grados muy elevados, aunque sea necesario construir más de un polinomio con la misma tabla de datos
  • 16. 15 Diferencias divididas Los métodos de interpolación iterada (Lagrange) sirven para determinar los valores de los polinomios de interpolación de grado sucesivamente mayor en un punto particular. Sin embargo, cada uno de los elementos en la tabla de interpolación depende del punto que se está evaluando, así que la tabla no se puede usar para encontrar una representación explícita del polinomio que aproxima a la función. Los métodos para determinar la representación explícita de un polinomio de interpolación, a partir de datos tabulados, se conocen como métodos de diferencias divididas, y pueden usarse para derivar técnicas para aproximar las derivadas y las integrales de funciones, así como para aproximar las soluciones de ecuaciones diferenciales. El tratamiento de las tablas de diferencias divididas supone que la función f(x) es conocida para varios valores de x. Dichos valores no necesariamente están igualmente espaciados u obedecen algún orden (sin embargo, si están ordenados puede ser ventajoso). Supóngase que Pn es un polinomio de grado a lo más n que coincide con la función f en los números distintos x0, x1, ... , xn. Las diferencias divididas de f con respecto a x0, x1, ... , xn se pueden derivar demostrando que Pn tiene la representación: 𝑃𝑛(x)=𝑎0+𝑎1(𝑥 − 𝑥0)+ 𝑎2(𝑥− 𝑥0)(𝑥 − 𝑥1)+…+ 𝑎 𝑛(𝑥 − 𝑥0)(𝑥 − 𝑥1)…(𝑥 − 𝑥 𝑛−1) con constantes apropiadas a0, a1, ... , an. Entonces, evaluando Pn en x0 queda solamente el término constante a0, es decir, a0 = Pn(x0) = f(x0). Similarmente, cuando Pn se evalúa en x1: 𝑓(𝑥0) + 𝑎1(𝑥1 − 𝑥0)= 𝑃𝑛(𝑥1)=𝑓(𝑥1) así que: 𝑎1= 𝑓(𝑥1)−𝑓(𝑥0) 𝑥1−𝑥0 Es aquí donde se introduce la notación de diferencia dividida. La diferencia dividida cero de la función f, con respecto a xi, se denota por f[xi], y es simplemente la evaluación de f en xi. 𝑓[𝑥𝑖] = 𝑓(𝑥𝑖) Las diferencias divididas restantes se definen inductivamente, la 1ª diferencia dividida de f con respecto a xi y xi+1, se denota por f[xi, xi+1.] y está definida como: 𝑓[ 𝑥𝑖,𝑥𝑖+1]= 𝑓[ 𝑥𝑖+1]−𝑓[𝑥𝑖] 𝑥𝑖+1 − 𝑥𝑖
  • 17. 16 Cuando las (k – 1) diferencias divididas 𝑓[ 𝑥𝑖,𝑥𝑖+1,𝑥𝑖+2,… ,𝑥𝑖+𝑘] 𝑦 𝑓[ 𝑥𝑖,𝑥𝑖+1,𝑥𝑖+2,… ,𝑥𝑖+𝑘] se han determinado, la k-ésima diferencia dividida de f relativa a xi, xi+1, xi+2, ... , xi+k Ejemplo: Escribir el polinomio de interpolación de grado 3, empleando la siguiente tabla 𝒙 𝒊 𝒇𝒊 f(1) f(2) f(3) f(4) 3.2 22.0 8.400 2.856 -0.528 0.256 2.7 17.8 2.118 2.012 0.0865 1.0 14.2 6.342 2.263 4.8 38.3 16.750 5.6 51.7 P3(x) = 22.0 + 8.400(x – 3.2) + 2.856(x – 3.2)(x – 2.7) – 0.528(x – 3.2)(x – 2.7)(x – 1.0) Nota:  Todos los polinomios que pasan por el mismo número de puntos y estos son los mismos, son idénticos.  Cuando los valores tabulados corresponden a un polinomio de grado n, las n- ésimas diferencias divididas van a ser iguales e iguales al coeficiente del término de la xn.
  • 18. 17 Interpolaciónde Newton El método de interpolación de Newton es un poco más complicado en su programación que el de Lagrange, pero también más versátil, ya que si los datos están ordenados e igualmente espaciados la fórmula se puede simplificar y además mejorar la precisión. Cuando x0, x1, ... , xn, están ordenados consecutivamente e igualmente espaciados, la fórmula de diferencias divididas: (𝑥) = [𝑥0]+∑ [𝑥0,1,…,𝑥𝑘](𝑥 −𝑥0)(𝑥−𝑥1)…(𝑥 −𝑥𝑘−1) Se puede expresar en una forma simplificada:  Introduciendo la notación de h = xi+1 – xi para cada i = 0, 1, ... , n – 1  Haciendo x = x0 + sh, la diferencia (x – xi) puede escribirse como x – xi = (s – i)h; Así que la fórmula se transforma en: Pn(x) = Pn(x0 + sh) = f[x0] + shf[x0, x1] + s(s – 1)h2f[x0, x1, x2] + . . . + s(s – 1) (s – 2) … (s – n + 1) hnf[x0, x1, … , xn] Fórmula de diferencias divididas progresiva de Newton Considerando que los datos están igualmente espaciados se puede construir el polinomio haciendo uso de la notación de diferencia progresiva, Δ. Con esta notación: [𝑥0,1]= f(x1)− f(x0) x1 − x0 = ∆f(x0) ℎ ; [𝑥0,1,𝑥2] = ∆f(x1)−∆f(x0) 2ℎ2 = ∆2f(x0) 2ℎ2 El polinomio queda de la siguiente forma: (𝑥) = (𝑥0)+𝑠∆(𝑥0)+𝑠(𝑠 −1) ∆2f(x0) 2! +⋯+ 𝑠(𝑠 −1)(𝑠 −2)…(𝑠 −𝑛 −1) ∆ 𝑛f(x0) 𝑛! Ejemplo: Construir una tabla de diferencias a partir de los siguientes datos e interpolar para x = 1.2 𝒙𝒊 𝒇(𝒙𝒊) ∆ 𝒇(𝒙𝒊) ∆ 𝟐 𝒇(𝒙𝒊) ∆ 𝟑 𝒇(𝒙𝒊) ∆ 𝟒 𝒇(𝒙𝒊) 1.0 0.765198 -0.145112 -0.019573 0.010672 0.000326 1.3 0.620086 -0.164684 -0.008899 0.011027 1.6 0.455402 -0.173583 0.002127 1.9 0.281819 -0.171456 2.2 0.110362
  • 19. 18 Con h = 0.3 y s = 2/3, empleando la fórmula de diferencias progresivas de Newton, se obtiene 𝑃4(1.2) = 0.67114889 Estos resultados son idénticos a los que se obtendrían con las fórmulas de diferencias divididas o con la de diferencias divididas progresivas, ya que son equivalentes, pero en este caso se sustituye el cálculo de las diferencias divididas sólo por diferencias. Ventajas y desventajas:  Cuando se va a lleva a cabo sólo una interpolación, Newton y Lagrange requieren de un esfuerzo de cálculo similar. Sin embargo, Lagrange es un poco más fácil de programar. También existen casos en donde la forma de Newton es más susceptible a los errores de redondeo. Debido a esto y a que no se requiere calcular y almacenar diferencias divididas, la forma de Lagrange se usa, a menudo, cuando el orden del polinomio se conoce con anterioridad.  La interpolación por diferencias de Newton es una modalidad de las tablas de diferencias divididas pero con intervalos uniformes, lo que simplifica el polinomio y la tabla de diferencias, disminuyendo el número de operaciones.  Los datos tienen que estar igualmente espaciados.  Los valores a interpolar tienen que ubicarse al final o al inicio de la tabla.
  • 20. 19 Método de Hermite Un polinomio se puede ajustar no solo a los valores de la función sino también a las derivadas en los puntos. Los polinomios ajustados a los valores de la función y de su derivada se llaman polinomios de interpolación de Hermite o polinomios oscilantes. Si f ∈ C1[a, b] y x0, x1, x2, ..., xn ∈ [a, b] son distintos, el único polinomio de menor grado que coincide con f y f’ en x0, x1, x2, ..., xn es un polinomio de grado a lo más 2n + 1 dado por 𝐻2𝑛+1(x)=∑ 𝑓( 𝑥𝑗)𝑛 𝑗=0 𝐻 𝑛,𝑗(𝑥)+ ∑ 𝑓′( 𝑥𝑗)𝑛 𝑗=0 𝐻′ 𝑛,𝑗(𝑥) Donde 𝐻 𝑛,𝑗( 𝑥) = [1 − 2(𝑥 − 𝑥 𝑗)𝐿′ 𝑛,𝑗( 𝑥) ] 𝐿2 𝑛,𝑗( 𝑥) 𝐻′ 𝑛,𝑗( 𝑥)=(𝑥 − 𝑥 𝑗) 𝐿2 𝑛,𝑗( 𝑥) En este contexto, Ln,j denota al j-ésimo coeficiente polinomial de Lagrange de grado n. Donde el término del error: f(x)- 𝐻2𝑛+1(𝑥)= (𝑥−𝑥0)2 … (𝑥−𝑥 𝑛)2 (2𝑛+2)! 𝑓 (2𝑛+2) (𝜀) para alguna ε con a < ε < b. Ejemplo: Con los siguientes datos, encontrar una aproximación para f(2.5) x f(x) f’(x) 2.2 0.5207843 -0.0014878 2.4 0.5104147 -0.1004889 2.6 0.4813306 -0.1883635 Cocientes de Lagrange y sus derivadas 𝐿20(2.5) = -0.125 𝐿′20 (2.2) = -7.5 𝐿21 (2.5) = 0.75 𝐿′21 (2.4) = 0 𝐿22 (2.5) = 0.375 𝐿′22 (2.6) = 7.5
  • 21. 20 H20 = [1 – 2(2.5 – 2.2)(-7.5)](−0.125)2 = 0.0859375 H21 = [1 – 2(2.5 – 2.4)(0)](0.75)2 = 0.5625 H22 = [1 – 2(2.5 – 2.6)(7.5)](0.375)2 = 0.3515625 H20 = (2.5 – 2.2) (−0.125)2 = 0.0046875 H21 =(2.5 – 2.4) (0.75)2 = 0.05625 H22 = (2.5 – 2.6) (0.375)2 = -0.0140625 𝐻5(x) = (0.5207843)(0.0859375) + (0.5104147)(0.5625) + (0.4813306)(0.3515625) + (- 0.0014878)(0.0046875) + (-0.1004889)(0.05625) + (-0.1883635)(-0.0140625) = 0.498070345624 Con diferencias divididas: 𝒛 𝒊 f[zi] f[1] f[2] f[3] f[4] f[5] 2.2 0.5207843 -0.0014878 -0.251801 0.0429825 0.00845925 -0.000218 2.2 0.5207843 -0.051848 -0.2432045 0.0463662 0.008372 2.4 0.5104147 -0.1004889 -0.224658 0.049715 2.4 0.5104147 -0.1454205 0.214715 2.6 0.4813306 -0.1883635 2.6 0.4813306 P(x) = 0.5207843 + (2.5 – 2.2)(-0.0014878) + (2.5 – 2.2)2 (-0.251801) + (2.5 – 2.2)2 (2.5 – 2.4)(0.0429825) + (2.5 – 2.2)2(2.5 – 2.4)2(0.00845925) + (2.5 – 2.2)2 (2.5 – 2.4)2 (2.5 – 2.6)(-0.000218) = 0.498070345445
  • 22. 21 2.2 Teoría de la aproximación (ajuste de curvas) Spline cubico Spline cúbico es otra manera de ajustar un polinomio a un conjunto de datos, solo que éste lo hace a través de una curva suave, la cual puede ser de varios grados. En general, un conjunto de polinomios de n-ésimo grado se ajusta entre cada par de puntos adyacentes, gi(x), desde xi hasta xi+1. Si el grado del spline es uno (solo hay rectas entre los puntos). El problema con el spline lineal es que la pendiente es discontinua en los puntos (nodos). Los problemas de grado superior al uno, no tienen este problema. Un polinomio de interpolación que pasa por todos los puntos también es continúo en su pendiente, sin embargo, pueden presentar otros problemas. Los splines de grado mayor que uno tienen pendiente continua. Aunque los splines pueden ser de cualquier grado, los cúbicos son los más conocidos. La aproximación mediante splines (trazadores) cúbicos se aplica a n pares ordenados de datos. Se buscan n-1 curvas que conectan los puntos 1 y 2, 2 y 3, ..., (n - 1) y n. Además se requiere que las dos curvas que conectan los puntos (k-1) y k y los puntos k y (k+1) tengan la misma pendiente en el punto k. De esta manera, el ajuste de la curva resultante es continuo y suave. Para relacionar las pendientes y las curvaturas de los splines de unión, se deriva gi(x): 𝑔′𝑖(xi) = 3𝑎 𝑖h2 + 2𝑏𝑖h + 𝑐𝑖 𝑔′′𝑖 (xi) = 6𝑎 𝑖h + 2𝑏𝑖 Aprovechando que 𝑔′′𝑖 (xi) es lineal en el intervalo [xi, xi+1] hacemos 𝑆𝑖= 𝑔′′𝑖 (𝑥𝑖) i = 0, 1, ..., n-1 𝑆 𝑛 = 𝑔′′ 𝑛−1 (𝑥 𝑛) Entonces 𝑆 𝑛 = 6𝑎 𝑖 (xi – xi) + 2𝑏𝑖 = 𝑔′′𝑖 (xi) = 2𝑏𝑖 𝑆 𝑛+1 = 𝑔′′𝑖 (xi+1) = 6𝑎 𝑖 (xi+1 – xi) + 2𝑏𝑖 = 6𝑎 𝑖ℎ𝑖 + 2𝑏𝑖 Despejando las incógnitas: 𝑏𝑖 = 𝑆𝑖 2 𝑎𝑖 = 𝑆𝑖+1− 𝑆𝑖 6ℎ 𝑖 Sustituyendo los valores de ai, bi y di en gi(x) = yi+1 para despejar ci: 𝑦𝑖+1 = ( 𝑆𝑖+1−𝑆𝑖 6ℎ 𝑖 )ℎ𝑖 3 + 𝑆𝑖 2 ℎ𝑖 2 + 𝑐𝑖ℎ𝑖 + 𝑦𝑖
  • 23. 22 𝑐𝑖 = 𝑦𝑖+1 − 𝑦𝑖 ℎ𝑖 +( 𝑆𝑖+1−2 𝑆𝑖 6 ) + 𝑦𝑖 A menudo se usan cuatro alternativas: 1. Spline natural: S0 = 0 y Sn = 0, las cúbicas de los extremos se aproximen linealmente a los puntos x0 y xn. (Aplana un poco los extremos). 2. Forzar en los extremos a una pendiente específica. Si no se conocen estos valores se usa: f’(x0) = A y f´(xn) = B En el extremo izquierdo 2h0S0 + h0S1 = 6(f[x0, x1] – A) En el extremo derecho 2hn-1Sn-1+ 2hn-1Sn = 6(B - f[xn-1, xn]) 3. S0 = S1 y Sn = Sn-1: parábolas en los spline extremos. 4. Extrapolando S0 con S1 y S2 y Sn con Sn-1 y Sn-2 (produce demasiada curvatura en los extremos). 5. En el extremo izquierdo 𝑆1−𝑆0 ℎ0 = 𝑆2−𝑆1 ℎ1 , 𝑠0 = (ℎ0+ℎ1 )𝑆1−ℎ0 𝑆2 ℎ1 Ejemplo: Ajustar los datos de la siguiente tabla y evaluar los valores del spline g(0.66) y g(1.75) x f(x) 𝒉𝒊 𝒇(𝒙𝒊,𝒙𝒊+𝟏) 0.0 2 1.0 2.4366 1.0 4.4366 0.5 4.5536 1.5 6.7134 0.75 9.59947 2.25 13.9130 Empleando el spline natural para S0 = 0 y Sn = 0. Escribiendo el sistema: [ 2(1.5) 0.5 0.5 2(1.5) ] [ 𝑆1 𝑆2 ]=[ 12.702 30.2752 ] y resolviendo: S1 = 2.292055 y S2 = 11.65167. Una vez que tenemos estos valores sustituimos para obtener los coeficientes. Dado que son 4 puntos, tendremos 3 subintervalos y por consiguiente tres curvas cúbicas. Los polinomios quedan como: g0(x) = 0.38216(x – 0)3 + 0(x – 0)2 + 2.0546(x – 0) + 2 para 0 ≤ x ≤ 1 g1(x) = 3.119872(x – 1)3 + 1.14603(x – 1)2 + 3.200618(x – 1) + 4.4366 para 1 ≤ x ≤ 1.5 g2(x) = -2.58926(x – 1.5)3 + 5.825835(x – 1.5)2 + 6.686549(x – 1.5) + 6.7134 para 1.5 ≤ x ≤ 2.25 y finalmente: g0(0.66) = 3.465509, g2(1.75) = 8.708669.
  • 24. 23 Mínimos cuadrados El método de mínimos cuadrados para resolver un problema requiere determinar la mejor línea de aproximación, cuando el error es la suma de los cuadrados de las diferencias entre los valores de y en la línea aproximada y los valores de y dados. Por tanto hay que encontrar las constantes a0 y a1 que reduzcan al mínimo el error de mínimos cuadrados: E2(a0,a1) = ∑[yi − (a1 xi + a0)] 10 i=1 2 El problema de ajustar la mejor recta con mínimos cuadrados a una colección de datos {(xi,yi )}i=1, implica minimizar el error total E = E2(a0,a1) = ∑[yi − (a1xi + a0)] 10 i=1 2 Ejemplo: A partir de la siguiente tabla de datos, obtener la línea de mínimos cuadrados que aproxima estos datos Xi Yi xi2 xiyi P(xi) (yi-P(xi))^2 1 1.3 1 1.3 1.178 0.014884 2 3.5 4 7 2.716 0.614656 3 4.2 9 12.6 4.254 0.002916 4 5 16 20 5.792 0.627264 5 7 25 35 7.33 0.1089 6 8.8 36 52.8 8.868 0.004624 7 10.1 49 70.7 10.406 0.093636 8 12.5 64 100 11.944 0.309136 9 13 81 117 13.482 0.232324 10 15.6 100 156 15.02 0.3364 55 81 385 572.4 2.34474 Sustituyendo estos valores en las ecuaciones normales: a0 = 385(81) − 55(572.4) 10(385) − (55)2 = −0.360 a1 = 10(572.4) − 55(81) 10(385) − (55)2 = 1.538 Entonces P(x) = 1.523x – 0.360.
  • 25. 24 Ventajas y desventajas: El método de mínimos cuadrados es el procedimiento más adecuado para determinar las mejores aproximaciones lineales. Algunas consideraciones que lo favorecen son: • El método minimax generalmente le da demasiado valor relativo a un pequeño elemento de datos que contiene un gran error. • La desviación absoluta solo promedia el error en varios puntos sin dar suficiente valor relativo a un punto que está muy alejado de la aproximación. • El método de mínimos cuadrados concede mayor valor relativo al punto que está alejado del resto de los datos, pero no permite que ese punto domine la aproximación.
  • 26. 25 3. Diferenciación e integración numérica 3.1 Derivación numérica Una tabla de diferencias divididas se puede utilizar para estimar los valores de las derivadas. Recordemos que el polinomio de interpolación de grado n que se satisface en los puntos p0, p1, ..., pn es en términos de diferencias divididas. Si Pn(x) representa una buena aproximación de f(x), también se podría obtener un polinomio que aproxime la derivada, f’(x), diferenciando el polinomio Pn(x). Nota: No es sorprendente que la derivada salga exacta, ya que la función es un polinomio, que es aproximado por un polinomio de interpolación de forma exacta. Si el polinomio es exacto, su derivada también. Ejemplo: Estimar el valor f’(3.3) con un polinomio cuadrado, con i = 2. i x f(x) 𝚫𝐟(𝐱) 𝚫 𝟐 𝐟(𝐱) 𝚫 𝟑 𝐟(𝐱) 𝚫 𝟒 𝐟(𝐱) 𝚫 𝟓 𝐟(𝐱) 0 1.3 3.669 3.017 2.479 2.041 1.672 1.386 1 1.9 6.686 5.496 4.520 3.713 3.058 2.504 2 2.5 12.182 10.016 8.233 6.771 5.562 3 3.1 22.198 18.249 15.004 12.333 4 3.7 40.447 33.253 27.337 5 4.3 73.700 60.590 6 4.9 134.290 h = 0.6, xi = 2.5 (la mejor elección). Para x = 3.3 tenemos s = (3.3 – 2.5) /0.6 = 4/3 𝑃′ 2( 𝑥) = 1 0.6 {10.016 + 1 2 [( 4 3 − 1) + ( 4 3 − 0)] 8.233 + 1 6 [( 4 3 − 1) ( 4 3 − 2) + ( 4 3 − 0) ( 4 3 − 2) + ( 4 3 − 0) ( 4 3 − 1)] 6.771} = 27.875 Si se utiliza el siguiente término, para estimar el error, se obtiene el valor 0.315, comparando con el error 0.238, no es una mala estimación.
  • 27. 26 Extrapolación de Richardson Existe una forma para mejorar la exactitud de las estimaciones de las derivadas a partir de tablas de valores igualmente espaciados. Esta técnica es equivalente a usar fórmulas basadas en polinomios de grado superior sin encontrar la fórmula explícitamente. Ejemplo: x f(x) 2 0.123060 2.1 0.105706 2.2 0.089584 2.3 0.074764 2.4 0.061277 2.5 0.049126 2.6 0.038288 2.7 0.028722 2.8 0.020371 Estimar el valor de f’(2.4) y f”(2.4), con las fórmulas (3.4) y (3.6), respectivamente, las cuales tienen un orden del error de O(h2): 𝑓′(2.4) ≈ 0.049126 −0.074764 0.2 = −0.12819 ⇒ 𝑓′(2.4) = −0.12819 +𝐾1(0.1)2 El error exacto entonces es, la aproximación más una cantidad proporcional a h2 (K1 es la cantidad de proporcionalidad). Se repite el cálculo, ahora con h = 0.2, 𝑓′(2.4) ≈ 0.038288 −0.089584 0.4 = −0.12824 ⇒ 𝑓′(2.4) = −0.12824 +𝐾2(0.2)2 Los valores K1 y K2 no suelen ser iguales, ya que cada uno de ellos implica el valor f’’’(є), demostrarse que se comete un error de O(h4) al tomar los dos valores como iguales. Con base en el supuesto de que las K son iguales, es posible resolver las dos ecuaciones para eliminarlas 𝑓′(2.4)=-0.12819+ 1 ( 0.2 0.1 )2−1 (-0.12819-(-0.12824))=-0.12817+O(ℎ2) El cálculo es el caso de una regla general: dadas dos estimaciones de un valor que tiene errores de O(hn), donde las h están en razón de 2 a 1, es posible extrapolar a una mejor estimación del valor exacto. Mejor estimación = más exacto + 1 2𝑛−1(más exacto – menos exacto) El proceso puede repetirse, ahora con h = 0.2 y h = 0.4
  • 28. 27 𝑓′(2.4) ≈ 0.020371 −0.123060 0.8 = -0.128361 𝑓′(2.4)=-0.12824+ 1 ( 2)2−1 (-0.12824-(-0.128361))=-0.12820+O(ℎ4) Para obtener la extrapolación para la segunda derivada se procede de la misma forma, empleando la fórmula. Los resultados se muestran en la siguiente tabla h f’’(2.4) Est (3.6) Extrap. 1er orden Extrap. 2º orden 0.1 0.133600 0.133817 0.133820 0.2 0.132950 0.133773 0.4 0.130481 La función del ejercicio anterior corresponde a f(x) = e-xsenx, por lo que se pueden verificar los resultados anteriores f’(x) = e-x(cosx – senx) = -0.128171, f’’(x) = -2e-xcosx = 0.13379. Como puede observarse, los resultados obtenidos representan una buena aproximación. El procedimiento anterior se conoce como extrapolación de Richardson y puede aplicarse cuando se quiere derivar numéricamente una función conocida. Con este método es posible hacer más pequeños los valores de h, en vez de usar valores más grandes como se requiere cuando la función solo se conoce por una tabla. Ventajas y desventajas:  La extrapolación puede usarse tanto para mejorar la estimación en una función dada, es decir trabajar únicamente con los valores o para generar nuevas fórmulas con un orden del error mayor.  La extrapolación de Richardson sirve para generar resultados de gran exactitud cuándo se usan fórmulas de bajo orden.  La extrapolación se utiliza principalmente en las aproximaciones de las integrales y de las soluciones de ecuaciones deferenciales.
  • 29. 28 3.2 Formulas de Newton-Cotes Regla trapezoidal La primera de las fórmulas de Newton-Cotes está basada en aproximar f(x) sobre (x0, x1) mediante una línea recta, de ahí el nombre de “regla del trapecio”. La cual ya fue obtenida mediante la integración de P1(xs); sin embargo, también puede considerarse como una adaptación de la definición de la integral definida como una suma. Al evaluar ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 , subdividiendo el intervalo de a a b en n subintervalos. El área bajo la curva en cada subintervalo es aproximada por el trapecio formado al sustituir la curva por su secante. Entonces, la integral es aproximada por la suma de todas las áreas trapezoidales (si se conociera el límite de esta suma cuando el ancho del intervalo tiende a cero, se tendría el valor exacto de la integral, pero en la integración numérica, el número de intervalos es finito). Los intervalos no tienen que ser igual de anchos, pero la fórmula es más simple si esto sucede. Formula: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 = ℎ 2 (𝑓0 + 2𝑓1 + 2𝑓2 + ⋯+ 2𝑓𝑛 + 𝑓𝑛) Reglas de Simpson La fórmula compuesta Newton-Cotes basada en un polinomio cuadrático, es conocida como la regla de Simpson 1/3, y la que está basada en un polinomio cúbico, se conoce como la regla de Simpson 3/8, estos nombres de deben a los coeficientes de las fórmulas. Regla de Simpson 1/3 La fórmula de 2º grado de Newton – Cotes integra un polinomio cuadrático sobre dos intervalos del mismo ancho (a estos intervalos se les suele llamar paneles). La fórmula compuesta que se aplica a una subdivisión del intervalo de integración en n paneles (con n par) es: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 = ℎ 3 (𝑓𝑎 + 4𝑓1 + 2𝑓2 + 4𝑓3 + 2𝑓4 + ⋯+ 4𝑓𝑛−1 + 𝑓𝑏)
  • 30. 29 Regla de Simpson 3/8 La regla compuesta basada en un polinomio de 4 puntos o cúbico se conoce como Simpson 3/8. Se aplica a un conjunto de subintervalos, cuyo valor para n es múltiplo de 3: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 = 3ℎ 8 (𝑓𝑎 + 3𝑓1 + 3𝑓2 + 2𝑓3 + 3𝑓4 + ⋯+ 3𝑓𝑛−1 + 𝑓𝑏) Se aplica igual que la regla de Simpson 1/3. Si la función es conocida se divide el intervalo de integración en n paneles donde n debe ser divisible entre 3. Nota: La Regla de Simpson 3/8 es menos eficiente que Simpson 1/3. Sin embargo, se emplea cuando se tienen una tabla de valores con n impar, ya que se combinan las dos reglas.
  • 31. 30 3.3 Integración de Romberg En la integración de Romberg se utiliza la regla compuesta del trapecio para obtener aproximaciones preliminares, y luego el proceso de extrapolación de Richardson para mejorar las aproximaciones. Como se sabe, las aproximaciones de la integral mejoran su precisión conforme aumenta el número de subintervalos por lo que se sigue un proceso secuencial de tomar n subintervalos, luego n/2, luego n/8 y así hasta alcanzar la precisión deseada. Ejemplo: Se estimará la siguiente integral ∫ 4 1 + 𝑥2 𝑑𝑥 1 0 Se comienza generando con la regla del trapecio una sucesión de aproximaciones con tamaños de paso diferentes, en este caso sean h1 = 1, h2 = 0.5, h3 = 0.25 y h4 = 0.125. Una vez que se tienen las aproximaciones por la regla del trapecio, se aplica de manera sucesiva la fórmula de Romberg. Los resultados se presentan en la siguiente tabla: K h 𝑰(𝒉) 𝒓.𝒕𝒓𝒂𝒑𝒆𝒄𝒊𝒐 O(𝒉 𝟒) O(𝒉 𝟔) O(𝒉 𝟖) O(𝒉 𝟏𝟎) 1 1 3.0 2 0.5 3.1 3.13333333 3 0.25 3.13117647 3.14156863 3.14211765 4 0.125 3.13898849 3.14159250 3.14159409 3.14158578 5 0.0625 3.14094161 3.14159265 3.14159266 3.14159264 3.14159267 Al duplicar el número de subintervalos se duplica, prácticamente, el número de evaluaciones de la función. El método de Romberg permite calcular íntegramente un nuevo renglón de la tabla con sólo hacer una aplicación más de la regla del trapecio, y luego promediar los valores previamente calculados para obtener los elementos sucesivos del renglón. Como puede observarse, al aplicar la regla del trapecio con diferentes tamaños de paso, algunas evaluaciones funcionales se repiten, por lo que parece pertinente modificar la regla para los casos en que ésta será aplicada de forma sucesiva. Nota:  El método tiene como finalidad el mejoramiento sucesivo de la aproximación de la regla del Trapecio disminuyendo el tamaño de paso.  Al igual que la extrapolación de Richardson, puede aplicarse tanto a funciones conocidas como a tablas de valores, en este caso, con la limitante de que no se puede reducir el tamaño de paso, más allá de lo permitido por los mismos datos.