SlideShare una empresa de Scribd logo
1 de 69
pág. 0
Los métodos numéricos son
metodologías que utilizan técnicas
meramente algebraicas y aritméticas
para resolver de forma aproximada
ecuaciones o sistemas de ecuaciones
complejos, que analíticamente
resultan muy difíciles e incluso
imposibles de resolver. Para el caso de
aplicaciones de ingeniería sirven
exactamente para lo mismo: resolver
modelos analíticamente complejos
mediante la aplicación de técnicas
matemáticas básicas (estas técnicas
numéricas, son las bases para la
solución y simulación de problemas
complejos utilizando computadoras).
En esta guía se verán algunos métodos
que son los que se utilizan para la
Matemática Superior Aplicada
Resumen de Teoría
Y complementos de ejercicios
Maximiliano Armoa
AÑO 2015
Introducción................................................................................................................1
Teorema de Taylor......................................................................................................2
Los Coeficientes de un polinomio en términos de sus derivadas ...........................5
Errores.........................................................................................................................8
Definiciones ............................................................................................................8
Sistemas de numeración..........................................................................................8
Error en una función ...............................................................................................9
Grafos........................................................................................................................11
Grafo Suma ...........................................................................................................11
Grafo Resta ...........................................................................................................12
Grafo Multiplicación.............................................................................................12
Grafo División.......................................................................................................13
Grafo Operación....................................................................................................14
Interpolación .............................................................................................................16
Definición..............................................................................................................16
Interpolación lineal y polinomio interpolador de Lagrange .................................16
Términos de cota de error .................................................................................18
Polinomio Interpolador de Newton.......................................................................18
Método de diferencias divididas .......................................................................19
Cota de Error.................................................................................................20
Mínimos Cuadrados ..............................................................................................20
Ajuste Lineal.....................................................................................................21
Ajuste Polinomial..............................................................................................23
Forma Matricial de resolución para ajuste ....................................................24
Linealización de datos – Cambios de variable que linealizan datos.................26
Ajuste de una función a una función.................................................................27
Ajuste de puntos a una combinación de funciones ...........................................30
Interpolación por Splines – Interpolación polinomial a trozos.............................31
Sistemas de Ecuaciones Lineales..............................................................................34
Introducción..........................................................................................................34
Tipos de Sistema ...................................................................................................35
Métodos para resolver sistemas de ecuaciones lineales........................................35
Eliminación Gaussiana y pivoteo – sustitución regresiva.................................36
Factorización triangular ....................................................................................37
Método Jacobi...................................................................................................37
Método Gauss - Seidel......................................................................................39
Determinación de convergencia de ambos métodos de iteración .................40
Obtención de las matrices de Jacobi y Gauss Seidel ................................40
SOR (Successive Over Relaxation) - Sobrerelajación..................................41
Refinamiento iterativo...................................................................................42
Integración numérica.................................................................................................44
Definición..............................................................................................................44
Grados de precisión...............................................................................................45
Fórmula de cuadratura cerrada de Newton - Cotes...........................................46
Precisión de las fórmulas de Newton - Cotes ...............................................46
Fórmulas de cuadratura cerrada de Newton- Cotes ..........................................48
Reglas de Trapecios y Simpson con sus respectivos errores ........................48
Regla de Trapecios....................................................................................48
Regla de Simpson......................................................................................50
Regla de 38 de Simpson y Boole..............................................................52
Reglas compuestas ....................................................................................55
Análisis de error para la regla compuesta de trapecios y Simpson...........56
Cuadratura de Gauss – Legendre. Cuadratura Gaussiana.............................60
Ecuaciones Diferenciales ..........................................................................................63
Condición de Lipschitz .........................................................................................63
Método de Euler....................................................................................................64
Descripción geométrica.....................................................................................65
pág. 1
Introducción
Este es un resumen confeccionado como guía de estudio para la materia Matemática
superior aplicada de la carrera de Ingeniería Química, está hecho con el fin de ser una
herramienta más y como un resumen de la materia para su eventual estudio. Es solo para
ayuda, no se recomienda estudiar solo de este material (aunque cada uno es libre de hacer
lo que quiera) y la idea es mejorarlo en todo momento posible para brindar una ayuda a
todos los compañeros que la cursan o cursarán.
Es una recopilación de apuntes tomados en clase, de extracciones de distintos libros
y varias fuentes de Internet.
Vuelvo a repetirlo para que quede claro, es un material recopilado por un estudiante
y no es un apunte de la cátedra.
Espero les sirva como me sirvió a mí.
Ahh me olvidaba, cualquier mejora que se le pueda hacer (que seguramente son
muchas) bienvenidas sean.
Gracias por difundirlo
Armoa Maximiliano
Teoremade Taylor
Sabemos que la recta tangente, como la mejor aproximación lineal a la gráfica de f
en las cercanías del punto de tangencia (xo, f (xo)), es aquella recta que pasa por el
mencionado punto y tiene la misma pendiente que la curva en ese punto (primera derivada
en el punto), lo que hace que la recta tangente y la curva sean prácticamente indistinguibles
en las cercanías del punto de tangencia. Gráficamente podemos observar que la curva se
pega "suavemente" a la recta en este entorno, de tal manera que "de todas las rectas que
pasan por el punto, es esta recta la que más se parece a la curva cerca del punto".
Nótese que cerca del punto de tangencia, la curva se comporta casi linealmente,
como se puede apreciar si hacemos acercamientos a la gráfica anterior
Como observamos en los problemas de diferencial, si x se encuentra "lejos" de xo, la
recta tangente ya no funciona como aproximador. Parece pues natural preguntarnos por otra
función (no lineal) que sirva a nuestros propósitos. La recta tangente es un polinomio de
grado 1, el más sencillo tipo de función que podemos encontrar, por lo que podemos tratar
de ver si es posible encontrar un polinomio de grado dos que nos sirva para aproximar
nuestra función en un rango más grande que la recta tangente.
Veamos que sucede si en lugar de aproximarnos con una recta tratamos de hacerlo
con una parábola, es decir tratemos de encontrar de todas las parábolas que pasan por (xo, f
(xo)), la que mejor aproxima a la curva, es decir tratemos de encontrar "la parábola
tangente". Nótese que la parábola tangente a una curva no es única.
Naturalmente a esta parábola 𝑃( 𝑥) = 𝑎 + 𝑏 ( 𝑥 − 𝑥0) + 𝑐 ( 𝑥 − 𝑥0)2
debemos
pedirle que pase por el punto, que tenga la misma inclinación (primera derivada) y la
misma concavidad que la parábola (segunda derivada), es decir debemos pedirle:
𝑃( 𝑥0) = 𝑓( 𝑥0)
𝑃´( 𝑥0) = 𝑓´( 𝑥0)
𝑃´´( 𝑥0) = 𝑓´´( 𝑥0)
Como:
𝑃( 𝑥0) = 𝑎
𝑃´( 𝑥0) = 𝑏
𝑃´´( 𝑥0) = 2𝑐
Se concluye que:
𝑎 = 𝑓( 𝑥0)
𝑏 = 𝑓´( 𝑥0)
𝑐 =
1
2
𝑓´´( 𝑥0)
Quedando la ecuación de la parábola que mejor aproxima a la curva en las cercanías
de (xo, f (xo)), como:
𝑃( 𝑥) = 𝑓( 𝑥0)+ 𝑓´( 𝑥0)( 𝑥 − 𝑥0)+
1
2
𝑓´´( 𝑥0)( 𝑥 − 𝑥0)2
En la figura de abajo, observamos gráficamente los tres sumandos de la expresión
de la parábola tangente. Los dos primeros nos dan la altura sobre la recta tangente y
añadiéndole el tercero nos da la altura sobre la parábola tangente.
Verifiquemos lo anterior en el caso particular de la función 𝑓( 𝑥) = 𝑒 𝑥
, xo = 0 y
valores de x cercanos a 0.
En la tabla de abajo observamos que la parábola tangente a la gráfica de f en (0,1)
efectivamente es una mejor aproximación para f que la recta tangente, para valores
cercanos a 0.
𝑥 1 + 𝑥
1 + 𝑥 +
𝑥2
2
𝑒 𝑥
1,0 2 2,5 2,718281828
0,5 1,5 1,625 1,6487212707
0,3 1,3 1,345 1,34985880757
0,1 1,1 1,105 1,10517091807
0,01 1,01 1,01005 1,010050167
0,001 1,001 1,0010005 1,00100050016
Los Coeficientes de un polinomio en términos de sus derivadas
Un polinomio de grado n está completamente determinado por sus (n+1)
coeficientes.
𝑃( 𝑥) = 𝑎0 + 𝑎1( 𝑥 − 𝑥0) + 𝑎2( 𝑥 − 𝑥0)2
+ 𝑎3( 𝑥 − 𝑥0)3
+ ⋯+ 𝑎 𝑛( 𝑥 − 𝑥0) 𝑛
En lo sucesivo, expresaremos al polinomio en potencias de (x - xo) y encontraremos
sus coeficientes en términos de las derivadas evaluadas en xo.
𝑃´( 𝑥) = 𝑎1 + 2𝑎2( 𝑥 − 𝑥0)+ 3𝑎3( 𝑥 − 𝑥0)2
+ 4𝑎4( 𝑥 − 𝑥0)3
+ ⋯ + 𝑛𝑎 𝑛( 𝑥 − 𝑥0) 𝑛−1
𝑃´´( 𝑥) = 𝑎2 + (2)(3)𝑎3( 𝑥 − 𝑥0) + (3)(4)𝑎3( 𝑥 − 𝑥0)2
+ (4)(5)𝑎4( 𝑥 − 𝑥0)3
+ ⋯+ (𝑛)(𝑛 − 1)𝑎 𝑛( 𝑥 − 𝑥0) 𝑛
𝑃´´´( 𝑥) = (2)(3)𝑎3 + (2)(3)(4)𝑎4( 𝑥 − 𝑥0) + (3)(4)(5)𝑎5( 𝑥 − 𝑥0)2
+ ⋯+ (𝑛)(𝑛 − 1)(𝑛 − 2)𝑎 𝑛( 𝑥 − 𝑥0) 𝑛
…
𝑃 𝑛( 𝑥) = (1)(2)(3)… ( 𝑛) 𝑎 𝑛 = 𝑛! 𝑎 𝑛
De donde, evaluando cada una de estas derivadas en xo, obtenemos los coeficientes
del polinomio:
𝑎0 = 𝑃( 𝑥0)
𝑎1 = 𝑃´(𝑥0)
𝑎2 =
𝑃´´(𝑥0)
2!
𝑎3 =
𝑃´´´(𝑥0)
3!
𝑎 𝑛 =
𝑃 𝑛
(𝑥0)
𝑛!
Y en consecuencia la expresión del polinomio será:
𝑃( 𝑥) = 𝑃( 𝑥0) + 𝑃´( 𝑥0)( 𝑥 − 𝑥0) +
𝑃´´( 𝑥0)
2!
( 𝑥 − 𝑥0)2
+ ⋯ +
𝑃 𝑛( 𝑥0)
𝑛!
( 𝑥 − 𝑥0) 𝑛
(𝐼)
Volviendo a la representación (I), si f no es un polinomio, obviamente no podrá
representarse de la misma manera, sin embargo en vista de que para, la recta tangente, que
es un polinomio de grado 1, se cumple que para x cercano a xo:
𝑓( 𝑥) ≅ 𝑓( 𝑥0)+ 𝑓´( 𝑥0)( 𝑥 − 𝑥0)
y gráficamente observamos que para x cercano a xo, la función es muy parecida a su
"parábola tangente", es decir:
𝑓( 𝑥) ≅ 𝑓( 𝑥0) + 𝑓´( 𝑥0)( 𝑥 − 𝑥0) +
1
2
𝑓´´( 𝑥0)( 𝑥 − 𝑥0)2
surge de manera natural preguntarnos si para valores cercanos a xo, se cumplirá:
𝑓( 𝑥) ≅ 𝑓( 𝑥0) + 𝑓´( 𝑥0)( 𝑥 − 𝑥0) +
1
2
𝑓´´( 𝑥0)( 𝑥 − 𝑥0)2
+ ⋯+
1
𝑛!
𝑓 𝑛( 𝑥0)( 𝑥 − 𝑥0) 𝑛
Entonces el polinomio:
𝑃( 𝑥) = 𝑓( 𝑥0)+ 𝑓´( 𝑥0)( 𝑥 − 𝑥0)+
1
2
𝑓´´( 𝑥0)( 𝑥 − 𝑥0)2
+ ⋯ +
1
𝑛!
𝑓 𝑛( 𝑥0)( 𝑥 − 𝑥0) 𝑛
Lo llamaremos el POLINOMIO DE TAYLOR de grado n para f, en el punto
xo.
El Teorema de Taylor que a continuación enunciaremos sin demostración, nos dice
que bajo ciertas condiciones, una función puede ser expresarse como un polinomio de
Taylor más un cierto error, es decir:
𝑓( 𝑥) = 𝑃( 𝑥) + 𝐸(𝑥)
y además nos dirá como estimar este error.
TEOREMA DE TAYLOR. Sea f continua en [a, b] y con derivadas hasta de orden n
continúas también en este intervalo cerrado; supóngase que 𝑓 𝑛+1
(𝑥) existe en (a,b),
entonces para x y xo perteneciente a (a,b) se tiene:
𝑃( 𝑥) = 𝑓( 𝑥0)+ 𝑓´( 𝑥0)( 𝑥 − 𝑥0)+
1
2
𝑓´´( 𝑥0)( 𝑥 − 𝑥0)2
+ ⋯ +
1
𝑛!
𝑓 𝑛( 𝑥0)( 𝑥 − 𝑥0) 𝑛
Donde:
𝐸 𝑛 ( 𝑥) =
𝑓 𝑛+1( 𝑐)
( 𝑛 + 1)!
( 𝑥 − 𝑥0) 𝑛+1
C es un punto que se encuentra entre x y x0.
Errores
Definiciones
Error absoluto:
𝜀 = | 𝑎 − 𝑎 𝑚|
Error Relativo:
𝜀 𝑟 =
| 𝑎 − 𝑎 𝑚|
𝑎
Como podemos notar, el error absoluto tiene unidad y el relativo carece de ella.
Además la magnitud del error relativo es independiente de la magnitud medida.
Sistemas de numeración
Diremos que un número xo es una aproximación a x con d cifras decimales
significativas si d es el mayor número natural tal que
Error por redondeo
| 𝑎 − 𝑎 𝑚 |
| 𝑎|
<
𝑏−𝑑
2
Error por truncamiento
| 𝑎 − 𝑎 𝑚 | < 𝑏−𝑑
Punto flotante: los números se escriben con mantisa y exponente.
𝑎 = 𝑀 ∗ 𝑏 𝐸
𝑏−1
≤ | 𝑀| ≤ 1
Ejemplo: 1234,45678 = 0,12345678 * 104. Notemos que 10-1 ≤ |0.12345678| ≤ 1
Volviendo al error absoluto, con redondeo:
𝜀 = | 𝑥 − 𝑥0| <
𝑏−𝑚
∗ 𝑏 𝐸
2
Dividiendo por | 𝑥|
| 𝑥 − 𝑥0|
| 𝑥|
<
𝑏−𝑚
∗ 𝑏 𝐸
2| 𝑥|
=
𝑏−𝑚
∗ 𝑏 𝐸
2| 𝑀| 𝑏 𝐸
=
𝑏−𝑚
2| 𝑀|
Como: 𝑏−1
≤ | 𝑀| ≤ 1 , el máximo error se comete cuando | 𝑀| toma el valor más
chico:
| 𝑥 − 𝑥0|
| 𝑥|
<
𝑏−𝑚
∗ 𝑏 𝐸
2| 𝑥|
=
𝑏−𝑚
∗ 𝑏 𝐸
2| 𝑀| 𝑏 𝐸
=
𝑏−𝑚
2| 𝑀|
≤
𝑏−𝑚
∗ 𝑏
2
𝐸𝑟𝑟𝑜𝑟 𝑑𝑒 𝑝𝑟𝑒𝑐𝑖𝑠𝑖ó𝑛 𝑑𝑒 𝑀á𝑞𝑢𝑖𝑛𝑎 =
𝑏−𝑚
∗ 𝑏
2
Para una computadora que trabaja con 8 bytes, m = 16
Con lo anterior deducimos que el error absoluto (sabiendo que d son decimales
significativos).
10−𝑑
2
Con error relativo (con t cantidad de dígitos significativos)
101−𝑡
2
Error en una función
𝑓( 𝑥 + ∆𝑥) = 𝑓( 𝑥) + 𝑓´( 𝑥) ∗ ∆𝑥 + 𝑂(∆𝑥)2
𝑓( 𝑥 + ∆𝑥)− 𝑓( 𝑥) = 𝑓´( 𝑥) ∗ ∆𝑥
∆𝑓 = 𝑓´ ∗ ∆𝑥
∆𝑓
𝑓
=
𝑓´
𝑓
∗ ∆𝑥
∆𝑓
𝑓
=
𝑓´
𝑓
∗ ∆𝑥 ∗
𝑥
𝑥
∆𝑓
𝑓
=
𝑓´
𝑓
∗
∆𝑥
𝑥
∗ 𝑥
𝜀𝑓 =
𝑓´
𝑓
∗ 𝜀 𝑥 ∗ 𝑥
𝜀𝑓 =
𝑓´
𝑓
∗ 𝑥 ∗ 𝜀 𝑥
𝑓´
𝑓
∗ 𝑥 = 𝐹𝐴𝑋 (𝐹𝑎𝑐𝑡𝑜𝑟 𝑑𝑒 𝑎𝑚𝑝𝑙𝑖𝑓𝑖𝑐𝑎𝑐𝑖ó𝑛 𝑑𝑒 𝑋)
𝜀𝑓 = 𝐹𝐴𝑋 ∗ 𝜀 𝑥
El FAX indica como varía su función en relación a su derivada y se puede prolongar
para varias variables.
Por ejemplo, sea 𝑓 = 𝑓(𝑥, 𝑦, 𝑧)
𝜀𝑓 = 𝐹𝐴𝑋 ∗ 𝜀 𝑥 + 𝐹𝐴𝑌 ∗ 𝜀 𝑦 + 𝐹𝐴𝑍 ∗ 𝜀 𝑧
Grafos
Un grafo es un conjunto de objetos (llamados vértices o nodos) unidos por enlaces
(llamados aristas o arcos) que permiten representar relaciones binarias entre elementos de
un conjunto. Permiten estudiar las interrelaciones entre unidades que interactúan unas con
otras.
El mecanismo del grafo consiste, al igual que el diagrama de árbol, en recorrer el
camino y multiplicando las líneas de cada camino. Luego se suman todos los caminos y no
se debe olvidar sumar al final el error de operación.
Grafo Suma
 Operación: 𝑓( 𝑋, 𝑌) = 𝑋 + 𝑌
FAX FAY
Ex
X
+
Y
Ey
ESUMA
𝜀𝑓 = 𝜀 𝑥 ∗ 𝐹𝐴𝑋 + 𝜀 𝑦 ∗ 𝐹𝐴𝑌 + 𝜀 𝑆𝑢𝑚𝑎
𝐹𝐴𝑋 =
𝑓´ 𝑥
𝑓
∗ 𝑥 =
1
𝑋 + 𝑌
∗ 𝑋
𝐹𝐴𝑌 =
𝑓´ 𝑦
𝑓
∗ 𝑦 =
1
𝑋 + 𝑌
∗ 𝑌
𝜀𝑓 = 𝜀 𝑥 ∗
𝑋
𝑋 + 𝑌
+ 𝜀 𝑦 ∗
𝑌
𝑋 + 𝑌
+ 𝜀 𝑆𝑢𝑚𝑎
Grafo Resta
 Operación: 𝑓( 𝑋, 𝑌) = 𝑋 − 𝑌
FAX FAY
ERESTA
Ex
X
-
Y
Ey
𝜀𝑓 = 𝜀 𝑥 ∗ 𝐹𝐴𝑋 + 𝜀 𝑦 ∗ 𝐹𝐴𝑌 + 𝜀 𝑅𝑒𝑠𝑡𝑎
𝐹𝐴𝑋 =
𝑓´ 𝑥
𝑓
∗ 𝑥 =
1
𝑋 − 𝑌
∗ 𝑋
𝐹𝐴𝑌 =
𝑓´ 𝑦
𝑓
∗ 𝑦 =
−1
𝑋 − 𝑌
∗ 𝑌
𝜀𝑓 = 𝜀 𝑥 ∗
𝑋
𝑋 − 𝑌
+ 𝜀 𝑦 ∗
−𝑌
𝑋 − 𝑌
+ 𝜀 𝑅𝑒𝑠𝑡𝑎
Grafo Multiplicación
 Operación: 𝑓( 𝑋, 𝑌) = 𝑋 ∗ 𝑌
FAX FAY
EMULTIPLICACION
Ex
X
*
Y
Ey
𝜀𝑓 = 𝜀 𝑥 ∗ 𝐹𝐴𝑋 + 𝜀 𝑦 ∗ 𝐹𝐴𝑌 + 𝜀 𝑀𝑢𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑐𝑖ó𝑛
𝐹𝐴𝑋 =
𝑓´ 𝑥
𝑓
∗ 𝑥 =
𝑌
𝑋𝑌
∗ 𝑋 = 1
𝐹𝐴𝑌 =
𝑓´ 𝑦
𝑓
∗ 𝑦 =
𝑋
𝑋𝑌
∗ 𝑌 = 1
𝜀𝑓 = 𝜀 𝑥 + 𝜀 𝑦 + 𝜀 𝑀𝑢𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑐𝑖ó𝑛
Grafo División
 Operación: 𝑓( 𝑋, 𝑌) =
𝑋
𝑌
FAX FAY
EDIVISION
Ex
X
/
Y
Ey
𝜀𝑓 = 𝜀 𝑥 ∗ 𝐹𝐴𝑋 + 𝜀 𝑦 ∗ 𝐹𝐴𝑌 + 𝜀 𝐷𝑖𝑣𝑖𝑠𝑖ó𝑛
𝐹𝐴𝑋 =
𝑓´ 𝑥
𝑓
∗ 𝑥 =
1
𝑌
𝑋
𝑌
∗ 𝑋 = 1
𝐹𝐴𝑌 =
𝑓´ 𝑦
𝑓
∗ 𝑦 =
−𝑋
𝑌2
𝑋
𝑌
∗ 𝑌 = −1
𝜀𝑓 = 𝜀 𝑥 − 𝜀 𝑦 + 𝜀 𝐷𝑖𝑣𝑖𝑠𝑖ó𝑛
Grafo Operación
 Operación: 𝑓( 𝑋, 𝑌) = 𝑓(𝑋, 𝑌)
FAX FAY
EOPERACION
Ex
X
f(x,y)
Y
Ey
𝜀𝑓 = 𝜀 𝑥 ∗ 𝐹𝐴𝑋 + 𝜀 𝑦 ∗ 𝐹𝐴𝑌 + 𝜀 𝑂𝑝𝑒𝑟𝑎𝑐𝑖ó𝑛
𝐹𝐴𝑋 =
𝑓´ 𝑥
𝑓
∗ 𝑥
𝐹𝐴𝑌 =
𝑓´ 𝑦
𝑓
∗ 𝑦
𝜀𝑓 = 𝜀 𝑥 ∗=
𝑓´ 𝑥
𝑓
∗ 𝑥 + 𝜀 𝑦 ∗
𝑓´ 𝑦
𝑓
∗ 𝑦 + 𝜀 𝑂𝑝𝑒𝑟𝑎𝑐𝑖ó𝑛
En base a lo anterior: se obtiene la siguiente tabla:
Operación FAX FAY
Operación General
𝑓´ 𝑥
𝑓
∗ 𝑥
𝑓´ 𝑦
𝑓
∗ 𝑦
Suma
𝑋
𝑋 − 𝑌
𝑌
𝑋 − 𝑌
Resta
𝑋
𝑋 − 𝑌
−𝑌
𝑋 − 𝑌
Multiplicación 1 1
División 1 -1
Vale aclarar que en cada función (cada operación) tenemos:
La función
El error de la Función
El error de la Operación
A los errores de datos los acotamos con i y a los errores de operación con μ.
(hay que tener en cuenta que esto es la posición de decimales que plantee el
problema o bien dicho las cifras significativas)
Todo lo que está multiplicando a i se lo llama condición del problema, el termino
que multiplica a μ (termino de estabilidad) depende del grafo utilizado.
Un algoritmo se dice numéricamente más estable que otro si su término de
estabilidad es menor.
Se puede definir un algoritmo estable si:
𝐶𝑂𝑁𝐷 + 𝐸𝑆𝑇𝐴𝐵
𝐶𝑂𝑁𝐷
≫ 1
Interpolación
Definición
Se denomina interpolación a la obtención de nuevos puntos partiendo del
conocimiento de un conjunto discreto de puntos.
En ingeniería es frecuente disponer de un cierto número de puntos obtenidos por
muestreo o a partir de un experimento y pretender construir una función que los ajuste.
En todo caso, se trata de, a partir de n parejas de puntos (xk,yk), obtener una
función f que verifique que:
𝑓( 𝑥 𝑘) = 𝑦 𝑘 𝑘 = 1, 2, … , 𝑛
A la que se denomina función interpolante de dichos puntos. A los puntos xk se les
llama nodos.
En esta unidad se verán los métodos de mínimos cuadrados, Lagrange, Newton y
splines.
Interpolación lineal y polinomio interpolador de Lagrange
En esta interpolación se utiliza un segmento rectilíneo que pasa por dos puntos que
se conocen. La pendiente de la recta que pasa por esos dos puntos es:
𝑚 =
𝑦1 − 𝑦0
𝑥1 − 𝑥0
Para calcular un punto intermedio, basta con reemplazar el valor de x en la
ecuación:
𝑦 = 𝑃( 𝑥) = 𝑦0 + ( 𝑥 − 𝑥0)∗
𝑦1 − 𝑦0
𝑥1 − 𝑥0
𝑦 = 𝑃( 𝑥) = 𝑦0 + ( 𝑦1 − 𝑦0) ∗
𝑥 − 𝑥0
𝑥1 − 𝑥0
Aplicando Distributiva:
𝑦 = 𝑃( 𝑥) = 𝑦0 + 𝑦1 ∗
𝑥 − 𝑥0
𝑥1 − 𝑥0
− 𝑦0 ∗
𝑥 − 𝑥0
𝑥1 − 𝑥0
Sacando factor común y0
𝑦 = 𝑃( 𝑥) = 𝑦0 (1 −
𝑥 − 𝑥0
𝑥1 − 𝑥0
) + 𝑦1 ∗
𝑥 − 𝑥0
𝑥1 − 𝑥0
𝑦 = 𝑃( 𝑥) = 𝑦0 (
𝑥1 − 𝑥0 − 𝑥 + 𝑥0
𝑥1 − 𝑥0
) + 𝑦1 ∗
𝑥 − 𝑥0
𝑥1 − 𝑥0
𝑦 = 𝑃( 𝑥) = 𝑦0 (
𝑥1 − 𝑥
𝑥1 − 𝑥0
) + 𝑦1 ∗
𝑥 − 𝑥0
𝑥1 − 𝑥0
𝑦 = 𝑃( 𝑥) = 𝑦0 (
𝑥 − 𝑥1
𝑥0 − 𝑥1
)+ 𝑦1 ∗
𝑥 − 𝑥0
𝑥1 − 𝑥0
Los términos que multiplican a las yk se llaman polinomios coeficientes de
Lagrange:
𝐿1,0( 𝑥) =
𝑥 − 𝑥1
𝑥0 − 𝑥1
𝐿1,1( 𝑥) =
𝑥 − 𝑥0
𝑥1 − 𝑥0
Por lo general la fórmula para interpolación para polinomios lineales se expresa:
𝑃1( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿1,𝑘( 𝑥)
𝑛
𝑘=0
Observamos que para definir una función lineal (polinomio de grado 1) se necesitan
dos puntos (k = 0 y k = 1), de modo similar, para una cuadrática se necesitan tres puntos (k
= 0, k = 1 y k = 2). Se necesitan n+1 puntos para obtener un polinomio de grado n.
Para calcular un polinomio de grado N usamos:
𝑃1( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿 𝑁,𝑘( 𝑥)
𝑛
𝑘=0
De donde:
𝐿 𝑁,𝑘( 𝑥) =
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)… ( 𝑥 − 𝑥 𝑘−1)( 𝑥 − 𝑥 𝑘+1) …( 𝑥 − 𝑥 𝑁)
( 𝑥 𝑘 − 𝑥0)( 𝑥 𝑘 − 𝑥1)( 𝑥 𝑘 − 𝑥2)… ( 𝑥 𝑘 − 𝑥 𝑘−1)( 𝑥 𝑘 − 𝑥 𝑘+1)… ( 𝑥 𝑘 − 𝑥 𝑁)
Notemos que:
En el numerador no aparece el término ( 𝑥 − 𝑥 𝑘)
En el denominador no aparece el término ( 𝑥 𝑘 − 𝑥 𝑘), es decir, que no se
anule.
Términos de cota de error
El término de error es similar al de Taylor:
𝐸 𝑛 ( 𝑥) =
∏ ( 𝑥 − 𝑥 𝑘) 𝑓 𝑛+1𝑛
𝑘=0
( 𝑛 + 1)!
Polinomio Interpolador de Newton
Este polinomio se calcula mediante un esquema recursivo:
𝑃1( 𝑥) = 𝑎0 + 𝑎1 ( 𝑥 − 𝑥0)
𝑃2( 𝑥) = 𝑎0 + 𝑎1 ( 𝑥 − 𝑥0) + 𝑎2( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)
𝑃3( 𝑥) = 𝑎0 + 𝑎1 ( 𝑥 − 𝑥0) + 𝑎2( 𝑥 − 𝑥0)( 𝑥 − 𝑥1) + 𝑎3( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)
𝑃𝑛( 𝑥) = 𝑎0 + 𝑎1 ( 𝑥 − 𝑥0) + 𝑎2( 𝑥 − 𝑥0)( 𝑥 − 𝑥1) + ⋯ + 𝑎 𝑛( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)… ( 𝑥 − 𝑥 𝑛−1)
Método de diferencias divididas
Este método sirve para calcular los coeficientes del polinomio interpolador de
Newton. Debemos calcular las siguientes generalidades:
𝑓[ 𝑥 𝑘] = 𝑓(𝑥 𝑘)
𝑓[ 𝑥 𝑘−1; 𝑥 𝑘] =
𝑓( 𝑥 𝑘)− 𝑓( 𝑥 𝑘−1)
𝑥 𝑘 − 𝑥 𝑘−1
𝑓[ 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘] =
𝑓[ 𝑥 𝑘−1; 𝑥 𝑘] − 𝑓[ 𝑥 𝑘−2; 𝑥 𝑘−1]
𝑥 𝑘 − 𝑥 𝑘−2
𝑓[ 𝑥 𝑘−3; 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘] =
𝑓[ 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘]− 𝑓[ 𝑥 𝑘−3; 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘]
𝑥 𝑘 − 𝑥 𝑘−3
Para ello, vamos a construir una tabla de diferencias divididas:
𝑥 𝑘 𝑓( 𝑥 𝑘) = 𝑦 𝑘 𝑓[ 𝑥 𝑘−1; 𝑥 𝑘] 𝑓[ 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘] 𝑓[ 𝑥 𝑘−3; 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘]
𝑥0 𝑦0
𝑥1 𝑦1 𝑓[ 𝑥0; 𝑥1]
𝑥2 𝑦2 𝑓[ 𝑥1; 𝑥2] 𝑓[ 𝑥0; 𝑥1; 𝑥2]
𝑥3 𝑦3 𝑓[ 𝑥3; 𝑥2] 𝑓[ 𝑥1; 𝑥2; 𝑥3] 𝑓[ 𝑥0; 𝑥1; 𝑥2; 𝑥3]
Escrito con las fórmulas:
𝑥 𝑘 𝑓( 𝑥 𝑘) = 𝑦 𝑘 𝑓[ 𝑥 𝑘−1; 𝑥 𝑘] 𝑓[ 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘] 𝑓[ 𝑥 𝑘−3; 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘]
𝑥0 𝑦0
𝑥1 𝑦1
𝑦1 − 𝑦0
𝑥1 − 𝑥0
(𝑎)
𝑥2 𝑦2
𝑦2 − 𝑦1
𝑥2 − 𝑥1
(𝑏)
𝑏 − 𝑎
𝑥2 − 𝑥0
(𝑑)
𝑥3 𝑦3
𝑦3 − 𝑦2
𝑥3 − 𝑥2
(𝑐)
𝑐 − 𝑏
𝑥3 − 𝑥1
(𝑒)
𝑒 − 𝑓
𝑥3 − 𝑥0
Coeficientes del Polinomio de Newton
Una vez completado el cuadro, los números que quedan en la diagonal principal son
los coeficientes del polinomio interpolador de Newton.
Cota de Error
Es igual que el término de Lagrange:
𝐸 𝑛 ( 𝑥) =
∏ ( 𝑥 − 𝑥 𝑘) ∗ 𝑓 𝑛+1𝑛
𝑘=0
( 𝑛 + 1)!
Mínimos Cuadrados
En su forma más simple, intenta minimizar la suma de los cuadrados de las
diferencias ordenadas (llamadas residuos) entre los puntos generados por la función y los
correspondientes en los datos.
El método de resolución se basa en resolver un sistema de ecuaciones dado un
conjunto de n puntos.
Si ajustamos para una función y = f (x), entonces la distancia vertical dk desde el
punto (xk, yk) hasta el punto (xk, f(xk)) es:
𝑑 𝑘 = | 𝑓(𝑥 𝑘)− 𝑦 𝑘|
El objetivo es minimizar la suma de los cuadrados de las distancias verticales dk:
𝐸( 𝐴, 𝐵, … , 𝑁) = ∑( 𝑓(𝑥 𝑘)− 𝑦 𝑘)2
𝑛
𝑘=1
= ∑( 𝑑 𝑘)2
𝑛
𝑘=1
El valor mínimo de la función E se determina igualando a cero las derivadas
parciales
𝜕𝐸
𝜕𝐴
;
𝜕𝐸
𝜕𝐵
; …;
𝜕𝐸
𝜕𝑁
y resolviendo las ecuaciones que resulten en A, B y todas las
constantes.
El resultado de esta operación es un conjunto de ecuaciones para resolver la cual su
resolución nos da el valor de cada constante de la expresión de ajuste adoptada.
El tipo de ajuste que vamos a utilizar estará dado por distribución de puntos y la
relación que encontremos entre ellos en el gráfico.
Ajuste Lineal
Tenemos como función de ajuste a una función lineal 𝑦 = 𝐴𝑥 + 𝐵
La función distancia que encontramos será de esta manera:
𝑑 𝑘 = 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘
Sumando la distancia de cada punto elevada al cuadrado obtenemos:
𝐸( 𝐴, 𝐵) = ∑ 𝑑 𝑘
2
𝑛
𝑘=1
= ∑( 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘)2
𝑛
𝑘=1
Derivando con respecto a A:
𝜕𝐸( 𝐴, 𝐵)
𝜕𝐴
= ∑ 2( 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘)∗ 𝑥 𝑘
𝑛
𝑘=1
𝜕𝐸( 𝐴, 𝐵)
𝜕𝐴
= 2 ∑( 𝐴𝑥 𝑘
2
+ 𝐵𝑥 𝑘 − 𝑦 𝑘 𝑥 𝑘)
𝑛
𝑘=1
Con respecto a B:
𝜕𝐸( 𝐴, 𝐵)
𝜕𝐵
= ∑ 2( 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘)
𝑛
𝑘=1
𝜕𝐸( 𝐴, 𝐵)
𝜕𝐵
= 2∑( 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘)
𝑛
𝑘=1
Igualando cada derivada a cero obtenemos:
𝜕𝐸( 𝐴, 𝐵)
𝜕𝐴
= 2 ∑( 𝐴𝑥 𝑘
2
+ 𝐵𝑥 𝑘 − 𝑦 𝑘 𝑥 𝑘)
𝑛
𝑘=1
= 0
∑( 𝐴𝑥 𝑘
2
+ 𝐵𝑥 𝑘 − 𝑦 𝑘 𝑥 𝑘)
𝑛
𝑘=1
= 0
∑ 𝐴𝑥 𝑘
2
𝑛
𝑘=1
+ ∑ 𝐵𝑥 𝑘
𝑛
𝑘=1
− ∑ 𝑦 𝑘 𝑥 𝑘
𝑛
𝑘=1
= 0
𝐴 ∑ 𝑥 𝑘
2
𝑛
𝑘=1
+ 𝐵 ∑ 𝑥 𝑘
𝑛
𝑘=1
= ∑ 𝑦 𝑘 𝑥 𝑘
𝑛
𝑘=1
(1)
𝜕𝐸( 𝐴, 𝐵)
𝜕𝐵
= 2∑( 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘)
𝑛
𝑘=1
= 0
∑( 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘)
𝑛
𝑘=1
= 0
∑ 𝐴𝑥 𝑘
𝑛
𝑘=1
+ ∑ 𝐵
𝑛
𝑘=1
− ∑ 𝑦 𝑘
𝑛
𝑘=1
= 0
𝐴 ∑ 𝑥 𝑘
𝑛
𝑘=1
+ 𝐵 ∑ 𝑥 𝑘
𝑛
𝑘=1
= ∑ 𝑦 𝑘
𝑛
𝑘=1
(2)
Se debe plantear:
{
𝐴 ∑ 𝑥 𝑘
2
𝑛
𝑘=1
+ 𝐵 ∑ 𝑥 𝑘
𝑛
𝑘=1
= ∑ 𝑦 𝑘 𝑥 𝑘
𝑛
𝑘=1
𝐴 ∑ 𝑥 𝑘
𝑛
𝑘=1
+ 𝐵 ∑ 𝑥 𝑘
𝑛
𝑘=1
= ∑ 𝑦 𝑘
𝑛
𝑘=1
Para el cual es conveniente realizar una tabla como la que se muestra a continuación
Nº de puntos xk yk xk
2 xkyk
1 X1 Y1 (X1)2 X1Y1
2 X2 Y2 (X2)2 X2Y2
3 X3 Y3 (X3)2 X3Y3
… … … … …
N Xn Yn (Xn)2 XnYn
Total Σ xk Σ yk Σ xk
2 Σ xk * yk
Resolviendo el sistema encontramos los coeficientes a y b correspondientes a la
ecuación y = A x + B.
Ajuste Polinomial
Para esta secuencia, el objetivo es el mismo teniendo en cuenta que la función
modelo será:
𝑓( 𝑥 𝑘) = 𝐴0 + 𝐴1 𝑥 𝑘
1
+ 𝐴2 𝑥 𝑘
2
+ ⋯+ 𝐴 𝑚 𝑥 𝑘
𝑚
= ∑ 𝐴𝑖 𝑥 𝑘
𝑖
𝑚
𝑖=0
De donde Ai son los coeficientes del polinomio de ajuste. Con esta expresión,
podemos decir:
𝑑 𝑘 = | 𝑓( 𝑥 𝑘)− 𝑦 𝑘|
𝐸( 𝐴0, 𝐴1, … , 𝐴 𝑚) = ∑( 𝑑 𝑘)2
𝑛
𝑘=1
= ∑( 𝑓( 𝑥 𝑘)− 𝑦 𝑘)2
𝑛
𝑘=1
𝐸( 𝐴0, 𝐴1, … , 𝐴 𝑚) = ∑( 𝑑 𝑘)2
𝑛
𝑘=1
= ∑ (∑ 𝐴𝑖 𝑥 𝑘
𝑖
𝑚
𝑖=0
− 𝑦 𝑘)
2𝑛
𝑘=1
Como el objetivo es que los coeficientes minimicen la función, debemos derivar
esta expresión con respecto a cada coeficiente e igualarlo a cero.
𝜕𝐸
𝜕𝐴𝑖
)
𝐴 𝑗
= 2 ∑( 𝐴0 + 𝐴1 𝑥 𝑘
1
+ 𝐴2 𝑥 𝑘
2
+ ⋯ + 𝐴 𝑚 𝑥 𝑘
𝑚
− 𝑦 𝑘)∗ 𝑥 𝑘
𝑖
𝑛
𝑘=1
= 0
∑(𝐴0 𝑥 𝑘
𝑖
+ 𝐴1 𝑥 𝑘
1+𝑖
+ 𝐴2 𝑥 𝑘
2+𝑖
+ ⋯+ 𝐴 𝑚 𝑥 𝑘
𝑚+𝑖
− 𝑦 𝑘 𝑥 𝑘
𝑖
)
𝑛
𝑘=1
= 0
∑ 𝐴0 𝑥 𝑘
𝑖
𝑛
𝑘=1
+ ∑ 𝐴1 𝑥 𝑘
1+𝑖
𝑛
𝑘=1
+ ∑ 𝐴2 𝑥 𝑘
2+𝑖
𝑛
𝑘=1
+ ⋯ + ∑ 𝐴 𝑚 𝑥 𝑘
𝑚+𝑖
𝑛
𝑘=1
= ∑ 𝑦 𝑘 𝑥 𝑘
𝑖
𝑛
𝑘=1
𝐴0 ∑ 𝑥 𝑘
𝑖
𝑛
𝑘=1
+ 𝐴1 ∑ 𝑥 𝑘
1+𝑖
𝑛
𝑘=1
+ 𝐴2 ∑ 𝑥 𝑘
2+𝑖
𝑛
𝑘=1
+ ⋯+ 𝐴 𝑚 ∑ 𝑥 𝑘
𝑚+𝑖
𝑛
𝑘=1
= ∑ 𝑦 𝑘 𝑥 𝑘
𝑖
𝑛
𝑘=1
Esta expresión la tenemos m veces correspondientes a las m derivadas parciales de
cada constante, dándonos un sistema de ecuaciones lineales (de m ecuaciones con m
incógnitas) para resolver el cual su respuesta nos indica los coeficientes del polinomio de
ajuste.
NOTA: si los datos no muestran una naturaleza polinomial, puede ocurrir que la
curva presente oscilaciones grandes. Este fenómeno llamado oscilación polinomial se hace
más pronunciado conforme aumenta el grado del polinomio, y por esta razón, no se suelen
usar polinomios de grado 6 o mayor, a no ser que se sepa que la función de la que
provienen los datos es un polinomio.
Forma Matricial de resolución para ajuste
Nuestro objetivo es encontrar el valor de los Ai. Para ello, vamos a armar la matriz F
dela siguiente manera:
 Ubicamos de forma matricial los coeficientes de cada Ai y los disponemos
de la siguiente manera:
Ao A1 A2 … Am
1 X1 X1
2
… X1
m
1 X2 X2
2
… X2
m
F= 1 X3 X3
2
… X3
m
… … … … …
1 Xn Xn
2
… X1
m
P
u
n
t
o
s
Coeficientes de Ai
Notemos que:
 La primer columna son los coeficientes del término independiente por lo
tanto está multiplicada por 1
 La segunda columna son los términos lineales, por lo que están
multiplicados por x
 La tercera por x2
 La cuarta por x3
 Así hasta el polinomio de grado m.
Una vez escrita la matriz F podemos obtener su transpuesta:
1 1 1 … 1
X1 X2 X3 … Xn
Ft
= X1
2
X2
2
X3
2
… Xn
2
… … … … …
X1
m
X2
m
X3
m
… Xn
m
De estas dos matrices obtenemos lo siguiente:
𝐴 = 𝐹 𝑡
∗ 𝐹
𝐵 = 𝐹 𝑡
∗ 𝑌
Y es la matriz columna de los yk dela nube de puntos
Una vez obtenidas ambas matrices, la expresión matricial queda definida de la
siguiente manera:
𝐴 ∗ 𝐶 = 𝐵
De donde C es la matriz de coeficientes, sabemos que en este caso esta matriz es
una matriz fila.
Linealización de datos – Cambios de variable que linealizan datos
La técnica de linealizar los datos ha sido empleada para ajustar curvas tales como
𝑦 = 𝐶𝑒 𝐴𝑋
, 𝑦 = 𝐴 ln(𝑥) + 𝐵 e 𝑦 =
𝐴
𝑥
+ 𝐵 a un conjunto de datos. Una vez elegido el tipo de
curva, hay que realizar un cambio de variable adecuado de manera que las nuevas variables
se relacionen linealmente 𝑌 = 𝐴𝑋 + 𝐵 usando el cambio de variables y constantes.
Función
𝑦 = 𝑓( 𝑥)
Linealización
𝑌 = 𝐴𝑋 + 𝐵
Cambios de Variable
𝑦 =
𝑎
𝑥
+ 𝑏 𝑦 = 𝑎
1
𝑥
+ 𝑏
𝑦 = 𝑌;
1
𝑥
= 𝑋
𝑏 = 𝐵; 𝑎 = 𝐴
𝑦 =
𝑎
𝑥 + 𝑏
𝑦 =
−1
𝑏
( 𝑥𝑦)+
𝑎
𝑏
𝑦 = 𝑌; 𝑥𝑦 = 𝑋
𝐴 =
−1
𝑏
; 𝐵 =
𝑎
𝑏
𝑦 =
1
𝑎𝑥 + 𝑏
1
𝑦
= 𝑎𝑥 + 𝑏
1
𝑦
= 𝑌; 𝑥 = 𝑋
𝑎 = 𝐴; 𝑏 = 𝐵
𝑦 =
𝑥
𝑎𝑥 + 𝑏
1
𝑦
= 𝑏
1
𝑥
+ 𝑎
1
𝑦
= 𝑌;
1
𝑥
= 𝑋
𝑎 = 𝐵; 𝑏 = 𝐴
𝑦 = 𝑎 ln(𝑥) + 𝑏 𝑦 = 𝑎 ln(𝑥) + 𝑏
𝑦 = 𝑌; ln(𝑥) = 𝑋
𝑎 = 𝐴; 𝑏 = 𝐵
𝑦 = 𝑎𝑒 𝑏𝑥
ln(𝑦) = 𝑏𝑥 + ln(𝑎)
ln(𝑦) = 𝑌; 𝑥 = 𝑋
ln(𝑎) = 𝐵; 𝑏 = 𝐴
𝑦 = 𝑎𝑥 𝑏
ln(𝑦) = 𝑏ln(𝑥) + ln(𝑎)
ln(𝑦) = 𝑌; ln(𝑥) = 𝑋
ln(𝑎) = 𝐵; 𝑏 = 𝐴
𝑦 = ( 𝑎𝑥 + 𝑏)−2
𝑦
−1
2⁄
= 𝑎𝑥 + 𝑏
𝑦
−1
2⁄
= 𝑌; 𝑥 = 𝑋
𝑎 = 𝐴; 𝑏 = 𝐵
𝑦 = 𝑎𝑥𝑒−𝑏𝑥
ln (
𝑦
𝑥
) = ln(𝑎) − 𝑏𝑥
ln (
𝑦
𝑥
) = 𝑌; 𝑥 = 𝑋
−𝑏 = 𝐴; ln(𝑎) = 𝐵
𝑦 =
𝐿
1 + 𝑎𝑒 𝑏𝑥
ln (
𝐿
𝑦
− 1) = 𝑏𝑥 + ln(𝑎)
ln (
𝐿
𝑦
− 1) = 𝑌; 𝑥 = 𝑋
𝑏 = 𝐴; ln(𝑎) = 𝐵
Ajuste de una función a una función
Se quiere encontrar una función que se ajuste por algún criterio a la función dato.
Las razones por las cuales se quiere aproximar una función a otra puede ser:
Trabajar con una función más sencilla
Realizar cálculos sobre la función encontrada: Integración, Evaluaciones,
etc.
Se planteará una función como combinación lineal de un conjunto de funciones
base1.
Como objetivo tendremos minimizar el cuadrado del área encerrada por las dos
funciones.
La cantidad de funciones base en general puede variar de 1 a 10
Dada una función ϕ(x) y un conjunto de M funciones linealmente independientes
{𝑓𝑗( 𝑥)} el objetivo es encontrar M coeficientes {𝑐𝑗} tales que la función ϕ(x) definida como
la combinación lineal:
𝜙( 𝑥) = ∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥)
𝑀
𝑗=1
Minimice el área de los cuadrados de los errores con respecto a f(x), es decir:
𝐸( 𝑐1, 𝑐2, … , 𝑐 𝑚) = ∫( 𝑑 𝑘)2
𝑏
𝑎
𝑑𝑥 = ∫(𝜙( 𝑥) − 𝑓( 𝑥))
2
𝑏
𝑎
𝑑𝑥 = ∫ ((∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥)
𝑀
𝑗=1
) − 𝑓( 𝑥))
2
𝑑𝑥
𝑏
𝑎
Para que E alcance un mínimo en un punto, es necesario que cada derivada parcial
en dicho punto sea cero:
𝜕𝐸
𝜕𝑐𝑖
)
𝑐 𝑗
= 2 ∫ ((∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥)
𝑀
𝑗=1
) − 𝑓( 𝑥))
𝑏
𝑎
∗ 𝑓𝑖( 𝑥) 𝑑𝑥 = 0
∫ ((∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥)
𝑀
𝑗=1
) − 𝑓( 𝑥))
𝑏
𝑎
∗ 𝑓𝑖( 𝑥) 𝑑𝑥 = 0
Realizando distributiva:
∫ (∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥)
𝑀
𝑗=1
𝑓𝑖( 𝑥))− 𝑓( 𝑥) 𝑓𝑖( 𝑥)
𝑏
𝑎
𝑑𝑥 = 0
1 Las funciones base son un conjunto de funciones linealmente independientes.
∫ (∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥)
𝑀
𝑗=1
𝑓𝑖( 𝑥))𝑑𝑥
𝑏
𝑎
− ∫ 𝑓( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥
𝑏
𝑎
= 0
∫ (∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥)
𝑀
𝑗=1
𝑓𝑖( 𝑥))𝑑𝑥
𝑏
𝑎
= ∫ 𝑓( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥
𝑏
𝑎
Intercambiando el orden de la suma y la integral y sacando cj fuera de la suma
interna:
∑ 𝑐𝑗
𝑀
𝑗=1
∫ 𝑓𝑗( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥
𝑏
𝑎
= ∫ 𝑓( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥
𝑏
𝑎
Obtenemos un sistema de ecuaciones lineales de orden M x M en el que las
incógnitas son los coeficientes cj, estas ecuaciones reciben el nombre de ecuaciones
normales o ecuaciones normales de Gauss.
Observemos que el sistema se puede escribir:
𝐴 ∗ 𝑐 = 𝐵
De donde:
A es la matriz de coeficientes en donde: 𝐴𝑖𝑗 = ∫ 𝑓𝑗( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥
𝑏
𝑎
C es la matriz de coeficientes a calcular.
B es la matriz de términos independientes: 𝐵𝑖 = ∫ 𝑓( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥
𝑏
𝑎
Una observación importante es analizar lo que sucede en el caso de tener un ajuste
cuyas funciones bases sean ortogonales, es decir, que las integrales cruzadas sean cero. Se
dice que un conjunto de funciones { 𝜙 𝑛 , } 𝑛=0
∞
es ortogonal en el intervalo [ 𝑎, 𝑏] si:
〈 𝜙 𝑛, 𝜙 𝑚 〉 = ∫ 𝜙 𝑛 ( 𝑥) 𝜙 𝑚( 𝑥) 𝑑𝑥 = 0, 𝑚 ≠ 𝑛
𝑏
𝑎
En este caso la matriz de coeficientes del sistema de ecuaciones resultante queda
diagonal, con el consecuente desacoplamiento de las ecuaciones.
𝐴𝑖𝑗 = ∫ 𝑓𝑗( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥
𝑏
𝑎
{
= 0 𝑠𝑖 𝑖 ≠ 𝑗
≠ 0 𝑠𝑖 𝑖 = 𝑗
Entonces, el cálculo de los coeficientes de ajustes para una base de funciones
ortogonales resulta muy sencillo
𝑐𝑖 =
𝑏𝑖
𝐴𝑖𝑗
=
∫ 𝑓( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥
𝑏
𝑎
∫ 𝑓𝑗( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥
𝑏
𝑎
Ajuste de puntos a una combinación de funciones
Se puede hacer el mismo análisis para un conjunto N de puntos {( 𝑥 𝑘, 𝑦 𝑘)} y un
conjunto de M funciones linealmente independientes {𝑓𝑗( 𝑥 𝑘)}, se trata de encontrar M
coeficientes {𝑐𝑗} tales que la función f(x) definida como combinación lineal
𝑓( 𝑥) = ∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘)
𝑀
𝑗=1
Minimice la suma de los cuadrados de los errores:
𝐸( 𝑐1, 𝑐2, …, 𝑐 𝑚 ) = ∑( 𝑑 𝑘)2
𝑛
𝑘=1
= ∑ ((∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘)
𝑀
𝑗=1
) − 𝑦 𝑘)
2
𝑛
𝑘=1
Para que E alcance un mínimo en un punto dado, es necesario que cada derivada
parcial en dicho punto sea cero.
𝜕𝐸
𝜕𝑐𝑖
)
𝑐 𝑗
= 2∑ ((∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘)
𝑀
𝑗=1
)− 𝑦 𝑘)∗ 𝑓𝑖( 𝑥 𝑘)
𝑛
𝑘=1
= 0
∑ ((∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘)
𝑀
𝑗=1
) − 𝑦 𝑘) ∗ 𝑓𝑖( 𝑥 𝑘)
𝑛
𝑘=1
= 0
Aplicando distributiva del producto:
∑ ((∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘) 𝑓𝑖( 𝑥 𝑘)
𝑀
𝑗=1
) − 𝑦 𝑘 𝑓𝑖( 𝑥 𝑘))
𝑛
𝑘=1
= 0
Aplicando distributiva de la suma
∑ ∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘) 𝑓𝑖( 𝑥 𝑘)
𝑀
𝑗=1
−
𝑛
𝑘=1
∑ 𝑦 𝑘 𝑓𝑖( 𝑥 𝑘)
𝑛
𝑘=1
= 0
∑ ∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘) 𝑓𝑖( 𝑥 𝑘)
𝑀
𝑗=1
=
𝑛
𝑘=1
∑ 𝑦 𝑘 𝑓𝑖( 𝑥 𝑘)
𝑛
𝑘=1
Intercambiando el orden de la sumatoria:
∑ ∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘) 𝑓𝑖( 𝑥 𝑘)
𝑛
𝑘=1
𝑀
𝑗=1
= ∑ 𝑦 𝑘 𝑓𝑖( 𝑥 𝑘)
𝑛
𝑘=1
∑ 𝑐𝑗 ∑ 𝑓𝑗( 𝑥 𝑘) 𝑓𝑖( 𝑥 𝑘)
𝑛
𝑘=1
𝑀
𝑗=1
= ∑ 𝑦 𝑘 𝑓𝑖( 𝑥 𝑘)
𝑛
𝑘=1
Obtenemos un sistema de ecuaciones lineales de orden M x M en el que las
incógnitas son los coeficientes 𝑐𝑗. Observemos que:
A es la matriz de coeficientes en donde: 𝐴𝑖𝑗 = ∑ 𝑓𝑗( 𝑥 𝑘) 𝑓𝑖( 𝑥 𝑘)𝑛
𝑘=1
C es la matriz de coeficientes a calcular.
B es la matriz de términos independientes: 𝐵𝑖 = ∑ 𝑦 𝑘 𝑓𝑖( 𝑥 𝑘)𝑛
𝑘=1
Interpolación por Splines – Interpolación polinomial a trozos
Frecuentemente, la interpolación polinomial para un conjunto numeroso de m+1
datos {( 𝑥 𝑘; 𝑦 𝑘)} 𝑘=0
𝑁
resulta ser muy poco satisfactoria. Observamos que un polinomio de
grado N puede presentar oscilaciones muy grandes al hacerla pasar por los puntos dados.
Otra opción es ir enlazando, una detrás de otra las gráficas de un polinomio de grado bajo
que solo interpolan entre dos nodos consecutivos. La unión consecutiva de todos estos
polinomios nos da un polinomio a trozos.
La interpolación por splines consiste en armar varios polinomios entre los puntos (o
nodos) de manera tal de tener una “función a tramos” que, generalmente, será continua pero
no derivable. Para m+1 puntos voy a tener m curvas de splines.
Un factor a tener en cuenta es que, el grado del polinomio de splines me da una idea
de los grados de libertad que tengo para resolver el sistema, si el grado del polinomio de
cada spline es n, necesito n+1 ecuaciones para resolver todos los coeficientes de cada
spline.
Analizando lo anterior, n+1 ecuaciones por cada spline y m curvas de spline
necesito ( 𝑛 + 1) ∗ 𝑚 ecuaciones ya que este número es la cantidad de incógnitas que tengo.
Por ejemplo, si tengo 5 puntos tengo que armar 4 splines, y si cada spline es cúbica,
tengo 4 incógnitas por cada spline. Por consiguiente necesito 4*4 = 16 ecuaciones para
encontrar todos los coeficientes.
Vamos a armar las ecuaciones de cada una:
1. Si analizamos por continuidad, conozco dos puntos por cada spline (serían los
extremos de cada una) por lo que puedo formar 2*m ecuaciones.
2. Podemos obtener más ecuaciones si planteamos la continuidad en la derivada
primera (las derivadas primeras en los puntos interiores son iguales). Este planteo
me da m-1 ecuaciones ya que en los extremos no puedo calcular la continuidad
(que equivalen a dos puntos = 1 spline menos)
3. En caso de que nos sigan faltando ecuaciones, planteamos continuidad en la
derivada segunda (menos en extremos) y seguimos así hasta obtener todas las
ecuaciones necesarias.
Una vez obtenidas todas las ecuaciones, armamos el sistema de ecuaciones lineales
de forma matricial (para facilitar cuentas) y resolvemos el sistema.
Notemos que el sistema de ecuaciones lineales que es generalmente grande (de
grandes dimensiones).
Ejemplo gráfico
Sistemas de Ecuaciones Lineales
Introducción
Un Sistema de ecuaciones lineales es un conjunto de ecuaciones lineales (de grado
1) definidas sobre un cuerpo o un anillo conmutativo.
{
3𝑥1 + 2𝑥2 + 𝑥3 = 1
2𝑥1 + 2𝑥2 + 4𝑥3 = −2
−𝑥1 +
1
2
𝑥2 − 𝑥3 = 0
El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y
x3 que satisfacen las tres ecuaciones.
En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en
forma normal como:
{
𝑎11 𝑥1 + 𝑎12 𝑥2 + ⋯+ 𝑎1𝑛 𝑥 𝑛 = 𝑏1
𝑎21 𝑥1 + 𝑎22 𝑥2 + ⋯+ 𝑎2𝑛 𝑥 𝑛 = 𝑏2
… … …… … …… … … …… … … = ⋯
𝑎 𝑚1 𝑥1 + 𝑎 𝑚2 𝑥2 + ⋯+ 𝑎 𝑚𝑛 𝑥 𝑛 = 𝑏 𝑚
Donde los 𝑥1; 𝑥2; …; 𝑥 𝑛 son las incógnitas y los números 𝑎𝑖𝑗 ∈ 𝐾 son los
coeficientes del sistema sobre el cuerpo 𝐾 [= 𝑅, 𝐶, … ] es posible reescribir el sistema
separado con coeficientes de notación matricial:
[
𝑎11 𝑎12 … 𝑎1𝑛
𝑎21 𝑎22 … 𝑎2𝑛
… … … …
𝑎 𝑚1 𝑎 𝑚2 … 𝑎 𝑚𝑛
] ∗ [
𝑥1
𝑥2
…
𝑥 𝑛
] = [
𝑏1
𝑏2
…
𝑏 𝑛
]
O bien:
𝐴 ∗ 𝑋 = 𝐵
Donde A es una matriz m por n, X es un vector columna de longitud n y b es otro
vector columna de longitud m.
𝐴 ∗ 𝑋 = 𝐵
( 𝑚𝑥𝑛) ∗ ( 𝑛𝑥1) = (𝑚𝑥1)
Tipos de Sistema
Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que
pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:
 Sistema incompatible si no tiene solución.
 Sistema compatible si tiene solución, en este caso además puede distinguirse entre:
o Sistema compatible determinado cuando tiene una única solución.
o Sistema compatible indeterminado cuando admite un conjunto infinito de
soluciones.
Quedando así la clasificación:
𝑇𝑖𝑝𝑜𝑠 𝑑𝑒 𝑠𝑖𝑠𝑡𝑒𝑚𝑎𝑠 {
𝐶𝑜𝑚𝑝𝑎𝑡𝑖𝑏𝑙𝑒 {
𝐷𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑑𝑜
𝐼𝑛𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑑𝑜
𝐼𝑛𝑐𝑜𝑚𝑝𝑎𝑡𝑖𝑏𝑙𝑒
Desde un punto de vista algebraico los sistemas compatibles determinados se
caracterizan porque el determinante de la matriz es diferente de cero:
𝑆𝑖𝑠𝑡𝑒𝑚𝑎 𝐶𝑜𝑚𝑝𝑎𝑡𝑖𝑏𝑙𝑒 𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑑𝑜 ⇔ det(𝐴) ≠ 0
Métodos para resolver sistemas de ecuaciones lineales
Un sistema de ecuaciones lineales se puede optar resolver por dos caminos:
 Método directo el cual implica demasiadas cuentas pero una solución segura. En
estos métodos encontramos el método de Gauss y sustitución regresiva y la
factorización triangular.
 Métodos iterativos el cual las cuentas se reducen considerablemente pero puede que
la iteración no converja.
Eliminación Gaussiana y pivoteo – sustitución regresiva
Para poder resolver un sistema de ecuaciones lineales por eliminación gaussiana
necesitamos un sistema de N ecuaciones con N incógnitas. El objetico es construir una
matriz triangular superior para realizar una sustitución regresiva.
Una vez obtenida la matriz triangular superior despejamos de la última ecuación una
incógnita, la reemplazamos en la de arriba y despejamos la otra incógnita y así
sucesivamente hasta obtener todas las incógnitas a buscar.
Una de las formas más rápidas para la obtención de la matriz triangular superior es
el método de pivoteo, para el cual tenemos que seguir los siguientes pasos:
1. Ampliamos la matriz A agregándole como última columna la matriz de resultados.
2. Multiplicamos por algún escalar la primer fila de manera tal que el elemento a11 sea
el número 1 (esto no es necesario hacerlo, se hace para facilitar los cálculos).
Generalmente se divide toda esa fila por el pivote elegido.
3. Pivoteamos toda la diagonal principal hasta obtener la matriz triangular superior.
4. Resolvemos el sistema por sustitución regresiva.
Para reducir los errores de cálculo, una estrategia de pivoteo es usar como pivote el
elemento de mayor magnitud y, una vez colocado en la diagonal principal, usarlo para
eliminar los restantes elementos de su columna que estén por debajo de él.
Para resolver un sistema de N x N hace falta un total de
(4𝑁3
+ 9𝑁2
− 7𝑁)
6
⁄
operaciones aritméticas. Si N = 20 tenemos que utilizar 5910 operaciones y la propagación
de errores en los cálculos podría dar lugar a una respuesta incorrecta.
Factorización triangular
Para poder aplicar la factorización triangular (o factorización LU) necesitamos una
matriz invertible.
𝐴 = 𝐿 𝑈
De donde L es una matriz triangular inferior cuya diagonal son todos 1 y U una
matriz triangular superior.
Para calcular esta factorización lo que hacemos es pivotear la matriz A hasta obtener
una matriz triangular superior. Luego, para calcular L lo que hacemos es completar la
diagonal con 1 y los elementos faltantes se calculan de la siguiente manera:
𝐿 𝑖𝑗 =
1
𝑈𝑖𝑗
∗ 𝐴𝑖𝑗
Este método sale de resolver la multiplicación de LU = A
a. Pivoteo A hasta obtener matriz superior (U)
b. 𝐿 𝑖𝑗 =
1
𝑈𝑖𝑗
∗ 𝐴𝑖𝑗, con estos valores obtenemos L
Una vez obtenidas las dos matrices podemos reemplazar el sistema A*X = B en el
sistema equivalente LU*X = B
De este sistema nuevo podemos resolverlo de la siguiente manera:
Decir que UX = Y de donde el sistema a resolver es LY = B, calculamos Y y con
estos valores calculamos X (sabiendo que Y = UX). Todo lo resolvemos por sustitución
regresiva.
Método Jacobi
Este método es utilizado para resolver los sistemas de ecuaciones lineales mucho
más rápido que por los métodos directos.
Para resolver un sistema por Jacobi necesitamos reescribir el sistema de ecuaciones
lineales.
Dado el sistema:
{
𝑎11 𝑥1 + 𝑎12 𝑥2 + ⋯+ 𝑎1𝑛 𝑥 𝑛 = 𝑏1
𝑎21 𝑥1 + 𝑎22 𝑥2 + ⋯+ 𝑎2𝑛 𝑥 𝑛 = 𝑏2
… … …… … …… … … …… … … = ⋯
𝑎 𝑚1 𝑥1 + 𝑎 𝑚2 𝑥2 + ⋯+ 𝑎 𝑚𝑛 𝑥 𝑛 = 𝑏 𝑚
Lo reescribimos de manera tal de despejar de la primera ecuación la primer
incógnita, de la segunda la segunda y así sucesivamente.
{
𝑥1 =
𝑏1 − 𝑎12 𝑥2 − ⋯− 𝑎1𝑛 𝑥 𝑛
𝑎11
𝑥2 =
𝑏2 − 𝑎21 𝑥1 − ⋯− 𝑎2𝑛 𝑥 𝑛
𝑎22
… = ⋯ … …… … …… … …… … … …
𝑥 𝑛 =
𝑏 𝑚 − 𝑎 𝑚1 𝑥1 − 𝑎 𝑚2 𝑥2 − 𝑎 𝑚𝑛−1 𝑥 𝑛−1
𝑎 𝑚𝑛
A todas las incógnitas del lado izquierdo le ponemos el subíndice k+1 y a la de la
derecha el subíndice k.
{
( 𝑥1) 𝑘+1 =
𝑏1 − 𝑎12( 𝑥2) 𝑘 − ⋯− 𝑎1𝑛( 𝑥 𝑛) 𝑘
𝑎11
( 𝑥2) 𝑘+1 =
𝑏2 − 𝑎21( 𝑥1) 𝑘 − ⋯− 𝑎2𝑛( 𝑥 𝑛) 𝑘
𝑎22
… = ⋯ … …… … …… … …… … … …
( 𝑥 𝑛) 𝑘+1 =
𝑏 𝑚 − 𝑎 𝑚1( 𝑥1) 𝑘 − 𝑎 𝑚2( 𝑥2) 𝑘 − 𝑎 𝑚𝑛−1( 𝑥 𝑛−1) 𝑘
𝑎 𝑚𝑛
Una vez obtenido este sistema elijo un punto cualquiera inicial (P0) y lo reemplazo
en cada Xk; esto me da un nuevo punto P1. Seguimos iterando hasta que converja en un
punto que será la solución del problema.
Si la matriz de coeficientes original es diagonalmente dominante, el método de
Jacobi converge seguro.
Una matriz se dice matriz diagonalmente dominante, si en cada uno de los
renglones, el valor absoluto del elemento de la diagonal principal es mayor que la suma de
los valores absolutos de los elementos restantes del mismo renglón. A veces la matriz de un
sistema de ecuaciones no es diagonalmente dominante pero cuando se cambian el orden de
las ecuaciones y las incógnitas el nuevo sistema puede tener matriz de coeficientes
diagonalmente dominante.
| 𝑎 𝑘𝑘| > ∑|𝑎 𝑘𝑗 |
𝑛
𝑗=1
Método Gauss - Seidel
Este método es similar al de Jacobi, con la diferencia que se acelera la
convergencia.
Observemos que en el método anterior produce sucesiones que convergen
(( 𝑥1) 𝑘;( 𝑥2) 𝑘;… ; ( 𝑥 𝑛) 𝑘). Puesto que ( 𝑥1) 𝑘+1 es probablemente mejor aproximación que
( 𝑥1) 𝑘, sería razonable usar ( 𝑥1) 𝑘+1 en vez de ( 𝑥1) 𝑘 a la hora de calcular ( 𝑥2) 𝑘+1 y, de
forma semejante, sería mejor usar( 𝑥1) 𝑘+1 e ( 𝑥2) 𝑘+1 en el cálculo de ( 𝑥3) 𝑘+1.
{
𝑥1 =
𝑏1 − 𝑎12 𝑥2 − ⋯− 𝑎1𝑛 𝑥 𝑛
𝑎11
𝑥2 =
𝑏2 − 𝑎21 𝑥1 − ⋯− 𝑎2𝑛 𝑥 𝑛
𝑎22
… = ⋯ … …… … …… … …… … … …
𝑥 𝑛 =
𝑏 𝑚 − 𝑎 𝑚1 𝑥1 − 𝑎 𝑚2 𝑥2 − 𝑎 𝑚𝑛−1 𝑥 𝑛−1
𝑎 𝑚𝑛
Con los subíndices:
{
( 𝑥1) 𝑘+1 =
𝑏1 − 𝑎12( 𝑥2) 𝑘 − ⋯− 𝑎1𝑛( 𝑥 𝑛) 𝑘
𝑎11
( 𝑥2) 𝑘+1 =
𝑏2 − 𝑎21( 𝑥1) 𝑘+1 − ⋯ − 𝑎2𝑛 ( 𝑥 𝑛) 𝑘
𝑎22
… = ⋯ … …… … …… … …… … … …
( 𝑥 𝑛) 𝑘+1 =
𝑏 𝑚 − 𝑎 𝑚1 ( 𝑥1) 𝑘+1 − 𝑎 𝑚2( 𝑥2) 𝑘+1 − 𝑎 𝑚𝑛−1( 𝑥 𝑛−1) 𝑘+1
𝑎 𝑚𝑛
Determinación de convergencia de ambos métodos de iteración
Dado el sistema de ecuaciones lineales AX = B, sin importar el método de iteración
que utilicemos (Jacobi o Gauss Seidel) podemos determinar de antemano si el sistema
converge o no para no hacer la iteración en vano.
Podemos tomar a la matriz de coeficientes A y descomponerla en su diagonal menos
su triangular inferior y su triangular superior.
𝐴 = 𝐷 − 𝐿 − 𝑈 {
𝐽𝐴𝐶𝑂𝐵𝐼: 𝐴 = 𝐷 − (𝐿 + 𝑈)
𝐺𝐴𝑈𝑆𝑆 − 𝑆𝐸𝐼𝐷𝐸𝐿: 𝐴 = ( 𝐷 − 𝐿) − 𝑈
Obtención de las matrices de Jacobi y Gauss Seidel
JACOBI GAUSS – SEIDEL
1) Escribimos el sistema de ecuaciones de manera matricial
𝐴 ∗ 𝑋 = 𝐵
2) Reemplazamos la matriz A
𝐴 = 𝐷 − (𝐿 + 𝑈) 𝐴 = ( 𝐷 − 𝐿) − 𝑈
[ 𝐷 − ( 𝐿 + 𝑈)] ∗ 𝑋 = 𝐵 [( 𝐷 − 𝐿) − 𝑈] ∗ 𝑋 = 𝐵
3) Distribuimos el producto
𝐷𝑋 − ( 𝐿 + 𝑈) 𝑋 = 𝐵 ( 𝐷 − 𝐿) 𝑋 − 𝑈𝑋 = 𝐵
4) Pasamos el término restando al otro miembro
𝐷𝑋 = 𝐵 + ( 𝐿 + 𝑈) 𝑋 ( 𝐷 − 𝐿) 𝑋 = 𝐵 + 𝑈𝑋
5) Multiplicamos por la inversa de la matriz que queda multiplicando (a izquierda)
𝐷−1
𝐷𝑋 = 𝐷−1
𝐵 + 𝐷−1( 𝐿 + 𝑈) 𝑋 ( 𝐷 − 𝐿)−1( 𝐷 − 𝐿) 𝑋 = ( 𝐷 − 𝐿)−1
𝐵 + ( 𝐷 − 𝐿)−1
𝑈𝑋
𝑋 = 𝐷−1
𝐵 + [ 𝐷−1( 𝐿 + 𝑈)] 𝑋 𝑋 = ( 𝐷 − 𝐿)−1
𝐵 + [( 𝐷 − 𝐿)−1
𝑈] 𝑋
𝑋 = 𝐶𝑗 + 𝑇𝑗 𝑋 𝑋 = 𝐶 𝐺−𝑆 + 𝑇𝐺−𝑆 𝑋
Observemos que los términos son:
𝐶𝑗 = 𝐷−1
𝐵
𝑇𝑗 = 𝐷−1( 𝐿 + 𝑈)
𝐶 𝐺−𝑆 = ( 𝐷 − 𝐿)−1
𝐵
𝑇𝐺−𝑆 = ( 𝐷 − 𝐿)−1
𝑈
Las iteraciones convergen sí y sólo sí 𝜌( 𝑇) < 1 de donde 𝜌( 𝑇) es el radio espectral
de la matriz T.
𝜌( 𝑇) = 𝑚á𝑥𝑖𝑚𝑜 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟
Cálculo de autovalores
Para calcular los autovalores de una matriz hay que realizar los siguientes pasos:
1. A la matriz T del método restarle un λI de donde I es la matriz identidad y tiene las
mismas dimensiones que T.
𝑇 − 𝜆𝐼
2. A esta nueva matriz le aplicamos el determinante y la igualamos a cero
| 𝑇 − 𝜆𝐼| = 0
3. Resolvemos la ecuación en función de λ. Una vez obtenidos los autovalores vemos
cual es el máximo en módulo.
Corolario:
Si ‖ 𝑇‖ < 1 para cualquier norma matricial natural, entonces la sucesión {𝑥(𝑘)
}
𝑘=0
∞
en la ecuación 𝑥(𝑘)
= 𝑇 ∗ 𝑥( 𝑘−1)
+ 𝐶 converge para cualquier vector inicial X0 a un vector
X y se satisface las siguientes cotas de error:
1) ‖𝑥 − 𝑥(𝑘)
‖ ≤ ‖ 𝑇‖ 𝑘
∗ ‖𝑥(0)
− 𝑥‖
2) ‖𝑥 − 𝑥(𝑘)
‖ ≤
‖ 𝑇‖ 𝑘
1 − ‖ 𝑇‖
∗ ‖𝑥(1)
− 𝑥(0)
‖
SOR (Successive Over Relaxation) - Sobrerelajación
Cuando se utilizan métodos iterativos puede suceder que la sucesión no sea
convergente o ésta es muy lenta. Hay métodos para superar estas fallas, aquí estudiaremos
el método de Sobre-relajación, lo que se busca es acelerar la convergencia, sobre todo en
aquellos casos en que la matriz de los coeficientes del sistema No es estrictamente
diagonal dominante.
La fórmula para aplicar la sobre-relajación a un sistema, surge del método de Gauss
- Seidel con una ligera perturbación o modificación en las componentes recién calculadas a
través de un promedio ponderado delas dos últimas iteraciones:
𝑥 𝑖
(𝑘+1)
= (1 − 𝑤) 𝑥 𝑖
(𝑘)
+
𝑤
𝑎𝑖𝑖
(𝑏𝑖 − ∑ 𝑎𝑖𝑗 𝑥𝑗
𝑖−1
𝑗=1
− ∑ 𝑎𝑖𝑗 𝑥𝑗
𝑛
𝑗=𝑖+1
)
El valor de w adopta valores de 0 a 2
 Si w = 1, la modificación representa la forma iterativa de Gauss-Seidel
 Si 0 < w < 1, la modificación se denomina sub-relajación y se emplea para
que un sistema no convergente sea convergente o apresure su convergencia.
 Si 1 < w < 2, la modificación se denomina SOBRE-RELAJACIÓN, la cual
está designada para acelerar la convergencia. También se le llama sobre-
relajación simultánea o sucesiva: SOR. Es aplicable a sistemas muy grandes.
Generalmente, el valor de w se determina empíricamente, para nuestros cálculos se
da de dato.
Refinamiento iterativo
Si las cuentas se realizaran con una aritmética infinita, es decir, teniendo en cuenta
todos los decimales, se encontraría la solución exacta luego de una cantidad finita de
operaciones. Para como en los hechos se utilizan computadoras para resolver grandes
sistemas de ecuaciones lineales, la solución exacta no se alcanza. Se tiene entonces una
aproximación de 𝑥0 a la solución de x del sistema de ecuaciones lineales.
Podemos definir de esta manera, un vector residuo que es la diferencia entre el
punto solución y el obtenido por la iteración:
𝑟𝑖 = 𝐵 − 𝐴𝑥 𝑖
Partiendo del sistema matricial:
𝐴𝑋 = 𝐵
La diferencia entre el punto de la iteración y el anterior es: 𝑥0 + ∆𝑥1
𝐴( 𝑥0 + ∆𝑥1) = 𝐵
𝐴𝑥0 + 𝐴∆𝑥1 = 𝐵
𝐴∆𝑥1 = 𝐵 − 𝐴𝑥0
𝐴∆𝑥1 = 𝑟0
Como: 𝐴 = 𝐿𝑈
𝐿𝑈∆𝑥1 = 𝑟0
Realizando el cambio de variables: 𝑈∆𝑥1 = ∆𝑦1
𝐿∆𝑦1 = 𝑟0
Se resuelve y se obtiene: ∆𝑦1
Con ese valor se obtiene el valor: ∆𝑥1 sabiendo que: 𝑈∆𝑥1 = ∆𝑦1
Luego: 𝑥1 = 𝑥0 + ∆𝑥1
Este procedimiento se repite hasta alcanzar la precisión satisfactoria.
Integraciónnumérica
Definición
La integración numérica es una herramienta esencial que se usa en la ciencia
e ingeniería para obtener valores aproximados de integrales definidas que no pueden
calcularse analíticamente. Por ejemplo, en el campo de la estadística, el modelo de
Distribución Normal (campana de Gauss), para calcular la función de distribución
deberíamos integrar la función de densidad:
∫
1
𝜎√2𝜋
𝑒
−
1
2
(
𝑡−𝜇
𝜎
)
2
𝑑𝑡
𝑥
−∞
Puesto que no hay una expresión analítica para esta función, debemos usar algún
método de integración numérica para calcular sus valores.
Tenemos como objetivo aproximar la integral definida de una función f(x) en un
intervalo [a; b] evaluando f(x) en un número finito de puntos. Supongamos que:
𝑎 = 𝑥0 < 𝑥1 < ⋯ < 𝑥 𝑚 = 𝑏
Una función del tipo:
𝑄[ 𝑓] = ∑ 𝑤 𝑘 𝑓( 𝑥 𝑘)
𝑀
𝑘=0
= 𝑤0 𝑓( 𝑥0) + 𝑤1 𝑓( 𝑥1)+ ⋯+ 𝑤 𝑀 𝑓( 𝑥 𝑀)
De manera tal que:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
= 𝑄[ 𝑓] + 𝐸[ 𝑓]
Se llama fórmula de integración numérica o cuadratura; el termino E[f] se llama
error de truncamiento de la fórmula; los valores {xk} se llaman nodos de integración o
nodos de cuadratura y los valores {wk} se llaman pesos de la fórmula.
Los nodos se eligen de diferentes maneras, dependiendo de la situación concreta en
la que queremos aplicar una fórmula.
Grados de precisión
EL grado de precisión de una fórmula de cuadratura es el primer natural “n” que
verifica E[Pi] = 0 para todos los polinomios Pi(x) de grado i ≤ n, y existe un polinomio Pn+1
tal que E[Pn+1(x)] ≠ 0.
Analizando un polinomio cualquiera arbitrario de grado i
𝑃𝑖( 𝑥) = 𝑎0 + 𝑎1 𝑥1
+ 𝑎2 𝑥2
+ ⋯+ 𝑎𝑖 𝑥 𝑖
Notemos que:
Si 𝑖 ≤ 𝑛 entonces la derivada 𝑃𝑖
𝑛+1( 𝑥) = 0 para todo x.
Si 𝑖 = 𝑛 + 1 entonces 𝑃 𝑛+1
𝑛+1( 𝑥) = ( 𝑛 + 1)! 𝑎 𝑛+1 para todo x
Con lo expuesto podemos decir que la forma general del error de truncamiento es:
𝐸[ 𝑓] = 𝐾 ∗ 𝑓 𝑛+1 ( 𝑐)
Siendo K una constante y n el grado del polinomio. La deducción de las fórmulas de
cuadratura puede hacerse a partir de la interpolación polinomial. Recordemos que existe un
único polinomio PM(x) de grado menor o igual que M que pasa por M+1 puntos dados
{( 𝑥 𝑘, 𝑦 𝑘)} 𝑘=0
𝑀
cuyas abscisas están equiespaciadas.
Fórmula de cuadratura cerrada de Newton - Cotes
Cuando usamos un polinomio para aproximar la función f(x) en [a; b], de manera
que 𝑦 𝑘 = 𝑓( 𝑥 𝑘) y luego aproximamos la integral de f(x) por la integral de PM (x). si el
primer nodo es 𝑥0 = 𝑎 y el último es 𝑥 𝑀 = 𝑏 , entonces decimos que la fórmula de Newton
– Cotes es cerrada.
Precisión de las fórmulas de Newton - Cotes
Supongamos que f(x) es suficientemente derivable, entonces el término del error de
truncamiento E[f] de las fórmulas de Newton – Cotes contienen una derivada de orden
superior adecuada evaluada en un cierto punto c perteneciente al intervalo (a; b). En pocas
palabras, derivamos hasta un grado más del orden del polinomio y lo evaluamos en un
punto c intermedio entre a y b.
Nuestro objetivo es, en primera instancia, encontrar un polinomio que se aproxima a
nuestra función a integrar. Partimos del polinomio interpolador de Lagrange PM(x) para los
nodos 𝑥0, 𝑥1,… , 𝑥 𝑀que se usa para aproximar a f(x).
Recordemos el polinomio interpolador de Lagrange:
Para calcular un polinomio de grado N usamos:
𝑃1( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿 𝑁,𝑘( 𝑥)
𝑛
𝑘=0
De donde:
𝐿 𝑁,𝑘( 𝑥) =
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)… ( 𝑥 − 𝑥 𝑘−1)( 𝑥 − 𝑥 𝑘+1) …( 𝑥 − 𝑥 𝑁)
( 𝑥 𝑘 − 𝑥0)( 𝑥 𝑘 − 𝑥1)( 𝑥 𝑘 − 𝑥2)… ( 𝑥 𝑘 − 𝑥 𝑘−1)( 𝑥 𝑘 − 𝑥 𝑘+1)… ( 𝑥 𝑘 − 𝑥 𝑁)
Notemos que:
En el numerador no aparece el término ( 𝑥 − 𝑥 𝑘)
En el denominador no aparece el término ( 𝑥 𝑘 − 𝑥 𝑘), es decir, que no se
anule.
En pocas palabras, sacamos los términos que anulan el denominador tanto en el
numerador como en el denominador.
Con lo recordado anteriormente, podemos decir que:
𝑓( 𝑥) ≈ 𝑃 𝑀( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿 𝑁,𝑘( 𝑥)
𝑛
𝑘=0
Una vez obtenido el polinomio, lo reemplazamos por f(x) y calculamos la integral
de la función.
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ ∫ 𝑃 𝑀( 𝑥) 𝑑𝑥
𝑏
𝑎
= ∫ (∑ 𝑦 𝑘 ∗ 𝐿 𝑁,𝑘( 𝑥)
𝑛
𝑘=0
) 𝑑𝑥
𝑏
𝑎
= ∑ ∫ 𝑦 𝑘 ∗ 𝐿 𝑁,𝑘( 𝑥)
𝑏
𝑎
𝑛
𝑘=0
𝑑𝑥
Como 𝑦 𝑘 es constante, sale fuera de la integral:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ ∑ 𝑦 𝑘 ∫ 𝐿 𝑁,𝑘( 𝑥)
𝑏
𝑎
𝑛
𝑘=0
= ∑ 𝑤 𝑘 𝑓( 𝑥 𝑘)
𝑀
𝑘=0
Fórmulas de cuadratura cerrada de Newton- Cotes
Reglas de Trapecios y Simpson con sus respectivos errores
Supongamos que f(x) es suficientemente derivable; entonces el término del
error de truncamiento E(f) de las fórmulas de Newton – Cotes contienen una derivada de
orden superior adecuada evaluada en un cierto punto c perteneciente a (a, b). Dependiendo
del grado de precisión del polinomio obtendremos las siguientes reglas:
N = 1  Regla de Trapecios
N = 2  Regla de Simpson
N = 3  Regla 3/8 de Simpson
N = 4  Regla de Boole.
Realizaremos la demostración. Recordemos que aproximamos la función f con el
polinomio de Lagrange
𝑓( 𝑥) ≈ 𝑃 𝑀( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿 𝑁,𝑘( 𝑥)
𝑛
𝑘=0
Entonces:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ ∑ 𝑦 𝑘 ∫ 𝐿 𝑁,𝑘( 𝑥)
𝑏
𝑎
𝑛
𝑘=0
= ∑ 𝑤 𝑘 𝑓( 𝑥 𝑘)
𝑀
𝑘=0
A partir de esta expresión, dependiendo del grado del polinomio de Lagrange
obtendremos las respectivas expresiones:
Regla de Trapecios
Para la la regla de Trapecios, necesitamos dos puntos y obtenemos un polinomio de
grado 1. Su precisión es de grado 1 ya que es el máximo polinomio que podemos aproximar
perfectamente en un intervalo determinado.
𝑓( 𝑥) ≈ 𝑃1( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿1,𝑘( 𝑥)
1
𝑘=0
𝑓( 𝑥) ≈ 𝑃1( 𝑥) = 𝑦0 ∗ 𝐿1,0( 𝑥) + 𝑦1 ∗ 𝐿1,1( 𝑥)
𝑓( 𝑥) ≈ 𝑦0 ∗
𝑥 − 𝑥1
𝑥0 − 𝑥1
+ 𝑦1 ∗
𝑥 − 𝑥0
𝑥1 − 𝑥0
Entonces:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ ∫ 𝑦0 ∗
𝑥 − 𝑥1
𝑥0 − 𝑥1
+ 𝑦1 ∗
𝑥 − 𝑥0
𝑥1 − 𝑥0
𝑏
𝑎
Como 𝑦 𝑘 es constante, sale fuera de la integral:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0 ∫
𝑥 − 𝑥1
𝑥0 − 𝑥1
𝑏
𝑎
𝑑𝑥 + 𝑦1 ∫
𝑥 − 𝑥0
𝑥1 − 𝑥0
𝑏
𝑎
𝑑𝑥
Realizando un cambio de variable para facilitar el cálculo de la integral:
𝑋 = 𝑥0 + ℎ𝑡
𝑑𝑒𝑟𝑖𝑣𝑎𝑛𝑑𝑜
⇒ 𝑑𝑋 = ℎ𝑑𝑡
El término 𝑥0 se lo conoce como valor inicial mientras que el término “h” se lo
conoce como paso.
Además, la variable ahora es “t”, de esta manera, para calcular un valor de 𝑥 𝑘 lo que
hacemos es reemplazar a “t” por “k”:
𝑋 𝑘 = 𝑥0 + ℎ𝑘
Si definimos que están equiespaciados podemos afirmar que:
𝑋 𝑘 − 𝑋𝑗 = ( 𝑥0 + ℎ𝑘) − ( 𝑥0 + ℎ𝑗 ) = ℎ( 𝑘 − 𝑗)
𝑋 − 𝑋𝑗 = ( 𝑥0 + ℎ𝑡) − ( 𝑥0 + ℎ𝑗 ) = ℎ( 𝑡 − 𝑗)
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0 ∫
𝑥 − 𝑥1
𝑥0 − 𝑥1
𝑏
𝑎
𝑑𝑥 + 𝑦1 ∫
𝑥 − 𝑥0
𝑥1 − 𝑥0
𝑏
𝑎
𝑑𝑥
Reemplazando en las integrales obtenemos:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0 ∫
ℎ( 𝑡 − 1)
ℎ(0 − 1)
1
0
ℎ 𝑑𝑡 + 𝑦1 ∫
ℎ( 𝑡 − 0)
ℎ(1 − 0)
1
0
ℎ 𝑑𝑡
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0 ∫ℎ (1 − 𝑡)
1
0
𝑑𝑡 + 𝑦1 ∫ ℎ𝑡
1
0
𝑑𝑡
El valor de h es constante, sale de la integral:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0ℎ ∫ (1 − 𝑡)
1
0
𝑑𝑡 + 𝑦1ℎ ∫ 𝑡
1
0
𝑑𝑡
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0 ℎ ∗ (𝑡 −
1
2
𝑡2
|
0
1
) + 𝑦1ℎ ∗ (
1
2
𝑡2
|
0
1
)
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0ℎ ∗
1
2
+ 𝑦1ℎ ∗
1
2
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈
ℎ
2
( 𝑦0 + 𝑦1 )
Regla de Simpson
Para la regla de Simpson, necesitamos tres puntos y obtenemos un polinomio de
grado 2. Los polinomios de grado 2 tienen una precisión de orden 3.
𝑓( 𝑥) ≈ 𝑃2( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿2,𝑘( 𝑥)
2
𝑘=0
𝑓( 𝑥) ≈ 𝑃2( 𝑥) = 𝑦0 ∗ 𝐿2,0( 𝑥) + 𝑦1 ∗ 𝐿2,1( 𝑥) + 𝑦2 ∗ 𝐿2,2( 𝑥)
𝑓( 𝑥) ≈ 𝑦0 ∗
( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)
( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2)
+ 𝑦1 ∗
( 𝑥 − 𝑥0)( 𝑥 − 𝑥2)
( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2)
+ 𝑦2 ∗
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)
( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1)
Entonces:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ ∫ (𝑦0 ∗
( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)
( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2)
+ 𝑦1 ∗
( 𝑥 − 𝑥0)( 𝑥 − 𝑥2)
( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2)
+ 𝑦2 ∗
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)
( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1)
) 𝑑𝑥
𝑏
𝑎
Como 𝑦 𝑘 es constante, sale fuera de la integral:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0 ∫
( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)
( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2)
𝑏
𝑎
𝑑𝑥 + 𝑦1 ∫
( 𝑥 − 𝑥0)( 𝑥 − 𝑥2)
( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2)
𝑏
𝑎
𝑑𝑥 + 𝑦2 ∫
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)
( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1)
𝑏
𝑎
𝑑𝑥
Realizando un cambio de variable para facilitar el cálculo de la integral:
𝑋 = 𝑥0 + ℎ𝑡
𝑑𝑒𝑟𝑖𝑣𝑎𝑛𝑑𝑜
⇒ 𝑑𝑋 = ℎ𝑑𝑡
El término 𝑥0 se lo conoce como valor inicial mientras que el término “h” se lo
conoce como paso.
Además, la variable ahora es “t”, de esta manera, para calcular un valor de 𝑥 𝑘 lo que
hacemos es reemplazar a “t” por “k”:
𝑋 𝑘 = 𝑥0 + ℎ𝑘
Si definimos que están equiespaciados podemos afirmar que:
𝑋 𝑘 − 𝑋𝑗 = ( 𝑥0 + ℎ𝑘) − ( 𝑥0 + ℎ𝑗 ) = ℎ( 𝑘 − 𝑗)
𝑋 − 𝑋𝑗 = ( 𝑥0 + ℎ𝑡) − ( 𝑥0 + ℎ𝑗 ) = ℎ( 𝑡 − 𝑗)
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0 ∫
( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)
( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2)
𝑏
𝑎
𝑑𝑥 + 𝑦1 ∫
( 𝑥 − 𝑥0)( 𝑥 − 𝑥2)
( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2)
𝑏
𝑎
𝑑𝑥 + 𝑦2 ∫
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)
( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1)
𝑏
𝑎
𝑑𝑥
Reemplazando en las integrales obtenemos:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0 ∫
ℎ2( 𝑡 − 1)( 𝑡 − 2)
ℎ2(0 − 1)(0 − 2)
2
0
ℎ 𝑑𝑡 + 𝑦1 ∫
ℎ2( 𝑡 − 0)( 𝑡 − 2)
ℎ2(1 − 0)(1− 2)
2
0
ℎ 𝑑𝑡 + 𝑦2 ∫
ℎ2( 𝑡 − 0)( 𝑡 − 1)
ℎ2(2 − 0)(2 − 1)
2
0
ℎ 𝑑𝑡
El valor de h es constante, sale de la integral:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0ℎ ∫
( 𝑡 − 1)( 𝑡 − 2)
2
2
0
𝑑𝑡 + 𝑦1ℎ ∫
( 𝑡 − 0)( 𝑡 − 2)
−1
2
0
𝑑𝑡 + 𝑦2ℎ ∫
( 𝑡 − 0)( 𝑡 − 1)
2
2
0
𝑑𝑡
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0
ℎ
2
∫( 𝑡2
− 3𝑡 + 2)
2
0
𝑑𝑡 + 𝑦1
ℎ
−1
∫( 𝑡2
− 2𝑡)
2
0
𝑑𝑡 + 𝑦2
ℎ
2
∫( 𝑡2
− 𝑡)
2
0
𝑑𝑡
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0
ℎ
2
∗ (
1
3
𝑡3
−
3
2
𝑡2
+ 2𝑡|
0
2
) + 𝑦1
ℎ
−1
∗ (
1
3
𝑡3
− 𝑡2
|
0
2
) + 𝑦2
ℎ
2
∗ (
1
3
𝑡3
−
1
2
𝑡2
|
0
2
)
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0
ℎ
2
∗
2
3
+ 𝑦1
ℎ
−1
∗
−4
3
+ 𝑦2
ℎ
2
∗
2
3
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0
ℎ
3
∗ +𝑦1
4
3
ℎ + 𝑦2
ℎ
3
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈
ℎ
3
( 𝑦0 + 4𝑦1 + 𝑦2)
Regla de
3
8
de Simpson y Boole
Para la regla de
3
8
de Simpson, necesitamos cuatro puntos y obtenemos un polinomio
de grado 3. Esta aproximación es de orden 3.
𝑓( 𝑥) ≈ 𝑃3( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿3,𝑘( 𝑥)
3
𝑘=0
𝑓( 𝑥) ≈ 𝑃3( 𝑥) = 𝑦0 ∗ 𝐿3,0( 𝑥)+ 𝑦1 ∗ 𝐿3,1( 𝑥) + 𝑦2 ∗ 𝐿3,2( 𝑥) + 𝑦3 ∗ 𝐿3,3( 𝑥)
𝑓( 𝑥) ≈ 𝑦0
( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3)
( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2)( 𝑥0 − 𝑥3)
+ 𝑦1
( 𝑥 − 𝑥0)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3)
( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2)( 𝑥1 − 𝑥3)
+ 𝑦2
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥
( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1)(
+ 𝑦3
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)
( 𝑥3 − 𝑥0)( 𝑥3 − 𝑥1)( 𝑥3 − 𝑥2)
Entonces:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ ∫ (𝑦0
( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3)
( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2)( 𝑥0 − 𝑥3)
+ 𝑦1
( 𝑥 − 𝑥0)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3)
( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2)( 𝑥1 − 𝑥3)
+ 𝑦2
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)
( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1
𝑏
𝑎
+ 𝑦3
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)
( 𝑥3 − 𝑥0)( 𝑥3 − 𝑥1)( 𝑥3 − 𝑥2)
) 𝑑𝑥
Como 𝑦 𝑘 es constante, sale fuera de la integral:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0 ∫
( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3)
( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2)( 𝑥0 − 𝑥3)
𝑏
𝑎
𝑑𝑥 + 𝑦1 ∫
( 𝑥 − 𝑥0)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3)
( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2)( 𝑥1 − 𝑥3)
𝑏
𝑎
𝑑𝑥
+ 𝑦2 ∫
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥3)
( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1)( 𝑥2 − 𝑥3)
𝑏
𝑎
𝑑𝑥 + 𝑦3 ∫
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)
( 𝑥3 − 𝑥0)( 𝑥3 − 𝑥1)( 𝑥3 − 𝑥2)
𝑏
𝑎
𝑑𝑥
Realizando un cambio de variable para facilitar el cálculo de la integral:
𝑋 = 𝑥0 + ℎ𝑡
𝑑𝑒𝑟𝑖𝑣𝑎𝑛𝑑𝑜
⇒ 𝑑𝑋 = ℎ𝑑𝑡
El término 𝑥0 se lo conoce como valor inicial mientras que el término “h” se lo
conoce como paso.
Además, la variable ahora es “t”, de esta manera, para calcular un valor de 𝑥 𝑘 lo que
hacemos es reemplazar a “t” por “k”:
𝑋 𝑘 = 𝑥0 + ℎ𝑘
Si definimos que están equiespaciados podemos afirmar que:
𝑋 𝑘 − 𝑋𝑗 = ( 𝑥0 + ℎ𝑘) − ( 𝑥0 + ℎ𝑗 ) = ℎ( 𝑘 − 𝑗)
𝑋 − 𝑋𝑗 = ( 𝑥0 + ℎ𝑡) − ( 𝑥0 + ℎ𝑗 ) = ℎ( 𝑡 − 𝑗)
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0 ∫
( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3)
( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2)( 𝑥0 − 𝑥3)
𝑏
𝑎
𝑑𝑥 + 𝑦1 ∫
( 𝑥 − 𝑥0)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3)
( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2)( 𝑥1 − 𝑥3)
𝑏
𝑎
𝑑𝑥
+ 𝑦2 ∫
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥3)
( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1)( 𝑥2 − 𝑥3)
𝑏
𝑎
𝑑𝑥 + 𝑦3 ∫
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)
( 𝑥3 − 𝑥0)( 𝑥3 − 𝑥1)( 𝑥3 − 𝑥2)
𝑏
𝑎
𝑑𝑥
Reemplazando en las integrales obtenemos:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0 ∫
ℎ3( 𝑡 − 1)( 𝑡 − 2)( 𝑡 − 3)
ℎ3(0 − 1)(0− 2)(0− 3)
3
0
ℎ 𝑑𝑡 + 𝑦1 ∫
ℎ3( 𝑡 − 0)( 𝑡 − 2)( 𝑡 − 3)
ℎ3(1 − 0)(1 − 2)(1 − 3)
3
0
ℎ 𝑑𝑡
+ 𝑦2 ∫
ℎ3( 𝑡 − 0)( 𝑡 − 1)( 𝑡 − 3)
ℎ3(2 − 0)(2 − 1)(2 − 3)
3
0
ℎ 𝑑𝑡 + 𝑦3 ∫
ℎ3( 𝑡 − 0)( 𝑡 − 1)( 𝑡 − 2)
ℎ3(3 − 0)(3− 1)(3− 2)
3
0
ℎ 𝑑𝑡
El valor de h es constante, sale de la integral:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0 ∫
( 𝑡 − 1)( 𝑡 − 2)( 𝑡 − 3)
−6
3
0
ℎ 𝑑𝑡 + 𝑦1 ∫
( 𝑡 − 0)( 𝑡 − 2)( 𝑡 − 3)
2
3
0
ℎ 𝑑𝑡
+ 𝑦2 ∫
( 𝑡 − 0)( 𝑡 − 1)( 𝑡 − 3)
−2
3
0
ℎ 𝑑𝑡 + 𝑦3 ∫
( 𝑡 − 0)( 𝑡 − 1)( 𝑡 − 2)
6
3
0
ℎ 𝑑𝑡
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0ℎ ∫
𝑡3
− 6𝑡2
+ 11𝑡 − 6
−6
3
0
𝑑𝑡 + 𝑦1ℎ ∫
𝑡3
− 5𝑡2
+ 6𝑡
2
3
0
𝑑𝑡 + 𝑦2ℎ ∫
𝑡3
− 4𝑡2
+ 3𝑡
−2
3
0
𝑑𝑡
+ 𝑦3ℎ ∫
𝑡3
− 3𝑡2
+ 2𝑡
6
3
0
𝑑𝑡
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0
ℎ
−6
∗ (
1
4
𝑡4
− 2𝑡3
+
11
2
𝑡2
− 6𝑡|
0
3
) + 𝑦1
ℎ
2
∗ (
1
4
𝑡4
−
5
3
𝑡3
+ 3𝑡2
|
0
3
) + 𝑦2
ℎ
−2
∗ (
1
4
𝑡4
−
4
3
𝑡3
+
3
2
𝑡2
|
0
3
) + 𝑦3
ℎ
6
∗ (
1
4
𝑡4
− 𝑡3
+ 𝑡2
|
0
3
)
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0
ℎ
−6
∗ (
−9
4
) + 𝑦1
ℎ
2
∗
9
4
+ 𝑦2
ℎ
−2
∗ (
−9
4
) + 𝑦3
ℎ
6
∗ (
9
4
)
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈ 𝑦0
3
8
ℎ + 𝑦1
9
8
ℎ + 𝑦2
9
8
ℎ + 𝑦3
3
8
ℎ
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈
3
8
ℎ( 𝑦0 + 3𝑦1 + 3𝑦2 + 𝑦3)
Para la Regla de Boole es el mismo mecanismo, quedando como expresión final.
∫ 𝑓( 𝑥) 𝑑𝑥
𝑏
𝑎
≈
2
45
ℎ(7𝑦0 + 32𝑦1 + 12𝑦2 + 32𝑦3 + 7𝑦4)
Notemos que para las reglas necesitamos n+1 puntos o nodos para resolver. Y que
los nodos los tenemos que tener equidistantes
Reglas compuestas
En caso de querer usar estas reglas con más nodos nos apoyamos en que podemos
partir la integral con sumas de subintervalos y aplicar una suma de reglas. Por ejemplo:
para calcular la integral de f(x) con los límites de integración que son de x0 a x4 podemos
partir la integral y sumar las integrales partidas con los límites x0 a x1, de x1 a x2, de x2 a x3
y de x3 a x4. Cada subintegral queda definida por dos nodos por lo que cada una de ellas es
una aplicación de la regla de trapecios; y la suma de ellas se denomina Regla compuesta de
trapecios.
∫ 𝑓( 𝑥) 𝑑𝑥
𝑥4
𝑥0
= ∫ 𝑓( 𝑥) 𝑑𝑥
𝑥1
𝑥0
+ ∫ 𝑓( 𝑥) 𝑑𝑥
𝑥2
𝑥1
+ ∫ 𝑓( 𝑥) 𝑑𝑥
𝑥3
𝑥2
+ ∫ 𝑓( 𝑥) 𝑑𝑥
𝑥4
𝑥3
∫ 𝑓( 𝑥) 𝑑𝑥
𝑥4
𝑥0
=
ℎ
2
( 𝑓0 + 𝑓1) +
ℎ
2
( 𝑓1 + 𝑓2) +
ℎ
2
( 𝑓2 + 𝑓3) +
ℎ
2
( 𝑓3 + 𝑓4)
∫ 𝑓( 𝑥) 𝑑𝑥
𝑥4
𝑥0
=
ℎ
2
( 𝑓0 + 2𝑓1 + 2𝑓2 + 2𝑓3 + 𝑓4)
De la misma manera, podemos usar una regla compuesta para la regla de Simpson
denominándola Regla compuesta de Simpson:
∫ 𝑓( 𝑥) 𝑑𝑥
𝑥4
𝑥0
= ∫ 𝑓( 𝑥) 𝑑𝑥
𝑥2
𝑥0
+ ∫ 𝑓( 𝑥) 𝑑𝑥
𝑥4
𝑥2
∫ 𝑓( 𝑥) 𝑑𝑥
𝑥4
𝑥0
=
ℎ
3
( 𝑓0 + 4𝑓1 + 𝑓2) +
ℎ
3
( 𝑓2 + 4𝑓3 + 𝑓4)
∫ 𝑓( 𝑥) 𝑑𝑥
𝑥4
𝑥0
=
ℎ
3
( 𝑓0 + 4𝑓1 + 2𝑓2 + 4𝑓3 + 𝑓4)
Análisis de error para la regla compuesta de trapecios y Simpson
Como se mencionó anteriormente, sabemos que la aproximación de la integral
posee un término de error el cual intentaremos calcular a continuación. Para el polinomio,
su término de error será:
𝐸 𝑛( 𝑥) =
∏ ( 𝑥 − 𝑥 𝑘)∗ 𝑓 𝑛+1( 𝑐)𝑛
𝑘=0
( 𝑛 + 1)!
Si analizamos el polinomio de tiene una precisión de grado 1 (regla de trapecios),
esta productoria va de 0 a 1.
𝐸1( 𝑥) =
∏ ( 𝑥 − 𝑥 𝑘)∗ 𝑓2( 𝑐)1
𝑘=0
2!
Por lo tanto:
∫ 𝐸1( 𝑥)
𝑥1
𝑥0
= ∫
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)∗ 𝑓2( 𝑐)
2!
𝑥1
𝑥0
Como el término (x – x0) (x – x1) no cambia de signo en el intervalo [x0, x1] y f2(x)
es continua, el segundo teorema del valor medio para integrales nos dice que existe un valor
c1 tal que:
∫ 𝐸1( 𝑥)
𝑥1
𝑥0
=
𝑓2( 𝑐1)
2!
∫( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)
𝑥1
𝑥0
𝑑𝑥
Realizando el cambio de variables:
∫ 𝐸1( 𝑥)
𝑥1
𝑥0
=
𝑓2( 𝑐1)
2!
∫ℎ2( 𝑡 − 0)( 𝑡 − 1)
1
0
ℎ𝑑𝑡
∫ 𝐸1( 𝑥)
𝑥1
𝑥0
=
𝑓2( 𝑐1)
2!
∫ ℎ3( 𝑡2
− 𝑡)
1
0
𝑑𝑡
∫ 𝐸1( 𝑥)
𝑥1
𝑥0
=
𝑓2( 𝑐1)
2!
ℎ3
∫( 𝑡2
− 𝑡)
1
0
𝑑𝑡
∫ 𝐸1( 𝑥)
𝑥1
𝑥0
=
𝑓2( 𝑐1)
2!
ℎ3
(
1
3
𝑡3
−
1
2
𝑡2
|
0
1
)
∫ 𝐸1( 𝑥)
𝑥1
𝑥0
=
𝑓2( 𝑐1)
2!
ℎ3
(
−1
6
)
El valor de h se obtiene, en un intervalo [ 𝑎, 𝑏]
ℎ =
𝑏 − 𝑎
𝑀
Entonces:
∫ 𝐸1( 𝑥)
𝑥1
𝑥0
= −
𝑓2( 𝑐1)
12
ℎ3
= −
ℎ 𝑓2( 𝑐1)
12
ℎ2
= −
( 𝑏 − 𝑎) ∗ 𝑓2( 𝑐)
𝑀 ∗ 12
ℎ2
Para la regla compuesta, tenemos varios valores de c:
∫ 𝐸1( 𝑥)
𝑥1
𝑥0
= −
( 𝑏 − 𝑎) ∗ ℎ2
12
(
1
𝑀
∑ 𝑓2( 𝑐 𝑘)
𝑀
𝑘=1
)
∫ 𝐸1( 𝑥)
𝑥1
𝑥0
= −
( 𝑏 − 𝑎) ∗ ℎ2
12
(
1
𝑀
∑ 𝑓2( 𝑐 𝑘)
𝑀
𝑘=1
)
El término entre paréntesis es una media aritmética de valores de la derivada
segunda y esta función es continua, entonces podemos reemplazarlo por algún punto c
perteneciente al intervalo (a, b) quedando:
∫ 𝐸1( 𝑥)
𝑥1
𝑥0
= −
( 𝑏 − 𝑎) ∗ 𝑓2( 𝐶)∗ ℎ2
12
Para la regla de Simpson se realizan los mismos pasos:
Para el polinomio, su término de error será:
𝐸 𝑛( 𝑥) =
∏ ( 𝑥 − 𝑥 𝑘)∗ 𝑓 𝑛+1( 𝑐)𝑛
𝑘=0
( 𝑛 + 1)!
Si analizamos el polinomio de grado de precisión de grado 3 (regla de simpson),
esta productoria va de 0 a 3.
𝐸3( 𝑥) =
∏ ( 𝑥 − 𝑥 𝑘) ∗ 𝑓4( 𝑐)3
𝑘=0
4!
Por lo tanto:
∫ 𝐸3( 𝑥)
𝑥2
𝑥0
= ∫
( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3) ∗ 𝑓4( 𝑥)
4!
𝑥2
𝑥0
Como el término ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2) no cambia de signo en el intervalo [x0,
x2] y f4(x) es continua, el segundo teorema del valor medio para integrales nos dice que
existe un valor c1 tal que:
∫ 𝐸3( 𝑥)
𝑥2
𝑥0
=
𝑓4( 𝑐1)
4!
∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3)
𝑥2
𝑥0
𝑑𝑥
Realizando el cambio de variables:
∫ 𝐸3( 𝑥)
𝑥2
𝑥0
=
𝑓4( 𝑐1)
4!
∫ℎ4( 𝑡 − 0)( 𝑡 − 1)( 𝑡 − 2)( 𝑡 − 3)
2
0
ℎ𝑑𝑡
∫ 𝐸3( 𝑥)
𝑥2
𝑥0
=
𝑓4( 𝑐1)
4!
∫ ℎ5( 𝑡4
− 6𝑡3
+ 11𝑡2
− 6𝑡)
2
0
𝑑𝑡
∫ 𝐸3( 𝑥)
𝑥2
𝑥0
=
𝑓4( 𝑐1)
4!
ℎ5
∫( 𝑡4
− 6𝑡3
+ 11𝑡2
− 6𝑡)
2
0
𝑑𝑡
∫ 𝐸3( 𝑥)
𝑥2
𝑥0
=
𝑓4( 𝑐1)
4!
ℎ5
(
1
5
𝑡5
−
3
2
𝑡4
+
11
3
𝑡3
− 3𝑡2
|
0
2
)
∫ 𝐸2( 𝑥)
𝑥2
𝑥0
=
𝑓2( 𝑐1)
4!
ℎ5
(
−4
15
)
El valor de h se obtiene, en un intervalo [ 𝑎, 𝑏]
ℎ =
𝑏 − 𝑎
2 𝑀
Entonces:
∫ 𝐸2( 𝑥)
𝑥2
𝑥0
= −
𝑓4( 𝑐1)
90
ℎ5
= −
ℎ 𝑓4( 𝑐1)
90
ℎ4
= −
( 𝑏− 𝑎) ∗ 𝑓4( 𝑐)
𝑀 ∗ 180
ℎ4
Para la regla compuesta, tenemos varios valores de c:
∫ 𝐸2( 𝑥)
𝑥2
𝑥0
= −
( 𝑏 − 𝑎) ∗ ℎ4
180
(
1
𝑀
∑ 𝑓4( 𝑐 𝑘)
𝑀
𝑘=1
)
∫ 𝐸2( 𝑥)
𝑥2
𝑥0
= −
( 𝑏 − 𝑎) ∗ ℎ4
180
(
1
𝑀
∑ 𝑓4( 𝑐 𝑘)
𝑀
𝑘=1
)
El término entre paréntesis es una media aritmética de valores de la derivada
segunda y esta función es continua, entonces podemos reemplazarlo por algún punto c
perteneciente al intervalo (a, b) quedando:
∫ 𝐸2( 𝑥)
𝑥2
𝑥0
= −
( 𝑏 − 𝑎) ∗ 𝑓4( 𝐶)∗ ℎ4
180
Cuadratura de Gauss – Legendre. Cuadratura Gaussiana
El método consiste en seleccionar los valores x1, x2, … , xn en el intervalo [a, b] y
los coeficientes c1, c2, … , cn que minimicen el error de aproximación.
Para una función arbitraria f(x) la mejor elección de estos valores será la que
maximice el grado de precisión de la formula.
∫ 𝑓( 𝑥)
𝑏
𝑎
𝑑𝑥 ≈ ∑ 𝑦 𝑘 ∫ 𝐿 𝑁,𝑘( 𝑥)
𝑏
𝑎
𝑛
𝑘=0
𝑑𝑥 = ∑ 𝑦 𝑘 ∗ 𝑤 𝑘
𝑛
𝑘=0
(1)
Si los coeficientes de un polinomio se consideran también como parámetros, la clase
de polinomios de grado a lo sumo 2n-1 contiene 2n parámetros y es la clase más grande de
polinomios para la cual es razonable esperar que la ecuación anterior sea exacta.
Los valores de los xi y los coeficientes ci se calculan por el método de coeficientes
indeterminados. Por ejemplo, para que la integral sea exacta para polinomios cúbicos (n=2
por lo tanto necesito 4 parámetros) para que la función cúbica f(x) = a3x3 + a2x2 + a1x + a0
sea exacta hay que determinar cuatro números (w1, w2, x1 y x2). Para ello necesito 4
condiciones (ecuaciones) para resolver las 4 incógnitas del sistema.
𝐹( 𝑋) = 1 → ∫ 1 𝑑𝑥
1
−1
= 2 = 𝑤1 ∗ 1 + 𝑤2 ∗ 1
𝐹( 𝑋) = 𝑥 → ∫ 𝑥 𝑑𝑥
1
−1
= 0 = 𝑤1 ∗ 𝑥1 + 𝑤2 ∗ 𝑥2
𝐹( 𝑋) = 𝑥2
→ ∫ 𝑥 𝑑𝑥
1
−1
=
2
3
= 𝑤1 ∗ 𝑥1
2
+ 𝑤2 ∗ 𝑥2
2
𝐹( 𝑋) = 𝑥3
→ ∫ 𝑥 𝑑𝑥
1
−1
= 0 = 𝑤1 ∗ 𝑥1
3
+ 𝑤2 ∗ 𝑥2
3
De las 4 ecuaciones anteriores obtenemos un sistema de ecuaciones no lineal que
tenemos que resolver:
{
2 = 𝑤1 ∗ 1 + 𝑤2 ∗ 1
0 = 𝑤1 ∗ 𝑥1 + 𝑤2 ∗ 𝑥2
2
3
= 𝑤1 ∗ 𝑥1
2
+ 𝑤2 ∗ 𝑥2
2
0 = 𝑤1 ∗ 𝑥1
3
+ 𝑤2 ∗ 𝑥2
3
Si resolvemos el sistema obtenemos que
−𝑥1 = 𝑥2 = (
1
3
)
1
2⁄
≈ 0,5773502692
𝑤1 = 𝑤2 = 1
Para no tener que encontrar los nodos y pesos cada vez que aproximemos una
integral se tabularon obteniéndose la siguiente tabla:
Notemos que hacemos cumplir
la ecuación (1) utilizando los
términos que multiplican a los
ai de la ecuación cúbica
N Nodos Coeficiente
2 ±0,5773502692 1,0000000000
3
±0,7745966692
0,0000000000
0,5555555556
0,8888888889
4
±0,8611361159
±0,3399810436
0,3478548451
0,6521451549
La aplicación del método de Gauss – Legendre sirve solo para integrales cuyos
límites de integración sean -1 y 1 respectivamente. Para aplicarlo en cualquier intervalo
[ 𝑎, 𝑏] usamos el siguiente cambio de variable:
𝑡 =
𝑎 + 𝑏
2
+
𝑏 − 𝑎
2
𝑥
De donde:
𝑑𝑡 =
𝑏 − 𝑎
2
𝑑𝑥
Ecuaciones Diferenciales
Las ecuaciones diferenciales se usan habitualmente para construir modelos
matemáticos de problemas de la ciencia y la ingeniería. A menudo se da el caso de que no
hay una solución analítica conocida, por lo que necesitamos aproximaciones numéricas.
Si consideramos la ecuación:
𝑑𝑦
𝑑𝑡
= 1 − 𝑒−𝑡
Esta es una ecuación diferencial porque en ella aparece la derivada dy/dt de la
“función desconocida” y = y(t). En el miembro derecho de la ecuación sólo aparece la
variable independiente t, así que las soluciones son las primitivas de 1 − 𝑒−𝑡
. Resolviendo
la integral hallamos y(t).
𝑦( 𝑡) = 𝑡 + 𝑒 𝑡
+ 𝐶
Donde C es la constante de integración. Notemos que en la solución hallada
tenemos un grado de libertad en la elección de la solución, la constante de integración C.
para encontrar una curva en particular necesitamos un punto de antemano. En un análisis en
general, somos capaces de medir cómo los cambios de una variable afectan a otra. Cuando
traducimos esto en un modelo matemático, el resultado es una ecuación diferencial que
involucra la velocidad de cambio de la función desconocida.
Cada elección de punto nos da una solución distinta por lo que la condición inicial
es como un punto anclaje de la curva correspondiente a la solución.
Condición de Lipschitz
Dado el rectángulo 𝑅 = {( 𝑡, 𝑦): 𝑎 ≤ 𝑡 ≤ 𝑏, 𝑐 ≤ 𝑦 ≤ 𝑑}, supongamos que f (t, y) es
continua en R. se dice que la función f verifica la condición de Lipschitz con respecto a sus
variables en R si exite una constante L > 0 tal que:
| 𝑓 ( 𝑡, 𝑦1) − 𝑓 ( 𝑡, 𝑦2)| ≤ 𝐿| 𝑦1 − 𝑦2|
Para cualquier (t, y1), (t, y2) perteneciente a R. la constante L se llama constante de
Lipschitz.
Un problema de valor inicial tiene solución única si f verifica la condición de
Lipschitz.
Método de Euler
Sea [a, b] el intervalo en el que queremos hallar la solución de un problema inicial
y´= f (t, y) con y(a) = y0 que está bien planteado (cumple con la condición de Lipschitz).
Hay que advertir que, de hecho, no vamos a encontrar una función derivable que sea
solución del problema de valor inicial. Sino que construimos un conjunto finito de puntos
{(tk, yk)} que son aproximaciones de la solución.
Primeramente se parte en intervalo en subintervalos del mismo tamaño.
𝑇𝑘 = 𝑎 + ℎ𝑘
ℎ =
𝑏 − 𝑎
𝑀
Suponemos que y(t), y´(t) e y´´(t) son continuas, por lo que si utilizamos el teorema
de Taylor para desarrollar y(t) alrededor de t = t0, para cada t existe un c1 entre t0 y t tal que:
𝑦( 𝑡) = 𝑦( 𝑡0) + 𝑦´( 𝑡0)( 𝑡 − 𝑡0) +
𝑦´´( 𝑐1)
2!
( 𝑡 − 𝑡0)2
Al sustituir: 𝑦´( 𝑡0) = 𝑓(𝑡0, 𝑦( 𝑡0)) y ℎ = 𝑡 − 𝑡0 el resultado es:
𝑦( 𝑡) = 𝑦( 𝑡0) + 𝑓(𝑡0, 𝑦( 𝑡0))ℎ +
𝑦´´( 𝑐1)
2!
ℎ2
Si el tamaño de paso “h” es muy pequeño lo podemos despreciar por lo que nos
queda:
𝑦( 𝑡) = 𝑦( 𝑡0) + 𝑓(𝑡0, 𝑦( 𝑡0))ℎ
que se llama aproximación de Euler.
Repitiendo el proceso generamos una sucesión de puntos que se aproximan a la
gráfica de la solución y = y(t). el paso general del método de Euler es:
𝑡 𝑘+1 = 𝑡 𝑘 + ℎ
𝑦 𝑘+1 = 𝑦 𝑘 + ℎ𝑓( 𝑡 𝑘, 𝑦 𝑘)
Descripción geométrica
Si partimos del punto (t0, y0), calculamos el valor de la pendiente m0 = f(t0, y0), nos
movemos horizontalmente una distancia h y verticalmente una distancia h f(t0, y0), entonces
lo que hacemos es desplazarnos a lo largo de la recta tangente a la curva y(t) terminando en
el punto (t1, y1). Cabe mencionar que (t1, y1) no es un punto de la curva aunque sea la
aproximación que se genera. Ahora debemos usar (t1, y1), como si fuera un punto correcto
para calcular la pendiente m1 = f(t1, y1) y usar este valor para obtener el siguiente
desplazamiento vertical h f(t1, y1), que nos lleva al punto (t2, y2), y así sucesivamente.
Métodos numéricos para resolver ecuaciones complejas

Más contenido relacionado

La actualidad más candente

Conocimiento cientifico 3
Conocimiento cientifico 3Conocimiento cientifico 3
Conocimiento cientifico 3gilmer poveda
 
Análisis e interpretación de los resultados
Análisis e interpretación de los resultadosAnálisis e interpretación de los resultados
Análisis e interpretación de los resultadosjorge
 
Cálculo del tamaño de la muestra
Cálculo del tamaño de la muestraCálculo del tamaño de la muestra
Cálculo del tamaño de la muestraMiriam Rocio
 
Cuestionario de apoyo unidad 1 fundamentos de investigacion
Cuestionario de apoyo unidad 1 fundamentos de investigacionCuestionario de apoyo unidad 1 fundamentos de investigacion
Cuestionario de apoyo unidad 1 fundamentos de investigacionGenesis Acosta
 
Investigación documental, de campo y experimental
Investigación documental, de campo y experimentalInvestigación documental, de campo y experimental
Investigación documental, de campo y experimentaldaniel rocha ornelas
 
Técnicas de argumentación
Técnicas de argumentaciónTécnicas de argumentación
Técnicas de argumentaciónAlvaro Mejia
 
Mapa mental metodologia
Mapa mental metodologiaMapa mental metodologia
Mapa mental metodologiaDaniel Duque
 
Tipos y características del Conocimiento
 Tipos y características del Conocimiento Tipos y características del Conocimiento
Tipos y características del Conocimientovelez97
 
Método científico mapa conceptual Julien Hardy
Método científico mapa conceptual Julien HardyMétodo científico mapa conceptual Julien Hardy
Método científico mapa conceptual Julien HardyJulien Hardy
 
Tipos de conocimientos
Tipos de conocimientosTipos de conocimientos
Tipos de conocimientos15carito
 
ArgumentacionDante
ArgumentacionDanteArgumentacionDante
ArgumentacionDanteU.N.A.M.
 
Tipos de investigacion y diseño de investigacion
Tipos de investigacion y diseño de investigacionTipos de investigacion y diseño de investigacion
Tipos de investigacion y diseño de investigacionwendyhuamanv
 
Características del conocimiento vulgar
Características del conocimiento vulgarCaracterísticas del conocimiento vulgar
Características del conocimiento vulgarChico Milcien
 
Cómo realizar una presentación de un Proyecto de Investigación
Cómo realizar una presentación de un Proyecto de InvestigaciónCómo realizar una presentación de un Proyecto de Investigación
Cómo realizar una presentación de un Proyecto de InvestigaciónUNELLEZ
 

La actualidad más candente (19)

Conocimiento cientifico 3
Conocimiento cientifico 3Conocimiento cientifico 3
Conocimiento cientifico 3
 
Análisis e interpretación de los resultados
Análisis e interpretación de los resultadosAnálisis e interpretación de los resultados
Análisis e interpretación de los resultados
 
Cálculo del tamaño de la muestra
Cálculo del tamaño de la muestraCálculo del tamaño de la muestra
Cálculo del tamaño de la muestra
 
Cuestionario de apoyo unidad 1 fundamentos de investigacion
Cuestionario de apoyo unidad 1 fundamentos de investigacionCuestionario de apoyo unidad 1 fundamentos de investigacion
Cuestionario de apoyo unidad 1 fundamentos de investigacion
 
Análisis de Regresión Múltiple
Análisis de Regresión MúltipleAnálisis de Regresión Múltiple
Análisis de Regresión Múltiple
 
Investigación documental, de campo y experimental
Investigación documental, de campo y experimentalInvestigación documental, de campo y experimental
Investigación documental, de campo y experimental
 
Técnicas de argumentación
Técnicas de argumentaciónTécnicas de argumentación
Técnicas de argumentación
 
Mapa mental metodologia
Mapa mental metodologiaMapa mental metodologia
Mapa mental metodologia
 
Tipos y características del Conocimiento
 Tipos y características del Conocimiento Tipos y características del Conocimiento
Tipos y características del Conocimiento
 
Instrumentos de medición
Instrumentos de mediciónInstrumentos de medición
Instrumentos de medición
 
Método científico mapa conceptual Julien Hardy
Método científico mapa conceptual Julien HardyMétodo científico mapa conceptual Julien Hardy
Método científico mapa conceptual Julien Hardy
 
Tecnicas de conteo
Tecnicas de conteoTecnicas de conteo
Tecnicas de conteo
 
Tipos de conocimientos
Tipos de conocimientosTipos de conocimientos
Tipos de conocimientos
 
ArgumentacionDante
ArgumentacionDanteArgumentacionDante
ArgumentacionDante
 
Tipos de investigacion y diseño de investigacion
Tipos de investigacion y diseño de investigacionTipos de investigacion y diseño de investigacion
Tipos de investigacion y diseño de investigacion
 
Método Sintético
Método SintéticoMétodo Sintético
Método Sintético
 
EJEMPLO DE INFORME INTERPRETATIVO
EJEMPLO DE INFORME INTERPRETATIVOEJEMPLO DE INFORME INTERPRETATIVO
EJEMPLO DE INFORME INTERPRETATIVO
 
Características del conocimiento vulgar
Características del conocimiento vulgarCaracterísticas del conocimiento vulgar
Características del conocimiento vulgar
 
Cómo realizar una presentación de un Proyecto de Investigación
Cómo realizar una presentación de un Proyecto de InvestigaciónCómo realizar una presentación de un Proyecto de Investigación
Cómo realizar una presentación de un Proyecto de Investigación
 

Similar a Métodos numéricos para resolver ecuaciones complejas

Similar a Métodos numéricos para resolver ecuaciones complejas (20)

Deambular
DeambularDeambular
Deambular
 
FUNCIONES DE UNA VARIABLE REAL (GUIA)
FUNCIONES DE UNA VARIABLE REAL (GUIA)FUNCIONES DE UNA VARIABLE REAL (GUIA)
FUNCIONES DE UNA VARIABLE REAL (GUIA)
 
Forma canónica de kronecker
Forma canónica de kroneckerForma canónica de kronecker
Forma canónica de kronecker
 
Trayectorias ortogonales monografia
Trayectorias ortogonales monografiaTrayectorias ortogonales monografia
Trayectorias ortogonales monografia
 
U1.aproximacion
U1.aproximacionU1.aproximacion
U1.aproximacion
 
Metodos numericos1
Metodos numericos1Metodos numericos1
Metodos numericos1
 
Metodos numericos1
Metodos numericos1Metodos numericos1
Metodos numericos1
 
Análisis matemático 3
Análisis matemático 3Análisis matemático 3
Análisis matemático 3
 
Trabajo word
Trabajo wordTrabajo word
Trabajo word
 
Buñay
BuñayBuñay
Buñay
 
Buñay
BuñayBuñay
Buñay
 
40 diapositivas
40 diapositivas40 diapositivas
40 diapositivas
 
Mat1102 optimizacion
Mat1102 optimizacionMat1102 optimizacion
Mat1102 optimizacion
 
Edo carrillo diaz
Edo carrillo diazEdo carrillo diaz
Edo carrillo diaz
 
Derivación e integración de varias funciones variables
Derivación e integración de varias funciones variablesDerivación e integración de varias funciones variables
Derivación e integración de varias funciones variables
 
Calculo vectorial - unidad 5 (integracion)
Calculo vectorial - unidad 5 (integracion)Calculo vectorial - unidad 5 (integracion)
Calculo vectorial - unidad 5 (integracion)
 
Algebra lineal juanrada
Algebra lineal juanradaAlgebra lineal juanrada
Algebra lineal juanrada
 
Notacion Sigma y el Teorema Fundamental del Cálculo
Notacion Sigma y el Teorema Fundamental del CálculoNotacion Sigma y el Teorema Fundamental del Cálculo
Notacion Sigma y el Teorema Fundamental del Cálculo
 
Tema4 regresionycorrelacion
Tema4 regresionycorrelacionTema4 regresionycorrelacion
Tema4 regresionycorrelacion
 
Sistemas de ecuaciones homogéneas por el método de Gauss Jordan
Sistemas de ecuaciones homogéneas por el método de Gauss JordanSistemas de ecuaciones homogéneas por el método de Gauss Jordan
Sistemas de ecuaciones homogéneas por el método de Gauss Jordan
 

Último

IV SES LUN 15 TUTO CUIDO MI MENTE CUIDANDO MI CUERPO YESSENIA 933623393 NUEV...
IV SES LUN 15 TUTO CUIDO MI MENTE CUIDANDO MI CUERPO  YESSENIA 933623393 NUEV...IV SES LUN 15 TUTO CUIDO MI MENTE CUIDANDO MI CUERPO  YESSENIA 933623393 NUEV...
IV SES LUN 15 TUTO CUIDO MI MENTE CUIDANDO MI CUERPO YESSENIA 933623393 NUEV...YobanaZevallosSantil1
 
Secuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docxSecuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docxNataliaGonzalez619348
 
sesión de aprendizaje 4 E1 Exposición oral.pdf
sesión de aprendizaje 4 E1 Exposición oral.pdfsesión de aprendizaje 4 E1 Exposición oral.pdf
sesión de aprendizaje 4 E1 Exposición oral.pdfpatriciavsquezbecerr
 
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdfTema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdfDaniel Ángel Corral de la Mata, Ph.D.
 
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdfFisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdfcoloncopias5
 
3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx
3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx
3. Pedagogía de la Educación: Como objeto de la didáctica.ppsxJuanpm27
 
SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024
SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024
SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024gharce
 
SIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docxSIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docxLudy Ventocilla Napanga
 
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMALVOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMALEDUCCUniversidadCatl
 
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdfOswaldoGonzalezCruz
 
PROGRAMACION ANUAL DE MATEMATICA 2024.docx
PROGRAMACION ANUAL DE MATEMATICA 2024.docxPROGRAMACION ANUAL DE MATEMATICA 2024.docx
PROGRAMACION ANUAL DE MATEMATICA 2024.docxEribertoPerezRamirez
 
Monitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptx
Monitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptxMonitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptx
Monitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptxJUANCARLOSAPARCANARE
 
Día de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialDía de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialpatriciaines1993
 
DETALLES EN EL DISEÑO DE INTERIOR
DETALLES EN EL DISEÑO DE INTERIORDETALLES EN EL DISEÑO DE INTERIOR
DETALLES EN EL DISEÑO DE INTERIORGonella
 
Técnicas de grabado y estampación : procesos y materiales
Técnicas de grabado y estampación : procesos y materialesTécnicas de grabado y estampación : procesos y materiales
Técnicas de grabado y estampación : procesos y materialesRaquel Martín Contreras
 
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdfFichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdfssuser50d1252
 
MODELO DE INFORME DE INDAGACION CIENTIFICA .docx
MODELO DE INFORME DE INDAGACION CIENTIFICA .docxMODELO DE INFORME DE INDAGACION CIENTIFICA .docx
MODELO DE INFORME DE INDAGACION CIENTIFICA .docxRAMON EUSTAQUIO CARO BAYONA
 

Último (20)

IV SES LUN 15 TUTO CUIDO MI MENTE CUIDANDO MI CUERPO YESSENIA 933623393 NUEV...
IV SES LUN 15 TUTO CUIDO MI MENTE CUIDANDO MI CUERPO  YESSENIA 933623393 NUEV...IV SES LUN 15 TUTO CUIDO MI MENTE CUIDANDO MI CUERPO  YESSENIA 933623393 NUEV...
IV SES LUN 15 TUTO CUIDO MI MENTE CUIDANDO MI CUERPO YESSENIA 933623393 NUEV...
 
Secuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docxSecuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docx
 
PPTX: La luz brilla en la oscuridad.pptx
PPTX: La luz brilla en la oscuridad.pptxPPTX: La luz brilla en la oscuridad.pptx
PPTX: La luz brilla en la oscuridad.pptx
 
sesión de aprendizaje 4 E1 Exposición oral.pdf
sesión de aprendizaje 4 E1 Exposición oral.pdfsesión de aprendizaje 4 E1 Exposición oral.pdf
sesión de aprendizaje 4 E1 Exposición oral.pdf
 
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdfTema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
 
VISITA À PROTEÇÃO CIVIL _
VISITA À PROTEÇÃO CIVIL                  _VISITA À PROTEÇÃO CIVIL                  _
VISITA À PROTEÇÃO CIVIL _
 
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdfFisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdf
 
3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx
3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx
3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx
 
SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024
SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024
SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024
 
SIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docxSIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docx
 
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMALVOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
 
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
 
PROGRAMACION ANUAL DE MATEMATICA 2024.docx
PROGRAMACION ANUAL DE MATEMATICA 2024.docxPROGRAMACION ANUAL DE MATEMATICA 2024.docx
PROGRAMACION ANUAL DE MATEMATICA 2024.docx
 
Monitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptx
Monitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptxMonitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptx
Monitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptx
 
Día de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialDía de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundial
 
DETALLES EN EL DISEÑO DE INTERIOR
DETALLES EN EL DISEÑO DE INTERIORDETALLES EN EL DISEÑO DE INTERIOR
DETALLES EN EL DISEÑO DE INTERIOR
 
Técnicas de grabado y estampación : procesos y materiales
Técnicas de grabado y estampación : procesos y materialesTécnicas de grabado y estampación : procesos y materiales
Técnicas de grabado y estampación : procesos y materiales
 
La luz brilla en la oscuridad. Necesitamos luz
La luz brilla en la oscuridad. Necesitamos luzLa luz brilla en la oscuridad. Necesitamos luz
La luz brilla en la oscuridad. Necesitamos luz
 
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdfFichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
 
MODELO DE INFORME DE INDAGACION CIENTIFICA .docx
MODELO DE INFORME DE INDAGACION CIENTIFICA .docxMODELO DE INFORME DE INDAGACION CIENTIFICA .docx
MODELO DE INFORME DE INDAGACION CIENTIFICA .docx
 

Métodos numéricos para resolver ecuaciones complejas

  • 1. pág. 0 Los métodos numéricos son metodologías que utilizan técnicas meramente algebraicas y aritméticas para resolver de forma aproximada ecuaciones o sistemas de ecuaciones complejos, que analíticamente resultan muy difíciles e incluso imposibles de resolver. Para el caso de aplicaciones de ingeniería sirven exactamente para lo mismo: resolver modelos analíticamente complejos mediante la aplicación de técnicas matemáticas básicas (estas técnicas numéricas, son las bases para la solución y simulación de problemas complejos utilizando computadoras). En esta guía se verán algunos métodos que son los que se utilizan para la Matemática Superior Aplicada Resumen de Teoría Y complementos de ejercicios Maximiliano Armoa AÑO 2015
  • 2. Introducción................................................................................................................1 Teorema de Taylor......................................................................................................2 Los Coeficientes de un polinomio en términos de sus derivadas ...........................5 Errores.........................................................................................................................8 Definiciones ............................................................................................................8 Sistemas de numeración..........................................................................................8 Error en una función ...............................................................................................9 Grafos........................................................................................................................11 Grafo Suma ...........................................................................................................11 Grafo Resta ...........................................................................................................12 Grafo Multiplicación.............................................................................................12 Grafo División.......................................................................................................13 Grafo Operación....................................................................................................14 Interpolación .............................................................................................................16 Definición..............................................................................................................16 Interpolación lineal y polinomio interpolador de Lagrange .................................16 Términos de cota de error .................................................................................18 Polinomio Interpolador de Newton.......................................................................18 Método de diferencias divididas .......................................................................19 Cota de Error.................................................................................................20 Mínimos Cuadrados ..............................................................................................20 Ajuste Lineal.....................................................................................................21 Ajuste Polinomial..............................................................................................23 Forma Matricial de resolución para ajuste ....................................................24 Linealización de datos – Cambios de variable que linealizan datos.................26 Ajuste de una función a una función.................................................................27 Ajuste de puntos a una combinación de funciones ...........................................30 Interpolación por Splines – Interpolación polinomial a trozos.............................31 Sistemas de Ecuaciones Lineales..............................................................................34 Introducción..........................................................................................................34 Tipos de Sistema ...................................................................................................35 Métodos para resolver sistemas de ecuaciones lineales........................................35 Eliminación Gaussiana y pivoteo – sustitución regresiva.................................36 Factorización triangular ....................................................................................37
  • 3. Método Jacobi...................................................................................................37 Método Gauss - Seidel......................................................................................39 Determinación de convergencia de ambos métodos de iteración .................40 Obtención de las matrices de Jacobi y Gauss Seidel ................................40 SOR (Successive Over Relaxation) - Sobrerelajación..................................41 Refinamiento iterativo...................................................................................42 Integración numérica.................................................................................................44 Definición..............................................................................................................44 Grados de precisión...............................................................................................45 Fórmula de cuadratura cerrada de Newton - Cotes...........................................46 Precisión de las fórmulas de Newton - Cotes ...............................................46 Fórmulas de cuadratura cerrada de Newton- Cotes ..........................................48 Reglas de Trapecios y Simpson con sus respectivos errores ........................48 Regla de Trapecios....................................................................................48 Regla de Simpson......................................................................................50 Regla de 38 de Simpson y Boole..............................................................52 Reglas compuestas ....................................................................................55 Análisis de error para la regla compuesta de trapecios y Simpson...........56 Cuadratura de Gauss – Legendre. Cuadratura Gaussiana.............................60 Ecuaciones Diferenciales ..........................................................................................63 Condición de Lipschitz .........................................................................................63 Método de Euler....................................................................................................64 Descripción geométrica.....................................................................................65
  • 4. pág. 1 Introducción Este es un resumen confeccionado como guía de estudio para la materia Matemática superior aplicada de la carrera de Ingeniería Química, está hecho con el fin de ser una herramienta más y como un resumen de la materia para su eventual estudio. Es solo para ayuda, no se recomienda estudiar solo de este material (aunque cada uno es libre de hacer lo que quiera) y la idea es mejorarlo en todo momento posible para brindar una ayuda a todos los compañeros que la cursan o cursarán. Es una recopilación de apuntes tomados en clase, de extracciones de distintos libros y varias fuentes de Internet. Vuelvo a repetirlo para que quede claro, es un material recopilado por un estudiante y no es un apunte de la cátedra. Espero les sirva como me sirvió a mí. Ahh me olvidaba, cualquier mejora que se le pueda hacer (que seguramente son muchas) bienvenidas sean. Gracias por difundirlo Armoa Maximiliano
  • 5. Teoremade Taylor Sabemos que la recta tangente, como la mejor aproximación lineal a la gráfica de f en las cercanías del punto de tangencia (xo, f (xo)), es aquella recta que pasa por el mencionado punto y tiene la misma pendiente que la curva en ese punto (primera derivada en el punto), lo que hace que la recta tangente y la curva sean prácticamente indistinguibles en las cercanías del punto de tangencia. Gráficamente podemos observar que la curva se pega "suavemente" a la recta en este entorno, de tal manera que "de todas las rectas que pasan por el punto, es esta recta la que más se parece a la curva cerca del punto". Nótese que cerca del punto de tangencia, la curva se comporta casi linealmente, como se puede apreciar si hacemos acercamientos a la gráfica anterior Como observamos en los problemas de diferencial, si x se encuentra "lejos" de xo, la recta tangente ya no funciona como aproximador. Parece pues natural preguntarnos por otra función (no lineal) que sirva a nuestros propósitos. La recta tangente es un polinomio de
  • 6. grado 1, el más sencillo tipo de función que podemos encontrar, por lo que podemos tratar de ver si es posible encontrar un polinomio de grado dos que nos sirva para aproximar nuestra función en un rango más grande que la recta tangente. Veamos que sucede si en lugar de aproximarnos con una recta tratamos de hacerlo con una parábola, es decir tratemos de encontrar de todas las parábolas que pasan por (xo, f (xo)), la que mejor aproxima a la curva, es decir tratemos de encontrar "la parábola tangente". Nótese que la parábola tangente a una curva no es única. Naturalmente a esta parábola 𝑃( 𝑥) = 𝑎 + 𝑏 ( 𝑥 − 𝑥0) + 𝑐 ( 𝑥 − 𝑥0)2 debemos pedirle que pase por el punto, que tenga la misma inclinación (primera derivada) y la misma concavidad que la parábola (segunda derivada), es decir debemos pedirle: 𝑃( 𝑥0) = 𝑓( 𝑥0) 𝑃´( 𝑥0) = 𝑓´( 𝑥0) 𝑃´´( 𝑥0) = 𝑓´´( 𝑥0) Como: 𝑃( 𝑥0) = 𝑎 𝑃´( 𝑥0) = 𝑏 𝑃´´( 𝑥0) = 2𝑐
  • 7. Se concluye que: 𝑎 = 𝑓( 𝑥0) 𝑏 = 𝑓´( 𝑥0) 𝑐 = 1 2 𝑓´´( 𝑥0) Quedando la ecuación de la parábola que mejor aproxima a la curva en las cercanías de (xo, f (xo)), como: 𝑃( 𝑥) = 𝑓( 𝑥0)+ 𝑓´( 𝑥0)( 𝑥 − 𝑥0)+ 1 2 𝑓´´( 𝑥0)( 𝑥 − 𝑥0)2 En la figura de abajo, observamos gráficamente los tres sumandos de la expresión de la parábola tangente. Los dos primeros nos dan la altura sobre la recta tangente y añadiéndole el tercero nos da la altura sobre la parábola tangente. Verifiquemos lo anterior en el caso particular de la función 𝑓( 𝑥) = 𝑒 𝑥 , xo = 0 y valores de x cercanos a 0. En la tabla de abajo observamos que la parábola tangente a la gráfica de f en (0,1) efectivamente es una mejor aproximación para f que la recta tangente, para valores cercanos a 0. 𝑥 1 + 𝑥 1 + 𝑥 + 𝑥2 2 𝑒 𝑥
  • 8. 1,0 2 2,5 2,718281828 0,5 1,5 1,625 1,6487212707 0,3 1,3 1,345 1,34985880757 0,1 1,1 1,105 1,10517091807 0,01 1,01 1,01005 1,010050167 0,001 1,001 1,0010005 1,00100050016 Los Coeficientes de un polinomio en términos de sus derivadas Un polinomio de grado n está completamente determinado por sus (n+1) coeficientes. 𝑃( 𝑥) = 𝑎0 + 𝑎1( 𝑥 − 𝑥0) + 𝑎2( 𝑥 − 𝑥0)2 + 𝑎3( 𝑥 − 𝑥0)3 + ⋯+ 𝑎 𝑛( 𝑥 − 𝑥0) 𝑛 En lo sucesivo, expresaremos al polinomio en potencias de (x - xo) y encontraremos sus coeficientes en términos de las derivadas evaluadas en xo. 𝑃´( 𝑥) = 𝑎1 + 2𝑎2( 𝑥 − 𝑥0)+ 3𝑎3( 𝑥 − 𝑥0)2 + 4𝑎4( 𝑥 − 𝑥0)3 + ⋯ + 𝑛𝑎 𝑛( 𝑥 − 𝑥0) 𝑛−1 𝑃´´( 𝑥) = 𝑎2 + (2)(3)𝑎3( 𝑥 − 𝑥0) + (3)(4)𝑎3( 𝑥 − 𝑥0)2 + (4)(5)𝑎4( 𝑥 − 𝑥0)3 + ⋯+ (𝑛)(𝑛 − 1)𝑎 𝑛( 𝑥 − 𝑥0) 𝑛 𝑃´´´( 𝑥) = (2)(3)𝑎3 + (2)(3)(4)𝑎4( 𝑥 − 𝑥0) + (3)(4)(5)𝑎5( 𝑥 − 𝑥0)2 + ⋯+ (𝑛)(𝑛 − 1)(𝑛 − 2)𝑎 𝑛( 𝑥 − 𝑥0) 𝑛 … 𝑃 𝑛( 𝑥) = (1)(2)(3)… ( 𝑛) 𝑎 𝑛 = 𝑛! 𝑎 𝑛 De donde, evaluando cada una de estas derivadas en xo, obtenemos los coeficientes del polinomio: 𝑎0 = 𝑃( 𝑥0) 𝑎1 = 𝑃´(𝑥0) 𝑎2 = 𝑃´´(𝑥0) 2!
  • 9. 𝑎3 = 𝑃´´´(𝑥0) 3! 𝑎 𝑛 = 𝑃 𝑛 (𝑥0) 𝑛! Y en consecuencia la expresión del polinomio será: 𝑃( 𝑥) = 𝑃( 𝑥0) + 𝑃´( 𝑥0)( 𝑥 − 𝑥0) + 𝑃´´( 𝑥0) 2! ( 𝑥 − 𝑥0)2 + ⋯ + 𝑃 𝑛( 𝑥0) 𝑛! ( 𝑥 − 𝑥0) 𝑛 (𝐼) Volviendo a la representación (I), si f no es un polinomio, obviamente no podrá representarse de la misma manera, sin embargo en vista de que para, la recta tangente, que es un polinomio de grado 1, se cumple que para x cercano a xo: 𝑓( 𝑥) ≅ 𝑓( 𝑥0)+ 𝑓´( 𝑥0)( 𝑥 − 𝑥0) y gráficamente observamos que para x cercano a xo, la función es muy parecida a su "parábola tangente", es decir: 𝑓( 𝑥) ≅ 𝑓( 𝑥0) + 𝑓´( 𝑥0)( 𝑥 − 𝑥0) + 1 2 𝑓´´( 𝑥0)( 𝑥 − 𝑥0)2 surge de manera natural preguntarnos si para valores cercanos a xo, se cumplirá: 𝑓( 𝑥) ≅ 𝑓( 𝑥0) + 𝑓´( 𝑥0)( 𝑥 − 𝑥0) + 1 2 𝑓´´( 𝑥0)( 𝑥 − 𝑥0)2 + ⋯+ 1 𝑛! 𝑓 𝑛( 𝑥0)( 𝑥 − 𝑥0) 𝑛 Entonces el polinomio: 𝑃( 𝑥) = 𝑓( 𝑥0)+ 𝑓´( 𝑥0)( 𝑥 − 𝑥0)+ 1 2 𝑓´´( 𝑥0)( 𝑥 − 𝑥0)2 + ⋯ + 1 𝑛! 𝑓 𝑛( 𝑥0)( 𝑥 − 𝑥0) 𝑛
  • 10. Lo llamaremos el POLINOMIO DE TAYLOR de grado n para f, en el punto xo. El Teorema de Taylor que a continuación enunciaremos sin demostración, nos dice que bajo ciertas condiciones, una función puede ser expresarse como un polinomio de Taylor más un cierto error, es decir: 𝑓( 𝑥) = 𝑃( 𝑥) + 𝐸(𝑥) y además nos dirá como estimar este error. TEOREMA DE TAYLOR. Sea f continua en [a, b] y con derivadas hasta de orden n continúas también en este intervalo cerrado; supóngase que 𝑓 𝑛+1 (𝑥) existe en (a,b), entonces para x y xo perteneciente a (a,b) se tiene: 𝑃( 𝑥) = 𝑓( 𝑥0)+ 𝑓´( 𝑥0)( 𝑥 − 𝑥0)+ 1 2 𝑓´´( 𝑥0)( 𝑥 − 𝑥0)2 + ⋯ + 1 𝑛! 𝑓 𝑛( 𝑥0)( 𝑥 − 𝑥0) 𝑛 Donde: 𝐸 𝑛 ( 𝑥) = 𝑓 𝑛+1( 𝑐) ( 𝑛 + 1)! ( 𝑥 − 𝑥0) 𝑛+1 C es un punto que se encuentra entre x y x0.
  • 11. Errores Definiciones Error absoluto: 𝜀 = | 𝑎 − 𝑎 𝑚| Error Relativo: 𝜀 𝑟 = | 𝑎 − 𝑎 𝑚| 𝑎 Como podemos notar, el error absoluto tiene unidad y el relativo carece de ella. Además la magnitud del error relativo es independiente de la magnitud medida. Sistemas de numeración Diremos que un número xo es una aproximación a x con d cifras decimales significativas si d es el mayor número natural tal que Error por redondeo | 𝑎 − 𝑎 𝑚 | | 𝑎| < 𝑏−𝑑 2 Error por truncamiento | 𝑎 − 𝑎 𝑚 | < 𝑏−𝑑 Punto flotante: los números se escriben con mantisa y exponente. 𝑎 = 𝑀 ∗ 𝑏 𝐸 𝑏−1 ≤ | 𝑀| ≤ 1 Ejemplo: 1234,45678 = 0,12345678 * 104. Notemos que 10-1 ≤ |0.12345678| ≤ 1
  • 12. Volviendo al error absoluto, con redondeo: 𝜀 = | 𝑥 − 𝑥0| < 𝑏−𝑚 ∗ 𝑏 𝐸 2 Dividiendo por | 𝑥| | 𝑥 − 𝑥0| | 𝑥| < 𝑏−𝑚 ∗ 𝑏 𝐸 2| 𝑥| = 𝑏−𝑚 ∗ 𝑏 𝐸 2| 𝑀| 𝑏 𝐸 = 𝑏−𝑚 2| 𝑀| Como: 𝑏−1 ≤ | 𝑀| ≤ 1 , el máximo error se comete cuando | 𝑀| toma el valor más chico: | 𝑥 − 𝑥0| | 𝑥| < 𝑏−𝑚 ∗ 𝑏 𝐸 2| 𝑥| = 𝑏−𝑚 ∗ 𝑏 𝐸 2| 𝑀| 𝑏 𝐸 = 𝑏−𝑚 2| 𝑀| ≤ 𝑏−𝑚 ∗ 𝑏 2 𝐸𝑟𝑟𝑜𝑟 𝑑𝑒 𝑝𝑟𝑒𝑐𝑖𝑠𝑖ó𝑛 𝑑𝑒 𝑀á𝑞𝑢𝑖𝑛𝑎 = 𝑏−𝑚 ∗ 𝑏 2 Para una computadora que trabaja con 8 bytes, m = 16 Con lo anterior deducimos que el error absoluto (sabiendo que d son decimales significativos). 10−𝑑 2 Con error relativo (con t cantidad de dígitos significativos) 101−𝑡 2 Error en una función 𝑓( 𝑥 + ∆𝑥) = 𝑓( 𝑥) + 𝑓´( 𝑥) ∗ ∆𝑥 + 𝑂(∆𝑥)2 𝑓( 𝑥 + ∆𝑥)− 𝑓( 𝑥) = 𝑓´( 𝑥) ∗ ∆𝑥 ∆𝑓 = 𝑓´ ∗ ∆𝑥 ∆𝑓 𝑓 = 𝑓´ 𝑓 ∗ ∆𝑥
  • 13. ∆𝑓 𝑓 = 𝑓´ 𝑓 ∗ ∆𝑥 ∗ 𝑥 𝑥 ∆𝑓 𝑓 = 𝑓´ 𝑓 ∗ ∆𝑥 𝑥 ∗ 𝑥 𝜀𝑓 = 𝑓´ 𝑓 ∗ 𝜀 𝑥 ∗ 𝑥 𝜀𝑓 = 𝑓´ 𝑓 ∗ 𝑥 ∗ 𝜀 𝑥 𝑓´ 𝑓 ∗ 𝑥 = 𝐹𝐴𝑋 (𝐹𝑎𝑐𝑡𝑜𝑟 𝑑𝑒 𝑎𝑚𝑝𝑙𝑖𝑓𝑖𝑐𝑎𝑐𝑖ó𝑛 𝑑𝑒 𝑋) 𝜀𝑓 = 𝐹𝐴𝑋 ∗ 𝜀 𝑥 El FAX indica como varía su función en relación a su derivada y se puede prolongar para varias variables. Por ejemplo, sea 𝑓 = 𝑓(𝑥, 𝑦, 𝑧) 𝜀𝑓 = 𝐹𝐴𝑋 ∗ 𝜀 𝑥 + 𝐹𝐴𝑌 ∗ 𝜀 𝑦 + 𝐹𝐴𝑍 ∗ 𝜀 𝑧
  • 14. Grafos Un grafo es un conjunto de objetos (llamados vértices o nodos) unidos por enlaces (llamados aristas o arcos) que permiten representar relaciones binarias entre elementos de un conjunto. Permiten estudiar las interrelaciones entre unidades que interactúan unas con otras. El mecanismo del grafo consiste, al igual que el diagrama de árbol, en recorrer el camino y multiplicando las líneas de cada camino. Luego se suman todos los caminos y no se debe olvidar sumar al final el error de operación. Grafo Suma  Operación: 𝑓( 𝑋, 𝑌) = 𝑋 + 𝑌 FAX FAY Ex X + Y Ey ESUMA 𝜀𝑓 = 𝜀 𝑥 ∗ 𝐹𝐴𝑋 + 𝜀 𝑦 ∗ 𝐹𝐴𝑌 + 𝜀 𝑆𝑢𝑚𝑎 𝐹𝐴𝑋 = 𝑓´ 𝑥 𝑓 ∗ 𝑥 = 1 𝑋 + 𝑌 ∗ 𝑋 𝐹𝐴𝑌 = 𝑓´ 𝑦 𝑓 ∗ 𝑦 = 1 𝑋 + 𝑌 ∗ 𝑌 𝜀𝑓 = 𝜀 𝑥 ∗ 𝑋 𝑋 + 𝑌 + 𝜀 𝑦 ∗ 𝑌 𝑋 + 𝑌 + 𝜀 𝑆𝑢𝑚𝑎
  • 15. Grafo Resta  Operación: 𝑓( 𝑋, 𝑌) = 𝑋 − 𝑌 FAX FAY ERESTA Ex X - Y Ey 𝜀𝑓 = 𝜀 𝑥 ∗ 𝐹𝐴𝑋 + 𝜀 𝑦 ∗ 𝐹𝐴𝑌 + 𝜀 𝑅𝑒𝑠𝑡𝑎 𝐹𝐴𝑋 = 𝑓´ 𝑥 𝑓 ∗ 𝑥 = 1 𝑋 − 𝑌 ∗ 𝑋 𝐹𝐴𝑌 = 𝑓´ 𝑦 𝑓 ∗ 𝑦 = −1 𝑋 − 𝑌 ∗ 𝑌 𝜀𝑓 = 𝜀 𝑥 ∗ 𝑋 𝑋 − 𝑌 + 𝜀 𝑦 ∗ −𝑌 𝑋 − 𝑌 + 𝜀 𝑅𝑒𝑠𝑡𝑎 Grafo Multiplicación  Operación: 𝑓( 𝑋, 𝑌) = 𝑋 ∗ 𝑌
  • 16. FAX FAY EMULTIPLICACION Ex X * Y Ey 𝜀𝑓 = 𝜀 𝑥 ∗ 𝐹𝐴𝑋 + 𝜀 𝑦 ∗ 𝐹𝐴𝑌 + 𝜀 𝑀𝑢𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑐𝑖ó𝑛 𝐹𝐴𝑋 = 𝑓´ 𝑥 𝑓 ∗ 𝑥 = 𝑌 𝑋𝑌 ∗ 𝑋 = 1 𝐹𝐴𝑌 = 𝑓´ 𝑦 𝑓 ∗ 𝑦 = 𝑋 𝑋𝑌 ∗ 𝑌 = 1 𝜀𝑓 = 𝜀 𝑥 + 𝜀 𝑦 + 𝜀 𝑀𝑢𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑐𝑖ó𝑛 Grafo División  Operación: 𝑓( 𝑋, 𝑌) = 𝑋 𝑌 FAX FAY EDIVISION Ex X / Y Ey 𝜀𝑓 = 𝜀 𝑥 ∗ 𝐹𝐴𝑋 + 𝜀 𝑦 ∗ 𝐹𝐴𝑌 + 𝜀 𝐷𝑖𝑣𝑖𝑠𝑖ó𝑛
  • 17. 𝐹𝐴𝑋 = 𝑓´ 𝑥 𝑓 ∗ 𝑥 = 1 𝑌 𝑋 𝑌 ∗ 𝑋 = 1 𝐹𝐴𝑌 = 𝑓´ 𝑦 𝑓 ∗ 𝑦 = −𝑋 𝑌2 𝑋 𝑌 ∗ 𝑌 = −1 𝜀𝑓 = 𝜀 𝑥 − 𝜀 𝑦 + 𝜀 𝐷𝑖𝑣𝑖𝑠𝑖ó𝑛 Grafo Operación  Operación: 𝑓( 𝑋, 𝑌) = 𝑓(𝑋, 𝑌) FAX FAY EOPERACION Ex X f(x,y) Y Ey 𝜀𝑓 = 𝜀 𝑥 ∗ 𝐹𝐴𝑋 + 𝜀 𝑦 ∗ 𝐹𝐴𝑌 + 𝜀 𝑂𝑝𝑒𝑟𝑎𝑐𝑖ó𝑛 𝐹𝐴𝑋 = 𝑓´ 𝑥 𝑓 ∗ 𝑥 𝐹𝐴𝑌 = 𝑓´ 𝑦 𝑓 ∗ 𝑦 𝜀𝑓 = 𝜀 𝑥 ∗= 𝑓´ 𝑥 𝑓 ∗ 𝑥 + 𝜀 𝑦 ∗ 𝑓´ 𝑦 𝑓 ∗ 𝑦 + 𝜀 𝑂𝑝𝑒𝑟𝑎𝑐𝑖ó𝑛
  • 18. En base a lo anterior: se obtiene la siguiente tabla: Operación FAX FAY Operación General 𝑓´ 𝑥 𝑓 ∗ 𝑥 𝑓´ 𝑦 𝑓 ∗ 𝑦 Suma 𝑋 𝑋 − 𝑌 𝑌 𝑋 − 𝑌 Resta 𝑋 𝑋 − 𝑌 −𝑌 𝑋 − 𝑌 Multiplicación 1 1 División 1 -1 Vale aclarar que en cada función (cada operación) tenemos: La función El error de la Función El error de la Operación A los errores de datos los acotamos con i y a los errores de operación con μ. (hay que tener en cuenta que esto es la posición de decimales que plantee el problema o bien dicho las cifras significativas) Todo lo que está multiplicando a i se lo llama condición del problema, el termino que multiplica a μ (termino de estabilidad) depende del grafo utilizado. Un algoritmo se dice numéricamente más estable que otro si su término de estabilidad es menor. Se puede definir un algoritmo estable si: 𝐶𝑂𝑁𝐷 + 𝐸𝑆𝑇𝐴𝐵 𝐶𝑂𝑁𝐷 ≫ 1
  • 19. Interpolación Definición Se denomina interpolación a la obtención de nuevos puntos partiendo del conocimiento de un conjunto discreto de puntos. En ingeniería es frecuente disponer de un cierto número de puntos obtenidos por muestreo o a partir de un experimento y pretender construir una función que los ajuste. En todo caso, se trata de, a partir de n parejas de puntos (xk,yk), obtener una función f que verifique que: 𝑓( 𝑥 𝑘) = 𝑦 𝑘 𝑘 = 1, 2, … , 𝑛 A la que se denomina función interpolante de dichos puntos. A los puntos xk se les llama nodos. En esta unidad se verán los métodos de mínimos cuadrados, Lagrange, Newton y splines. Interpolación lineal y polinomio interpolador de Lagrange En esta interpolación se utiliza un segmento rectilíneo que pasa por dos puntos que se conocen. La pendiente de la recta que pasa por esos dos puntos es: 𝑚 = 𝑦1 − 𝑦0 𝑥1 − 𝑥0 Para calcular un punto intermedio, basta con reemplazar el valor de x en la ecuación: 𝑦 = 𝑃( 𝑥) = 𝑦0 + ( 𝑥 − 𝑥0)∗ 𝑦1 − 𝑦0 𝑥1 − 𝑥0
  • 20. 𝑦 = 𝑃( 𝑥) = 𝑦0 + ( 𝑦1 − 𝑦0) ∗ 𝑥 − 𝑥0 𝑥1 − 𝑥0 Aplicando Distributiva: 𝑦 = 𝑃( 𝑥) = 𝑦0 + 𝑦1 ∗ 𝑥 − 𝑥0 𝑥1 − 𝑥0 − 𝑦0 ∗ 𝑥 − 𝑥0 𝑥1 − 𝑥0 Sacando factor común y0 𝑦 = 𝑃( 𝑥) = 𝑦0 (1 − 𝑥 − 𝑥0 𝑥1 − 𝑥0 ) + 𝑦1 ∗ 𝑥 − 𝑥0 𝑥1 − 𝑥0 𝑦 = 𝑃( 𝑥) = 𝑦0 ( 𝑥1 − 𝑥0 − 𝑥 + 𝑥0 𝑥1 − 𝑥0 ) + 𝑦1 ∗ 𝑥 − 𝑥0 𝑥1 − 𝑥0 𝑦 = 𝑃( 𝑥) = 𝑦0 ( 𝑥1 − 𝑥 𝑥1 − 𝑥0 ) + 𝑦1 ∗ 𝑥 − 𝑥0 𝑥1 − 𝑥0 𝑦 = 𝑃( 𝑥) = 𝑦0 ( 𝑥 − 𝑥1 𝑥0 − 𝑥1 )+ 𝑦1 ∗ 𝑥 − 𝑥0 𝑥1 − 𝑥0 Los términos que multiplican a las yk se llaman polinomios coeficientes de Lagrange: 𝐿1,0( 𝑥) = 𝑥 − 𝑥1 𝑥0 − 𝑥1 𝐿1,1( 𝑥) = 𝑥 − 𝑥0 𝑥1 − 𝑥0 Por lo general la fórmula para interpolación para polinomios lineales se expresa: 𝑃1( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿1,𝑘( 𝑥) 𝑛 𝑘=0 Observamos que para definir una función lineal (polinomio de grado 1) se necesitan dos puntos (k = 0 y k = 1), de modo similar, para una cuadrática se necesitan tres puntos (k = 0, k = 1 y k = 2). Se necesitan n+1 puntos para obtener un polinomio de grado n.
  • 21. Para calcular un polinomio de grado N usamos: 𝑃1( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿 𝑁,𝑘( 𝑥) 𝑛 𝑘=0 De donde: 𝐿 𝑁,𝑘( 𝑥) = ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)… ( 𝑥 − 𝑥 𝑘−1)( 𝑥 − 𝑥 𝑘+1) …( 𝑥 − 𝑥 𝑁) ( 𝑥 𝑘 − 𝑥0)( 𝑥 𝑘 − 𝑥1)( 𝑥 𝑘 − 𝑥2)… ( 𝑥 𝑘 − 𝑥 𝑘−1)( 𝑥 𝑘 − 𝑥 𝑘+1)… ( 𝑥 𝑘 − 𝑥 𝑁) Notemos que: En el numerador no aparece el término ( 𝑥 − 𝑥 𝑘) En el denominador no aparece el término ( 𝑥 𝑘 − 𝑥 𝑘), es decir, que no se anule. Términos de cota de error El término de error es similar al de Taylor: 𝐸 𝑛 ( 𝑥) = ∏ ( 𝑥 − 𝑥 𝑘) 𝑓 𝑛+1𝑛 𝑘=0 ( 𝑛 + 1)! Polinomio Interpolador de Newton Este polinomio se calcula mediante un esquema recursivo: 𝑃1( 𝑥) = 𝑎0 + 𝑎1 ( 𝑥 − 𝑥0) 𝑃2( 𝑥) = 𝑎0 + 𝑎1 ( 𝑥 − 𝑥0) + 𝑎2( 𝑥 − 𝑥0)( 𝑥 − 𝑥1) 𝑃3( 𝑥) = 𝑎0 + 𝑎1 ( 𝑥 − 𝑥0) + 𝑎2( 𝑥 − 𝑥0)( 𝑥 − 𝑥1) + 𝑎3( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2) 𝑃𝑛( 𝑥) = 𝑎0 + 𝑎1 ( 𝑥 − 𝑥0) + 𝑎2( 𝑥 − 𝑥0)( 𝑥 − 𝑥1) + ⋯ + 𝑎 𝑛( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)… ( 𝑥 − 𝑥 𝑛−1)
  • 22. Método de diferencias divididas Este método sirve para calcular los coeficientes del polinomio interpolador de Newton. Debemos calcular las siguientes generalidades: 𝑓[ 𝑥 𝑘] = 𝑓(𝑥 𝑘) 𝑓[ 𝑥 𝑘−1; 𝑥 𝑘] = 𝑓( 𝑥 𝑘)− 𝑓( 𝑥 𝑘−1) 𝑥 𝑘 − 𝑥 𝑘−1 𝑓[ 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘] = 𝑓[ 𝑥 𝑘−1; 𝑥 𝑘] − 𝑓[ 𝑥 𝑘−2; 𝑥 𝑘−1] 𝑥 𝑘 − 𝑥 𝑘−2 𝑓[ 𝑥 𝑘−3; 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘] = 𝑓[ 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘]− 𝑓[ 𝑥 𝑘−3; 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘] 𝑥 𝑘 − 𝑥 𝑘−3 Para ello, vamos a construir una tabla de diferencias divididas: 𝑥 𝑘 𝑓( 𝑥 𝑘) = 𝑦 𝑘 𝑓[ 𝑥 𝑘−1; 𝑥 𝑘] 𝑓[ 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘] 𝑓[ 𝑥 𝑘−3; 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘] 𝑥0 𝑦0 𝑥1 𝑦1 𝑓[ 𝑥0; 𝑥1] 𝑥2 𝑦2 𝑓[ 𝑥1; 𝑥2] 𝑓[ 𝑥0; 𝑥1; 𝑥2] 𝑥3 𝑦3 𝑓[ 𝑥3; 𝑥2] 𝑓[ 𝑥1; 𝑥2; 𝑥3] 𝑓[ 𝑥0; 𝑥1; 𝑥2; 𝑥3] Escrito con las fórmulas: 𝑥 𝑘 𝑓( 𝑥 𝑘) = 𝑦 𝑘 𝑓[ 𝑥 𝑘−1; 𝑥 𝑘] 𝑓[ 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘] 𝑓[ 𝑥 𝑘−3; 𝑥 𝑘−2; 𝑥 𝑘−1; 𝑥 𝑘] 𝑥0 𝑦0 𝑥1 𝑦1 𝑦1 − 𝑦0 𝑥1 − 𝑥0 (𝑎) 𝑥2 𝑦2 𝑦2 − 𝑦1 𝑥2 − 𝑥1 (𝑏) 𝑏 − 𝑎 𝑥2 − 𝑥0 (𝑑) 𝑥3 𝑦3 𝑦3 − 𝑦2 𝑥3 − 𝑥2 (𝑐) 𝑐 − 𝑏 𝑥3 − 𝑥1 (𝑒) 𝑒 − 𝑓 𝑥3 − 𝑥0 Coeficientes del Polinomio de Newton
  • 23. Una vez completado el cuadro, los números que quedan en la diagonal principal son los coeficientes del polinomio interpolador de Newton. Cota de Error Es igual que el término de Lagrange: 𝐸 𝑛 ( 𝑥) = ∏ ( 𝑥 − 𝑥 𝑘) ∗ 𝑓 𝑛+1𝑛 𝑘=0 ( 𝑛 + 1)! Mínimos Cuadrados En su forma más simple, intenta minimizar la suma de los cuadrados de las diferencias ordenadas (llamadas residuos) entre los puntos generados por la función y los correspondientes en los datos. El método de resolución se basa en resolver un sistema de ecuaciones dado un conjunto de n puntos. Si ajustamos para una función y = f (x), entonces la distancia vertical dk desde el punto (xk, yk) hasta el punto (xk, f(xk)) es: 𝑑 𝑘 = | 𝑓(𝑥 𝑘)− 𝑦 𝑘| El objetivo es minimizar la suma de los cuadrados de las distancias verticales dk: 𝐸( 𝐴, 𝐵, … , 𝑁) = ∑( 𝑓(𝑥 𝑘)− 𝑦 𝑘)2 𝑛 𝑘=1 = ∑( 𝑑 𝑘)2 𝑛 𝑘=1 El valor mínimo de la función E se determina igualando a cero las derivadas parciales 𝜕𝐸 𝜕𝐴 ; 𝜕𝐸 𝜕𝐵 ; …; 𝜕𝐸 𝜕𝑁 y resolviendo las ecuaciones que resulten en A, B y todas las constantes.
  • 24. El resultado de esta operación es un conjunto de ecuaciones para resolver la cual su resolución nos da el valor de cada constante de la expresión de ajuste adoptada. El tipo de ajuste que vamos a utilizar estará dado por distribución de puntos y la relación que encontremos entre ellos en el gráfico. Ajuste Lineal Tenemos como función de ajuste a una función lineal 𝑦 = 𝐴𝑥 + 𝐵 La función distancia que encontramos será de esta manera: 𝑑 𝑘 = 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘 Sumando la distancia de cada punto elevada al cuadrado obtenemos: 𝐸( 𝐴, 𝐵) = ∑ 𝑑 𝑘 2 𝑛 𝑘=1 = ∑( 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘)2 𝑛 𝑘=1 Derivando con respecto a A: 𝜕𝐸( 𝐴, 𝐵) 𝜕𝐴 = ∑ 2( 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘)∗ 𝑥 𝑘 𝑛 𝑘=1 𝜕𝐸( 𝐴, 𝐵) 𝜕𝐴 = 2 ∑( 𝐴𝑥 𝑘 2 + 𝐵𝑥 𝑘 − 𝑦 𝑘 𝑥 𝑘) 𝑛 𝑘=1 Con respecto a B: 𝜕𝐸( 𝐴, 𝐵) 𝜕𝐵 = ∑ 2( 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘) 𝑛 𝑘=1 𝜕𝐸( 𝐴, 𝐵) 𝜕𝐵 = 2∑( 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘) 𝑛 𝑘=1 Igualando cada derivada a cero obtenemos: 𝜕𝐸( 𝐴, 𝐵) 𝜕𝐴 = 2 ∑( 𝐴𝑥 𝑘 2 + 𝐵𝑥 𝑘 − 𝑦 𝑘 𝑥 𝑘) 𝑛 𝑘=1 = 0
  • 25. ∑( 𝐴𝑥 𝑘 2 + 𝐵𝑥 𝑘 − 𝑦 𝑘 𝑥 𝑘) 𝑛 𝑘=1 = 0 ∑ 𝐴𝑥 𝑘 2 𝑛 𝑘=1 + ∑ 𝐵𝑥 𝑘 𝑛 𝑘=1 − ∑ 𝑦 𝑘 𝑥 𝑘 𝑛 𝑘=1 = 0 𝐴 ∑ 𝑥 𝑘 2 𝑛 𝑘=1 + 𝐵 ∑ 𝑥 𝑘 𝑛 𝑘=1 = ∑ 𝑦 𝑘 𝑥 𝑘 𝑛 𝑘=1 (1) 𝜕𝐸( 𝐴, 𝐵) 𝜕𝐵 = 2∑( 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘) 𝑛 𝑘=1 = 0 ∑( 𝐴𝑥 𝑘 + 𝐵 − 𝑦 𝑘) 𝑛 𝑘=1 = 0 ∑ 𝐴𝑥 𝑘 𝑛 𝑘=1 + ∑ 𝐵 𝑛 𝑘=1 − ∑ 𝑦 𝑘 𝑛 𝑘=1 = 0 𝐴 ∑ 𝑥 𝑘 𝑛 𝑘=1 + 𝐵 ∑ 𝑥 𝑘 𝑛 𝑘=1 = ∑ 𝑦 𝑘 𝑛 𝑘=1 (2) Se debe plantear: { 𝐴 ∑ 𝑥 𝑘 2 𝑛 𝑘=1 + 𝐵 ∑ 𝑥 𝑘 𝑛 𝑘=1 = ∑ 𝑦 𝑘 𝑥 𝑘 𝑛 𝑘=1 𝐴 ∑ 𝑥 𝑘 𝑛 𝑘=1 + 𝐵 ∑ 𝑥 𝑘 𝑛 𝑘=1 = ∑ 𝑦 𝑘 𝑛 𝑘=1
  • 26. Para el cual es conveniente realizar una tabla como la que se muestra a continuación Nº de puntos xk yk xk 2 xkyk 1 X1 Y1 (X1)2 X1Y1 2 X2 Y2 (X2)2 X2Y2 3 X3 Y3 (X3)2 X3Y3 … … … … … N Xn Yn (Xn)2 XnYn Total Σ xk Σ yk Σ xk 2 Σ xk * yk Resolviendo el sistema encontramos los coeficientes a y b correspondientes a la ecuación y = A x + B. Ajuste Polinomial Para esta secuencia, el objetivo es el mismo teniendo en cuenta que la función modelo será: 𝑓( 𝑥 𝑘) = 𝐴0 + 𝐴1 𝑥 𝑘 1 + 𝐴2 𝑥 𝑘 2 + ⋯+ 𝐴 𝑚 𝑥 𝑘 𝑚 = ∑ 𝐴𝑖 𝑥 𝑘 𝑖 𝑚 𝑖=0 De donde Ai son los coeficientes del polinomio de ajuste. Con esta expresión, podemos decir: 𝑑 𝑘 = | 𝑓( 𝑥 𝑘)− 𝑦 𝑘| 𝐸( 𝐴0, 𝐴1, … , 𝐴 𝑚) = ∑( 𝑑 𝑘)2 𝑛 𝑘=1 = ∑( 𝑓( 𝑥 𝑘)− 𝑦 𝑘)2 𝑛 𝑘=1 𝐸( 𝐴0, 𝐴1, … , 𝐴 𝑚) = ∑( 𝑑 𝑘)2 𝑛 𝑘=1 = ∑ (∑ 𝐴𝑖 𝑥 𝑘 𝑖 𝑚 𝑖=0 − 𝑦 𝑘) 2𝑛 𝑘=1
  • 27. Como el objetivo es que los coeficientes minimicen la función, debemos derivar esta expresión con respecto a cada coeficiente e igualarlo a cero. 𝜕𝐸 𝜕𝐴𝑖 ) 𝐴 𝑗 = 2 ∑( 𝐴0 + 𝐴1 𝑥 𝑘 1 + 𝐴2 𝑥 𝑘 2 + ⋯ + 𝐴 𝑚 𝑥 𝑘 𝑚 − 𝑦 𝑘)∗ 𝑥 𝑘 𝑖 𝑛 𝑘=1 = 0 ∑(𝐴0 𝑥 𝑘 𝑖 + 𝐴1 𝑥 𝑘 1+𝑖 + 𝐴2 𝑥 𝑘 2+𝑖 + ⋯+ 𝐴 𝑚 𝑥 𝑘 𝑚+𝑖 − 𝑦 𝑘 𝑥 𝑘 𝑖 ) 𝑛 𝑘=1 = 0 ∑ 𝐴0 𝑥 𝑘 𝑖 𝑛 𝑘=1 + ∑ 𝐴1 𝑥 𝑘 1+𝑖 𝑛 𝑘=1 + ∑ 𝐴2 𝑥 𝑘 2+𝑖 𝑛 𝑘=1 + ⋯ + ∑ 𝐴 𝑚 𝑥 𝑘 𝑚+𝑖 𝑛 𝑘=1 = ∑ 𝑦 𝑘 𝑥 𝑘 𝑖 𝑛 𝑘=1 𝐴0 ∑ 𝑥 𝑘 𝑖 𝑛 𝑘=1 + 𝐴1 ∑ 𝑥 𝑘 1+𝑖 𝑛 𝑘=1 + 𝐴2 ∑ 𝑥 𝑘 2+𝑖 𝑛 𝑘=1 + ⋯+ 𝐴 𝑚 ∑ 𝑥 𝑘 𝑚+𝑖 𝑛 𝑘=1 = ∑ 𝑦 𝑘 𝑥 𝑘 𝑖 𝑛 𝑘=1 Esta expresión la tenemos m veces correspondientes a las m derivadas parciales de cada constante, dándonos un sistema de ecuaciones lineales (de m ecuaciones con m incógnitas) para resolver el cual su respuesta nos indica los coeficientes del polinomio de ajuste. NOTA: si los datos no muestran una naturaleza polinomial, puede ocurrir que la curva presente oscilaciones grandes. Este fenómeno llamado oscilación polinomial se hace más pronunciado conforme aumenta el grado del polinomio, y por esta razón, no se suelen usar polinomios de grado 6 o mayor, a no ser que se sepa que la función de la que provienen los datos es un polinomio. Forma Matricial de resolución para ajuste Nuestro objetivo es encontrar el valor de los Ai. Para ello, vamos a armar la matriz F dela siguiente manera:  Ubicamos de forma matricial los coeficientes de cada Ai y los disponemos de la siguiente manera:
  • 28. Ao A1 A2 … Am 1 X1 X1 2 … X1 m 1 X2 X2 2 … X2 m F= 1 X3 X3 2 … X3 m … … … … … 1 Xn Xn 2 … X1 m P u n t o s Coeficientes de Ai Notemos que:  La primer columna son los coeficientes del término independiente por lo tanto está multiplicada por 1  La segunda columna son los términos lineales, por lo que están multiplicados por x  La tercera por x2  La cuarta por x3  Así hasta el polinomio de grado m. Una vez escrita la matriz F podemos obtener su transpuesta: 1 1 1 … 1 X1 X2 X3 … Xn Ft = X1 2 X2 2 X3 2 … Xn 2 … … … … … X1 m X2 m X3 m … Xn m De estas dos matrices obtenemos lo siguiente: 𝐴 = 𝐹 𝑡 ∗ 𝐹 𝐵 = 𝐹 𝑡 ∗ 𝑌 Y es la matriz columna de los yk dela nube de puntos
  • 29. Una vez obtenidas ambas matrices, la expresión matricial queda definida de la siguiente manera: 𝐴 ∗ 𝐶 = 𝐵 De donde C es la matriz de coeficientes, sabemos que en este caso esta matriz es una matriz fila. Linealización de datos – Cambios de variable que linealizan datos La técnica de linealizar los datos ha sido empleada para ajustar curvas tales como 𝑦 = 𝐶𝑒 𝐴𝑋 , 𝑦 = 𝐴 ln(𝑥) + 𝐵 e 𝑦 = 𝐴 𝑥 + 𝐵 a un conjunto de datos. Una vez elegido el tipo de curva, hay que realizar un cambio de variable adecuado de manera que las nuevas variables se relacionen linealmente 𝑌 = 𝐴𝑋 + 𝐵 usando el cambio de variables y constantes. Función 𝑦 = 𝑓( 𝑥) Linealización 𝑌 = 𝐴𝑋 + 𝐵 Cambios de Variable
  • 30. 𝑦 = 𝑎 𝑥 + 𝑏 𝑦 = 𝑎 1 𝑥 + 𝑏 𝑦 = 𝑌; 1 𝑥 = 𝑋 𝑏 = 𝐵; 𝑎 = 𝐴 𝑦 = 𝑎 𝑥 + 𝑏 𝑦 = −1 𝑏 ( 𝑥𝑦)+ 𝑎 𝑏 𝑦 = 𝑌; 𝑥𝑦 = 𝑋 𝐴 = −1 𝑏 ; 𝐵 = 𝑎 𝑏 𝑦 = 1 𝑎𝑥 + 𝑏 1 𝑦 = 𝑎𝑥 + 𝑏 1 𝑦 = 𝑌; 𝑥 = 𝑋 𝑎 = 𝐴; 𝑏 = 𝐵 𝑦 = 𝑥 𝑎𝑥 + 𝑏 1 𝑦 = 𝑏 1 𝑥 + 𝑎 1 𝑦 = 𝑌; 1 𝑥 = 𝑋 𝑎 = 𝐵; 𝑏 = 𝐴 𝑦 = 𝑎 ln(𝑥) + 𝑏 𝑦 = 𝑎 ln(𝑥) + 𝑏 𝑦 = 𝑌; ln(𝑥) = 𝑋 𝑎 = 𝐴; 𝑏 = 𝐵 𝑦 = 𝑎𝑒 𝑏𝑥 ln(𝑦) = 𝑏𝑥 + ln(𝑎) ln(𝑦) = 𝑌; 𝑥 = 𝑋 ln(𝑎) = 𝐵; 𝑏 = 𝐴 𝑦 = 𝑎𝑥 𝑏 ln(𝑦) = 𝑏ln(𝑥) + ln(𝑎) ln(𝑦) = 𝑌; ln(𝑥) = 𝑋 ln(𝑎) = 𝐵; 𝑏 = 𝐴 𝑦 = ( 𝑎𝑥 + 𝑏)−2 𝑦 −1 2⁄ = 𝑎𝑥 + 𝑏 𝑦 −1 2⁄ = 𝑌; 𝑥 = 𝑋 𝑎 = 𝐴; 𝑏 = 𝐵 𝑦 = 𝑎𝑥𝑒−𝑏𝑥 ln ( 𝑦 𝑥 ) = ln(𝑎) − 𝑏𝑥 ln ( 𝑦 𝑥 ) = 𝑌; 𝑥 = 𝑋 −𝑏 = 𝐴; ln(𝑎) = 𝐵 𝑦 = 𝐿 1 + 𝑎𝑒 𝑏𝑥 ln ( 𝐿 𝑦 − 1) = 𝑏𝑥 + ln(𝑎) ln ( 𝐿 𝑦 − 1) = 𝑌; 𝑥 = 𝑋 𝑏 = 𝐴; ln(𝑎) = 𝐵 Ajuste de una función a una función Se quiere encontrar una función que se ajuste por algún criterio a la función dato. Las razones por las cuales se quiere aproximar una función a otra puede ser: Trabajar con una función más sencilla Realizar cálculos sobre la función encontrada: Integración, Evaluaciones, etc.
  • 31. Se planteará una función como combinación lineal de un conjunto de funciones base1. Como objetivo tendremos minimizar el cuadrado del área encerrada por las dos funciones. La cantidad de funciones base en general puede variar de 1 a 10 Dada una función ϕ(x) y un conjunto de M funciones linealmente independientes {𝑓𝑗( 𝑥)} el objetivo es encontrar M coeficientes {𝑐𝑗} tales que la función ϕ(x) definida como la combinación lineal: 𝜙( 𝑥) = ∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥) 𝑀 𝑗=1 Minimice el área de los cuadrados de los errores con respecto a f(x), es decir: 𝐸( 𝑐1, 𝑐2, … , 𝑐 𝑚) = ∫( 𝑑 𝑘)2 𝑏 𝑎 𝑑𝑥 = ∫(𝜙( 𝑥) − 𝑓( 𝑥)) 2 𝑏 𝑎 𝑑𝑥 = ∫ ((∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥) 𝑀 𝑗=1 ) − 𝑓( 𝑥)) 2 𝑑𝑥 𝑏 𝑎 Para que E alcance un mínimo en un punto, es necesario que cada derivada parcial en dicho punto sea cero: 𝜕𝐸 𝜕𝑐𝑖 ) 𝑐 𝑗 = 2 ∫ ((∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥) 𝑀 𝑗=1 ) − 𝑓( 𝑥)) 𝑏 𝑎 ∗ 𝑓𝑖( 𝑥) 𝑑𝑥 = 0 ∫ ((∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥) 𝑀 𝑗=1 ) − 𝑓( 𝑥)) 𝑏 𝑎 ∗ 𝑓𝑖( 𝑥) 𝑑𝑥 = 0 Realizando distributiva: ∫ (∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥) 𝑀 𝑗=1 𝑓𝑖( 𝑥))− 𝑓( 𝑥) 𝑓𝑖( 𝑥) 𝑏 𝑎 𝑑𝑥 = 0 1 Las funciones base son un conjunto de funciones linealmente independientes.
  • 32. ∫ (∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥) 𝑀 𝑗=1 𝑓𝑖( 𝑥))𝑑𝑥 𝑏 𝑎 − ∫ 𝑓( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥 𝑏 𝑎 = 0 ∫ (∑ 𝑐𝑗 ∗ 𝑓𝑗( 𝑥) 𝑀 𝑗=1 𝑓𝑖( 𝑥))𝑑𝑥 𝑏 𝑎 = ∫ 𝑓( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥 𝑏 𝑎 Intercambiando el orden de la suma y la integral y sacando cj fuera de la suma interna: ∑ 𝑐𝑗 𝑀 𝑗=1 ∫ 𝑓𝑗( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥 𝑏 𝑎 = ∫ 𝑓( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥 𝑏 𝑎 Obtenemos un sistema de ecuaciones lineales de orden M x M en el que las incógnitas son los coeficientes cj, estas ecuaciones reciben el nombre de ecuaciones normales o ecuaciones normales de Gauss. Observemos que el sistema se puede escribir: 𝐴 ∗ 𝑐 = 𝐵 De donde: A es la matriz de coeficientes en donde: 𝐴𝑖𝑗 = ∫ 𝑓𝑗( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥 𝑏 𝑎 C es la matriz de coeficientes a calcular. B es la matriz de términos independientes: 𝐵𝑖 = ∫ 𝑓( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥 𝑏 𝑎 Una observación importante es analizar lo que sucede en el caso de tener un ajuste cuyas funciones bases sean ortogonales, es decir, que las integrales cruzadas sean cero. Se dice que un conjunto de funciones { 𝜙 𝑛 , } 𝑛=0 ∞ es ortogonal en el intervalo [ 𝑎, 𝑏] si: 〈 𝜙 𝑛, 𝜙 𝑚 〉 = ∫ 𝜙 𝑛 ( 𝑥) 𝜙 𝑚( 𝑥) 𝑑𝑥 = 0, 𝑚 ≠ 𝑛 𝑏 𝑎
  • 33. En este caso la matriz de coeficientes del sistema de ecuaciones resultante queda diagonal, con el consecuente desacoplamiento de las ecuaciones. 𝐴𝑖𝑗 = ∫ 𝑓𝑗( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥 𝑏 𝑎 { = 0 𝑠𝑖 𝑖 ≠ 𝑗 ≠ 0 𝑠𝑖 𝑖 = 𝑗 Entonces, el cálculo de los coeficientes de ajustes para una base de funciones ortogonales resulta muy sencillo 𝑐𝑖 = 𝑏𝑖 𝐴𝑖𝑗 = ∫ 𝑓( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥 𝑏 𝑎 ∫ 𝑓𝑗( 𝑥) 𝑓𝑖( 𝑥) 𝑑𝑥 𝑏 𝑎 Ajuste de puntos a una combinación de funciones Se puede hacer el mismo análisis para un conjunto N de puntos {( 𝑥 𝑘, 𝑦 𝑘)} y un conjunto de M funciones linealmente independientes {𝑓𝑗( 𝑥 𝑘)}, se trata de encontrar M coeficientes {𝑐𝑗} tales que la función f(x) definida como combinación lineal 𝑓( 𝑥) = ∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘) 𝑀 𝑗=1 Minimice la suma de los cuadrados de los errores: 𝐸( 𝑐1, 𝑐2, …, 𝑐 𝑚 ) = ∑( 𝑑 𝑘)2 𝑛 𝑘=1 = ∑ ((∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘) 𝑀 𝑗=1 ) − 𝑦 𝑘) 2 𝑛 𝑘=1 Para que E alcance un mínimo en un punto dado, es necesario que cada derivada parcial en dicho punto sea cero. 𝜕𝐸 𝜕𝑐𝑖 ) 𝑐 𝑗 = 2∑ ((∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘) 𝑀 𝑗=1 )− 𝑦 𝑘)∗ 𝑓𝑖( 𝑥 𝑘) 𝑛 𝑘=1 = 0
  • 34. ∑ ((∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘) 𝑀 𝑗=1 ) − 𝑦 𝑘) ∗ 𝑓𝑖( 𝑥 𝑘) 𝑛 𝑘=1 = 0 Aplicando distributiva del producto: ∑ ((∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘) 𝑓𝑖( 𝑥 𝑘) 𝑀 𝑗=1 ) − 𝑦 𝑘 𝑓𝑖( 𝑥 𝑘)) 𝑛 𝑘=1 = 0 Aplicando distributiva de la suma ∑ ∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘) 𝑓𝑖( 𝑥 𝑘) 𝑀 𝑗=1 − 𝑛 𝑘=1 ∑ 𝑦 𝑘 𝑓𝑖( 𝑥 𝑘) 𝑛 𝑘=1 = 0 ∑ ∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘) 𝑓𝑖( 𝑥 𝑘) 𝑀 𝑗=1 = 𝑛 𝑘=1 ∑ 𝑦 𝑘 𝑓𝑖( 𝑥 𝑘) 𝑛 𝑘=1 Intercambiando el orden de la sumatoria: ∑ ∑ 𝑐𝑗 𝑓𝑗( 𝑥 𝑘) 𝑓𝑖( 𝑥 𝑘) 𝑛 𝑘=1 𝑀 𝑗=1 = ∑ 𝑦 𝑘 𝑓𝑖( 𝑥 𝑘) 𝑛 𝑘=1 ∑ 𝑐𝑗 ∑ 𝑓𝑗( 𝑥 𝑘) 𝑓𝑖( 𝑥 𝑘) 𝑛 𝑘=1 𝑀 𝑗=1 = ∑ 𝑦 𝑘 𝑓𝑖( 𝑥 𝑘) 𝑛 𝑘=1 Obtenemos un sistema de ecuaciones lineales de orden M x M en el que las incógnitas son los coeficientes 𝑐𝑗. Observemos que: A es la matriz de coeficientes en donde: 𝐴𝑖𝑗 = ∑ 𝑓𝑗( 𝑥 𝑘) 𝑓𝑖( 𝑥 𝑘)𝑛 𝑘=1 C es la matriz de coeficientes a calcular. B es la matriz de términos independientes: 𝐵𝑖 = ∑ 𝑦 𝑘 𝑓𝑖( 𝑥 𝑘)𝑛 𝑘=1 Interpolación por Splines – Interpolación polinomial a trozos
  • 35. Frecuentemente, la interpolación polinomial para un conjunto numeroso de m+1 datos {( 𝑥 𝑘; 𝑦 𝑘)} 𝑘=0 𝑁 resulta ser muy poco satisfactoria. Observamos que un polinomio de grado N puede presentar oscilaciones muy grandes al hacerla pasar por los puntos dados. Otra opción es ir enlazando, una detrás de otra las gráficas de un polinomio de grado bajo que solo interpolan entre dos nodos consecutivos. La unión consecutiva de todos estos polinomios nos da un polinomio a trozos. La interpolación por splines consiste en armar varios polinomios entre los puntos (o nodos) de manera tal de tener una “función a tramos” que, generalmente, será continua pero no derivable. Para m+1 puntos voy a tener m curvas de splines. Un factor a tener en cuenta es que, el grado del polinomio de splines me da una idea de los grados de libertad que tengo para resolver el sistema, si el grado del polinomio de cada spline es n, necesito n+1 ecuaciones para resolver todos los coeficientes de cada spline. Analizando lo anterior, n+1 ecuaciones por cada spline y m curvas de spline necesito ( 𝑛 + 1) ∗ 𝑚 ecuaciones ya que este número es la cantidad de incógnitas que tengo. Por ejemplo, si tengo 5 puntos tengo que armar 4 splines, y si cada spline es cúbica, tengo 4 incógnitas por cada spline. Por consiguiente necesito 4*4 = 16 ecuaciones para encontrar todos los coeficientes. Vamos a armar las ecuaciones de cada una: 1. Si analizamos por continuidad, conozco dos puntos por cada spline (serían los extremos de cada una) por lo que puedo formar 2*m ecuaciones. 2. Podemos obtener más ecuaciones si planteamos la continuidad en la derivada primera (las derivadas primeras en los puntos interiores son iguales). Este planteo me da m-1 ecuaciones ya que en los extremos no puedo calcular la continuidad (que equivalen a dos puntos = 1 spline menos) 3. En caso de que nos sigan faltando ecuaciones, planteamos continuidad en la derivada segunda (menos en extremos) y seguimos así hasta obtener todas las ecuaciones necesarias.
  • 36. Una vez obtenidas todas las ecuaciones, armamos el sistema de ecuaciones lineales de forma matricial (para facilitar cuentas) y resolvemos el sistema. Notemos que el sistema de ecuaciones lineales que es generalmente grande (de grandes dimensiones). Ejemplo gráfico
  • 37. Sistemas de Ecuaciones Lineales Introducción Un Sistema de ecuaciones lineales es un conjunto de ecuaciones lineales (de grado 1) definidas sobre un cuerpo o un anillo conmutativo. { 3𝑥1 + 2𝑥2 + 𝑥3 = 1 2𝑥1 + 2𝑥2 + 4𝑥3 = −2 −𝑥1 + 1 2 𝑥2 − 𝑥3 = 0 El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y x3 que satisfacen las tres ecuaciones. En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en forma normal como: { 𝑎11 𝑥1 + 𝑎12 𝑥2 + ⋯+ 𝑎1𝑛 𝑥 𝑛 = 𝑏1 𝑎21 𝑥1 + 𝑎22 𝑥2 + ⋯+ 𝑎2𝑛 𝑥 𝑛 = 𝑏2 … … …… … …… … … …… … … = ⋯ 𝑎 𝑚1 𝑥1 + 𝑎 𝑚2 𝑥2 + ⋯+ 𝑎 𝑚𝑛 𝑥 𝑛 = 𝑏 𝑚 Donde los 𝑥1; 𝑥2; …; 𝑥 𝑛 son las incógnitas y los números 𝑎𝑖𝑗 ∈ 𝐾 son los coeficientes del sistema sobre el cuerpo 𝐾 [= 𝑅, 𝐶, … ] es posible reescribir el sistema separado con coeficientes de notación matricial: [ 𝑎11 𝑎12 … 𝑎1𝑛 𝑎21 𝑎22 … 𝑎2𝑛 … … … … 𝑎 𝑚1 𝑎 𝑚2 … 𝑎 𝑚𝑛 ] ∗ [ 𝑥1 𝑥2 … 𝑥 𝑛 ] = [ 𝑏1 𝑏2 … 𝑏 𝑛 ] O bien: 𝐴 ∗ 𝑋 = 𝐵
  • 38. Donde A es una matriz m por n, X es un vector columna de longitud n y b es otro vector columna de longitud m. 𝐴 ∗ 𝑋 = 𝐵 ( 𝑚𝑥𝑛) ∗ ( 𝑛𝑥1) = (𝑚𝑥1) Tipos de Sistema Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:  Sistema incompatible si no tiene solución.  Sistema compatible si tiene solución, en este caso además puede distinguirse entre: o Sistema compatible determinado cuando tiene una única solución. o Sistema compatible indeterminado cuando admite un conjunto infinito de soluciones. Quedando así la clasificación: 𝑇𝑖𝑝𝑜𝑠 𝑑𝑒 𝑠𝑖𝑠𝑡𝑒𝑚𝑎𝑠 { 𝐶𝑜𝑚𝑝𝑎𝑡𝑖𝑏𝑙𝑒 { 𝐷𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑑𝑜 𝐼𝑛𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑑𝑜 𝐼𝑛𝑐𝑜𝑚𝑝𝑎𝑡𝑖𝑏𝑙𝑒 Desde un punto de vista algebraico los sistemas compatibles determinados se caracterizan porque el determinante de la matriz es diferente de cero: 𝑆𝑖𝑠𝑡𝑒𝑚𝑎 𝐶𝑜𝑚𝑝𝑎𝑡𝑖𝑏𝑙𝑒 𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑑𝑜 ⇔ det(𝐴) ≠ 0 Métodos para resolver sistemas de ecuaciones lineales Un sistema de ecuaciones lineales se puede optar resolver por dos caminos:  Método directo el cual implica demasiadas cuentas pero una solución segura. En estos métodos encontramos el método de Gauss y sustitución regresiva y la factorización triangular.
  • 39.  Métodos iterativos el cual las cuentas se reducen considerablemente pero puede que la iteración no converja. Eliminación Gaussiana y pivoteo – sustitución regresiva Para poder resolver un sistema de ecuaciones lineales por eliminación gaussiana necesitamos un sistema de N ecuaciones con N incógnitas. El objetico es construir una matriz triangular superior para realizar una sustitución regresiva. Una vez obtenida la matriz triangular superior despejamos de la última ecuación una incógnita, la reemplazamos en la de arriba y despejamos la otra incógnita y así sucesivamente hasta obtener todas las incógnitas a buscar. Una de las formas más rápidas para la obtención de la matriz triangular superior es el método de pivoteo, para el cual tenemos que seguir los siguientes pasos: 1. Ampliamos la matriz A agregándole como última columna la matriz de resultados. 2. Multiplicamos por algún escalar la primer fila de manera tal que el elemento a11 sea el número 1 (esto no es necesario hacerlo, se hace para facilitar los cálculos). Generalmente se divide toda esa fila por el pivote elegido. 3. Pivoteamos toda la diagonal principal hasta obtener la matriz triangular superior. 4. Resolvemos el sistema por sustitución regresiva. Para reducir los errores de cálculo, una estrategia de pivoteo es usar como pivote el elemento de mayor magnitud y, una vez colocado en la diagonal principal, usarlo para eliminar los restantes elementos de su columna que estén por debajo de él. Para resolver un sistema de N x N hace falta un total de (4𝑁3 + 9𝑁2 − 7𝑁) 6 ⁄ operaciones aritméticas. Si N = 20 tenemos que utilizar 5910 operaciones y la propagación de errores en los cálculos podría dar lugar a una respuesta incorrecta.
  • 40. Factorización triangular Para poder aplicar la factorización triangular (o factorización LU) necesitamos una matriz invertible. 𝐴 = 𝐿 𝑈 De donde L es una matriz triangular inferior cuya diagonal son todos 1 y U una matriz triangular superior. Para calcular esta factorización lo que hacemos es pivotear la matriz A hasta obtener una matriz triangular superior. Luego, para calcular L lo que hacemos es completar la diagonal con 1 y los elementos faltantes se calculan de la siguiente manera: 𝐿 𝑖𝑗 = 1 𝑈𝑖𝑗 ∗ 𝐴𝑖𝑗 Este método sale de resolver la multiplicación de LU = A a. Pivoteo A hasta obtener matriz superior (U) b. 𝐿 𝑖𝑗 = 1 𝑈𝑖𝑗 ∗ 𝐴𝑖𝑗, con estos valores obtenemos L Una vez obtenidas las dos matrices podemos reemplazar el sistema A*X = B en el sistema equivalente LU*X = B De este sistema nuevo podemos resolverlo de la siguiente manera: Decir que UX = Y de donde el sistema a resolver es LY = B, calculamos Y y con estos valores calculamos X (sabiendo que Y = UX). Todo lo resolvemos por sustitución regresiva. Método Jacobi Este método es utilizado para resolver los sistemas de ecuaciones lineales mucho más rápido que por los métodos directos.
  • 41. Para resolver un sistema por Jacobi necesitamos reescribir el sistema de ecuaciones lineales. Dado el sistema: { 𝑎11 𝑥1 + 𝑎12 𝑥2 + ⋯+ 𝑎1𝑛 𝑥 𝑛 = 𝑏1 𝑎21 𝑥1 + 𝑎22 𝑥2 + ⋯+ 𝑎2𝑛 𝑥 𝑛 = 𝑏2 … … …… … …… … … …… … … = ⋯ 𝑎 𝑚1 𝑥1 + 𝑎 𝑚2 𝑥2 + ⋯+ 𝑎 𝑚𝑛 𝑥 𝑛 = 𝑏 𝑚 Lo reescribimos de manera tal de despejar de la primera ecuación la primer incógnita, de la segunda la segunda y así sucesivamente. { 𝑥1 = 𝑏1 − 𝑎12 𝑥2 − ⋯− 𝑎1𝑛 𝑥 𝑛 𝑎11 𝑥2 = 𝑏2 − 𝑎21 𝑥1 − ⋯− 𝑎2𝑛 𝑥 𝑛 𝑎22 … = ⋯ … …… … …… … …… … … … 𝑥 𝑛 = 𝑏 𝑚 − 𝑎 𝑚1 𝑥1 − 𝑎 𝑚2 𝑥2 − 𝑎 𝑚𝑛−1 𝑥 𝑛−1 𝑎 𝑚𝑛 A todas las incógnitas del lado izquierdo le ponemos el subíndice k+1 y a la de la derecha el subíndice k. { ( 𝑥1) 𝑘+1 = 𝑏1 − 𝑎12( 𝑥2) 𝑘 − ⋯− 𝑎1𝑛( 𝑥 𝑛) 𝑘 𝑎11 ( 𝑥2) 𝑘+1 = 𝑏2 − 𝑎21( 𝑥1) 𝑘 − ⋯− 𝑎2𝑛( 𝑥 𝑛) 𝑘 𝑎22 … = ⋯ … …… … …… … …… … … … ( 𝑥 𝑛) 𝑘+1 = 𝑏 𝑚 − 𝑎 𝑚1( 𝑥1) 𝑘 − 𝑎 𝑚2( 𝑥2) 𝑘 − 𝑎 𝑚𝑛−1( 𝑥 𝑛−1) 𝑘 𝑎 𝑚𝑛 Una vez obtenido este sistema elijo un punto cualquiera inicial (P0) y lo reemplazo en cada Xk; esto me da un nuevo punto P1. Seguimos iterando hasta que converja en un punto que será la solución del problema. Si la matriz de coeficientes original es diagonalmente dominante, el método de Jacobi converge seguro.
  • 42. Una matriz se dice matriz diagonalmente dominante, si en cada uno de los renglones, el valor absoluto del elemento de la diagonal principal es mayor que la suma de los valores absolutos de los elementos restantes del mismo renglón. A veces la matriz de un sistema de ecuaciones no es diagonalmente dominante pero cuando se cambian el orden de las ecuaciones y las incógnitas el nuevo sistema puede tener matriz de coeficientes diagonalmente dominante. | 𝑎 𝑘𝑘| > ∑|𝑎 𝑘𝑗 | 𝑛 𝑗=1 Método Gauss - Seidel Este método es similar al de Jacobi, con la diferencia que se acelera la convergencia. Observemos que en el método anterior produce sucesiones que convergen (( 𝑥1) 𝑘;( 𝑥2) 𝑘;… ; ( 𝑥 𝑛) 𝑘). Puesto que ( 𝑥1) 𝑘+1 es probablemente mejor aproximación que ( 𝑥1) 𝑘, sería razonable usar ( 𝑥1) 𝑘+1 en vez de ( 𝑥1) 𝑘 a la hora de calcular ( 𝑥2) 𝑘+1 y, de forma semejante, sería mejor usar( 𝑥1) 𝑘+1 e ( 𝑥2) 𝑘+1 en el cálculo de ( 𝑥3) 𝑘+1. { 𝑥1 = 𝑏1 − 𝑎12 𝑥2 − ⋯− 𝑎1𝑛 𝑥 𝑛 𝑎11 𝑥2 = 𝑏2 − 𝑎21 𝑥1 − ⋯− 𝑎2𝑛 𝑥 𝑛 𝑎22 … = ⋯ … …… … …… … …… … … … 𝑥 𝑛 = 𝑏 𝑚 − 𝑎 𝑚1 𝑥1 − 𝑎 𝑚2 𝑥2 − 𝑎 𝑚𝑛−1 𝑥 𝑛−1 𝑎 𝑚𝑛 Con los subíndices: { ( 𝑥1) 𝑘+1 = 𝑏1 − 𝑎12( 𝑥2) 𝑘 − ⋯− 𝑎1𝑛( 𝑥 𝑛) 𝑘 𝑎11 ( 𝑥2) 𝑘+1 = 𝑏2 − 𝑎21( 𝑥1) 𝑘+1 − ⋯ − 𝑎2𝑛 ( 𝑥 𝑛) 𝑘 𝑎22 … = ⋯ … …… … …… … …… … … … ( 𝑥 𝑛) 𝑘+1 = 𝑏 𝑚 − 𝑎 𝑚1 ( 𝑥1) 𝑘+1 − 𝑎 𝑚2( 𝑥2) 𝑘+1 − 𝑎 𝑚𝑛−1( 𝑥 𝑛−1) 𝑘+1 𝑎 𝑚𝑛
  • 43. Determinación de convergencia de ambos métodos de iteración Dado el sistema de ecuaciones lineales AX = B, sin importar el método de iteración que utilicemos (Jacobi o Gauss Seidel) podemos determinar de antemano si el sistema converge o no para no hacer la iteración en vano. Podemos tomar a la matriz de coeficientes A y descomponerla en su diagonal menos su triangular inferior y su triangular superior. 𝐴 = 𝐷 − 𝐿 − 𝑈 { 𝐽𝐴𝐶𝑂𝐵𝐼: 𝐴 = 𝐷 − (𝐿 + 𝑈) 𝐺𝐴𝑈𝑆𝑆 − 𝑆𝐸𝐼𝐷𝐸𝐿: 𝐴 = ( 𝐷 − 𝐿) − 𝑈 Obtención de las matrices de Jacobi y Gauss Seidel JACOBI GAUSS – SEIDEL 1) Escribimos el sistema de ecuaciones de manera matricial 𝐴 ∗ 𝑋 = 𝐵 2) Reemplazamos la matriz A 𝐴 = 𝐷 − (𝐿 + 𝑈) 𝐴 = ( 𝐷 − 𝐿) − 𝑈 [ 𝐷 − ( 𝐿 + 𝑈)] ∗ 𝑋 = 𝐵 [( 𝐷 − 𝐿) − 𝑈] ∗ 𝑋 = 𝐵 3) Distribuimos el producto 𝐷𝑋 − ( 𝐿 + 𝑈) 𝑋 = 𝐵 ( 𝐷 − 𝐿) 𝑋 − 𝑈𝑋 = 𝐵 4) Pasamos el término restando al otro miembro 𝐷𝑋 = 𝐵 + ( 𝐿 + 𝑈) 𝑋 ( 𝐷 − 𝐿) 𝑋 = 𝐵 + 𝑈𝑋 5) Multiplicamos por la inversa de la matriz que queda multiplicando (a izquierda) 𝐷−1 𝐷𝑋 = 𝐷−1 𝐵 + 𝐷−1( 𝐿 + 𝑈) 𝑋 ( 𝐷 − 𝐿)−1( 𝐷 − 𝐿) 𝑋 = ( 𝐷 − 𝐿)−1 𝐵 + ( 𝐷 − 𝐿)−1 𝑈𝑋 𝑋 = 𝐷−1 𝐵 + [ 𝐷−1( 𝐿 + 𝑈)] 𝑋 𝑋 = ( 𝐷 − 𝐿)−1 𝐵 + [( 𝐷 − 𝐿)−1 𝑈] 𝑋 𝑋 = 𝐶𝑗 + 𝑇𝑗 𝑋 𝑋 = 𝐶 𝐺−𝑆 + 𝑇𝐺−𝑆 𝑋 Observemos que los términos son: 𝐶𝑗 = 𝐷−1 𝐵 𝑇𝑗 = 𝐷−1( 𝐿 + 𝑈) 𝐶 𝐺−𝑆 = ( 𝐷 − 𝐿)−1 𝐵 𝑇𝐺−𝑆 = ( 𝐷 − 𝐿)−1 𝑈
  • 44. Las iteraciones convergen sí y sólo sí 𝜌( 𝑇) < 1 de donde 𝜌( 𝑇) es el radio espectral de la matriz T. 𝜌( 𝑇) = 𝑚á𝑥𝑖𝑚𝑜 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟 Cálculo de autovalores Para calcular los autovalores de una matriz hay que realizar los siguientes pasos: 1. A la matriz T del método restarle un λI de donde I es la matriz identidad y tiene las mismas dimensiones que T. 𝑇 − 𝜆𝐼 2. A esta nueva matriz le aplicamos el determinante y la igualamos a cero | 𝑇 − 𝜆𝐼| = 0 3. Resolvemos la ecuación en función de λ. Una vez obtenidos los autovalores vemos cual es el máximo en módulo. Corolario: Si ‖ 𝑇‖ < 1 para cualquier norma matricial natural, entonces la sucesión {𝑥(𝑘) } 𝑘=0 ∞ en la ecuación 𝑥(𝑘) = 𝑇 ∗ 𝑥( 𝑘−1) + 𝐶 converge para cualquier vector inicial X0 a un vector X y se satisface las siguientes cotas de error: 1) ‖𝑥 − 𝑥(𝑘) ‖ ≤ ‖ 𝑇‖ 𝑘 ∗ ‖𝑥(0) − 𝑥‖ 2) ‖𝑥 − 𝑥(𝑘) ‖ ≤ ‖ 𝑇‖ 𝑘 1 − ‖ 𝑇‖ ∗ ‖𝑥(1) − 𝑥(0) ‖ SOR (Successive Over Relaxation) - Sobrerelajación Cuando se utilizan métodos iterativos puede suceder que la sucesión no sea convergente o ésta es muy lenta. Hay métodos para superar estas fallas, aquí estudiaremos el método de Sobre-relajación, lo que se busca es acelerar la convergencia, sobre todo en
  • 45. aquellos casos en que la matriz de los coeficientes del sistema No es estrictamente diagonal dominante. La fórmula para aplicar la sobre-relajación a un sistema, surge del método de Gauss - Seidel con una ligera perturbación o modificación en las componentes recién calculadas a través de un promedio ponderado delas dos últimas iteraciones: 𝑥 𝑖 (𝑘+1) = (1 − 𝑤) 𝑥 𝑖 (𝑘) + 𝑤 𝑎𝑖𝑖 (𝑏𝑖 − ∑ 𝑎𝑖𝑗 𝑥𝑗 𝑖−1 𝑗=1 − ∑ 𝑎𝑖𝑗 𝑥𝑗 𝑛 𝑗=𝑖+1 ) El valor de w adopta valores de 0 a 2  Si w = 1, la modificación representa la forma iterativa de Gauss-Seidel  Si 0 < w < 1, la modificación se denomina sub-relajación y se emplea para que un sistema no convergente sea convergente o apresure su convergencia.  Si 1 < w < 2, la modificación se denomina SOBRE-RELAJACIÓN, la cual está designada para acelerar la convergencia. También se le llama sobre- relajación simultánea o sucesiva: SOR. Es aplicable a sistemas muy grandes. Generalmente, el valor de w se determina empíricamente, para nuestros cálculos se da de dato. Refinamiento iterativo Si las cuentas se realizaran con una aritmética infinita, es decir, teniendo en cuenta todos los decimales, se encontraría la solución exacta luego de una cantidad finita de operaciones. Para como en los hechos se utilizan computadoras para resolver grandes sistemas de ecuaciones lineales, la solución exacta no se alcanza. Se tiene entonces una aproximación de 𝑥0 a la solución de x del sistema de ecuaciones lineales. Podemos definir de esta manera, un vector residuo que es la diferencia entre el punto solución y el obtenido por la iteración:
  • 46. 𝑟𝑖 = 𝐵 − 𝐴𝑥 𝑖 Partiendo del sistema matricial: 𝐴𝑋 = 𝐵 La diferencia entre el punto de la iteración y el anterior es: 𝑥0 + ∆𝑥1 𝐴( 𝑥0 + ∆𝑥1) = 𝐵 𝐴𝑥0 + 𝐴∆𝑥1 = 𝐵 𝐴∆𝑥1 = 𝐵 − 𝐴𝑥0 𝐴∆𝑥1 = 𝑟0 Como: 𝐴 = 𝐿𝑈 𝐿𝑈∆𝑥1 = 𝑟0 Realizando el cambio de variables: 𝑈∆𝑥1 = ∆𝑦1 𝐿∆𝑦1 = 𝑟0 Se resuelve y se obtiene: ∆𝑦1 Con ese valor se obtiene el valor: ∆𝑥1 sabiendo que: 𝑈∆𝑥1 = ∆𝑦1 Luego: 𝑥1 = 𝑥0 + ∆𝑥1 Este procedimiento se repite hasta alcanzar la precisión satisfactoria.
  • 47. Integraciónnumérica Definición La integración numérica es una herramienta esencial que se usa en la ciencia e ingeniería para obtener valores aproximados de integrales definidas que no pueden calcularse analíticamente. Por ejemplo, en el campo de la estadística, el modelo de Distribución Normal (campana de Gauss), para calcular la función de distribución deberíamos integrar la función de densidad: ∫ 1 𝜎√2𝜋 𝑒 − 1 2 ( 𝑡−𝜇 𝜎 ) 2 𝑑𝑡 𝑥 −∞ Puesto que no hay una expresión analítica para esta función, debemos usar algún método de integración numérica para calcular sus valores. Tenemos como objetivo aproximar la integral definida de una función f(x) en un intervalo [a; b] evaluando f(x) en un número finito de puntos. Supongamos que: 𝑎 = 𝑥0 < 𝑥1 < ⋯ < 𝑥 𝑚 = 𝑏 Una función del tipo:
  • 48. 𝑄[ 𝑓] = ∑ 𝑤 𝑘 𝑓( 𝑥 𝑘) 𝑀 𝑘=0 = 𝑤0 𝑓( 𝑥0) + 𝑤1 𝑓( 𝑥1)+ ⋯+ 𝑤 𝑀 𝑓( 𝑥 𝑀) De manera tal que: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 = 𝑄[ 𝑓] + 𝐸[ 𝑓] Se llama fórmula de integración numérica o cuadratura; el termino E[f] se llama error de truncamiento de la fórmula; los valores {xk} se llaman nodos de integración o nodos de cuadratura y los valores {wk} se llaman pesos de la fórmula. Los nodos se eligen de diferentes maneras, dependiendo de la situación concreta en la que queremos aplicar una fórmula. Grados de precisión EL grado de precisión de una fórmula de cuadratura es el primer natural “n” que verifica E[Pi] = 0 para todos los polinomios Pi(x) de grado i ≤ n, y existe un polinomio Pn+1 tal que E[Pn+1(x)] ≠ 0. Analizando un polinomio cualquiera arbitrario de grado i 𝑃𝑖( 𝑥) = 𝑎0 + 𝑎1 𝑥1 + 𝑎2 𝑥2 + ⋯+ 𝑎𝑖 𝑥 𝑖 Notemos que: Si 𝑖 ≤ 𝑛 entonces la derivada 𝑃𝑖 𝑛+1( 𝑥) = 0 para todo x. Si 𝑖 = 𝑛 + 1 entonces 𝑃 𝑛+1 𝑛+1( 𝑥) = ( 𝑛 + 1)! 𝑎 𝑛+1 para todo x Con lo expuesto podemos decir que la forma general del error de truncamiento es:
  • 49. 𝐸[ 𝑓] = 𝐾 ∗ 𝑓 𝑛+1 ( 𝑐) Siendo K una constante y n el grado del polinomio. La deducción de las fórmulas de cuadratura puede hacerse a partir de la interpolación polinomial. Recordemos que existe un único polinomio PM(x) de grado menor o igual que M que pasa por M+1 puntos dados {( 𝑥 𝑘, 𝑦 𝑘)} 𝑘=0 𝑀 cuyas abscisas están equiespaciadas. Fórmula de cuadratura cerrada de Newton - Cotes Cuando usamos un polinomio para aproximar la función f(x) en [a; b], de manera que 𝑦 𝑘 = 𝑓( 𝑥 𝑘) y luego aproximamos la integral de f(x) por la integral de PM (x). si el primer nodo es 𝑥0 = 𝑎 y el último es 𝑥 𝑀 = 𝑏 , entonces decimos que la fórmula de Newton – Cotes es cerrada. Precisión de las fórmulas de Newton - Cotes Supongamos que f(x) es suficientemente derivable, entonces el término del error de truncamiento E[f] de las fórmulas de Newton – Cotes contienen una derivada de orden superior adecuada evaluada en un cierto punto c perteneciente al intervalo (a; b). En pocas palabras, derivamos hasta un grado más del orden del polinomio y lo evaluamos en un punto c intermedio entre a y b. Nuestro objetivo es, en primera instancia, encontrar un polinomio que se aproxima a nuestra función a integrar. Partimos del polinomio interpolador de Lagrange PM(x) para los nodos 𝑥0, 𝑥1,… , 𝑥 𝑀que se usa para aproximar a f(x). Recordemos el polinomio interpolador de Lagrange: Para calcular un polinomio de grado N usamos:
  • 50. 𝑃1( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿 𝑁,𝑘( 𝑥) 𝑛 𝑘=0 De donde: 𝐿 𝑁,𝑘( 𝑥) = ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)… ( 𝑥 − 𝑥 𝑘−1)( 𝑥 − 𝑥 𝑘+1) …( 𝑥 − 𝑥 𝑁) ( 𝑥 𝑘 − 𝑥0)( 𝑥 𝑘 − 𝑥1)( 𝑥 𝑘 − 𝑥2)… ( 𝑥 𝑘 − 𝑥 𝑘−1)( 𝑥 𝑘 − 𝑥 𝑘+1)… ( 𝑥 𝑘 − 𝑥 𝑁) Notemos que: En el numerador no aparece el término ( 𝑥 − 𝑥 𝑘) En el denominador no aparece el término ( 𝑥 𝑘 − 𝑥 𝑘), es decir, que no se anule. En pocas palabras, sacamos los términos que anulan el denominador tanto en el numerador como en el denominador. Con lo recordado anteriormente, podemos decir que: 𝑓( 𝑥) ≈ 𝑃 𝑀( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿 𝑁,𝑘( 𝑥) 𝑛 𝑘=0 Una vez obtenido el polinomio, lo reemplazamos por f(x) y calculamos la integral de la función. ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ ∫ 𝑃 𝑀( 𝑥) 𝑑𝑥 𝑏 𝑎 = ∫ (∑ 𝑦 𝑘 ∗ 𝐿 𝑁,𝑘( 𝑥) 𝑛 𝑘=0 ) 𝑑𝑥 𝑏 𝑎 = ∑ ∫ 𝑦 𝑘 ∗ 𝐿 𝑁,𝑘( 𝑥) 𝑏 𝑎 𝑛 𝑘=0 𝑑𝑥 Como 𝑦 𝑘 es constante, sale fuera de la integral: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ ∑ 𝑦 𝑘 ∫ 𝐿 𝑁,𝑘( 𝑥) 𝑏 𝑎 𝑛 𝑘=0 = ∑ 𝑤 𝑘 𝑓( 𝑥 𝑘) 𝑀 𝑘=0
  • 51. Fórmulas de cuadratura cerrada de Newton- Cotes Reglas de Trapecios y Simpson con sus respectivos errores Supongamos que f(x) es suficientemente derivable; entonces el término del error de truncamiento E(f) de las fórmulas de Newton – Cotes contienen una derivada de orden superior adecuada evaluada en un cierto punto c perteneciente a (a, b). Dependiendo del grado de precisión del polinomio obtendremos las siguientes reglas: N = 1  Regla de Trapecios N = 2  Regla de Simpson N = 3  Regla 3/8 de Simpson N = 4  Regla de Boole. Realizaremos la demostración. Recordemos que aproximamos la función f con el polinomio de Lagrange 𝑓( 𝑥) ≈ 𝑃 𝑀( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿 𝑁,𝑘( 𝑥) 𝑛 𝑘=0 Entonces: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ ∑ 𝑦 𝑘 ∫ 𝐿 𝑁,𝑘( 𝑥) 𝑏 𝑎 𝑛 𝑘=0 = ∑ 𝑤 𝑘 𝑓( 𝑥 𝑘) 𝑀 𝑘=0 A partir de esta expresión, dependiendo del grado del polinomio de Lagrange obtendremos las respectivas expresiones: Regla de Trapecios Para la la regla de Trapecios, necesitamos dos puntos y obtenemos un polinomio de grado 1. Su precisión es de grado 1 ya que es el máximo polinomio que podemos aproximar perfectamente en un intervalo determinado.
  • 52. 𝑓( 𝑥) ≈ 𝑃1( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿1,𝑘( 𝑥) 1 𝑘=0 𝑓( 𝑥) ≈ 𝑃1( 𝑥) = 𝑦0 ∗ 𝐿1,0( 𝑥) + 𝑦1 ∗ 𝐿1,1( 𝑥) 𝑓( 𝑥) ≈ 𝑦0 ∗ 𝑥 − 𝑥1 𝑥0 − 𝑥1 + 𝑦1 ∗ 𝑥 − 𝑥0 𝑥1 − 𝑥0 Entonces: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ ∫ 𝑦0 ∗ 𝑥 − 𝑥1 𝑥0 − 𝑥1 + 𝑦1 ∗ 𝑥 − 𝑥0 𝑥1 − 𝑥0 𝑏 𝑎 Como 𝑦 𝑘 es constante, sale fuera de la integral: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ∫ 𝑥 − 𝑥1 𝑥0 − 𝑥1 𝑏 𝑎 𝑑𝑥 + 𝑦1 ∫ 𝑥 − 𝑥0 𝑥1 − 𝑥0 𝑏 𝑎 𝑑𝑥 Realizando un cambio de variable para facilitar el cálculo de la integral: 𝑋 = 𝑥0 + ℎ𝑡 𝑑𝑒𝑟𝑖𝑣𝑎𝑛𝑑𝑜 ⇒ 𝑑𝑋 = ℎ𝑑𝑡 El término 𝑥0 se lo conoce como valor inicial mientras que el término “h” se lo conoce como paso. Además, la variable ahora es “t”, de esta manera, para calcular un valor de 𝑥 𝑘 lo que hacemos es reemplazar a “t” por “k”: 𝑋 𝑘 = 𝑥0 + ℎ𝑘 Si definimos que están equiespaciados podemos afirmar que: 𝑋 𝑘 − 𝑋𝑗 = ( 𝑥0 + ℎ𝑘) − ( 𝑥0 + ℎ𝑗 ) = ℎ( 𝑘 − 𝑗) 𝑋 − 𝑋𝑗 = ( 𝑥0 + ℎ𝑡) − ( 𝑥0 + ℎ𝑗 ) = ℎ( 𝑡 − 𝑗)
  • 53. ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ∫ 𝑥 − 𝑥1 𝑥0 − 𝑥1 𝑏 𝑎 𝑑𝑥 + 𝑦1 ∫ 𝑥 − 𝑥0 𝑥1 − 𝑥0 𝑏 𝑎 𝑑𝑥 Reemplazando en las integrales obtenemos: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ∫ ℎ( 𝑡 − 1) ℎ(0 − 1) 1 0 ℎ 𝑑𝑡 + 𝑦1 ∫ ℎ( 𝑡 − 0) ℎ(1 − 0) 1 0 ℎ 𝑑𝑡 ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ∫ℎ (1 − 𝑡) 1 0 𝑑𝑡 + 𝑦1 ∫ ℎ𝑡 1 0 𝑑𝑡 El valor de h es constante, sale de la integral: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0ℎ ∫ (1 − 𝑡) 1 0 𝑑𝑡 + 𝑦1ℎ ∫ 𝑡 1 0 𝑑𝑡 ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ℎ ∗ (𝑡 − 1 2 𝑡2 | 0 1 ) + 𝑦1ℎ ∗ ( 1 2 𝑡2 | 0 1 ) ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0ℎ ∗ 1 2 + 𝑦1ℎ ∗ 1 2 ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ ℎ 2 ( 𝑦0 + 𝑦1 ) Regla de Simpson Para la regla de Simpson, necesitamos tres puntos y obtenemos un polinomio de grado 2. Los polinomios de grado 2 tienen una precisión de orden 3. 𝑓( 𝑥) ≈ 𝑃2( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿2,𝑘( 𝑥) 2 𝑘=0 𝑓( 𝑥) ≈ 𝑃2( 𝑥) = 𝑦0 ∗ 𝐿2,0( 𝑥) + 𝑦1 ∗ 𝐿2,1( 𝑥) + 𝑦2 ∗ 𝐿2,2( 𝑥) 𝑓( 𝑥) ≈ 𝑦0 ∗ ( 𝑥 − 𝑥1)( 𝑥 − 𝑥2) ( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2) + 𝑦1 ∗ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥2) ( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2) + 𝑦2 ∗ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1) ( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1)
  • 54. Entonces: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ ∫ (𝑦0 ∗ ( 𝑥 − 𝑥1)( 𝑥 − 𝑥2) ( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2) + 𝑦1 ∗ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥2) ( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2) + 𝑦2 ∗ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1) ( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1) ) 𝑑𝑥 𝑏 𝑎 Como 𝑦 𝑘 es constante, sale fuera de la integral: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ∫ ( 𝑥 − 𝑥1)( 𝑥 − 𝑥2) ( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2) 𝑏 𝑎 𝑑𝑥 + 𝑦1 ∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥2) ( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2) 𝑏 𝑎 𝑑𝑥 + 𝑦2 ∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1) ( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1) 𝑏 𝑎 𝑑𝑥 Realizando un cambio de variable para facilitar el cálculo de la integral: 𝑋 = 𝑥0 + ℎ𝑡 𝑑𝑒𝑟𝑖𝑣𝑎𝑛𝑑𝑜 ⇒ 𝑑𝑋 = ℎ𝑑𝑡 El término 𝑥0 se lo conoce como valor inicial mientras que el término “h” se lo conoce como paso. Además, la variable ahora es “t”, de esta manera, para calcular un valor de 𝑥 𝑘 lo que hacemos es reemplazar a “t” por “k”: 𝑋 𝑘 = 𝑥0 + ℎ𝑘 Si definimos que están equiespaciados podemos afirmar que: 𝑋 𝑘 − 𝑋𝑗 = ( 𝑥0 + ℎ𝑘) − ( 𝑥0 + ℎ𝑗 ) = ℎ( 𝑘 − 𝑗) 𝑋 − 𝑋𝑗 = ( 𝑥0 + ℎ𝑡) − ( 𝑥0 + ℎ𝑗 ) = ℎ( 𝑡 − 𝑗) ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ∫ ( 𝑥 − 𝑥1)( 𝑥 − 𝑥2) ( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2) 𝑏 𝑎 𝑑𝑥 + 𝑦1 ∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥2) ( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2) 𝑏 𝑎 𝑑𝑥 + 𝑦2 ∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1) ( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1) 𝑏 𝑎 𝑑𝑥 Reemplazando en las integrales obtenemos:
  • 55. ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ∫ ℎ2( 𝑡 − 1)( 𝑡 − 2) ℎ2(0 − 1)(0 − 2) 2 0 ℎ 𝑑𝑡 + 𝑦1 ∫ ℎ2( 𝑡 − 0)( 𝑡 − 2) ℎ2(1 − 0)(1− 2) 2 0 ℎ 𝑑𝑡 + 𝑦2 ∫ ℎ2( 𝑡 − 0)( 𝑡 − 1) ℎ2(2 − 0)(2 − 1) 2 0 ℎ 𝑑𝑡 El valor de h es constante, sale de la integral: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0ℎ ∫ ( 𝑡 − 1)( 𝑡 − 2) 2 2 0 𝑑𝑡 + 𝑦1ℎ ∫ ( 𝑡 − 0)( 𝑡 − 2) −1 2 0 𝑑𝑡 + 𝑦2ℎ ∫ ( 𝑡 − 0)( 𝑡 − 1) 2 2 0 𝑑𝑡 ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ℎ 2 ∫( 𝑡2 − 3𝑡 + 2) 2 0 𝑑𝑡 + 𝑦1 ℎ −1 ∫( 𝑡2 − 2𝑡) 2 0 𝑑𝑡 + 𝑦2 ℎ 2 ∫( 𝑡2 − 𝑡) 2 0 𝑑𝑡 ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ℎ 2 ∗ ( 1 3 𝑡3 − 3 2 𝑡2 + 2𝑡| 0 2 ) + 𝑦1 ℎ −1 ∗ ( 1 3 𝑡3 − 𝑡2 | 0 2 ) + 𝑦2 ℎ 2 ∗ ( 1 3 𝑡3 − 1 2 𝑡2 | 0 2 ) ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ℎ 2 ∗ 2 3 + 𝑦1 ℎ −1 ∗ −4 3 + 𝑦2 ℎ 2 ∗ 2 3 ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ℎ 3 ∗ +𝑦1 4 3 ℎ + 𝑦2 ℎ 3 ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ ℎ 3 ( 𝑦0 + 4𝑦1 + 𝑦2) Regla de 3 8 de Simpson y Boole Para la regla de 3 8 de Simpson, necesitamos cuatro puntos y obtenemos un polinomio de grado 3. Esta aproximación es de orden 3. 𝑓( 𝑥) ≈ 𝑃3( 𝑥) = ∑ 𝑦 𝑘 ∗ 𝐿3,𝑘( 𝑥) 3 𝑘=0 𝑓( 𝑥) ≈ 𝑃3( 𝑥) = 𝑦0 ∗ 𝐿3,0( 𝑥)+ 𝑦1 ∗ 𝐿3,1( 𝑥) + 𝑦2 ∗ 𝐿3,2( 𝑥) + 𝑦3 ∗ 𝐿3,3( 𝑥) 𝑓( 𝑥) ≈ 𝑦0 ( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3) ( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2)( 𝑥0 − 𝑥3) + 𝑦1 ( 𝑥 − 𝑥0)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3) ( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2)( 𝑥1 − 𝑥3) + 𝑦2 ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 ( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1)( + 𝑦3 ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2) ( 𝑥3 − 𝑥0)( 𝑥3 − 𝑥1)( 𝑥3 − 𝑥2)
  • 56. Entonces: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ ∫ (𝑦0 ( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3) ( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2)( 𝑥0 − 𝑥3) + 𝑦1 ( 𝑥 − 𝑥0)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3) ( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2)( 𝑥1 − 𝑥3) + 𝑦2 ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1) ( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1 𝑏 𝑎 + 𝑦3 ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2) ( 𝑥3 − 𝑥0)( 𝑥3 − 𝑥1)( 𝑥3 − 𝑥2) ) 𝑑𝑥 Como 𝑦 𝑘 es constante, sale fuera de la integral: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ∫ ( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3) ( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2)( 𝑥0 − 𝑥3) 𝑏 𝑎 𝑑𝑥 + 𝑦1 ∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3) ( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2)( 𝑥1 − 𝑥3) 𝑏 𝑎 𝑑𝑥 + 𝑦2 ∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥3) ( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1)( 𝑥2 − 𝑥3) 𝑏 𝑎 𝑑𝑥 + 𝑦3 ∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2) ( 𝑥3 − 𝑥0)( 𝑥3 − 𝑥1)( 𝑥3 − 𝑥2) 𝑏 𝑎 𝑑𝑥 Realizando un cambio de variable para facilitar el cálculo de la integral: 𝑋 = 𝑥0 + ℎ𝑡 𝑑𝑒𝑟𝑖𝑣𝑎𝑛𝑑𝑜 ⇒ 𝑑𝑋 = ℎ𝑑𝑡 El término 𝑥0 se lo conoce como valor inicial mientras que el término “h” se lo conoce como paso. Además, la variable ahora es “t”, de esta manera, para calcular un valor de 𝑥 𝑘 lo que hacemos es reemplazar a “t” por “k”: 𝑋 𝑘 = 𝑥0 + ℎ𝑘 Si definimos que están equiespaciados podemos afirmar que: 𝑋 𝑘 − 𝑋𝑗 = ( 𝑥0 + ℎ𝑘) − ( 𝑥0 + ℎ𝑗 ) = ℎ( 𝑘 − 𝑗) 𝑋 − 𝑋𝑗 = ( 𝑥0 + ℎ𝑡) − ( 𝑥0 + ℎ𝑗 ) = ℎ( 𝑡 − 𝑗)
  • 57. ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ∫ ( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3) ( 𝑥0 − 𝑥1)( 𝑥0 − 𝑥2)( 𝑥0 − 𝑥3) 𝑏 𝑎 𝑑𝑥 + 𝑦1 ∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3) ( 𝑥1 − 𝑥0)( 𝑥1 − 𝑥2)( 𝑥1 − 𝑥3) 𝑏 𝑎 𝑑𝑥 + 𝑦2 ∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥3) ( 𝑥2 − 𝑥0)( 𝑥2 − 𝑥1)( 𝑥2 − 𝑥3) 𝑏 𝑎 𝑑𝑥 + 𝑦3 ∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2) ( 𝑥3 − 𝑥0)( 𝑥3 − 𝑥1)( 𝑥3 − 𝑥2) 𝑏 𝑎 𝑑𝑥 Reemplazando en las integrales obtenemos: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ∫ ℎ3( 𝑡 − 1)( 𝑡 − 2)( 𝑡 − 3) ℎ3(0 − 1)(0− 2)(0− 3) 3 0 ℎ 𝑑𝑡 + 𝑦1 ∫ ℎ3( 𝑡 − 0)( 𝑡 − 2)( 𝑡 − 3) ℎ3(1 − 0)(1 − 2)(1 − 3) 3 0 ℎ 𝑑𝑡 + 𝑦2 ∫ ℎ3( 𝑡 − 0)( 𝑡 − 1)( 𝑡 − 3) ℎ3(2 − 0)(2 − 1)(2 − 3) 3 0 ℎ 𝑑𝑡 + 𝑦3 ∫ ℎ3( 𝑡 − 0)( 𝑡 − 1)( 𝑡 − 2) ℎ3(3 − 0)(3− 1)(3− 2) 3 0 ℎ 𝑑𝑡 El valor de h es constante, sale de la integral: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ∫ ( 𝑡 − 1)( 𝑡 − 2)( 𝑡 − 3) −6 3 0 ℎ 𝑑𝑡 + 𝑦1 ∫ ( 𝑡 − 0)( 𝑡 − 2)( 𝑡 − 3) 2 3 0 ℎ 𝑑𝑡 + 𝑦2 ∫ ( 𝑡 − 0)( 𝑡 − 1)( 𝑡 − 3) −2 3 0 ℎ 𝑑𝑡 + 𝑦3 ∫ ( 𝑡 − 0)( 𝑡 − 1)( 𝑡 − 2) 6 3 0 ℎ 𝑑𝑡 ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0ℎ ∫ 𝑡3 − 6𝑡2 + 11𝑡 − 6 −6 3 0 𝑑𝑡 + 𝑦1ℎ ∫ 𝑡3 − 5𝑡2 + 6𝑡 2 3 0 𝑑𝑡 + 𝑦2ℎ ∫ 𝑡3 − 4𝑡2 + 3𝑡 −2 3 0 𝑑𝑡 + 𝑦3ℎ ∫ 𝑡3 − 3𝑡2 + 2𝑡 6 3 0 𝑑𝑡 ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ℎ −6 ∗ ( 1 4 𝑡4 − 2𝑡3 + 11 2 𝑡2 − 6𝑡| 0 3 ) + 𝑦1 ℎ 2 ∗ ( 1 4 𝑡4 − 5 3 𝑡3 + 3𝑡2 | 0 3 ) + 𝑦2 ℎ −2 ∗ ( 1 4 𝑡4 − 4 3 𝑡3 + 3 2 𝑡2 | 0 3 ) + 𝑦3 ℎ 6 ∗ ( 1 4 𝑡4 − 𝑡3 + 𝑡2 | 0 3 ) ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 ℎ −6 ∗ ( −9 4 ) + 𝑦1 ℎ 2 ∗ 9 4 + 𝑦2 ℎ −2 ∗ ( −9 4 ) + 𝑦3 ℎ 6 ∗ ( 9 4 )
  • 58. ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 𝑦0 3 8 ℎ + 𝑦1 9 8 ℎ + 𝑦2 9 8 ℎ + 𝑦3 3 8 ℎ ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 3 8 ℎ( 𝑦0 + 3𝑦1 + 3𝑦2 + 𝑦3) Para la Regla de Boole es el mismo mecanismo, quedando como expresión final. ∫ 𝑓( 𝑥) 𝑑𝑥 𝑏 𝑎 ≈ 2 45 ℎ(7𝑦0 + 32𝑦1 + 12𝑦2 + 32𝑦3 + 7𝑦4) Notemos que para las reglas necesitamos n+1 puntos o nodos para resolver. Y que los nodos los tenemos que tener equidistantes Reglas compuestas En caso de querer usar estas reglas con más nodos nos apoyamos en que podemos partir la integral con sumas de subintervalos y aplicar una suma de reglas. Por ejemplo: para calcular la integral de f(x) con los límites de integración que son de x0 a x4 podemos partir la integral y sumar las integrales partidas con los límites x0 a x1, de x1 a x2, de x2 a x3 y de x3 a x4. Cada subintegral queda definida por dos nodos por lo que cada una de ellas es una aplicación de la regla de trapecios; y la suma de ellas se denomina Regla compuesta de trapecios. ∫ 𝑓( 𝑥) 𝑑𝑥 𝑥4 𝑥0 = ∫ 𝑓( 𝑥) 𝑑𝑥 𝑥1 𝑥0 + ∫ 𝑓( 𝑥) 𝑑𝑥 𝑥2 𝑥1 + ∫ 𝑓( 𝑥) 𝑑𝑥 𝑥3 𝑥2 + ∫ 𝑓( 𝑥) 𝑑𝑥 𝑥4 𝑥3 ∫ 𝑓( 𝑥) 𝑑𝑥 𝑥4 𝑥0 = ℎ 2 ( 𝑓0 + 𝑓1) + ℎ 2 ( 𝑓1 + 𝑓2) + ℎ 2 ( 𝑓2 + 𝑓3) + ℎ 2 ( 𝑓3 + 𝑓4)
  • 59. ∫ 𝑓( 𝑥) 𝑑𝑥 𝑥4 𝑥0 = ℎ 2 ( 𝑓0 + 2𝑓1 + 2𝑓2 + 2𝑓3 + 𝑓4) De la misma manera, podemos usar una regla compuesta para la regla de Simpson denominándola Regla compuesta de Simpson: ∫ 𝑓( 𝑥) 𝑑𝑥 𝑥4 𝑥0 = ∫ 𝑓( 𝑥) 𝑑𝑥 𝑥2 𝑥0 + ∫ 𝑓( 𝑥) 𝑑𝑥 𝑥4 𝑥2 ∫ 𝑓( 𝑥) 𝑑𝑥 𝑥4 𝑥0 = ℎ 3 ( 𝑓0 + 4𝑓1 + 𝑓2) + ℎ 3 ( 𝑓2 + 4𝑓3 + 𝑓4) ∫ 𝑓( 𝑥) 𝑑𝑥 𝑥4 𝑥0 = ℎ 3 ( 𝑓0 + 4𝑓1 + 2𝑓2 + 4𝑓3 + 𝑓4) Análisis de error para la regla compuesta de trapecios y Simpson Como se mencionó anteriormente, sabemos que la aproximación de la integral posee un término de error el cual intentaremos calcular a continuación. Para el polinomio, su término de error será: 𝐸 𝑛( 𝑥) = ∏ ( 𝑥 − 𝑥 𝑘)∗ 𝑓 𝑛+1( 𝑐)𝑛 𝑘=0 ( 𝑛 + 1)! Si analizamos el polinomio de tiene una precisión de grado 1 (regla de trapecios), esta productoria va de 0 a 1. 𝐸1( 𝑥) = ∏ ( 𝑥 − 𝑥 𝑘)∗ 𝑓2( 𝑐)1 𝑘=0 2! Por lo tanto: ∫ 𝐸1( 𝑥) 𝑥1 𝑥0 = ∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)∗ 𝑓2( 𝑐) 2! 𝑥1 𝑥0
  • 60. Como el término (x – x0) (x – x1) no cambia de signo en el intervalo [x0, x1] y f2(x) es continua, el segundo teorema del valor medio para integrales nos dice que existe un valor c1 tal que: ∫ 𝐸1( 𝑥) 𝑥1 𝑥0 = 𝑓2( 𝑐1) 2! ∫( 𝑥 − 𝑥0)( 𝑥 − 𝑥1) 𝑥1 𝑥0 𝑑𝑥 Realizando el cambio de variables: ∫ 𝐸1( 𝑥) 𝑥1 𝑥0 = 𝑓2( 𝑐1) 2! ∫ℎ2( 𝑡 − 0)( 𝑡 − 1) 1 0 ℎ𝑑𝑡 ∫ 𝐸1( 𝑥) 𝑥1 𝑥0 = 𝑓2( 𝑐1) 2! ∫ ℎ3( 𝑡2 − 𝑡) 1 0 𝑑𝑡 ∫ 𝐸1( 𝑥) 𝑥1 𝑥0 = 𝑓2( 𝑐1) 2! ℎ3 ∫( 𝑡2 − 𝑡) 1 0 𝑑𝑡 ∫ 𝐸1( 𝑥) 𝑥1 𝑥0 = 𝑓2( 𝑐1) 2! ℎ3 ( 1 3 𝑡3 − 1 2 𝑡2 | 0 1 ) ∫ 𝐸1( 𝑥) 𝑥1 𝑥0 = 𝑓2( 𝑐1) 2! ℎ3 ( −1 6 ) El valor de h se obtiene, en un intervalo [ 𝑎, 𝑏] ℎ = 𝑏 − 𝑎 𝑀 Entonces: ∫ 𝐸1( 𝑥) 𝑥1 𝑥0 = − 𝑓2( 𝑐1) 12 ℎ3 = − ℎ 𝑓2( 𝑐1) 12 ℎ2 = − ( 𝑏 − 𝑎) ∗ 𝑓2( 𝑐) 𝑀 ∗ 12 ℎ2 Para la regla compuesta, tenemos varios valores de c:
  • 61. ∫ 𝐸1( 𝑥) 𝑥1 𝑥0 = − ( 𝑏 − 𝑎) ∗ ℎ2 12 ( 1 𝑀 ∑ 𝑓2( 𝑐 𝑘) 𝑀 𝑘=1 ) ∫ 𝐸1( 𝑥) 𝑥1 𝑥0 = − ( 𝑏 − 𝑎) ∗ ℎ2 12 ( 1 𝑀 ∑ 𝑓2( 𝑐 𝑘) 𝑀 𝑘=1 ) El término entre paréntesis es una media aritmética de valores de la derivada segunda y esta función es continua, entonces podemos reemplazarlo por algún punto c perteneciente al intervalo (a, b) quedando: ∫ 𝐸1( 𝑥) 𝑥1 𝑥0 = − ( 𝑏 − 𝑎) ∗ 𝑓2( 𝐶)∗ ℎ2 12 Para la regla de Simpson se realizan los mismos pasos: Para el polinomio, su término de error será: 𝐸 𝑛( 𝑥) = ∏ ( 𝑥 − 𝑥 𝑘)∗ 𝑓 𝑛+1( 𝑐)𝑛 𝑘=0 ( 𝑛 + 1)! Si analizamos el polinomio de grado de precisión de grado 3 (regla de simpson), esta productoria va de 0 a 3. 𝐸3( 𝑥) = ∏ ( 𝑥 − 𝑥 𝑘) ∗ 𝑓4( 𝑐)3 𝑘=0 4! Por lo tanto: ∫ 𝐸3( 𝑥) 𝑥2 𝑥0 = ∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3) ∗ 𝑓4( 𝑥) 4! 𝑥2 𝑥0 Como el término ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2) no cambia de signo en el intervalo [x0, x2] y f4(x) es continua, el segundo teorema del valor medio para integrales nos dice que existe un valor c1 tal que:
  • 62. ∫ 𝐸3( 𝑥) 𝑥2 𝑥0 = 𝑓4( 𝑐1) 4! ∫ ( 𝑥 − 𝑥0)( 𝑥 − 𝑥1)( 𝑥 − 𝑥2)( 𝑥 − 𝑥3) 𝑥2 𝑥0 𝑑𝑥 Realizando el cambio de variables: ∫ 𝐸3( 𝑥) 𝑥2 𝑥0 = 𝑓4( 𝑐1) 4! ∫ℎ4( 𝑡 − 0)( 𝑡 − 1)( 𝑡 − 2)( 𝑡 − 3) 2 0 ℎ𝑑𝑡 ∫ 𝐸3( 𝑥) 𝑥2 𝑥0 = 𝑓4( 𝑐1) 4! ∫ ℎ5( 𝑡4 − 6𝑡3 + 11𝑡2 − 6𝑡) 2 0 𝑑𝑡 ∫ 𝐸3( 𝑥) 𝑥2 𝑥0 = 𝑓4( 𝑐1) 4! ℎ5 ∫( 𝑡4 − 6𝑡3 + 11𝑡2 − 6𝑡) 2 0 𝑑𝑡 ∫ 𝐸3( 𝑥) 𝑥2 𝑥0 = 𝑓4( 𝑐1) 4! ℎ5 ( 1 5 𝑡5 − 3 2 𝑡4 + 11 3 𝑡3 − 3𝑡2 | 0 2 ) ∫ 𝐸2( 𝑥) 𝑥2 𝑥0 = 𝑓2( 𝑐1) 4! ℎ5 ( −4 15 ) El valor de h se obtiene, en un intervalo [ 𝑎, 𝑏] ℎ = 𝑏 − 𝑎 2 𝑀 Entonces: ∫ 𝐸2( 𝑥) 𝑥2 𝑥0 = − 𝑓4( 𝑐1) 90 ℎ5 = − ℎ 𝑓4( 𝑐1) 90 ℎ4 = − ( 𝑏− 𝑎) ∗ 𝑓4( 𝑐) 𝑀 ∗ 180 ℎ4 Para la regla compuesta, tenemos varios valores de c: ∫ 𝐸2( 𝑥) 𝑥2 𝑥0 = − ( 𝑏 − 𝑎) ∗ ℎ4 180 ( 1 𝑀 ∑ 𝑓4( 𝑐 𝑘) 𝑀 𝑘=1 )
  • 63. ∫ 𝐸2( 𝑥) 𝑥2 𝑥0 = − ( 𝑏 − 𝑎) ∗ ℎ4 180 ( 1 𝑀 ∑ 𝑓4( 𝑐 𝑘) 𝑀 𝑘=1 ) El término entre paréntesis es una media aritmética de valores de la derivada segunda y esta función es continua, entonces podemos reemplazarlo por algún punto c perteneciente al intervalo (a, b) quedando: ∫ 𝐸2( 𝑥) 𝑥2 𝑥0 = − ( 𝑏 − 𝑎) ∗ 𝑓4( 𝐶)∗ ℎ4 180 Cuadratura de Gauss – Legendre. Cuadratura Gaussiana El método consiste en seleccionar los valores x1, x2, … , xn en el intervalo [a, b] y los coeficientes c1, c2, … , cn que minimicen el error de aproximación. Para una función arbitraria f(x) la mejor elección de estos valores será la que maximice el grado de precisión de la formula. ∫ 𝑓( 𝑥) 𝑏 𝑎 𝑑𝑥 ≈ ∑ 𝑦 𝑘 ∫ 𝐿 𝑁,𝑘( 𝑥) 𝑏 𝑎 𝑛 𝑘=0 𝑑𝑥 = ∑ 𝑦 𝑘 ∗ 𝑤 𝑘 𝑛 𝑘=0 (1) Si los coeficientes de un polinomio se consideran también como parámetros, la clase de polinomios de grado a lo sumo 2n-1 contiene 2n parámetros y es la clase más grande de polinomios para la cual es razonable esperar que la ecuación anterior sea exacta. Los valores de los xi y los coeficientes ci se calculan por el método de coeficientes indeterminados. Por ejemplo, para que la integral sea exacta para polinomios cúbicos (n=2 por lo tanto necesito 4 parámetros) para que la función cúbica f(x) = a3x3 + a2x2 + a1x + a0 sea exacta hay que determinar cuatro números (w1, w2, x1 y x2). Para ello necesito 4 condiciones (ecuaciones) para resolver las 4 incógnitas del sistema.
  • 64. 𝐹( 𝑋) = 1 → ∫ 1 𝑑𝑥 1 −1 = 2 = 𝑤1 ∗ 1 + 𝑤2 ∗ 1 𝐹( 𝑋) = 𝑥 → ∫ 𝑥 𝑑𝑥 1 −1 = 0 = 𝑤1 ∗ 𝑥1 + 𝑤2 ∗ 𝑥2 𝐹( 𝑋) = 𝑥2 → ∫ 𝑥 𝑑𝑥 1 −1 = 2 3 = 𝑤1 ∗ 𝑥1 2 + 𝑤2 ∗ 𝑥2 2 𝐹( 𝑋) = 𝑥3 → ∫ 𝑥 𝑑𝑥 1 −1 = 0 = 𝑤1 ∗ 𝑥1 3 + 𝑤2 ∗ 𝑥2 3 De las 4 ecuaciones anteriores obtenemos un sistema de ecuaciones no lineal que tenemos que resolver: { 2 = 𝑤1 ∗ 1 + 𝑤2 ∗ 1 0 = 𝑤1 ∗ 𝑥1 + 𝑤2 ∗ 𝑥2 2 3 = 𝑤1 ∗ 𝑥1 2 + 𝑤2 ∗ 𝑥2 2 0 = 𝑤1 ∗ 𝑥1 3 + 𝑤2 ∗ 𝑥2 3 Si resolvemos el sistema obtenemos que −𝑥1 = 𝑥2 = ( 1 3 ) 1 2⁄ ≈ 0,5773502692 𝑤1 = 𝑤2 = 1 Para no tener que encontrar los nodos y pesos cada vez que aproximemos una integral se tabularon obteniéndose la siguiente tabla: Notemos que hacemos cumplir la ecuación (1) utilizando los términos que multiplican a los ai de la ecuación cúbica
  • 65. N Nodos Coeficiente 2 ±0,5773502692 1,0000000000 3 ±0,7745966692 0,0000000000 0,5555555556 0,8888888889 4 ±0,8611361159 ±0,3399810436 0,3478548451 0,6521451549 La aplicación del método de Gauss – Legendre sirve solo para integrales cuyos límites de integración sean -1 y 1 respectivamente. Para aplicarlo en cualquier intervalo [ 𝑎, 𝑏] usamos el siguiente cambio de variable: 𝑡 = 𝑎 + 𝑏 2 + 𝑏 − 𝑎 2 𝑥 De donde: 𝑑𝑡 = 𝑏 − 𝑎 2 𝑑𝑥
  • 66. Ecuaciones Diferenciales Las ecuaciones diferenciales se usan habitualmente para construir modelos matemáticos de problemas de la ciencia y la ingeniería. A menudo se da el caso de que no hay una solución analítica conocida, por lo que necesitamos aproximaciones numéricas. Si consideramos la ecuación: 𝑑𝑦 𝑑𝑡 = 1 − 𝑒−𝑡 Esta es una ecuación diferencial porque en ella aparece la derivada dy/dt de la “función desconocida” y = y(t). En el miembro derecho de la ecuación sólo aparece la variable independiente t, así que las soluciones son las primitivas de 1 − 𝑒−𝑡 . Resolviendo la integral hallamos y(t). 𝑦( 𝑡) = 𝑡 + 𝑒 𝑡 + 𝐶 Donde C es la constante de integración. Notemos que en la solución hallada tenemos un grado de libertad en la elección de la solución, la constante de integración C. para encontrar una curva en particular necesitamos un punto de antemano. En un análisis en general, somos capaces de medir cómo los cambios de una variable afectan a otra. Cuando traducimos esto en un modelo matemático, el resultado es una ecuación diferencial que involucra la velocidad de cambio de la función desconocida. Cada elección de punto nos da una solución distinta por lo que la condición inicial es como un punto anclaje de la curva correspondiente a la solución. Condición de Lipschitz Dado el rectángulo 𝑅 = {( 𝑡, 𝑦): 𝑎 ≤ 𝑡 ≤ 𝑏, 𝑐 ≤ 𝑦 ≤ 𝑑}, supongamos que f (t, y) es continua en R. se dice que la función f verifica la condición de Lipschitz con respecto a sus variables en R si exite una constante L > 0 tal que: | 𝑓 ( 𝑡, 𝑦1) − 𝑓 ( 𝑡, 𝑦2)| ≤ 𝐿| 𝑦1 − 𝑦2| Para cualquier (t, y1), (t, y2) perteneciente a R. la constante L se llama constante de Lipschitz.
  • 67. Un problema de valor inicial tiene solución única si f verifica la condición de Lipschitz. Método de Euler Sea [a, b] el intervalo en el que queremos hallar la solución de un problema inicial y´= f (t, y) con y(a) = y0 que está bien planteado (cumple con la condición de Lipschitz). Hay que advertir que, de hecho, no vamos a encontrar una función derivable que sea solución del problema de valor inicial. Sino que construimos un conjunto finito de puntos {(tk, yk)} que son aproximaciones de la solución. Primeramente se parte en intervalo en subintervalos del mismo tamaño. 𝑇𝑘 = 𝑎 + ℎ𝑘 ℎ = 𝑏 − 𝑎 𝑀 Suponemos que y(t), y´(t) e y´´(t) son continuas, por lo que si utilizamos el teorema de Taylor para desarrollar y(t) alrededor de t = t0, para cada t existe un c1 entre t0 y t tal que: 𝑦( 𝑡) = 𝑦( 𝑡0) + 𝑦´( 𝑡0)( 𝑡 − 𝑡0) + 𝑦´´( 𝑐1) 2! ( 𝑡 − 𝑡0)2 Al sustituir: 𝑦´( 𝑡0) = 𝑓(𝑡0, 𝑦( 𝑡0)) y ℎ = 𝑡 − 𝑡0 el resultado es: 𝑦( 𝑡) = 𝑦( 𝑡0) + 𝑓(𝑡0, 𝑦( 𝑡0))ℎ + 𝑦´´( 𝑐1) 2! ℎ2 Si el tamaño de paso “h” es muy pequeño lo podemos despreciar por lo que nos queda: 𝑦( 𝑡) = 𝑦( 𝑡0) + 𝑓(𝑡0, 𝑦( 𝑡0))ℎ
  • 68. que se llama aproximación de Euler. Repitiendo el proceso generamos una sucesión de puntos que se aproximan a la gráfica de la solución y = y(t). el paso general del método de Euler es: 𝑡 𝑘+1 = 𝑡 𝑘 + ℎ 𝑦 𝑘+1 = 𝑦 𝑘 + ℎ𝑓( 𝑡 𝑘, 𝑦 𝑘) Descripción geométrica Si partimos del punto (t0, y0), calculamos el valor de la pendiente m0 = f(t0, y0), nos movemos horizontalmente una distancia h y verticalmente una distancia h f(t0, y0), entonces lo que hacemos es desplazarnos a lo largo de la recta tangente a la curva y(t) terminando en el punto (t1, y1). Cabe mencionar que (t1, y1) no es un punto de la curva aunque sea la aproximación que se genera. Ahora debemos usar (t1, y1), como si fuera un punto correcto para calcular la pendiente m1 = f(t1, y1) y usar este valor para obtener el siguiente desplazamiento vertical h f(t1, y1), que nos lleva al punto (t2, y2), y así sucesivamente.