SlideShare una empresa de Scribd logo
1 de 33
Descargar para leer sin conexión
Métodos Numéricos II Hernández Cruz Juan Carlos
1
Métodos
Numéricos II
Hernández Cruz Juan Carlos
Profa: Teresa Carrillo Godinez
Métodos Numéricos II Hernández Cruz Juan Carlos
2
Índice
Solución de sistemas de ecuaciones no lineales
• Método de punto fijo
• Método de Newton-Raphson
• Método de Newton- Raphson Modificado
Interpolación Polinomial
• Método de Lagrange
• Método de Diferencias Divididas
• Método de Hermite
Ajuste de curvas
• Método de Spline Cúbico
• Método de Mínimos Cuadrados
Integración numérica
• Método de Integración numérica
Métodos Numéricos II Hernández Cruz Juan Carlos
3
SOLUCIÓN DE SISTEMAS DE ECUACIONES NO LINEALES
• Método de punto fijo
Objetivo:
De forma numérica resolver sistemas de ecuaciones no lineales con apoyo de
herramientas matemáticas y computacionales.
Introducción:
Se verán los métodos para solución de ecuaciones algebraicas de la forma f(x) = 0 con los
métodos de solución de sistemas de ecuaciones, Ax = b, para resolver un sistema de n
ecuaciones con n incógnitas cuya representación es:
f1(x1, x2, …, xn) = 0
f2(x1, x2, …, xn) = 0
:
fn(x1, x2, …, xn) = 0
Se hace una sustitución por un problema vectorial que incluye todas las variables
(Burden & Faires, 2003). Algunos ejemplos de estos sistemas de ecuaciones son los
siguientes:
1. f1(x, y) = x 2 + y 2 – 4 = 0
f2(x, y) = y – x 2 = 0
2. f1(x, y) = x 2 - 2x – y + 0.5
f2(x, y) = x 2 + 4y 2 – 4
Una solución de este sistema es un punto (x, y) en el que ambas curvas se cruzan
(f1(x1, x2) = 0 y f2(x1, x2) = 0).
En la gráfica puede observarse que existen dos puntos en los que se intersectan las
curvas, dichos puntos están cercanos a (-0.2, 1.0) y (1.9, 0.3) (ejemplo 2).
Punto fijo es la técnica para resolver sistemas no lineales consiste en escribir las
ecuaciones que componen el sistema de la forma:
fi(x1, x2, …, xn) = 0 para i = 1, 2, …, n,
Se trataran de encontrar los valores (x1, x2, …, xn) que satisfagan todas las
ecuaciones del sistema.
Las ecuaciones se resuelven para una variable de tal manera que se obtenga:
xi = gi(x1, x2, …, xn) para i = 1, 2, …, n.
-Se toman como fórmulas recursivas para obtener una estimación, se escriben de la
siguiente forma: xi (k+1) = gi(x1 k , x2 k , …, xn k ) para i = 1, 2, …, n.
Métodos Numéricos II Hernández Cruz Juan Carlos
4
-Se comienza con valores iniciales (x1^0 , x2^0 , …, xn^0 ), se calculan nuevos valores
(x1^1 , x2^1 , …, xn^1 ) y se repite el proceso, esperando que en cada iteración los
valores se aproximen a la raíz buscada, la cual cumple con: xi = gi(x1, x2, …, xn)
para i = 1, 2, …, n.
Ejemplo:
𝑓1( 𝑥, 𝑦) = 𝑥2
− 𝑦 − 2 = 0
𝑓2( 𝑥, 𝑦) = 2𝑥𝑦 − 3 = 0
Sumar -4x a cada lado
Sumar -5y a cada lado
Formas iterativas (g1 y g2):
𝑥 =
−𝑥2
+ 𝑦 + 2
4
𝑦 =
−2𝑥𝑦 + 3
5
Grafica:
Métodos Numéricos II Hernández Cruz Juan Carlos
5
Simultáneos
i Xi Yi error
0 1,7 0,88 0,82
1 -0,0025 0,0016 0,0009
2 0,500398438 0,6000016 0,09960316
3 0,587400751 0,479904055 0,1074967
4 0,533716103 0,487241599 0,0464745
5 0,55059718 0,495980525 0,05461666
6 0,548205818 0,490765809 0,05744001
7 0,547559048 0,492383731 0,05517532
8 0,548140705 0,492156333 0,05598437
9 0,547924525 0,492091632 0,05583289
10 0,547967587 0,49214837 0,05581922
11 0,547969974 0,492127458 0,05584252
12 0,547964092 0,492131572 0,05583252
13 0,547966732 0,492131828 0,0558349
14 0,547966072 0,492131252 0,05583482
15 0,547966109 0,492131508 0,0558346
16 0,547966163 0,492131445 0,05583472
17 0,547966132 0,492131448 0,05583468
18 0,547966142 0,492131454 0,05583469
19 0,54796614 0,492131451 0,05583469
Sucesivos
i Xi Yi error
0 1,7 0,88 0,82
1 -0,0025 0,60088 -0,59838
2 0,650218438 0,443718698 0,20649974
Métodos Numéricos II Hernández Cruz Juan Carlos
6
3 0,50523367 0,510327349
-
0,00509368
4 0,563766572 0,4849178 0,07884877
5 0,541771263 0,494914188 0,04685707
6 0,550349522 0,491049685 0,05929984
7 0,547041272 0,492550222 0,05449105
8 0,548324017 0,491969153 0,05635486
9 0,547827481 0,492194311 0,05563317
10 0,54801984 0,492107101 0,05591274
11 0,547945339 0,492140883 0,05580446
12 0,547974197 0,492127798 0,0558464
13 0,547963019 0,492132866 0,05583015
14 0,547967349 0,492130903 0,05583645
15 0,547965672 0,492131664 0,05583401
16 0,547966322 0,492131369 0,05583495
17 0,54796607 0,492131483 0,05583459
18 0,547966167 0,492131439 0,05583473
19 0,54796613 0,492131456 0,05583467
20 0,547966144 0,492131449 0,05583469
21 0,547966139 0,492131452 0,05583469
22 0,547966141 0,492131451 0,05583469
Dxg1=−
2𝑥
4
=-.2735
Dyg1=
1
4
Dxg2=−
2𝑦
5
==-.1968
Dyg2=−
2𝑥
5
=-.2188
Todas las parciales son <1 por lo tanto converge en esos puntos.
Conclusiones:
-Este método sale de los métodos de Jacobi y Gauss-Seidel.
-La convergencia se ve afectada por el despeje de cada una de las variables.
-Si el método tiene convergencia lineal.
-Se detiene cuando la norma vectorial lo indique.
Para asegurar la convergencia es que ∑ | 𝜕𝑔𝑖 𝜕𝑥𝑗 | 𝑛 𝑗 = 1 ≤ 𝑀 < 1, 𝑝𝑎𝑟𝑎 𝑖 =
1, 2, … , 𝑛
Métodos Numéricos II Hernández Cruz Juan Carlos
7
-Si M es muy pequeña en una región de interés, converge rápidamente, si M es cercana
a 1 en magnitud, converge lentamente. Es muy difícil encontrar el sistema para la forma
iterativa que satisfaga esta condición.
-Para acelerar la convergencia se pueden emplear los desplazamientos sucesivos en
lugar de los simultáneos.
• Método de Newton-Raphson
Objetivo:
De forma numérica resolver sistemas de ecuaciones no lineales con apoyo de
herramientas matemáticas y computacionales.
Introducción:
Se verán los métodos para solución de ecuaciones algebraicas de la forma f(x) = 0 con los
métodos de solución de sistemas de ecuaciones, Ax = b, para resolver un sistema de n
ecuaciones con n incógnitas cuya representación es:
f1(x1, x2, …, xn) = 0
f2(x1, x2, …, xn) = 0
:
fn(x1, x2, …, xn) = 0
Se hace una sustitución por un problema vectorial que incluye todas las variables
(Burden & Faires, 2003). Algunos ejemplos de estos sistemas de ecuaciones son los
siguientes:
3. f1(x, y) = x 2 + y 2 – 4 = 0
f2(x, y) = y – x 2 = 0
4. f1(x, y) = x 2 - 2x – y + 0.5
f2(x, y) = x 2 + 4y 2 – 4
Una solución de este sistema es un punto (x, y) en el que ambas curvas se cruzan
(f1(x1, x2) = 0 y f2(x1, x2) = 0).
Existen dos puntos en los que se intersectan las curvas, dichos puntos están
cercanos a (-0.2, 1.0) y (1.9, 0.3) (ejemplo 2).
Newton-Raphson se usa para resolver este tipo de sistemas de ecuaciones no
lineales este método usa varios conceptos:
Matriz jacobiana: Sean fi(x1,x2, …, xn), con 1  i  n, funciones con n variables (xj)
independientes. Su matriz jacobiana J(x1,x2, …, xn), está dada por las derivadas
parciales de cada una de las funciones con respecto a cada una de las variables:
Métodos Numéricos II Hernández Cruz Juan Carlos
8
La diferencial. En una función de varias variables, la diferencial es el instrumento que se usa
para mostrar el efecto de los cambios de las variables independientes en las variables
dependientes. Supóngase que los valores de las funciones fi(x1, x2, …, xn) se conocen en el
punto (x1 0 , x2 0 , …, xn 0 ) y se desean estimar sus valores en un punto cercano (x1, x2, …,
xn). Si se denotan con fi los cambios diferenciales en las variables dependientes y por xi
los cambios diferenciales en las variables independientes, esto puede escribirse con
notación matricial de la siguiente manera:
El diferencial es la ecuación matricial que se utiliza en los métodos para solución de
ecuaciones no lineales ya que puede transformarse en una forma iterativa.
Y el método se aplica de la siguiente manera se linealizar y resuelve repetidamente;
Usando notación vectorial para escribir el sistema (1) se tiene:
F(X) = 0
Definiendo los vectores columna como:
Métodos Numéricos II Hernández Cruz Juan Carlos
9
La extensión del método de Newton para sistemas no lineales es:
Donde 𝐹´(𝑥^𝑘) es la matriz jacobiana
Ejemplo:
𝑓1(𝑥, 𝑦, 𝑧) = 𝑥2
− 𝑥 + 2𝑦2
+ 𝑦𝑧 − 10 = 0
𝑓2(𝑥, 𝑦, 𝑧) = 5𝑥 − 6𝑦 + 𝑧 = 0
𝑓3(𝑥, 𝑦, 𝑧) = 𝑧 − 𝑥2
− 𝑦2
= 0
 Método de Newton-Raphson Modificado
Objetivo:
Al igual que Newton-Rapshon resolver sistemas de ecuaciones no lineales.
Introducción:
Consiste en aplicar n (n número de ecuaciones) veces el método de Newton univariable, una para
cada variable. Cada que se hace, se consideran las otras variables fijas.
Métodos Numéricos II Hernández Cruz Juan Carlos
10
Sea : 𝑓𝑖 ( 𝑥1, 𝑥2, ⋯ , 𝑥𝑛 ) = 0 con i = 1, 2, …, n
Tomar valores ( 𝑥1 0 , 𝑥2 0 , ⋯ , 𝑥𝑛 0 ) entonces se aplica Newton para calcular un nuevo
valor, se emplea la derivada parcial evaluada en los valores iniciales:
Entonces se obtiene
Luego se hace de forma sucesiva hasta alcanzar una tolerancia establecida. El método
converge si los valores iniciales de las variables son cercanos a la raíz y requiere la evaluación de
sólo 2n funciones por paso. Al igual que en el método anterior se pueden emplear desplazamientos
simultáneos o sucesivos.
Ejemplo:
-Resolver el siguiente sistema de ecuaciones por el método de newton modificado:
𝑓1(𝑥, 𝑦, 𝑧) = 𝑥2
+ 𝑦2
+ 𝑧2
= 9
𝑓2(𝑥, 𝑦, 𝑧) = 𝑥𝑦𝑧 = 1
𝑓3(𝑥, 𝑦, 𝑧) = 𝑥 + 𝑦 − 𝑧2
= 0
-Emplear desplazamientos sucesivos y simultáneos
-Alcanzar una tolerancia mínima de .0005
Desplazamientos simultáneos
k x y z f1 f2 f3 df1/dx df2/dy df3/dz
0 -3 4 3,5 28,25 -43 -11,25 -6 -10,5 -7
1 1,70833333 -0,0952381 1,89285714
-
2,48961876
-
1,30796485
-
1,96981293 3,41666667 3,23363095
-
3,78571429
Métodos Numéricos II Hernández Cruz Juan Carlos
11
Desplazamientos sucesivos
k (x,y,z) fi(x,y,z) dfxi
0 -3 28,25 -6
4 22,9166667 5,97916667
3,5 -10,3744193 -7
1,70833333 -1,98154328 3,41666667
1 0,16724739 -0,22771065 4,61764672
2,0179401 -1,56722451
-
4,03588021
2,28829722 -1,061145 4,57659444
2 0,21656053 -0,11060816 4,10689731
1,62961725 0,10800111 -3,2592345
2,52016067 0,17525012 5,04032135
3 0,24349282 0,00625706 4,13259441
1,66275421 -0,03738177
-
3,32550841
2,48539104 -0,03678152 4,97078208
4 0,24197874 -0,00380333 4,11687678
1,65151329 0,00819703
-
3,30302658
2,49279058 0,00870589 4,98558117
5 0,24290258 0,00080111 4,12017483
2 2,43700224 0,30924988 1,3725292
-
1,08154819 0,03439656 0,86241572 4,87400448 3,34485674 -2,7450584
3 2,65890359 0,29896647 1,68669946 1,00410434 0,34079622 0,11291498 5,31780718 4,48477126
-
3,37339893
4 2,47008435 0,22297681 1,72017163 0,11002578
-
0,05257843
-
0,26592929 4,94016869 4,24896902
-
3,44034326
5 2,44781268 0,23535121 1,64287432
-
0,25378685
-
0,05354721
-
0,01587214 4,89562536 4,0214486
-
3,28574864
6 2,4996522 0,24866661 1,63804372
-
0,00671658 0,01817529 0,06513158 4,9993044 4,09453958
-
3,27608744
7 2,5009957 0,2442277 1,65792462 0,06334073 0,01268098
-
0,00349066 5,0019914 4,14646236
-
3,31584925
8 2,4883326 0,24116944 1,65687191
-
0,00481367
-
0,00569497
-
0,01572248 4,9766652 4,12284838
-
3,31374381
9 2,48929985 0,24255076 1,65212728
-
0,01503086 -0,002476 0,00232606 4,97859969 4,11264018
-
3,30425456
10 2,49231894 0,24315281 1,65283124 0,00262808 0,00163944 0,00362064 4,98463788 4,1193826
-
3,30566248
11 2,4917917 0,24275482 1,65392652 0,00342874 0,00045099
-
0,00092642 4,98358341 4,12124039
-
3,30785305
12 2,4911037 0,24264539 1,65364646
-
0,00097898 -0,0004454
-
0,00079752 4,98220739 4,1194048
-
3,30729291
13 2,49130019 0,24275352 1,65340532
-
0,00074494
-6,6955E-
05 0,00030456 4,98260038 4,11912899
-
3,30681064
Métodos Numéricos II Hernández Cruz Juan Carlos
12
1,65399496 -0,00194681
-
3,30798992
2,49104437 -0,00203783 4,98208874
6 0,24270815 -0,00019167 4,11938511
1,65340644 0,00045521
-
3,30681289
Conclusiones:
-Normalmente converge si los valores iniciales están muy cerca de la raíz.
-Requiere la evaluación de 2n funciones por paso solamente.
-Como las variables se resuelven por separado, es posible que alguna de ellas diverja.
-No se sabe cuándo el vector inicial convergerá o no, siendo ésta la principal desventaja del
método.
 Método de Broyden (Cuasy Newton)
Objetivo:
Obtener el mismo resultado de sistemas de ecuaciones no lineales sin necesidad de
calcular las derivadas parciales.
Introducción:
Este método se usa cuando no es práctico obtener las derivadas parciales se usan las
aproximaciones por diferencias finitas a dichas derivadas lo que generaliza el método de la secante
a los sistemas de ecuaciones no lineales.
Requiere n evaluaciones funcionales por iteración y también disminuye el número de
cálculos aritméticos a O(n^2 ) (Burden & Faires, Análisis numérico, 2011). Reemplaza a la matriz
Jacobiana con una matriz de aproximación que se actualiza en cada iteración; a la convergencia
superlineal disminuye los cálculos.
A partir de una aproximación inicial X(0) a la solución F(x) = 0, se calcula la siguiente
aproximación X(1) por el método de Newton. Para calcular X(2) ya no se hace con el método de
Newton y se recurre al método de la secante. Se emplea la siguiente fórmula para sustituir el cálculo
de la derivada:
El método es semejante al método de Newton, porque la matriz J(X (1)) es reemplazada por
una matriz A esta tiene la propiedad de que:
Métodos Numéricos II Hernández Cruz Juan Carlos
13
Esta matriz es la que se usa para determinar X^(2) como:
Y cuyos componentes se obtienen con dos iteraciones previas X (k) y X (k-1), de la siguiente
manera:
Para aplicar la ecuación (1.7) necesitamos dos vectores iniciales X(0) y X(1) , X(1) puede
obtenerse de una aplicación del método de Newton cuya matriz jacobiana se emplea para la primera
iteración, entonces (1.7) queda:
La inversa de A^(k) en cada iteración tene un esfuerzo computacional considerable; puede
reducirse empleando la forma de inversión matricial de Sherman Morrison.
Teorema de Sherman Morrison
Si A es una matriz no singular y X y Y son vectores, entonces 𝐴 + 𝑋𝑌 𝑡
es no singular,
siempre que 𝑌 𝑡
𝐴 𝑋−1
 − 1.
Esta fórmula permite calcular (𝐴 𝑘
)
−1
, quita la necesidad de invertir una matriz en cada
iteración.
Se necesita la inversa de (1.7):
Métodos Numéricos II Hernández Cruz Juan Carlos
14
Se puede reescribir como: (𝐴 𝑘
)
−1
= (𝐴 + 𝑋𝑌 𝑡)−1
, se ajusta al teorema, sustituyendo en
la ecuación (1.8) se desarrolla:
Fórmula que permite calcular la inversa de una matriz con sumas y multiplicaciones de
matrices, con lo que se reduce el esfuerzo computacional al orden 𝑛2
.
Determinada 𝑋2
, el método se repite para determinar 𝑋3
, usando [𝐴2]−1
esto se obtiene
a partir de (1.9) con 𝐴1
y con 𝑋2
y 𝑋1
en lugar de 𝑋1
y 𝑋0
. Una vez determinado 𝑋 𝑖
, se calcula 𝑋 𝑖 +1
con:
Si el método se aplica como se describe en las ecuaciones anteriores el número de
evaluaciones funcionales disminuye de 𝑛2
+ 𝑛 a 𝑛 (las necesarias para evaluar 𝐹(𝑋 𝑖
), y aún se
necesita 𝑂(𝑛3) cálculos para resolver el sistema lineal asociado de nxn.
Ejemplo:
Conclusiones:
-Tiene una convergencia superlineal, pero no cuadrática.
-Su desventaja radica en que se pierde la convergencia cuadrática de Newton, al ser sustituida por
una convergencia denominada superlineal y en que no es autocorregible esto en diferencia a
Newton-Raphson.
- El uso del método en esta forma no se justificaría, debido a la reducción a la convergencia
superlineal a partir de la convergencia cuadrática del método de Newton (Burden & Faires, Análisis
numérico, 2011).
Métodos Numéricos II Hernández Cruz Juan Carlos
15
INTERPOLACIÓN POLINOMIAL
 Método de lagrange
Objetivo:
Encontrar una polinomio lo más parecido a los datos tabulados de una tabla
Introducción:
Es fácil encontrarse con datos tabulados de la forma (𝑥𝑖 , 𝑦𝑖), para 𝑖 = 0, 1, … , 𝑛, un
ejemplo, la presión de una sustancia a diferentes temperaturas, la población en diferentes
tiempos, las distancias a diferentes velocidades, entre otros. En estos casos 𝑦 = 𝑓(𝑥) y
𝑓(𝑥) es desconocida; y es común la necesidad de conocer algún valor de 𝑦 para alguna 𝑥
que no se encuentra en la tabla. Este procedimiento es lo que se conoce como
Interpolación. Es el cálculo de valores para una función tabulada en puntos que no se
encuentran en la tabla de valores. Se puede obtener una representación explícita de una
aproximación a 𝑓(𝑥), permite construir fórmulas de diferenciación e integración numérica
y obtener formas simplificadas de funciones “complejas”.
Fórmula de Lagrange
Se tiene n + 1 puntos (𝑥𝑖 , 𝑦𝑖) para 𝑖 = 0, 1, . . . , 𝑛 para representar a 𝑦 como una función
de valuación única de 𝑥, es posible encontrar un polinomio único de grado 𝑛 que pasa por
los puntos. Por ejemplo, encontrar una recta única que pasa por dos puntos, y encontrar un
polinomio cuadrático único que pasa por tres puntos.
La ecuación polinomial para 𝑦 se puede modelar mediante:
y los 𝑛 + 1 puntos se usan para escribir 𝑛 + 1 ecuaciones para los coeficientes 𝑎𝑖 . Estas
ecuaciones son:
Es un sistema de ecuaciones algebraicas lineales. La solución del sistema se puede
determinar aplicando métodos numéricos para este fin. Pero la matriz de coeficientes,
denominada matriz de Vandermonde, es sensible al mal planteamiento. Resuelve el sistema
de ecuaciones lineales pero es una manera ineficaz de obtener una representación para 𝑦.
Interpolación o ajuste de curvas:
𝑓(𝑥) aproximado por medio de un polinomio a partir de puntos tabulados existen dos
criterios: el de interpolación polinomial o el de ajuste de curvas.
Métodos Numéricos II Hernández Cruz Juan Carlos
16
Interpolación consiste en encontrar una función polinomial que ajuste de forma
exacta, es decir, que pase por los puntos dados en la tabla. Los métodos de ajuste de curvas
consisten en hallar un polinomio que pase entre los puntos y que satisfaga la condición de
minimizar el error entre los puntos tabulados y el polinomio.
Si la información es exacta y confiable, se usa un ajuste exacto. Si pueden existir
errores, entonces que pase entre ellos.
Los polinomios de Lagrange se determinan especificando algunos puntos en el plano
por los cuales debe pasar. Un polinomio de grado 1 que pase por los puntos distintos
(𝑥0, 𝑦0) 𝑦 (𝑥1, 𝑦1). Este problema es el mismo que el de aproximar una función 𝑓, para la
cual 𝑓(𝑥0) = 𝑦0 𝑦 𝑓(𝑥1) = 𝑦1, por medio de un polinomio de primer grado,
interpolando entre, o coincidiendo con, los valores de 𝑓 en los puntos dados.
Sea el Polinomio:
Si 𝑥 = 𝑥0
Si 𝑥 = 𝑥1
así que 𝑃 tiene las propiedades requeridas.
Para generalizar el concepto de interpolación lineal, considérese la construcción de
un polinomio a lo más de grado 𝑛 que pase por los 𝑛 + 1 puntos
(𝑥0, 𝑓(𝑥0)), (𝑥1, 𝑓(𝑥1)), (𝑥2, 𝑓(𝑥2)), . . . , (𝑥𝑛, 𝑓(𝑥𝑛)).
El polinomio lineal que pasa por (𝑥0, 𝑓(𝑥0)) y (𝑥1, 𝑓(𝑥1)) se construye usando los
cocientes:
Cuando 𝑥 = 𝑥0, 𝐿0(𝑥0) = 1, mientras que 𝐿1(𝑥0) = 0. Si 𝑥 = 𝑥1, 𝐿0(𝑥1) =
0, mientras que 𝐿1(𝑥1) = 1. Para el caso general, se necesita construir, para cada 𝑘 = 0,
Métodos Numéricos II Hernández Cruz Juan Carlos
17
1, . . . , 𝑛, un cociente 𝐿𝑛, 𝑘(𝑥) tiene la propiedad de que 𝐿𝑛, 𝑘(𝑥𝑖) = 0 cuando 𝑖  𝑘 y que
𝐿𝑛, 𝑘(𝑥𝑘) = 1 cuando 𝑥 = 𝑥𝑘. Entonces los cocientes de Lagrange están dados por:
Si 𝑥0, 𝑥1, . . . , 𝑥𝑛 son (𝑛 + 1) números diferentes y 𝑓 es una función cuyos valores
están dados en estos puntos, entonces existe un único polinomio 𝑃 de grado a los más 𝑛
con la propiedad de
Ejemplo:
La siguiente tabla relaciona los datos observados de voltaje y temperatura (°F)por
termopares formados por platino y platino-10%Radio con juntas refrigeradas a 32°.
-Estimar la temperatura microvoltios de 300,1700,3300,5300 y 5900.
-Decide el grado del polinomio, estima el error, gráfica y saca tus conclusiones.
MVt T(ºF)
0 32
500 176
1000 296,4
1500 405,7
2000 509
2500 608,4
3000 704,7
3500 799
4000 891,9
4500 983
5000 1072,6
5500 1160,8
6000 1247,5
x= 300
Métodos Numéricos II Hernández Cruz Juan Carlos
18
x= 1700
x= 3300
x= 5300
x= 5700
Polinomio 2° grado(300) 121,232 Polinomio 3er grado(300) 121,932
Polinomio 2°
grado(1700) 446,312
Polinomio 3er
grado(1700) 447,6224
Polinomio 2°
grado(3300) 761,448
Polinomio 3er
grado(3300) 761,4816
Polinomio 2°
grado(5300) 1125,7
Polinomio 3er
grado(5300) 1125,6944
Polinomio 2°
grado(5700) 1195,66
Polinomio 3er
grado(5700) 1195,6656
Conclusiones:
El método de Lagrange no es una práctica común, porque generalmente se aplica
mediante un programa de computadora y aumenta la posibilidad de cometer errores
humanos. Un polinomio de interpolación, aunque pase por los puntos que se utilizaron en
su construcción, en general no proporciona valores exactamente correctos. La razón es
que la relación subyacente a menudo no es un polinomio del mismo grado. Por tanto, a
continuación se calcula un residuo o cota de error incurrido al aproximar una función
mediante un polinomio. Esto se hace en el siguiente teorema del error:
 Método de Hermite y Diferencias divididas
Objetivo:
Elaborar un algoritmo y un programa del método de Hermite, en lenguaje C para resolver
un problema de puntos funcionales y su derivada.
Introducción:
Un polinomio se puede ajustar no solo a los valores de la función sino también a las
derivadas en los puntos. Los polinomios ajustados a los valores de la función y de su
derivada se llaman polinomios de interpolación de Hermite o polinomios osculantes.
El polinomio osculante que aproxima a 𝑓 es el polinomio 𝑃 de menor grado tal que
Métodos Numéricos II Hernández Cruz Juan Carlos
19
En este contexto, 𝐿𝑛, 𝑗 denota al j-ésimo coeficiente polinomial de Lagrange de
grado 𝑛. Donde el término del error:
Diferencias divididas determinar y evaluar los cocientes de Lagrange y sus derivadas hace
el procedimiento tedioso, aun para valores pequeños de n. Un método alternativo para
generar aproximaciones de Hermite está basada en la fórmula de diferencias divididas y la
conexión entre la n-ésima diferencia dividida y la n-ésima derivada de 𝑓.
Ejemplo:
Hermite
Un Automóvil realiza un recorrido por una carretera recta y se cronometra su recorrido en
varios puntos, los cuales se muestran en la siguiente tabla. Estimar d(t=10s)
t(seg) 0 3 5 8 13
d(pies) 0 225 383 625 993
v(pies/seg) 75 77 80 74 72
j xj f(xj) f'(xj) Lj(x) L'j(xj) Hn,j(x) H^
n,j(x)
0 3 225 77 0,76923077
1 5 383 80 1
2 8 625 74 -1
3 13 993 72 -4,4925
L'0(x0)=
(x-5)(x-8)(x-
13) =
x3
-26x2
+209x-
520 = 0,76923077
(3-5)(3-8)(3-13) -130
L'1(x1)=
(x-3)(x-8)(x-
13) =
x3
-24x2
+167x-
312 = 1
(5-3)(5-8)(5-13) 48
L'2(x2)=
(x-3)(x-5)(x-
13) =
x3
-21x2
+119x-
195 = -1
(8-3)(8-5)(8-13) 75
L'3(x3)= (x-3)(x-5)(x-8) = x3
-16x2
+79x-120 = -4,4925
(13-3)(13-5)(13-8) 400
Diferencias centradas:
Sea 𝑓(𝑥) = 𝑥3𝑐𝑜𝑠𝑥
estimarf’’(2.3) con h=0.2,0.1,0.05, hasta obtener una convergencia con
al menos 5 cifras significativas.
Métodos Numéricos II Hernández Cruz Juan Carlos
20
2,1 -4,67537977
-
3,43120058 -0,98008807
2,3 -8,10658035
-
4,41128865
2,5 -12,517869
2,2 -6,2663599
-
1,84022045 -0,2469299
2,3 -8,10658035
-
2,08715035
2,4 -10,1937307
2,25 -7,15529017
-
0,95129018 -0,06185194
2,3 -8,10658035
-
1,01314212
2,35 -9,11972247
f(x)= x3
Cosx
f´(x)= -x3
senx + 3x^2cosx
-
19,6467958
h Dif. Prog. Error
Dierencia
Centrada Error
0,2 -19,60622308 0,0405727
-
19,60622308 0,0405727
0,1 -19,636854 0,00994177 -19,636854 0,00994177
0,05 -19,644323 0,00247277 -19,644323 0,00247277
Problema de aplicación: Considerese una particula que se mueve a lo largo de una recta
para la que la funcion tiempo-desplazamiento es 𝑥 = {(𝑡, 𝑡2)}
Conclusiones:
Depende los datos que se tengan se recurre al método que se preste a la solución más
óptima.
AJUSTE DE CURVAS
• Método de Spline Cúbico
Objetivo:
Identificar las características del método de Spline cúbico
- Implementar el algoritmo del Spline cúbico para la solución de problemas de ajuste de
curvas
Introducción:
Métodos Numéricos II Hernández Cruz Juan Carlos
21
Otra manera de ajustar un polinomio a un conjunto de datos es un spline cúbico, solo que
éste lo hace a través de una curva suave, la cual puede ser de varios grados. En general, un
conjunto de polinomios de n-ésimo grado se ajusta entre cada par de puntos adyacentes,
𝑔𝑖(𝑥), desde 𝑥𝑖 hasta 𝑥𝑖 + 1. Si el grado del spline es uno (solo hay rectas entre los
puntos), lo cual se vería así:
Para relacionar las pendientes y las curvaturas de los splines de unión, se deriva 𝑔𝑖(𝑥):
Aprovechando que 𝑔”𝑖(𝑥𝑖) es lineal en el intervalo [xi , xi+1] hacemos:
Sustituyendo los valores de 𝑎𝑖 , 𝑏𝑖 y di en 𝑔𝑖(𝑥) = 𝑦𝑖 + 1 para despejar 𝑐𝑖:
Métodos Numéricos II Hernández Cruz Juan Carlos
22
Escribiendo la ecuación (c) en forma matricial con S1, S2, ..., Sn-1 como las incógnitas:
Como puede observarse hay n+1 incógnitas y n-1 ecuaciones. Para hacer el sistema
cuadrado se eliminan S0 y Sn usando las suposiciones en la frontera, la más común de ellas
es el spline natural. Una vez que se obtienen los valores Si se obtienen los
𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑎𝑖 , 𝑏 𝑖 , 𝑐 𝑖 , 𝑑𝑖 para las cúbicas en cada intervalo. A partir de éstas es posible
calcular puntos en la curva de interpolación.
Ejemplo:
Métodos Numéricos II Hernández Cruz Juan Carlos
23
Métodos Numéricos II Hernández Cruz Juan Carlos
24
Conclusiones:
Es un método complejo pero da las mejores aproximaciones.
• Método mínimos cuadrados
Objetivo:
-Deducir las fórmulas de grado n para el método de mínimos cuadrados.
-Aplicar las fórmulas de mínimos cuadrados a problemas de ajuste de curvas mediante la
elaboración de un programa en lenguaje C.
Introducción:
La teoría de la aproximación comprende dos tipos generales de problemas. cuando una
función se da de manera explícita, pero se desea encontrar un tipo más simple de ella, un
polinomio por ejemplo, que sirva para determinar los valores aproximados de una función
dada. Otro problema se refiere a la adaptación de las funciones a ciertos datos y a la
búsqueda de la función “óptima” en una clase que se pueda emplear para representar los
datos.
Para encontrar una función que se ajuste de la mejor manera a estos datos se tienen las
siguientes opciones: Sea a1xi + a0 el i-ésimo valor de la recta de aproximación y yi el i-ésimo
valor dado para y. El problema de determinar la ecuación de la mejor aproximación lineal en el
sentido absoluto consiste en encontrar los valores de a0 y a1 que minimicen
Métodos Numéricos II Hernández Cruz Juan Carlos
25
• Ejemplo:
Construye un polinomio por mínimos cuadrados que ajuste los puntos de la siguiente
tabla,(decide que grado se ajusta mejor).
Métodos Numéricos II Hernández Cruz Juan Carlos
26
Conclusiones:
• Método de Integración
Objetivo:
-Deducir las fórmulas de Newton-Cotes a partir de los polinomios de interpolación de
Newton.
-Expresar las reglas de integración como caso particulares de Newton-Cotes.
Métodos Numéricos II Hernández Cruz Juan Carlos
27
-Aplicar las regla de integración a problemas de integración definida con intervalos
variables.
Introducción:
Desarrollar las fórmulas de integración numérica es similar a las de diferenciación numérica.
Se pasa un polinomio a través de puntos definidos por una función, se integra esta
aproximación polinomial a la función. Se integra una función conocida pero como una tabla
de valores. Cuando los valores están igualmente espaciados, conviene empezar por las
fórmulas progresivas de Newton.
La fórmula no es muy exacta porque el polinomio no es idéntico a f(x). La expresión del
término del error para la fórmula de integración es:
La primer formula se puede emplear de distintas maneras, el intervalo de integración (a, b)
puede coincidir con el rango de ajuste del polinomio, (x0, xn). Entonces se obtienen las
fórmulas de Newton Cotes; es un conjunto de reglas de integración que corresponden a los
grados variables del polinomio de interpolación. Las tres primeras, con el grado del
polinomio igual a 1, 2 o 3, son más importantes.
Si el grado del polinomio es de orden superior, los errores de redondeo e irregularidades
locales causan problemas, entonces por eso solo se utilizan las fórmulas de grados menores.
Fórmulas de Newton-Cotes
Se obtienen de integrar el polinomio de diferencias de Newton (obsérvese que dx = hds).
Para n=1
Métodos Numéricos II Hernández Cruz Juan Carlos
28
Para n=2
Para n=3
Regla del trapecio
La primer fórmula de Newton-Cotes se basa en aproximar f(x) sobre (x0, x1) mediante una
línea recta, de ahí el nombre de “regla del trapecio”. Es obtenida mediante la integración
de P1(xs) ; pero también puede considerarse como una adaptación de la definición de la
integral definida como una suma, al evaluar la integral de f(x) subdividiendo su intervalo
(a,b) en n subintervalos.
El área bajo la curva en cada subintervalo es aproximada por el trapecio formado al
sustituir la curva por su secante. La integral es aproximada por la suma de todas las áreas
Métodos Numéricos II Hernández Cruz Juan Carlos
29
trapezoidales (si se conociera el límite de esta suma cuando el ancho del intervalo tiende a
cero, se tendría el valor exacto de la integral, pero en la integración numérica, el número de
intervalos es finito). Los intervalos no tienen que ser igual de anchos, pero la fórmula es más
simple si esto sucede.
Sea h la constante ∆x. Dado que el área de un trapecio es el promedio de la altura y las
bases, para cada subintervalo es:
(4)
y para [a, b] subdividiendo en n intervalos de tamaño h
(5)
La ecuación (4) es idéntica a la ecuación para n = 1 de Newton Cotes, por eso la ecuación
(5) se llama “Regla del trapecio compuesta”. El método está sujeto a errores dependiendo
del tamaño del intervalo. Con Newton Cotes se vio que el error de la regla del trapecio es:
Este error es el error en un solo paso, por eso se llama “error local”. Generalmente, esta
regla se aplica a una serie de subintervalos para obtener la integral sobre un intervalo
grande de x = a a x = b, por eso nos interesa el “error global”. La fórmula para el error global
de la regla del trapecio, es la suma de los errores locales:
Métodos Numéricos II Hernández Cruz Juan Carlos
30
(6)
Dado que nh = b – a, el error global se convierte en:
Cuando f(x) es conocida, permite estimar el error de la integración numérica por la
regla del trapecio. Aplicando esta ecuación el error se encierra al calcular los valores
máximos y mínimos de f”(x) en el intervalo [a, b]. Si no se conoce la función, éste se podría
estimar h 2 f”(ε) de las segundas diferencias.
Reglas de Simpson
Newton Cotes basado en un polinomio cuadrático, se conoce como la regla de Simpson
1/3, y Newton Cotes basado en un polinomio cúbico, se conoce como la regla de Simpson
3/8, estos nombres se deben a los coeficientes de las fórmulas.
Simpson 1/3
2º grado de Newton Cotes integra un polinomio cuadrático sobre dos intervalos del mismo
ancho (paneles).
Fórmula compuesta para n paneles (con n par) es:
El orden del error global cambia a O(h^4 ). El denominador en el término del error
cambia a 180 porque se está integrando sobre un n par (significa que la regla local se
aplica h/2 veces). El hecho de que el error es O(h^4 ), es importante.
Métodos Numéricos II Hernández Cruz Juan Carlos
31
Simpson 1/3 también se puede aplicar a valores tabulados (cuando no se conoce la
función). Si el número de intervalos de la tabla no fuera par, se puede hacer un
subintervalo en el intervalo final o algún otro y aplicar la regla del trapecio y el resto con
la Regla de Simpson. Para la regla del trapecio, lo mejor es buscar la parte en la que la
función es más lineal.
Simpson 3/8
Simpson 3/8 es la regla compuesta basada en un polinomio de 4 puntos o cúbico.
Se aplica para n cuando es múltiplo de 3:
Se aplica igual que la regla de Simpson 1/3. Si f(x) es conocida se divide el intervalo de
integración en n paneles donde n debe ser divisible entre 3.
Conclusiones:
La Regla de Simpson 3/8 es menos eficiente que Simpson 1/3. Sin embargo, se emplea
cuando se tienen una tabla de valores con n impar, ya que se combinan las dos reglas.
Ejemplo:
El cuerpo de revolución que se muestra en la figura, se obtiene de
girar la curva dada por
𝑦 = 1 + (
𝑥
2
)
2
0 ≤ x ≤ 2
Métodos Numéricos II Hernández Cruz Juan Carlos
32
Entorno al eje x. Calcular el volumen
f(x)= π(1 + (
𝑥
2
)
2
)
2
0 ≤x ≤ 2
n x f(x)
1 0 3,141592654
2 0.5 3,546563582
3 1 4,908738521
4 1.5 7,669903939
5 2 1,256637061
Trapecio 11,98959384 Error 0,02225167
1/3 Simpson 11,73188507 Error 0,00027902
3/8 Simpson 11,75188363 Error 0,00198413
Valor exacto 11,72861257
Mejor aproximación Simpson 1/3
Conclusiones
Métodos Numéricos II Hernández Cruz Juan Carlos
33
Tanto para n = 2 como para n = 3 el orden del término del error es 𝑂(ℎ5). Significa que el
error de integración de un polinomio cuadrático es similar al de un polinomio cúbico.
Además el coeficiente para el polinomio cuadrático (-1/90) es más pequeño que el del
polinomio cúbico (-3/80), entonces la fórmula basada en un polinomio cuadrático es más
precisa.
Bibliografia:
Burden y Faires. (2011). Análisis numeric (Novena Edición). México: International Thomson. ·
Gerald Curtis, Wheatley Patrick. (2003). Applied Numerical Analysis (7 ed). E. U.A.: Pearson · David.
(2011). Métodos numéricos y computación (6 ed). México: CENGAGE Learning.

Más contenido relacionado

La actualidad más candente

Solution of non-linear equations
Solution of non-linear equationsSolution of non-linear equations
Solution of non-linear equationsZunAib Ali
 
Operation Research (Simplex Method)
Operation Research (Simplex Method)Operation Research (Simplex Method)
Operation Research (Simplex Method)Shivani Gautam
 
Second order homogeneous linear differential equations
Second order homogeneous linear differential equations Second order homogeneous linear differential equations
Second order homogeneous linear differential equations Viraj Patel
 
Soluciones por sustituciones. ED de Bernoulli
Soluciones por sustituciones. ED de BernoulliSoluciones por sustituciones. ED de Bernoulli
Soluciones por sustituciones. ED de BernoulliGabriel Requelme
 
Ecuaciones Diferanciales Homogeneas
Ecuaciones Diferanciales HomogeneasEcuaciones Diferanciales Homogeneas
Ecuaciones Diferanciales HomogeneasJosé Castro
 
Interpolacion Hermite
Interpolacion HermiteInterpolacion Hermite
Interpolacion Hermiteppkantuka
 
resolucion de ecuaciones diferenciales con MATLAB
resolucion de ecuaciones diferenciales con MATLAB resolucion de ecuaciones diferenciales con MATLAB
resolucion de ecuaciones diferenciales con MATLAB Raul Ibañez
 
Metodo grafico
Metodo graficoMetodo grafico
Metodo graficobkike
 
Newton divided difference interpolation
Newton divided difference interpolationNewton divided difference interpolation
Newton divided difference interpolationVISHAL DONGA
 
Presentation on Numerical Method (Trapezoidal Method)
Presentation on Numerical Method (Trapezoidal Method)Presentation on Numerical Method (Trapezoidal Method)
Presentation on Numerical Method (Trapezoidal Method)Syed Ahmed Zaki
 
arijit ppt (1) (1).pptx
arijit ppt (1) (1).pptxarijit ppt (1) (1).pptx
arijit ppt (1) (1).pptxRadharamanRoy3
 

La actualidad más candente (20)

12534840 ecuaciones-diferenciales-parciales-elipticas
12534840 ecuaciones-diferenciales-parciales-elipticas12534840 ecuaciones-diferenciales-parciales-elipticas
12534840 ecuaciones-diferenciales-parciales-elipticas
 
Estadísticos de orden
Estadísticos de ordenEstadísticos de orden
Estadísticos de orden
 
Solution of non-linear equations
Solution of non-linear equationsSolution of non-linear equations
Solution of non-linear equations
 
Operation Research (Simplex Method)
Operation Research (Simplex Method)Operation Research (Simplex Method)
Operation Research (Simplex Method)
 
Second order homogeneous linear differential equations
Second order homogeneous linear differential equations Second order homogeneous linear differential equations
Second order homogeneous linear differential equations
 
Metodo grafico20178
Metodo grafico20178Metodo grafico20178
Metodo grafico20178
 
Operations Research - The Big M Method
Operations Research - The Big M MethodOperations Research - The Big M Method
Operations Research - The Big M Method
 
Soluciones por sustituciones. ED de Bernoulli
Soluciones por sustituciones. ED de BernoulliSoluciones por sustituciones. ED de Bernoulli
Soluciones por sustituciones. ED de Bernoulli
 
Ecuaciones Diferanciales Homogeneas
Ecuaciones Diferanciales HomogeneasEcuaciones Diferanciales Homogeneas
Ecuaciones Diferanciales Homogeneas
 
Interpolacion Hermite
Interpolacion HermiteInterpolacion Hermite
Interpolacion Hermite
 
resolucion de ecuaciones diferenciales con MATLAB
resolucion de ecuaciones diferenciales con MATLAB resolucion de ecuaciones diferenciales con MATLAB
resolucion de ecuaciones diferenciales con MATLAB
 
Metodo grafico
Metodo graficoMetodo grafico
Metodo grafico
 
Newton Raphson
Newton RaphsonNewton Raphson
Newton Raphson
 
Guiasimplex
GuiasimplexGuiasimplex
Guiasimplex
 
Gauss elimination
Gauss eliminationGauss elimination
Gauss elimination
 
Newton divided difference interpolation
Newton divided difference interpolationNewton divided difference interpolation
Newton divided difference interpolation
 
Simplex Algorithm
Simplex AlgorithmSimplex Algorithm
Simplex Algorithm
 
Presentation on Numerical Method (Trapezoidal Method)
Presentation on Numerical Method (Trapezoidal Method)Presentation on Numerical Method (Trapezoidal Method)
Presentation on Numerical Method (Trapezoidal Method)
 
arijit ppt (1) (1).pptx
arijit ppt (1) (1).pptxarijit ppt (1) (1).pptx
arijit ppt (1) (1).pptx
 
Assure
AssureAssure
Assure
 

Similar a Métodos numéricos ii

E book itzayana nava montiel
E book itzayana nava montielE book itzayana nava montiel
E book itzayana nava montielItzayana Nava
 
E book itzayana nava montiel
E book itzayana nava montielE book itzayana nava montiel
E book itzayana nava montielItzayana Nava
 
Métodos numéricos- Problemario
Métodos numéricos- ProblemarioMétodos numéricos- Problemario
Métodos numéricos- ProblemarioBren MA
 
102906052-Metodo-de-Gauss-Seidel-exposicion.pdf
102906052-Metodo-de-Gauss-Seidel-exposicion.pdf102906052-Metodo-de-Gauss-Seidel-exposicion.pdf
102906052-Metodo-de-Gauss-Seidel-exposicion.pdfKarwlynaKwayntiru
 
ventajas y desventajas de los metodos secante,biseccion, newton-raphson
ventajas y desventajas de los metodos secante,biseccion, newton-raphsonventajas y desventajas de los metodos secante,biseccion, newton-raphson
ventajas y desventajas de los metodos secante,biseccion, newton-raphsonFer Echavarria
 
UNIDAD 7 y 8 Intergración numérica y Ec Dif.pptx
UNIDAD 7 y 8  Intergración numérica y Ec Dif.pptxUNIDAD 7 y 8  Intergración numérica y Ec Dif.pptx
UNIDAD 7 y 8 Intergración numérica y Ec Dif.pptxPaulaInes2
 
Programacion numerica 1
Programacion numerica 1Programacion numerica 1
Programacion numerica 1Yhonny Ochoa
 
Apuntes metodos-numericos-aproximacion-funcional-e-interpolacion
Apuntes metodos-numericos-aproximacion-funcional-e-interpolacionApuntes metodos-numericos-aproximacion-funcional-e-interpolacion
Apuntes metodos-numericos-aproximacion-funcional-e-interpolacionmiguelcasa
 
Guia de estudio 2 (tema 2 metodos numericos)
Guia de estudio 2 (tema 2 metodos numericos)Guia de estudio 2 (tema 2 metodos numericos)
Guia de estudio 2 (tema 2 metodos numericos)pedroperez683734
 
1 ecuaciones no_lineales
1 ecuaciones no_lineales1 ecuaciones no_lineales
1 ecuaciones no_linealestimdrake27
 
Método de jacobi
Método de jacobiMétodo de jacobi
Método de jacobiTensor
 
Newton sistema de ec
Newton sistema de ecNewton sistema de ec
Newton sistema de ecJose Cayo
 

Similar a Métodos numéricos ii (20)

E book itzayana nava montiel
E book itzayana nava montielE book itzayana nava montiel
E book itzayana nava montiel
 
E book itzayana nava montiel
E book itzayana nava montielE book itzayana nava montiel
E book itzayana nava montiel
 
Ebook
EbookEbook
Ebook
 
Problemario
ProblemarioProblemario
Problemario
 
Métodos numéricos- Problemario
Métodos numéricos- ProblemarioMétodos numéricos- Problemario
Métodos numéricos- Problemario
 
102906052-Metodo-de-Gauss-Seidel-exposicion.pdf
102906052-Metodo-de-Gauss-Seidel-exposicion.pdf102906052-Metodo-de-Gauss-Seidel-exposicion.pdf
102906052-Metodo-de-Gauss-Seidel-exposicion.pdf
 
ventajas y desventajas de los metodos secante,biseccion, newton-raphson
ventajas y desventajas de los metodos secante,biseccion, newton-raphsonventajas y desventajas de los metodos secante,biseccion, newton-raphson
ventajas y desventajas de los metodos secante,biseccion, newton-raphson
 
Ibook cynthia
Ibook cynthiaIbook cynthia
Ibook cynthia
 
UNIDAD 7 y 8 Intergración numérica y Ec Dif.pptx
UNIDAD 7 y 8  Intergración numérica y Ec Dif.pptxUNIDAD 7 y 8  Intergración numérica y Ec Dif.pptx
UNIDAD 7 y 8 Intergración numérica y Ec Dif.pptx
 
clase semana 1 .pdf
clase semana 1 .pdfclase semana 1 .pdf
clase semana 1 .pdf
 
Programacion numerica 1
Programacion numerica 1Programacion numerica 1
Programacion numerica 1
 
Apuntes metodos-numericos-aproximacion-funcional-e-interpolacion
Apuntes metodos-numericos-aproximacion-funcional-e-interpolacionApuntes metodos-numericos-aproximacion-funcional-e-interpolacion
Apuntes metodos-numericos-aproximacion-funcional-e-interpolacion
 
Lina 2
Lina 2Lina 2
Lina 2
 
Lina 2
Lina 2Lina 2
Lina 2
 
Guia de estudio 2 (tema 2 metodos numericos)
Guia de estudio 2 (tema 2 metodos numericos)Guia de estudio 2 (tema 2 metodos numericos)
Guia de estudio 2 (tema 2 metodos numericos)
 
1 ecuaciones no_lineales
1 ecuaciones no_lineales1 ecuaciones no_lineales
1 ecuaciones no_lineales
 
Sistema de ecuaciones
Sistema de ecuacionesSistema de ecuaciones
Sistema de ecuaciones
 
Método de jacobi
Método de jacobiMétodo de jacobi
Método de jacobi
 
Sexto pdf
Sexto pdfSexto pdf
Sexto pdf
 
Newton sistema de ec
Newton sistema de ecNewton sistema de ec
Newton sistema de ec
 

Último

Características emociones y sentimientos
Características emociones y sentimientosCaracterísticas emociones y sentimientos
Características emociones y sentimientosFiorelaMondragon
 
AA.VV. - Reinvención de la metrópoli: 1920-1940 [2024].pdf
AA.VV. - Reinvención de la metrópoli: 1920-1940 [2024].pdfAA.VV. - Reinvención de la metrópoli: 1920-1940 [2024].pdf
AA.VV. - Reinvención de la metrópoli: 1920-1940 [2024].pdffrank0071
 
Diálisis peritoneal en los pacientes delicados de salud
Diálisis peritoneal en los pacientes delicados de saludDiálisis peritoneal en los pacientes delicados de salud
Diálisis peritoneal en los pacientes delicados de saludFernandoACamachoCher
 
RX DE TORAX normal jornadas .............
RX DE TORAX normal jornadas .............RX DE TORAX normal jornadas .............
RX DE TORAX normal jornadas .............claudiasilvera25
 
TEMA: ULTRASONOGRAFIA EN NUTRICION
TEMA:         ULTRASONOGRAFIA EN NUTRICIONTEMA:         ULTRASONOGRAFIA EN NUTRICION
TEMA: ULTRASONOGRAFIA EN NUTRICIONClaudiaIsabel36
 
inspeccion del pescado.pdfMedicinaveteri
inspeccion del pescado.pdfMedicinaveteriinspeccion del pescado.pdfMedicinaveteri
inspeccion del pescado.pdfMedicinaveteriManrriquezLujanYasbe
 
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdfHolland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdffrank0071
 
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdfPerfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdfPieroalex1
 
Patologias del quiasma optico .pptxxxxxx
Patologias del quiasma optico .pptxxxxxxPatologias del quiasma optico .pptxxxxxx
Patologias del quiasma optico .pptxxxxxxFranciscaValentinaGa1
 
Fresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontologíaFresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontologíaDanyAguayo1
 
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...ocanajuanpablo0
 
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdfHarris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdffrank0071
 
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)s.calleja
 
Codigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptxCodigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptxSergioSanto4
 
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdfMata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdffrank0071
 
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...Juan Carlos Fonseca Mata
 
cgm medicina interna clinica delgado.pdf
cgm medicina interna clinica delgado.pdfcgm medicina interna clinica delgado.pdf
cgm medicina interna clinica delgado.pdfSergioSanto4
 
Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...
Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...
Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...frank0071
 
Tema 1. Generalidades de Microbiologia Universidad de Oriente
Tema 1. Generalidades de Microbiologia Universidad de OrienteTema 1. Generalidades de Microbiologia Universidad de Oriente
Tema 1. Generalidades de Microbiologia Universidad de OrienteUnaLuzParaLasNacione
 
PAE ARTITRIS- ENFERMERIA GERIATRICA.pptx
PAE ARTITRIS- ENFERMERIA GERIATRICA.pptxPAE ARTITRIS- ENFERMERIA GERIATRICA.pptx
PAE ARTITRIS- ENFERMERIA GERIATRICA.pptxrenegon1213
 

Último (20)

Características emociones y sentimientos
Características emociones y sentimientosCaracterísticas emociones y sentimientos
Características emociones y sentimientos
 
AA.VV. - Reinvención de la metrópoli: 1920-1940 [2024].pdf
AA.VV. - Reinvención de la metrópoli: 1920-1940 [2024].pdfAA.VV. - Reinvención de la metrópoli: 1920-1940 [2024].pdf
AA.VV. - Reinvención de la metrópoli: 1920-1940 [2024].pdf
 
Diálisis peritoneal en los pacientes delicados de salud
Diálisis peritoneal en los pacientes delicados de saludDiálisis peritoneal en los pacientes delicados de salud
Diálisis peritoneal en los pacientes delicados de salud
 
RX DE TORAX normal jornadas .............
RX DE TORAX normal jornadas .............RX DE TORAX normal jornadas .............
RX DE TORAX normal jornadas .............
 
TEMA: ULTRASONOGRAFIA EN NUTRICION
TEMA:         ULTRASONOGRAFIA EN NUTRICIONTEMA:         ULTRASONOGRAFIA EN NUTRICION
TEMA: ULTRASONOGRAFIA EN NUTRICION
 
inspeccion del pescado.pdfMedicinaveteri
inspeccion del pescado.pdfMedicinaveteriinspeccion del pescado.pdfMedicinaveteri
inspeccion del pescado.pdfMedicinaveteri
 
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdfHolland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
 
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdfPerfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
 
Patologias del quiasma optico .pptxxxxxx
Patologias del quiasma optico .pptxxxxxxPatologias del quiasma optico .pptxxxxxx
Patologias del quiasma optico .pptxxxxxx
 
Fresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontologíaFresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontología
 
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
 
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdfHarris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
 
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
 
Codigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptxCodigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptx
 
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdfMata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
 
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
 
cgm medicina interna clinica delgado.pdf
cgm medicina interna clinica delgado.pdfcgm medicina interna clinica delgado.pdf
cgm medicina interna clinica delgado.pdf
 
Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...
Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...
Woods, Thomas E. - Cómo la Iglesia construyó la Civilización Occidental [ocr]...
 
Tema 1. Generalidades de Microbiologia Universidad de Oriente
Tema 1. Generalidades de Microbiologia Universidad de OrienteTema 1. Generalidades de Microbiologia Universidad de Oriente
Tema 1. Generalidades de Microbiologia Universidad de Oriente
 
PAE ARTITRIS- ENFERMERIA GERIATRICA.pptx
PAE ARTITRIS- ENFERMERIA GERIATRICA.pptxPAE ARTITRIS- ENFERMERIA GERIATRICA.pptx
PAE ARTITRIS- ENFERMERIA GERIATRICA.pptx
 

Métodos numéricos ii

  • 1. Métodos Numéricos II Hernández Cruz Juan Carlos 1 Métodos Numéricos II Hernández Cruz Juan Carlos Profa: Teresa Carrillo Godinez
  • 2. Métodos Numéricos II Hernández Cruz Juan Carlos 2 Índice Solución de sistemas de ecuaciones no lineales • Método de punto fijo • Método de Newton-Raphson • Método de Newton- Raphson Modificado Interpolación Polinomial • Método de Lagrange • Método de Diferencias Divididas • Método de Hermite Ajuste de curvas • Método de Spline Cúbico • Método de Mínimos Cuadrados Integración numérica • Método de Integración numérica
  • 3. Métodos Numéricos II Hernández Cruz Juan Carlos 3 SOLUCIÓN DE SISTEMAS DE ECUACIONES NO LINEALES • Método de punto fijo Objetivo: De forma numérica resolver sistemas de ecuaciones no lineales con apoyo de herramientas matemáticas y computacionales. Introducción: Se verán los métodos para solución de ecuaciones algebraicas de la forma f(x) = 0 con los métodos de solución de sistemas de ecuaciones, Ax = b, para resolver un sistema de n ecuaciones con n incógnitas cuya representación es: f1(x1, x2, …, xn) = 0 f2(x1, x2, …, xn) = 0 : fn(x1, x2, …, xn) = 0 Se hace una sustitución por un problema vectorial que incluye todas las variables (Burden & Faires, 2003). Algunos ejemplos de estos sistemas de ecuaciones son los siguientes: 1. f1(x, y) = x 2 + y 2 – 4 = 0 f2(x, y) = y – x 2 = 0 2. f1(x, y) = x 2 - 2x – y + 0.5 f2(x, y) = x 2 + 4y 2 – 4 Una solución de este sistema es un punto (x, y) en el que ambas curvas se cruzan (f1(x1, x2) = 0 y f2(x1, x2) = 0). En la gráfica puede observarse que existen dos puntos en los que se intersectan las curvas, dichos puntos están cercanos a (-0.2, 1.0) y (1.9, 0.3) (ejemplo 2). Punto fijo es la técnica para resolver sistemas no lineales consiste en escribir las ecuaciones que componen el sistema de la forma: fi(x1, x2, …, xn) = 0 para i = 1, 2, …, n, Se trataran de encontrar los valores (x1, x2, …, xn) que satisfagan todas las ecuaciones del sistema. Las ecuaciones se resuelven para una variable de tal manera que se obtenga: xi = gi(x1, x2, …, xn) para i = 1, 2, …, n. -Se toman como fórmulas recursivas para obtener una estimación, se escriben de la siguiente forma: xi (k+1) = gi(x1 k , x2 k , …, xn k ) para i = 1, 2, …, n.
  • 4. Métodos Numéricos II Hernández Cruz Juan Carlos 4 -Se comienza con valores iniciales (x1^0 , x2^0 , …, xn^0 ), se calculan nuevos valores (x1^1 , x2^1 , …, xn^1 ) y se repite el proceso, esperando que en cada iteración los valores se aproximen a la raíz buscada, la cual cumple con: xi = gi(x1, x2, …, xn) para i = 1, 2, …, n. Ejemplo: 𝑓1( 𝑥, 𝑦) = 𝑥2 − 𝑦 − 2 = 0 𝑓2( 𝑥, 𝑦) = 2𝑥𝑦 − 3 = 0 Sumar -4x a cada lado Sumar -5y a cada lado Formas iterativas (g1 y g2): 𝑥 = −𝑥2 + 𝑦 + 2 4 𝑦 = −2𝑥𝑦 + 3 5 Grafica:
  • 5. Métodos Numéricos II Hernández Cruz Juan Carlos 5 Simultáneos i Xi Yi error 0 1,7 0,88 0,82 1 -0,0025 0,0016 0,0009 2 0,500398438 0,6000016 0,09960316 3 0,587400751 0,479904055 0,1074967 4 0,533716103 0,487241599 0,0464745 5 0,55059718 0,495980525 0,05461666 6 0,548205818 0,490765809 0,05744001 7 0,547559048 0,492383731 0,05517532 8 0,548140705 0,492156333 0,05598437 9 0,547924525 0,492091632 0,05583289 10 0,547967587 0,49214837 0,05581922 11 0,547969974 0,492127458 0,05584252 12 0,547964092 0,492131572 0,05583252 13 0,547966732 0,492131828 0,0558349 14 0,547966072 0,492131252 0,05583482 15 0,547966109 0,492131508 0,0558346 16 0,547966163 0,492131445 0,05583472 17 0,547966132 0,492131448 0,05583468 18 0,547966142 0,492131454 0,05583469 19 0,54796614 0,492131451 0,05583469 Sucesivos i Xi Yi error 0 1,7 0,88 0,82 1 -0,0025 0,60088 -0,59838 2 0,650218438 0,443718698 0,20649974
  • 6. Métodos Numéricos II Hernández Cruz Juan Carlos 6 3 0,50523367 0,510327349 - 0,00509368 4 0,563766572 0,4849178 0,07884877 5 0,541771263 0,494914188 0,04685707 6 0,550349522 0,491049685 0,05929984 7 0,547041272 0,492550222 0,05449105 8 0,548324017 0,491969153 0,05635486 9 0,547827481 0,492194311 0,05563317 10 0,54801984 0,492107101 0,05591274 11 0,547945339 0,492140883 0,05580446 12 0,547974197 0,492127798 0,0558464 13 0,547963019 0,492132866 0,05583015 14 0,547967349 0,492130903 0,05583645 15 0,547965672 0,492131664 0,05583401 16 0,547966322 0,492131369 0,05583495 17 0,54796607 0,492131483 0,05583459 18 0,547966167 0,492131439 0,05583473 19 0,54796613 0,492131456 0,05583467 20 0,547966144 0,492131449 0,05583469 21 0,547966139 0,492131452 0,05583469 22 0,547966141 0,492131451 0,05583469 Dxg1=− 2𝑥 4 =-.2735 Dyg1= 1 4 Dxg2=− 2𝑦 5 ==-.1968 Dyg2=− 2𝑥 5 =-.2188 Todas las parciales son <1 por lo tanto converge en esos puntos. Conclusiones: -Este método sale de los métodos de Jacobi y Gauss-Seidel. -La convergencia se ve afectada por el despeje de cada una de las variables. -Si el método tiene convergencia lineal. -Se detiene cuando la norma vectorial lo indique. Para asegurar la convergencia es que ∑ | 𝜕𝑔𝑖 𝜕𝑥𝑗 | 𝑛 𝑗 = 1 ≤ 𝑀 < 1, 𝑝𝑎𝑟𝑎 𝑖 = 1, 2, … , 𝑛
  • 7. Métodos Numéricos II Hernández Cruz Juan Carlos 7 -Si M es muy pequeña en una región de interés, converge rápidamente, si M es cercana a 1 en magnitud, converge lentamente. Es muy difícil encontrar el sistema para la forma iterativa que satisfaga esta condición. -Para acelerar la convergencia se pueden emplear los desplazamientos sucesivos en lugar de los simultáneos. • Método de Newton-Raphson Objetivo: De forma numérica resolver sistemas de ecuaciones no lineales con apoyo de herramientas matemáticas y computacionales. Introducción: Se verán los métodos para solución de ecuaciones algebraicas de la forma f(x) = 0 con los métodos de solución de sistemas de ecuaciones, Ax = b, para resolver un sistema de n ecuaciones con n incógnitas cuya representación es: f1(x1, x2, …, xn) = 0 f2(x1, x2, …, xn) = 0 : fn(x1, x2, …, xn) = 0 Se hace una sustitución por un problema vectorial que incluye todas las variables (Burden & Faires, 2003). Algunos ejemplos de estos sistemas de ecuaciones son los siguientes: 3. f1(x, y) = x 2 + y 2 – 4 = 0 f2(x, y) = y – x 2 = 0 4. f1(x, y) = x 2 - 2x – y + 0.5 f2(x, y) = x 2 + 4y 2 – 4 Una solución de este sistema es un punto (x, y) en el que ambas curvas se cruzan (f1(x1, x2) = 0 y f2(x1, x2) = 0). Existen dos puntos en los que se intersectan las curvas, dichos puntos están cercanos a (-0.2, 1.0) y (1.9, 0.3) (ejemplo 2). Newton-Raphson se usa para resolver este tipo de sistemas de ecuaciones no lineales este método usa varios conceptos: Matriz jacobiana: Sean fi(x1,x2, …, xn), con 1  i  n, funciones con n variables (xj) independientes. Su matriz jacobiana J(x1,x2, …, xn), está dada por las derivadas parciales de cada una de las funciones con respecto a cada una de las variables:
  • 8. Métodos Numéricos II Hernández Cruz Juan Carlos 8 La diferencial. En una función de varias variables, la diferencial es el instrumento que se usa para mostrar el efecto de los cambios de las variables independientes en las variables dependientes. Supóngase que los valores de las funciones fi(x1, x2, …, xn) se conocen en el punto (x1 0 , x2 0 , …, xn 0 ) y se desean estimar sus valores en un punto cercano (x1, x2, …, xn). Si se denotan con fi los cambios diferenciales en las variables dependientes y por xi los cambios diferenciales en las variables independientes, esto puede escribirse con notación matricial de la siguiente manera: El diferencial es la ecuación matricial que se utiliza en los métodos para solución de ecuaciones no lineales ya que puede transformarse en una forma iterativa. Y el método se aplica de la siguiente manera se linealizar y resuelve repetidamente; Usando notación vectorial para escribir el sistema (1) se tiene: F(X) = 0 Definiendo los vectores columna como:
  • 9. Métodos Numéricos II Hernández Cruz Juan Carlos 9 La extensión del método de Newton para sistemas no lineales es: Donde 𝐹´(𝑥^𝑘) es la matriz jacobiana Ejemplo: 𝑓1(𝑥, 𝑦, 𝑧) = 𝑥2 − 𝑥 + 2𝑦2 + 𝑦𝑧 − 10 = 0 𝑓2(𝑥, 𝑦, 𝑧) = 5𝑥 − 6𝑦 + 𝑧 = 0 𝑓3(𝑥, 𝑦, 𝑧) = 𝑧 − 𝑥2 − 𝑦2 = 0  Método de Newton-Raphson Modificado Objetivo: Al igual que Newton-Rapshon resolver sistemas de ecuaciones no lineales. Introducción: Consiste en aplicar n (n número de ecuaciones) veces el método de Newton univariable, una para cada variable. Cada que se hace, se consideran las otras variables fijas.
  • 10. Métodos Numéricos II Hernández Cruz Juan Carlos 10 Sea : 𝑓𝑖 ( 𝑥1, 𝑥2, ⋯ , 𝑥𝑛 ) = 0 con i = 1, 2, …, n Tomar valores ( 𝑥1 0 , 𝑥2 0 , ⋯ , 𝑥𝑛 0 ) entonces se aplica Newton para calcular un nuevo valor, se emplea la derivada parcial evaluada en los valores iniciales: Entonces se obtiene Luego se hace de forma sucesiva hasta alcanzar una tolerancia establecida. El método converge si los valores iniciales de las variables son cercanos a la raíz y requiere la evaluación de sólo 2n funciones por paso. Al igual que en el método anterior se pueden emplear desplazamientos simultáneos o sucesivos. Ejemplo: -Resolver el siguiente sistema de ecuaciones por el método de newton modificado: 𝑓1(𝑥, 𝑦, 𝑧) = 𝑥2 + 𝑦2 + 𝑧2 = 9 𝑓2(𝑥, 𝑦, 𝑧) = 𝑥𝑦𝑧 = 1 𝑓3(𝑥, 𝑦, 𝑧) = 𝑥 + 𝑦 − 𝑧2 = 0 -Emplear desplazamientos sucesivos y simultáneos -Alcanzar una tolerancia mínima de .0005 Desplazamientos simultáneos k x y z f1 f2 f3 df1/dx df2/dy df3/dz 0 -3 4 3,5 28,25 -43 -11,25 -6 -10,5 -7 1 1,70833333 -0,0952381 1,89285714 - 2,48961876 - 1,30796485 - 1,96981293 3,41666667 3,23363095 - 3,78571429
  • 11. Métodos Numéricos II Hernández Cruz Juan Carlos 11 Desplazamientos sucesivos k (x,y,z) fi(x,y,z) dfxi 0 -3 28,25 -6 4 22,9166667 5,97916667 3,5 -10,3744193 -7 1,70833333 -1,98154328 3,41666667 1 0,16724739 -0,22771065 4,61764672 2,0179401 -1,56722451 - 4,03588021 2,28829722 -1,061145 4,57659444 2 0,21656053 -0,11060816 4,10689731 1,62961725 0,10800111 -3,2592345 2,52016067 0,17525012 5,04032135 3 0,24349282 0,00625706 4,13259441 1,66275421 -0,03738177 - 3,32550841 2,48539104 -0,03678152 4,97078208 4 0,24197874 -0,00380333 4,11687678 1,65151329 0,00819703 - 3,30302658 2,49279058 0,00870589 4,98558117 5 0,24290258 0,00080111 4,12017483 2 2,43700224 0,30924988 1,3725292 - 1,08154819 0,03439656 0,86241572 4,87400448 3,34485674 -2,7450584 3 2,65890359 0,29896647 1,68669946 1,00410434 0,34079622 0,11291498 5,31780718 4,48477126 - 3,37339893 4 2,47008435 0,22297681 1,72017163 0,11002578 - 0,05257843 - 0,26592929 4,94016869 4,24896902 - 3,44034326 5 2,44781268 0,23535121 1,64287432 - 0,25378685 - 0,05354721 - 0,01587214 4,89562536 4,0214486 - 3,28574864 6 2,4996522 0,24866661 1,63804372 - 0,00671658 0,01817529 0,06513158 4,9993044 4,09453958 - 3,27608744 7 2,5009957 0,2442277 1,65792462 0,06334073 0,01268098 - 0,00349066 5,0019914 4,14646236 - 3,31584925 8 2,4883326 0,24116944 1,65687191 - 0,00481367 - 0,00569497 - 0,01572248 4,9766652 4,12284838 - 3,31374381 9 2,48929985 0,24255076 1,65212728 - 0,01503086 -0,002476 0,00232606 4,97859969 4,11264018 - 3,30425456 10 2,49231894 0,24315281 1,65283124 0,00262808 0,00163944 0,00362064 4,98463788 4,1193826 - 3,30566248 11 2,4917917 0,24275482 1,65392652 0,00342874 0,00045099 - 0,00092642 4,98358341 4,12124039 - 3,30785305 12 2,4911037 0,24264539 1,65364646 - 0,00097898 -0,0004454 - 0,00079752 4,98220739 4,1194048 - 3,30729291 13 2,49130019 0,24275352 1,65340532 - 0,00074494 -6,6955E- 05 0,00030456 4,98260038 4,11912899 - 3,30681064
  • 12. Métodos Numéricos II Hernández Cruz Juan Carlos 12 1,65399496 -0,00194681 - 3,30798992 2,49104437 -0,00203783 4,98208874 6 0,24270815 -0,00019167 4,11938511 1,65340644 0,00045521 - 3,30681289 Conclusiones: -Normalmente converge si los valores iniciales están muy cerca de la raíz. -Requiere la evaluación de 2n funciones por paso solamente. -Como las variables se resuelven por separado, es posible que alguna de ellas diverja. -No se sabe cuándo el vector inicial convergerá o no, siendo ésta la principal desventaja del método.  Método de Broyden (Cuasy Newton) Objetivo: Obtener el mismo resultado de sistemas de ecuaciones no lineales sin necesidad de calcular las derivadas parciales. Introducción: Este método se usa cuando no es práctico obtener las derivadas parciales se usan las aproximaciones por diferencias finitas a dichas derivadas lo que generaliza el método de la secante a los sistemas de ecuaciones no lineales. Requiere n evaluaciones funcionales por iteración y también disminuye el número de cálculos aritméticos a O(n^2 ) (Burden & Faires, Análisis numérico, 2011). Reemplaza a la matriz Jacobiana con una matriz de aproximación que se actualiza en cada iteración; a la convergencia superlineal disminuye los cálculos. A partir de una aproximación inicial X(0) a la solución F(x) = 0, se calcula la siguiente aproximación X(1) por el método de Newton. Para calcular X(2) ya no se hace con el método de Newton y se recurre al método de la secante. Se emplea la siguiente fórmula para sustituir el cálculo de la derivada: El método es semejante al método de Newton, porque la matriz J(X (1)) es reemplazada por una matriz A esta tiene la propiedad de que:
  • 13. Métodos Numéricos II Hernández Cruz Juan Carlos 13 Esta matriz es la que se usa para determinar X^(2) como: Y cuyos componentes se obtienen con dos iteraciones previas X (k) y X (k-1), de la siguiente manera: Para aplicar la ecuación (1.7) necesitamos dos vectores iniciales X(0) y X(1) , X(1) puede obtenerse de una aplicación del método de Newton cuya matriz jacobiana se emplea para la primera iteración, entonces (1.7) queda: La inversa de A^(k) en cada iteración tene un esfuerzo computacional considerable; puede reducirse empleando la forma de inversión matricial de Sherman Morrison. Teorema de Sherman Morrison Si A es una matriz no singular y X y Y son vectores, entonces 𝐴 + 𝑋𝑌 𝑡 es no singular, siempre que 𝑌 𝑡 𝐴 𝑋−1  − 1. Esta fórmula permite calcular (𝐴 𝑘 ) −1 , quita la necesidad de invertir una matriz en cada iteración. Se necesita la inversa de (1.7):
  • 14. Métodos Numéricos II Hernández Cruz Juan Carlos 14 Se puede reescribir como: (𝐴 𝑘 ) −1 = (𝐴 + 𝑋𝑌 𝑡)−1 , se ajusta al teorema, sustituyendo en la ecuación (1.8) se desarrolla: Fórmula que permite calcular la inversa de una matriz con sumas y multiplicaciones de matrices, con lo que se reduce el esfuerzo computacional al orden 𝑛2 . Determinada 𝑋2 , el método se repite para determinar 𝑋3 , usando [𝐴2]−1 esto se obtiene a partir de (1.9) con 𝐴1 y con 𝑋2 y 𝑋1 en lugar de 𝑋1 y 𝑋0 . Una vez determinado 𝑋 𝑖 , se calcula 𝑋 𝑖 +1 con: Si el método se aplica como se describe en las ecuaciones anteriores el número de evaluaciones funcionales disminuye de 𝑛2 + 𝑛 a 𝑛 (las necesarias para evaluar 𝐹(𝑋 𝑖 ), y aún se necesita 𝑂(𝑛3) cálculos para resolver el sistema lineal asociado de nxn. Ejemplo: Conclusiones: -Tiene una convergencia superlineal, pero no cuadrática. -Su desventaja radica en que se pierde la convergencia cuadrática de Newton, al ser sustituida por una convergencia denominada superlineal y en que no es autocorregible esto en diferencia a Newton-Raphson. - El uso del método en esta forma no se justificaría, debido a la reducción a la convergencia superlineal a partir de la convergencia cuadrática del método de Newton (Burden & Faires, Análisis numérico, 2011).
  • 15. Métodos Numéricos II Hernández Cruz Juan Carlos 15 INTERPOLACIÓN POLINOMIAL  Método de lagrange Objetivo: Encontrar una polinomio lo más parecido a los datos tabulados de una tabla Introducción: Es fácil encontrarse con datos tabulados de la forma (𝑥𝑖 , 𝑦𝑖), para 𝑖 = 0, 1, … , 𝑛, un ejemplo, la presión de una sustancia a diferentes temperaturas, la población en diferentes tiempos, las distancias a diferentes velocidades, entre otros. En estos casos 𝑦 = 𝑓(𝑥) y 𝑓(𝑥) es desconocida; y es común la necesidad de conocer algún valor de 𝑦 para alguna 𝑥 que no se encuentra en la tabla. Este procedimiento es lo que se conoce como Interpolación. Es el cálculo de valores para una función tabulada en puntos que no se encuentran en la tabla de valores. Se puede obtener una representación explícita de una aproximación a 𝑓(𝑥), permite construir fórmulas de diferenciación e integración numérica y obtener formas simplificadas de funciones “complejas”. Fórmula de Lagrange Se tiene n + 1 puntos (𝑥𝑖 , 𝑦𝑖) para 𝑖 = 0, 1, . . . , 𝑛 para representar a 𝑦 como una función de valuación única de 𝑥, es posible encontrar un polinomio único de grado 𝑛 que pasa por los puntos. Por ejemplo, encontrar una recta única que pasa por dos puntos, y encontrar un polinomio cuadrático único que pasa por tres puntos. La ecuación polinomial para 𝑦 se puede modelar mediante: y los 𝑛 + 1 puntos se usan para escribir 𝑛 + 1 ecuaciones para los coeficientes 𝑎𝑖 . Estas ecuaciones son: Es un sistema de ecuaciones algebraicas lineales. La solución del sistema se puede determinar aplicando métodos numéricos para este fin. Pero la matriz de coeficientes, denominada matriz de Vandermonde, es sensible al mal planteamiento. Resuelve el sistema de ecuaciones lineales pero es una manera ineficaz de obtener una representación para 𝑦. Interpolación o ajuste de curvas: 𝑓(𝑥) aproximado por medio de un polinomio a partir de puntos tabulados existen dos criterios: el de interpolación polinomial o el de ajuste de curvas.
  • 16. Métodos Numéricos II Hernández Cruz Juan Carlos 16 Interpolación consiste en encontrar una función polinomial que ajuste de forma exacta, es decir, que pase por los puntos dados en la tabla. Los métodos de ajuste de curvas consisten en hallar un polinomio que pase entre los puntos y que satisfaga la condición de minimizar el error entre los puntos tabulados y el polinomio. Si la información es exacta y confiable, se usa un ajuste exacto. Si pueden existir errores, entonces que pase entre ellos. Los polinomios de Lagrange se determinan especificando algunos puntos en el plano por los cuales debe pasar. Un polinomio de grado 1 que pase por los puntos distintos (𝑥0, 𝑦0) 𝑦 (𝑥1, 𝑦1). Este problema es el mismo que el de aproximar una función 𝑓, para la cual 𝑓(𝑥0) = 𝑦0 𝑦 𝑓(𝑥1) = 𝑦1, por medio de un polinomio de primer grado, interpolando entre, o coincidiendo con, los valores de 𝑓 en los puntos dados. Sea el Polinomio: Si 𝑥 = 𝑥0 Si 𝑥 = 𝑥1 así que 𝑃 tiene las propiedades requeridas. Para generalizar el concepto de interpolación lineal, considérese la construcción de un polinomio a lo más de grado 𝑛 que pase por los 𝑛 + 1 puntos (𝑥0, 𝑓(𝑥0)), (𝑥1, 𝑓(𝑥1)), (𝑥2, 𝑓(𝑥2)), . . . , (𝑥𝑛, 𝑓(𝑥𝑛)). El polinomio lineal que pasa por (𝑥0, 𝑓(𝑥0)) y (𝑥1, 𝑓(𝑥1)) se construye usando los cocientes: Cuando 𝑥 = 𝑥0, 𝐿0(𝑥0) = 1, mientras que 𝐿1(𝑥0) = 0. Si 𝑥 = 𝑥1, 𝐿0(𝑥1) = 0, mientras que 𝐿1(𝑥1) = 1. Para el caso general, se necesita construir, para cada 𝑘 = 0,
  • 17. Métodos Numéricos II Hernández Cruz Juan Carlos 17 1, . . . , 𝑛, un cociente 𝐿𝑛, 𝑘(𝑥) tiene la propiedad de que 𝐿𝑛, 𝑘(𝑥𝑖) = 0 cuando 𝑖  𝑘 y que 𝐿𝑛, 𝑘(𝑥𝑘) = 1 cuando 𝑥 = 𝑥𝑘. Entonces los cocientes de Lagrange están dados por: Si 𝑥0, 𝑥1, . . . , 𝑥𝑛 son (𝑛 + 1) números diferentes y 𝑓 es una función cuyos valores están dados en estos puntos, entonces existe un único polinomio 𝑃 de grado a los más 𝑛 con la propiedad de Ejemplo: La siguiente tabla relaciona los datos observados de voltaje y temperatura (°F)por termopares formados por platino y platino-10%Radio con juntas refrigeradas a 32°. -Estimar la temperatura microvoltios de 300,1700,3300,5300 y 5900. -Decide el grado del polinomio, estima el error, gráfica y saca tus conclusiones. MVt T(ºF) 0 32 500 176 1000 296,4 1500 405,7 2000 509 2500 608,4 3000 704,7 3500 799 4000 891,9 4500 983 5000 1072,6 5500 1160,8 6000 1247,5 x= 300
  • 18. Métodos Numéricos II Hernández Cruz Juan Carlos 18 x= 1700 x= 3300 x= 5300 x= 5700 Polinomio 2° grado(300) 121,232 Polinomio 3er grado(300) 121,932 Polinomio 2° grado(1700) 446,312 Polinomio 3er grado(1700) 447,6224 Polinomio 2° grado(3300) 761,448 Polinomio 3er grado(3300) 761,4816 Polinomio 2° grado(5300) 1125,7 Polinomio 3er grado(5300) 1125,6944 Polinomio 2° grado(5700) 1195,66 Polinomio 3er grado(5700) 1195,6656 Conclusiones: El método de Lagrange no es una práctica común, porque generalmente se aplica mediante un programa de computadora y aumenta la posibilidad de cometer errores humanos. Un polinomio de interpolación, aunque pase por los puntos que se utilizaron en su construcción, en general no proporciona valores exactamente correctos. La razón es que la relación subyacente a menudo no es un polinomio del mismo grado. Por tanto, a continuación se calcula un residuo o cota de error incurrido al aproximar una función mediante un polinomio. Esto se hace en el siguiente teorema del error:  Método de Hermite y Diferencias divididas Objetivo: Elaborar un algoritmo y un programa del método de Hermite, en lenguaje C para resolver un problema de puntos funcionales y su derivada. Introducción: Un polinomio se puede ajustar no solo a los valores de la función sino también a las derivadas en los puntos. Los polinomios ajustados a los valores de la función y de su derivada se llaman polinomios de interpolación de Hermite o polinomios osculantes. El polinomio osculante que aproxima a 𝑓 es el polinomio 𝑃 de menor grado tal que
  • 19. Métodos Numéricos II Hernández Cruz Juan Carlos 19 En este contexto, 𝐿𝑛, 𝑗 denota al j-ésimo coeficiente polinomial de Lagrange de grado 𝑛. Donde el término del error: Diferencias divididas determinar y evaluar los cocientes de Lagrange y sus derivadas hace el procedimiento tedioso, aun para valores pequeños de n. Un método alternativo para generar aproximaciones de Hermite está basada en la fórmula de diferencias divididas y la conexión entre la n-ésima diferencia dividida y la n-ésima derivada de 𝑓. Ejemplo: Hermite Un Automóvil realiza un recorrido por una carretera recta y se cronometra su recorrido en varios puntos, los cuales se muestran en la siguiente tabla. Estimar d(t=10s) t(seg) 0 3 5 8 13 d(pies) 0 225 383 625 993 v(pies/seg) 75 77 80 74 72 j xj f(xj) f'(xj) Lj(x) L'j(xj) Hn,j(x) H^ n,j(x) 0 3 225 77 0,76923077 1 5 383 80 1 2 8 625 74 -1 3 13 993 72 -4,4925 L'0(x0)= (x-5)(x-8)(x- 13) = x3 -26x2 +209x- 520 = 0,76923077 (3-5)(3-8)(3-13) -130 L'1(x1)= (x-3)(x-8)(x- 13) = x3 -24x2 +167x- 312 = 1 (5-3)(5-8)(5-13) 48 L'2(x2)= (x-3)(x-5)(x- 13) = x3 -21x2 +119x- 195 = -1 (8-3)(8-5)(8-13) 75 L'3(x3)= (x-3)(x-5)(x-8) = x3 -16x2 +79x-120 = -4,4925 (13-3)(13-5)(13-8) 400 Diferencias centradas: Sea 𝑓(𝑥) = 𝑥3𝑐𝑜𝑠𝑥 estimarf’’(2.3) con h=0.2,0.1,0.05, hasta obtener una convergencia con al menos 5 cifras significativas.
  • 20. Métodos Numéricos II Hernández Cruz Juan Carlos 20 2,1 -4,67537977 - 3,43120058 -0,98008807 2,3 -8,10658035 - 4,41128865 2,5 -12,517869 2,2 -6,2663599 - 1,84022045 -0,2469299 2,3 -8,10658035 - 2,08715035 2,4 -10,1937307 2,25 -7,15529017 - 0,95129018 -0,06185194 2,3 -8,10658035 - 1,01314212 2,35 -9,11972247 f(x)= x3 Cosx f´(x)= -x3 senx + 3x^2cosx - 19,6467958 h Dif. Prog. Error Dierencia Centrada Error 0,2 -19,60622308 0,0405727 - 19,60622308 0,0405727 0,1 -19,636854 0,00994177 -19,636854 0,00994177 0,05 -19,644323 0,00247277 -19,644323 0,00247277 Problema de aplicación: Considerese una particula que se mueve a lo largo de una recta para la que la funcion tiempo-desplazamiento es 𝑥 = {(𝑡, 𝑡2)} Conclusiones: Depende los datos que se tengan se recurre al método que se preste a la solución más óptima. AJUSTE DE CURVAS • Método de Spline Cúbico Objetivo: Identificar las características del método de Spline cúbico - Implementar el algoritmo del Spline cúbico para la solución de problemas de ajuste de curvas Introducción:
  • 21. Métodos Numéricos II Hernández Cruz Juan Carlos 21 Otra manera de ajustar un polinomio a un conjunto de datos es un spline cúbico, solo que éste lo hace a través de una curva suave, la cual puede ser de varios grados. En general, un conjunto de polinomios de n-ésimo grado se ajusta entre cada par de puntos adyacentes, 𝑔𝑖(𝑥), desde 𝑥𝑖 hasta 𝑥𝑖 + 1. Si el grado del spline es uno (solo hay rectas entre los puntos), lo cual se vería así: Para relacionar las pendientes y las curvaturas de los splines de unión, se deriva 𝑔𝑖(𝑥): Aprovechando que 𝑔”𝑖(𝑥𝑖) es lineal en el intervalo [xi , xi+1] hacemos: Sustituyendo los valores de 𝑎𝑖 , 𝑏𝑖 y di en 𝑔𝑖(𝑥) = 𝑦𝑖 + 1 para despejar 𝑐𝑖:
  • 22. Métodos Numéricos II Hernández Cruz Juan Carlos 22 Escribiendo la ecuación (c) en forma matricial con S1, S2, ..., Sn-1 como las incógnitas: Como puede observarse hay n+1 incógnitas y n-1 ecuaciones. Para hacer el sistema cuadrado se eliminan S0 y Sn usando las suposiciones en la frontera, la más común de ellas es el spline natural. Una vez que se obtienen los valores Si se obtienen los 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑎𝑖 , 𝑏 𝑖 , 𝑐 𝑖 , 𝑑𝑖 para las cúbicas en cada intervalo. A partir de éstas es posible calcular puntos en la curva de interpolación. Ejemplo:
  • 23. Métodos Numéricos II Hernández Cruz Juan Carlos 23
  • 24. Métodos Numéricos II Hernández Cruz Juan Carlos 24 Conclusiones: Es un método complejo pero da las mejores aproximaciones. • Método mínimos cuadrados Objetivo: -Deducir las fórmulas de grado n para el método de mínimos cuadrados. -Aplicar las fórmulas de mínimos cuadrados a problemas de ajuste de curvas mediante la elaboración de un programa en lenguaje C. Introducción: La teoría de la aproximación comprende dos tipos generales de problemas. cuando una función se da de manera explícita, pero se desea encontrar un tipo más simple de ella, un polinomio por ejemplo, que sirva para determinar los valores aproximados de una función dada. Otro problema se refiere a la adaptación de las funciones a ciertos datos y a la búsqueda de la función “óptima” en una clase que se pueda emplear para representar los datos. Para encontrar una función que se ajuste de la mejor manera a estos datos se tienen las siguientes opciones: Sea a1xi + a0 el i-ésimo valor de la recta de aproximación y yi el i-ésimo valor dado para y. El problema de determinar la ecuación de la mejor aproximación lineal en el sentido absoluto consiste en encontrar los valores de a0 y a1 que minimicen
  • 25. Métodos Numéricos II Hernández Cruz Juan Carlos 25 • Ejemplo: Construye un polinomio por mínimos cuadrados que ajuste los puntos de la siguiente tabla,(decide que grado se ajusta mejor).
  • 26. Métodos Numéricos II Hernández Cruz Juan Carlos 26 Conclusiones: • Método de Integración Objetivo: -Deducir las fórmulas de Newton-Cotes a partir de los polinomios de interpolación de Newton. -Expresar las reglas de integración como caso particulares de Newton-Cotes.
  • 27. Métodos Numéricos II Hernández Cruz Juan Carlos 27 -Aplicar las regla de integración a problemas de integración definida con intervalos variables. Introducción: Desarrollar las fórmulas de integración numérica es similar a las de diferenciación numérica. Se pasa un polinomio a través de puntos definidos por una función, se integra esta aproximación polinomial a la función. Se integra una función conocida pero como una tabla de valores. Cuando los valores están igualmente espaciados, conviene empezar por las fórmulas progresivas de Newton. La fórmula no es muy exacta porque el polinomio no es idéntico a f(x). La expresión del término del error para la fórmula de integración es: La primer formula se puede emplear de distintas maneras, el intervalo de integración (a, b) puede coincidir con el rango de ajuste del polinomio, (x0, xn). Entonces se obtienen las fórmulas de Newton Cotes; es un conjunto de reglas de integración que corresponden a los grados variables del polinomio de interpolación. Las tres primeras, con el grado del polinomio igual a 1, 2 o 3, son más importantes. Si el grado del polinomio es de orden superior, los errores de redondeo e irregularidades locales causan problemas, entonces por eso solo se utilizan las fórmulas de grados menores. Fórmulas de Newton-Cotes Se obtienen de integrar el polinomio de diferencias de Newton (obsérvese que dx = hds). Para n=1
  • 28. Métodos Numéricos II Hernández Cruz Juan Carlos 28 Para n=2 Para n=3 Regla del trapecio La primer fórmula de Newton-Cotes se basa en aproximar f(x) sobre (x0, x1) mediante una línea recta, de ahí el nombre de “regla del trapecio”. Es obtenida mediante la integración de P1(xs) ; pero también puede considerarse como una adaptación de la definición de la integral definida como una suma, al evaluar la integral de f(x) subdividiendo su intervalo (a,b) en n subintervalos. El área bajo la curva en cada subintervalo es aproximada por el trapecio formado al sustituir la curva por su secante. La integral es aproximada por la suma de todas las áreas
  • 29. Métodos Numéricos II Hernández Cruz Juan Carlos 29 trapezoidales (si se conociera el límite de esta suma cuando el ancho del intervalo tiende a cero, se tendría el valor exacto de la integral, pero en la integración numérica, el número de intervalos es finito). Los intervalos no tienen que ser igual de anchos, pero la fórmula es más simple si esto sucede. Sea h la constante ∆x. Dado que el área de un trapecio es el promedio de la altura y las bases, para cada subintervalo es: (4) y para [a, b] subdividiendo en n intervalos de tamaño h (5) La ecuación (4) es idéntica a la ecuación para n = 1 de Newton Cotes, por eso la ecuación (5) se llama “Regla del trapecio compuesta”. El método está sujeto a errores dependiendo del tamaño del intervalo. Con Newton Cotes se vio que el error de la regla del trapecio es: Este error es el error en un solo paso, por eso se llama “error local”. Generalmente, esta regla se aplica a una serie de subintervalos para obtener la integral sobre un intervalo grande de x = a a x = b, por eso nos interesa el “error global”. La fórmula para el error global de la regla del trapecio, es la suma de los errores locales:
  • 30. Métodos Numéricos II Hernández Cruz Juan Carlos 30 (6) Dado que nh = b – a, el error global se convierte en: Cuando f(x) es conocida, permite estimar el error de la integración numérica por la regla del trapecio. Aplicando esta ecuación el error se encierra al calcular los valores máximos y mínimos de f”(x) en el intervalo [a, b]. Si no se conoce la función, éste se podría estimar h 2 f”(ε) de las segundas diferencias. Reglas de Simpson Newton Cotes basado en un polinomio cuadrático, se conoce como la regla de Simpson 1/3, y Newton Cotes basado en un polinomio cúbico, se conoce como la regla de Simpson 3/8, estos nombres se deben a los coeficientes de las fórmulas. Simpson 1/3 2º grado de Newton Cotes integra un polinomio cuadrático sobre dos intervalos del mismo ancho (paneles). Fórmula compuesta para n paneles (con n par) es: El orden del error global cambia a O(h^4 ). El denominador en el término del error cambia a 180 porque se está integrando sobre un n par (significa que la regla local se aplica h/2 veces). El hecho de que el error es O(h^4 ), es importante.
  • 31. Métodos Numéricos II Hernández Cruz Juan Carlos 31 Simpson 1/3 también se puede aplicar a valores tabulados (cuando no se conoce la función). Si el número de intervalos de la tabla no fuera par, se puede hacer un subintervalo en el intervalo final o algún otro y aplicar la regla del trapecio y el resto con la Regla de Simpson. Para la regla del trapecio, lo mejor es buscar la parte en la que la función es más lineal. Simpson 3/8 Simpson 3/8 es la regla compuesta basada en un polinomio de 4 puntos o cúbico. Se aplica para n cuando es múltiplo de 3: Se aplica igual que la regla de Simpson 1/3. Si f(x) es conocida se divide el intervalo de integración en n paneles donde n debe ser divisible entre 3. Conclusiones: La Regla de Simpson 3/8 es menos eficiente que Simpson 1/3. Sin embargo, se emplea cuando se tienen una tabla de valores con n impar, ya que se combinan las dos reglas. Ejemplo: El cuerpo de revolución que se muestra en la figura, se obtiene de girar la curva dada por 𝑦 = 1 + ( 𝑥 2 ) 2 0 ≤ x ≤ 2
  • 32. Métodos Numéricos II Hernández Cruz Juan Carlos 32 Entorno al eje x. Calcular el volumen f(x)= π(1 + ( 𝑥 2 ) 2 ) 2 0 ≤x ≤ 2 n x f(x) 1 0 3,141592654 2 0.5 3,546563582 3 1 4,908738521 4 1.5 7,669903939 5 2 1,256637061 Trapecio 11,98959384 Error 0,02225167 1/3 Simpson 11,73188507 Error 0,00027902 3/8 Simpson 11,75188363 Error 0,00198413 Valor exacto 11,72861257 Mejor aproximación Simpson 1/3 Conclusiones
  • 33. Métodos Numéricos II Hernández Cruz Juan Carlos 33 Tanto para n = 2 como para n = 3 el orden del término del error es 𝑂(ℎ5). Significa que el error de integración de un polinomio cuadrático es similar al de un polinomio cúbico. Además el coeficiente para el polinomio cuadrático (-1/90) es más pequeño que el del polinomio cúbico (-3/80), entonces la fórmula basada en un polinomio cuadrático es más precisa. Bibliografia: Burden y Faires. (2011). Análisis numeric (Novena Edición). México: International Thomson. · Gerald Curtis, Wheatley Patrick. (2003). Applied Numerical Analysis (7 ed). E. U.A.: Pearson · David. (2011). Métodos numéricos y computación (6 ed). México: CENGAGE Learning.