SlideShare una empresa de Scribd logo
1 de 16
REPUBLICA BOLIVARIANA DE VENEZUELA
UNIVERSIDAD FERMIN TORO
VICERRECTORADO ACADEMICO
FACULTAD DE INGENIERÍA
METODOS DE ELIMINACION
GAUSSIANA.
Integrante: José Contreras 25.571.441
SOLUCIONES DE SISTEMAS DE ECUACIÓN LINEAL
 Método de eliminación gaussiana .
 Método de Gauss Jordan.
 Descomposición LU determinante de una matriz.
 Factorización de Cholesky
 Factorización QR
 Solución de sistemas lineales utilizando método interactivo.
 Método de Gauss-Seidel.
 Método de Jacobi
MÉTODO DE
ELIMINACIÓN
GAUSSIANA
Este método propone la eliminación
progresiva de variables en el sistema de
ecuaciones, hasta tener sólo una ecuación con una
incógnita. Una vez resuelta esta, se procede por
sustitución regresiva hasta obtener los valores de
todas las variables.
Ejemplo:
x1+2x2+3x3= 9
4x1+5x2+6x3= 24
3x1+x2+2x3= 4
Se simplificará el sistema si multiplicamos por
-4 ambos lados de la primera ecuación y sumando
esta a la segunda. Entonces:
-4x1-8x2-12x3=-36
4x1+5x2+6x3=24
sumándolas resulta
-3x2-6x3=-12
La nueva ecuación se puede sustituir por
cualquiera de las dos. Ahora tenemos:
x1+2x2+3x3= 9
0x1-3x2-6x3= -12
3x1+x2-2x3= 4
MÉTODO DE
ELIMINACIÓN
GAUSSIANA
Luego, la primera se multiplica por -3 y se
le suma a la tercera, obteniendo:
x1+2x2+3x3= 9
0x1-3x2-6x3= -12
0x1-5x2-11x3=-23
Acto seguido, la segunda ecuación se
divide entre -3.
Ahora se multiplica por 5 y se le suma a la
tercera:
x1+2x2+3x3= 9
0x1+x2+2x3= 4
0x1+0x2+x3= 3
En este momento ya tenemos el valor de
x3, ahora simplemente se procede a hacer la
sustitución hacia atrás, y automáticamente se
van obteniendo los valores de las otras
incógnitas. Se obtendrá:
x3= 3
x2= 4-2(x3) = -2
x1= 9-3(x3)-2(x2) = 4
MÉTODO DE GAUSS JORDAN
Es un método por el cual pueden resolverse sistemas de ecuaciones lineales con n números de variables,
encontrar matrices y matrices inversas, en este caso desarrollaremos la primera aplicación.
DESCOMPOSICIÓN LU. DETERMINANTE
DE UNA MATRIZ
 Sea A una matriz no singular (si lo fuera, entonces la descomposición podría no ser única) A= LU
 donde L y U son matrices inferiores y superiores triangulares respectivamente.
 Para matrices , esto es:
Por otro lado la descomposición PLU tiene esta forma:
Se basa en demostrar que una matriz A se puede factorizar como el producto de
una matriz triangular inferior L con una matriz triangular superior U, donde en el paso
de eliminación sólo se involucran operaciones sobre los coeficientes de la matriz,
permitiendo así evaluar los términos independientes bi de manera eficiente.
FACTORIZACIÓN DE CHOLESKY
Puede ser descompuesta como el producto de una matriz triangular inferior y
la traspuesta de la matriz triangular inferior. La matriz triangular inferior es el
triángulo de Cholesky de la matriz original positiva definida. El resultado de
Cholesky ha sido extendido a matrices con entradas complejas. Es una manera de
resolver sistemas de ecuación matricial y se deriva de la factorización LU con una
pequeña variación.
FACTORIZACIÓN DE CHOLESKY
det(A) = det(G.GT) = det(G).det(GT) = 2*2 = 4.
FACTORIZACIÓN QR
Ej: la descomposición QR de
Si A es una matriz m×n con columnas linealmente independientes,
entonces A puede factorizarse en la forma:
A = QR (1)
en la que Q es una matriz con columnas ortonormales y R es una matriz
triangular superior.
se escribe QR descomposición {{1,2},{3,4},{5,6}}
SOLUCIÓN DE SISTEMAS LINEALES
UTILIZANDO MÉTODOS ITERATIVOS
Trata de resolver un problema (como una ecuación o
un sistema de ecuaciones) mediante aproximaciones
sucesivas a la solución, empezando desde una estimación
inicial. Esta aproximación contrasta con los métodos
directos, que tratan de resolver el problema de una sola
vez (como resolver un sistema de ecuaciones Ax = b
encontrando la inversa de la matriz A). Los métodos
iterativos son útiles para resolver problemas que
involucran un número grande de variables (a veces del
orden de millones), donde los métodos directos tendrían
un coste prohibitivo incluso con la potencia del mejor
computador disponible.
MÉTODO DE GAUSS-SEIDEL
Este método es iterativo o de aproximación y es similar a las técnicas que se usan en los
métodos anteriores para obtener raíces. Aquellos métodos consisten en la determinación de
un valor inicial a partir del cual, mediante una técnica sistemática se obtiene una mejor
aproximación a la raíz.
La razón por la cual los métodos iterativos son útiles en la disminución de los errores de
redondeo en sistemas, se debe a que un método de aproximación se puede continuar hasta
que converja dentro de alguna tolerancia de error previamente especificada.
Las técnicas iterativas se emplean rara vez para resolver problemas de dimensiones
pequeñas ya que el tiempo requerido para lograr una precisión suficiente excede a las técnicas
directas. Sin embargo, para sistemas grandes con un gran porcentaje de ceros, ésta técnica es
eficiente.
Los sistemas de este tipo surgen frecuentemente en la solución numérica de problemas
de valores frontera y de ecuaciones diferenciales parciales.
EJERCICIOS DE GAUSS SEIDEL
Resuelva el siguiente sistema de ecuaciones lineales usando el método iterativo de Gauss – Seidel
4x1 + 10x2 + 8x3 = 142
2x1 + 6x2 + 7x3 = 89.5
9x1 + 2x2 + 3x3= 56.5
Paso 1.
Ordenar los renglones para que pueda ser resuelto.
9x1 + 2x2 + 3x3= 56.5
4x1 + 10x2 + 8x3 = 142
2x1 + 6x2 + 7x3 = 89.5
Paso 2.
Determinar si puede ser resuelta por este método, determinando si es predominantemente dominante en su diagonal.
Paso 3.
Despejar las variables.
X1 = -2x2/9 – 3x3/9 + 56.5/9 = -0.2222x2 – 0.3333x3 + 6.2778
X2 = -4x1/10 – 8x3/10 +142/10 = - 0.4 – 0.8x3 + 14.2
X3 = - 2x1/7 – 6x2/7 + 89.5/7 = - 0.2857x1 – 0.8571x2 + 12.7857
Paso 4.
Se les asigna un valor inicial de 0 x0 = [0, 0, 0, 0]
Paso 5
Se substituye esta solución temporal en las ecuaciones para obtener las nuevas x’s., pero solo cuando no se cuente con la anterior
Iteración 1
X1 = - 0.2222(0) – 0.3333(0) + 6.2778 = 6.2778
X2 = - 0.4(6.2778) – 0.8(0) + 14.2 = 11.6888
X3 = - 0.2857(6.2778) – 0.8571(11.6888) + 12.7857 = 0.9736
Se sustituye en alguna ecuación y se observa si el resultado ya es adecuado:
4(6.2778) + 10(11.6888) + 8(0.9736) =
25.1112 + 116.888 + 7.7888 = 149.788 <> 142
error = abs(142 – 149.788) = 7.788
Pero si 1% = 1.42 entonces error = 7.78 = 5.48%
Aun el error es muy grande. Se repite el paso 5, pero tomado los valores obtenidos en la ecuación anterior
Iteración 2
X1 = - 0.2222(11.6888) – 0.3333(0.9736) + 6.2778 = 3.356
X2 = - 0.4(3.356) – 0.8(0.9736) + 14.2 = 12.0787
X3 = - 0.2857(3.356) – 0.8571(12.0787) + 12.7857 = 1.4742
Se evalúa en una ecuación en este caso en la ecuación 1
4(3.356) + 120.787 + 8(1.4742)= 146.0046 <> 142
Si 1% = 1.42
error = abs(142 – 146.0046) = 4.0046
entonces error = 2.82%
Iteración 3.
X1 = - 0.2222(12.0787) – 0.3333(1.4742) + 6.2778 = 5.0407
X2 = - 0.4(5.0407) – 0.8(1.4742) + 14.2 = 11.0043
X3 = - 0.2857(5.0407) – 0.8571(11.0043) + 12.7857 = 1.9137
Se sustituye
4(5.0407) + 110.043 + 8(1.9137)= 145.51, diferencia 3.51609
error = 2.47%
Iteración 4.
X1 = - 0.2222(11.0043) – 0.3333(1.9137) + 6.2778 = 3.1948
X2 = - 0.4(3.1948) – 0.8(1.913) + 14.2 = 11.3916
X3 = - 0.2857(3.1948) – 0.8571(11.3916) + 12.7857 = 2.1092
Se sustituye
4(3.1948) + 113.916 + 8(2.1092)= 143.5688, diferencia 1.5688
error = 1.10%
Iteración 5.
X1 = - 0.2222(11.3916) – 0.3333(2.1092) + 6.2778 = 3.0435
X2 = - 0.4(3.0435) – 0.8(2.1092) + 14.2 = 11.2952
X3 = - 0.2857(3.0435) – 0.8571(11.2952) + 12.7857 = 2.2350
Se sustituye
4(3.0435) + 112.952 + 8(2.235)= 143.006, diferencia 1.006
error = 0.7%
MÉTODO DE JACOBI
Aproxima la solución del siguiente sistema de ecuaciones lineales, con 5 iteraciones y determina la
cantidad de cifras significativas exactas de la quinta iteración. Utiliza como iteración inicial
Para la primera iteración consideraremos , de donde:
La base del método consiste en construir una sucesión convergente definida iterativamente. El límite de
esta sucesión es precisamente la solución del sistema. A efectos prácticos si el algoritmo se detiene después de
un número finito de pasos se llega a una aproximación al valor de x de la solución del sistema.
La sucesión se construye descomponiendo la matriz del sistema en la forma siguiente:
A= D + L + U
MÉTODO DE JACOBI
Similarmente para las otras tres iteraciones resulta la
tabla de aproximaciones:
Iteración
0 0.0000 0.0000 0.0000
1 2.0000 0.6000 2.0000
2 1.4250 1.0000 2.2800
3 1.3050 0.9705 2.0850
4 1.3574 0.9390 2.0669
5 1.3659 0.9424 2.0837
LOS ERRORES RELATIVOS PARA CADA VARIABLE SON:
METODO DE JACOBI

Más contenido relacionado

La actualidad más candente

Jacobi
JacobiJacobi
Jacobi
Fredy
 
Metodos numericos 5
Metodos numericos 5Metodos numericos 5
Metodos numericos 5
monica
 
Reconocimiento unidad 2
Reconocimiento unidad 2Reconocimiento unidad 2
Reconocimiento unidad 2
Diego Perdomo
 

La actualidad más candente (17)

Series de taylor
Series de taylorSeries de taylor
Series de taylor
 
Jacobi
JacobiJacobi
Jacobi
 
Distribución tetraédrica de los coeficientes de un tetranomio elevado a la m
Distribución tetraédrica de los coeficientes de un tetranomio elevado a la  mDistribución tetraédrica de los coeficientes de un tetranomio elevado a la  m
Distribución tetraédrica de los coeficientes de un tetranomio elevado a la m
 
Sistemas de Ecuaciones Lineales por Gauss simple. Presentación diseñada por ...
Sistemas de Ecuaciones Lineales  por Gauss simple. Presentación diseñada por ...Sistemas de Ecuaciones Lineales  por Gauss simple. Presentación diseñada por ...
Sistemas de Ecuaciones Lineales por Gauss simple. Presentación diseñada por ...
 
Coeficientes multinomiales y desarrollo de un polinomio elevado a la m .teore...
Coeficientes multinomiales y desarrollo de un polinomio elevado a la m .teore...Coeficientes multinomiales y desarrollo de un polinomio elevado a la m .teore...
Coeficientes multinomiales y desarrollo de un polinomio elevado a la m .teore...
 
Distribucion espacial de coeficientes de un polinomio elevado a la m :Resumen
Distribucion espacial de coeficientes de un polinomio elevado a la m :ResumenDistribucion espacial de coeficientes de un polinomio elevado a la m :Resumen
Distribucion espacial de coeficientes de un polinomio elevado a la m :Resumen
 
Coeficientes multinomiales y generalizacion del triangulo de Pascal
Coeficientes multinomiales y generalizacion del triangulo de PascalCoeficientes multinomiales y generalizacion del triangulo de Pascal
Coeficientes multinomiales y generalizacion del triangulo de Pascal
 
Ecuaciones Diferenciales Lineales Reduccion De Orden
Ecuaciones Diferenciales Lineales Reduccion De OrdenEcuaciones Diferenciales Lineales Reduccion De Orden
Ecuaciones Diferenciales Lineales Reduccion De Orden
 
Solución en series de EDOs no lineales de orden mayor a uno y de un sistema d...
Solución en series de EDOs no lineales de orden mayor a uno y de un sistema d...Solución en series de EDOs no lineales de orden mayor a uno y de un sistema d...
Solución en series de EDOs no lineales de orden mayor a uno y de un sistema d...
 
Metodo Gauss Seidel
Metodo Gauss SeidelMetodo Gauss Seidel
Metodo Gauss Seidel
 
Metodos numericos 5
Metodos numericos 5Metodos numericos 5
Metodos numericos 5
 
Métodos de resolución de EDOs mediante series
Métodos de resolución de EDOs mediante seriesMétodos de resolución de EDOs mediante series
Métodos de resolución de EDOs mediante series
 
Reduccion de orden final
Reduccion de orden finalReduccion de orden final
Reduccion de orden final
 
Diego Leal Análisis Numérico SAIA A
Diego Leal Análisis Numérico SAIA ADiego Leal Análisis Numérico SAIA A
Diego Leal Análisis Numérico SAIA A
 
Solución en series de y' = f(x,y)
Solución en series de y' = f(x,y)Solución en series de y' = f(x,y)
Solución en series de y' = f(x,y)
 
Reconocimiento unidad 2
Reconocimiento unidad 2Reconocimiento unidad 2
Reconocimiento unidad 2
 
Ecuaciones diferenciales _parciales
Ecuaciones diferenciales _parcialesEcuaciones diferenciales _parciales
Ecuaciones diferenciales _parciales
 

Destacado

Destacado (14)

ANALISIS NUMERICO UNIDAD 2 Y 3
ANALISIS NUMERICO UNIDAD 2 Y 3ANALISIS NUMERICO UNIDAD 2 Y 3
ANALISIS NUMERICO UNIDAD 2 Y 3
 
Periodico
PeriodicoPeriodico
Periodico
 
Control de Enlace de Datos.
Control de Enlace de Datos.Control de Enlace de Datos.
Control de Enlace de Datos.
 
PROGRAM SALES 1516 ANNUAL REPORT
PROGRAM SALES 1516 ANNUAL REPORTPROGRAM SALES 1516 ANNUAL REPORT
PROGRAM SALES 1516 ANNUAL REPORT
 
AIJRSTEM16-244
AIJRSTEM16-244AIJRSTEM16-244
AIJRSTEM16-244
 
Pengertian arsip
Pengertian arsipPengertian arsip
Pengertian arsip
 
Presentación1
Presentación1Presentación1
Presentación1
 
Karen alejandra corredo rfff
Karen alejandra corredo rfffKaren alejandra corredo rfff
Karen alejandra corredo rfff
 
Super limpiadores de software
Super limpiadores de softwareSuper limpiadores de software
Super limpiadores de software
 
ANNUAL REPORT KSATRIA 1516
ANNUAL REPORT KSATRIA 1516ANNUAL REPORT KSATRIA 1516
ANNUAL REPORT KSATRIA 1516
 
FreeForm and Adidas Presentation
FreeForm and Adidas PresentationFreeForm and Adidas Presentation
FreeForm and Adidas Presentation
 
ANALISIS NUMERICO
ANALISIS NUMERICOANALISIS NUMERICO
ANALISIS NUMERICO
 
Control de Enlace de Datos.
Control de Enlace de Datos. Control de Enlace de Datos.
Control de Enlace de Datos.
 
MICROBIAL GENETICS
MICROBIAL GENETICS  MICROBIAL GENETICS
MICROBIAL GENETICS
 

Similar a ANALISIS NUMERICO UNIDAD III

Sistemas lineales casos especiales
Sistemas lineales casos especialesSistemas lineales casos especiales
Sistemas lineales casos especiales
Kike Prieto
 
Metodos numericos 5
Metodos numericos 5Metodos numericos 5
Metodos numericos 5
monica
 
Metodos numericos 4
Metodos numericos 4Metodos numericos 4
Metodos numericos 4
monica
 
Metodos numericos 4
Metodos numericos 4Metodos numericos 4
Metodos numericos 4
monica
 
Metodos numericos 4
Metodos numericos 4Metodos numericos 4
Metodos numericos 4
monica
 
Sistema de ecuaciones lineales
Sistema de ecuaciones linealesSistema de ecuaciones lineales
Sistema de ecuaciones lineales
yeliadan_16
 

Similar a ANALISIS NUMERICO UNIDAD III (20)

Métodos de eliminación gaussiana
Métodos de eliminación gaussianaMétodos de eliminación gaussiana
Métodos de eliminación gaussiana
 
Sistemas lineales casos especiales
Sistemas lineales casos especialesSistemas lineales casos especiales
Sistemas lineales casos especiales
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones lineales
 
Metodos numericos 5
Metodos numericos 5Metodos numericos 5
Metodos numericos 5
 
Ecuaciones lineales
Ecuaciones linealesEcuaciones lineales
Ecuaciones lineales
 
Solución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones linealesSolución de sistemas de ecuaciones lineales
Solución de sistemas de ecuaciones lineales
 
Metodos numericos 4
Metodos numericos 4Metodos numericos 4
Metodos numericos 4
 
Asignacion 2
Asignacion 2Asignacion 2
Asignacion 2
 
E book
E bookE book
E book
 
Sexto pdf
Sexto pdfSexto pdf
Sexto pdf
 
Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)
 
Unidad III
Unidad IIIUnidad III
Unidad III
 
Analisis numerico sebas
Analisis numerico sebasAnalisis numerico sebas
Analisis numerico sebas
 
Metodos numericos 4
Metodos numericos 4Metodos numericos 4
Metodos numericos 4
 
Metodos numericos 4
Metodos numericos 4Metodos numericos 4
Metodos numericos 4
 
Solución de Sistemas de Ecuaciones Lineales Analisis numerico
    Solución de Sistemas de Ecuaciones Lineales   Analisis numerico    Solución de Sistemas de Ecuaciones Lineales   Analisis numerico
Solución de Sistemas de Ecuaciones Lineales Analisis numerico
 
Metodos de eliminacion
Metodos de eliminacionMetodos de eliminacion
Metodos de eliminacion
 
ECUACIONES LINEALES
ECUACIONES LINEALESECUACIONES LINEALES
ECUACIONES LINEALES
 
Sistema de ecuaciones lineales
Sistema de ecuaciones linealesSistema de ecuaciones lineales
Sistema de ecuaciones lineales
 
Ebook
EbookEbook
Ebook
 

Último

Inmunología AMIR 14va EdiciónNM,NLKKJHKLJHKJLBHLKJH
Inmunología AMIR 14va EdiciónNM,NLKKJHKLJHKJLBHLKJHInmunología AMIR 14va EdiciónNM,NLKKJHKLJHKJLBHLKJH
Inmunología AMIR 14va EdiciónNM,NLKKJHKLJHKJLBHLKJH
Vivafornai
 
647913404-06-Partes-principales-de-las-Perforadoras-manuales-1.pdf
647913404-06-Partes-principales-de-las-Perforadoras-manuales-1.pdf647913404-06-Partes-principales-de-las-Perforadoras-manuales-1.pdf
647913404-06-Partes-principales-de-las-Perforadoras-manuales-1.pdf
MirkaCBauer
 
6.1-Proclamación de la II República, la Constitución y el bienio reformista-L...
6.1-Proclamación de la II República, la Constitución y el bienio reformista-L...6.1-Proclamación de la II República, la Constitución y el bienio reformista-L...
6.1-Proclamación de la II República, la Constitución y el bienio reformista-L...
jose880240
 
Presentación_ Marco general de las contrataciones públicas.pdf
Presentación_ Marco general de las contrataciones públicas.pdfPresentación_ Marco general de las contrataciones públicas.pdf
Presentación_ Marco general de las contrataciones públicas.pdf
fernandolozano90
 
S01.s1 - Clasificación de las Industrias.pdf
S01.s1 - Clasificación de las Industrias.pdfS01.s1 - Clasificación de las Industrias.pdf
S01.s1 - Clasificación de las Industrias.pdf
SalomeRunco
 

Último (20)

50870516-hidroponia. descargado en novppt
50870516-hidroponia. descargado en novppt50870516-hidroponia. descargado en novppt
50870516-hidroponia. descargado en novppt
 
Convocatoria de Becas Caja de Ingenieros_UOC 2024-25
Convocatoria de Becas Caja de Ingenieros_UOC 2024-25Convocatoria de Becas Caja de Ingenieros_UOC 2024-25
Convocatoria de Becas Caja de Ingenieros_UOC 2024-25
 
Inmunología AMIR 14va EdiciónNM,NLKKJHKLJHKJLBHLKJH
Inmunología AMIR 14va EdiciónNM,NLKKJHKLJHKJLBHLKJHInmunología AMIR 14va EdiciónNM,NLKKJHKLJHKJLBHLKJH
Inmunología AMIR 14va EdiciónNM,NLKKJHKLJHKJLBHLKJH
 
647913404-06-Partes-principales-de-las-Perforadoras-manuales-1.pdf
647913404-06-Partes-principales-de-las-Perforadoras-manuales-1.pdf647913404-06-Partes-principales-de-las-Perforadoras-manuales-1.pdf
647913404-06-Partes-principales-de-las-Perforadoras-manuales-1.pdf
 
DIFERENCIA DE COMPRESION Y TENSION EN UN CUERPO
DIFERENCIA DE COMPRESION Y TENSION EN UN CUERPODIFERENCIA DE COMPRESION Y TENSION EN UN CUERPO
DIFERENCIA DE COMPRESION Y TENSION EN UN CUERPO
 
Diseño digital - M. Morris Mano - 3ed.pdf
Diseño digital - M. Morris Mano - 3ed.pdfDiseño digital - M. Morris Mano - 3ed.pdf
Diseño digital - M. Morris Mano - 3ed.pdf
 
ESPECIFICACIONES TECNICAS MURO DE CONTENCION.docx
ESPECIFICACIONES TECNICAS MURO DE CONTENCION.docxESPECIFICACIONES TECNICAS MURO DE CONTENCION.docx
ESPECIFICACIONES TECNICAS MURO DE CONTENCION.docx
 
herrramientas de resistividad para registro de pozos.pptx
herrramientas de resistividad para registro de pozos.pptxherrramientas de resistividad para registro de pozos.pptx
herrramientas de resistividad para registro de pozos.pptx
 
Sesión de Clase A dde sistemas de riego y otras obras
Sesión de Clase A dde sistemas de riego y otras obrasSesión de Clase A dde sistemas de riego y otras obras
Sesión de Clase A dde sistemas de riego y otras obras
 
subestaciones electricas, distribucion de energia
subestaciones electricas, distribucion de energiasubestaciones electricas, distribucion de energia
subestaciones electricas, distribucion de energia
 
Trabajo de cristalografia. año 2024 mes de mayo
Trabajo de cristalografia. año 2024 mes de mayoTrabajo de cristalografia. año 2024 mes de mayo
Trabajo de cristalografia. año 2024 mes de mayo
 
6.1-Proclamación de la II República, la Constitución y el bienio reformista-L...
6.1-Proclamación de la II República, la Constitución y el bienio reformista-L...6.1-Proclamación de la II República, la Constitución y el bienio reformista-L...
6.1-Proclamación de la II República, la Constitución y el bienio reformista-L...
 
Presentación_ Marco general de las contrataciones públicas.pdf
Presentación_ Marco general de las contrataciones públicas.pdfPresentación_ Marco general de las contrataciones públicas.pdf
Presentación_ Marco general de las contrataciones públicas.pdf
 
REGLA DE PROBABILIDADES Y REGLA DE BAYES.pptx
REGLA DE PROBABILIDADES  Y REGLA DE BAYES.pptxREGLA DE PROBABILIDADES  Y REGLA DE BAYES.pptx
REGLA DE PROBABILIDADES Y REGLA DE BAYES.pptx
 
S01.s1 - Clasificación de las Industrias.pdf
S01.s1 - Clasificación de las Industrias.pdfS01.s1 - Clasificación de las Industrias.pdf
S01.s1 - Clasificación de las Industrias.pdf
 
REAJUSTE DE PRECIOS EN LOS CONTRATOS ADMINISTRATIVOS DE OBRA PUBLICA PACTADOS...
REAJUSTE DE PRECIOS EN LOS CONTRATOS ADMINISTRATIVOS DE OBRA PUBLICA PACTADOS...REAJUSTE DE PRECIOS EN LOS CONTRATOS ADMINISTRATIVOS DE OBRA PUBLICA PACTADOS...
REAJUSTE DE PRECIOS EN LOS CONTRATOS ADMINISTRATIVOS DE OBRA PUBLICA PACTADOS...
 
slideshare.vpdfs.com_sensores-magneticos-controles-pptx.pdf
slideshare.vpdfs.com_sensores-magneticos-controles-pptx.pdfslideshare.vpdfs.com_sensores-magneticos-controles-pptx.pdf
slideshare.vpdfs.com_sensores-magneticos-controles-pptx.pdf
 
1.1 Los 14 principios del Toyota Way -2024.pdf
1.1 Los 14 principios del Toyota Way -2024.pdf1.1 Los 14 principios del Toyota Way -2024.pdf
1.1 Los 14 principios del Toyota Way -2024.pdf
 
ESFUERZO EN VIGAS SESIÓN 5 PROBLEMA RESUELTOS.pdf
ESFUERZO EN VIGAS SESIÓN 5 PROBLEMA RESUELTOS.pdfESFUERZO EN VIGAS SESIÓN 5 PROBLEMA RESUELTOS.pdf
ESFUERZO EN VIGAS SESIÓN 5 PROBLEMA RESUELTOS.pdf
 
UNIDAD III Esquemas de comunicacion pptx
UNIDAD III Esquemas de comunicacion pptxUNIDAD III Esquemas de comunicacion pptx
UNIDAD III Esquemas de comunicacion pptx
 

ANALISIS NUMERICO UNIDAD III

  • 1. REPUBLICA BOLIVARIANA DE VENEZUELA UNIVERSIDAD FERMIN TORO VICERRECTORADO ACADEMICO FACULTAD DE INGENIERÍA METODOS DE ELIMINACION GAUSSIANA. Integrante: José Contreras 25.571.441
  • 2. SOLUCIONES DE SISTEMAS DE ECUACIÓN LINEAL  Método de eliminación gaussiana .  Método de Gauss Jordan.  Descomposición LU determinante de una matriz.  Factorización de Cholesky  Factorización QR  Solución de sistemas lineales utilizando método interactivo.  Método de Gauss-Seidel.  Método de Jacobi
  • 3. MÉTODO DE ELIMINACIÓN GAUSSIANA Este método propone la eliminación progresiva de variables en el sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez resuelta esta, se procede por sustitución regresiva hasta obtener los valores de todas las variables. Ejemplo: x1+2x2+3x3= 9 4x1+5x2+6x3= 24 3x1+x2+2x3= 4 Se simplificará el sistema si multiplicamos por -4 ambos lados de la primera ecuación y sumando esta a la segunda. Entonces: -4x1-8x2-12x3=-36 4x1+5x2+6x3=24 sumándolas resulta -3x2-6x3=-12 La nueva ecuación se puede sustituir por cualquiera de las dos. Ahora tenemos: x1+2x2+3x3= 9 0x1-3x2-6x3= -12 3x1+x2-2x3= 4
  • 4. MÉTODO DE ELIMINACIÓN GAUSSIANA Luego, la primera se multiplica por -3 y se le suma a la tercera, obteniendo: x1+2x2+3x3= 9 0x1-3x2-6x3= -12 0x1-5x2-11x3=-23 Acto seguido, la segunda ecuación se divide entre -3. Ahora se multiplica por 5 y se le suma a la tercera: x1+2x2+3x3= 9 0x1+x2+2x3= 4 0x1+0x2+x3= 3 En este momento ya tenemos el valor de x3, ahora simplemente se procede a hacer la sustitución hacia atrás, y automáticamente se van obteniendo los valores de las otras incógnitas. Se obtendrá: x3= 3 x2= 4-2(x3) = -2 x1= 9-3(x3)-2(x2) = 4
  • 5. MÉTODO DE GAUSS JORDAN Es un método por el cual pueden resolverse sistemas de ecuaciones lineales con n números de variables, encontrar matrices y matrices inversas, en este caso desarrollaremos la primera aplicación.
  • 6. DESCOMPOSICIÓN LU. DETERMINANTE DE UNA MATRIZ  Sea A una matriz no singular (si lo fuera, entonces la descomposición podría no ser única) A= LU  donde L y U son matrices inferiores y superiores triangulares respectivamente.  Para matrices , esto es: Por otro lado la descomposición PLU tiene esta forma: Se basa en demostrar que una matriz A se puede factorizar como el producto de una matriz triangular inferior L con una matriz triangular superior U, donde en el paso de eliminación sólo se involucran operaciones sobre los coeficientes de la matriz, permitiendo así evaluar los términos independientes bi de manera eficiente.
  • 7. FACTORIZACIÓN DE CHOLESKY Puede ser descompuesta como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La matriz triangular inferior es el triángulo de Cholesky de la matriz original positiva definida. El resultado de Cholesky ha sido extendido a matrices con entradas complejas. Es una manera de resolver sistemas de ecuación matricial y se deriva de la factorización LU con una pequeña variación.
  • 8. FACTORIZACIÓN DE CHOLESKY det(A) = det(G.GT) = det(G).det(GT) = 2*2 = 4.
  • 9. FACTORIZACIÓN QR Ej: la descomposición QR de Si A es una matriz m×n con columnas linealmente independientes, entonces A puede factorizarse en la forma: A = QR (1) en la que Q es una matriz con columnas ortonormales y R es una matriz triangular superior. se escribe QR descomposición {{1,2},{3,4},{5,6}}
  • 10. SOLUCIÓN DE SISTEMAS LINEALES UTILIZANDO MÉTODOS ITERATIVOS Trata de resolver un problema (como una ecuación o un sistema de ecuaciones) mediante aproximaciones sucesivas a la solución, empezando desde una estimación inicial. Esta aproximación contrasta con los métodos directos, que tratan de resolver el problema de una sola vez (como resolver un sistema de ecuaciones Ax = b encontrando la inversa de la matriz A). Los métodos iterativos son útiles para resolver problemas que involucran un número grande de variables (a veces del orden de millones), donde los métodos directos tendrían un coste prohibitivo incluso con la potencia del mejor computador disponible.
  • 11. MÉTODO DE GAUSS-SEIDEL Este método es iterativo o de aproximación y es similar a las técnicas que se usan en los métodos anteriores para obtener raíces. Aquellos métodos consisten en la determinación de un valor inicial a partir del cual, mediante una técnica sistemática se obtiene una mejor aproximación a la raíz. La razón por la cual los métodos iterativos son útiles en la disminución de los errores de redondeo en sistemas, se debe a que un método de aproximación se puede continuar hasta que converja dentro de alguna tolerancia de error previamente especificada. Las técnicas iterativas se emplean rara vez para resolver problemas de dimensiones pequeñas ya que el tiempo requerido para lograr una precisión suficiente excede a las técnicas directas. Sin embargo, para sistemas grandes con un gran porcentaje de ceros, ésta técnica es eficiente. Los sistemas de este tipo surgen frecuentemente en la solución numérica de problemas de valores frontera y de ecuaciones diferenciales parciales.
  • 12. EJERCICIOS DE GAUSS SEIDEL Resuelva el siguiente sistema de ecuaciones lineales usando el método iterativo de Gauss – Seidel 4x1 + 10x2 + 8x3 = 142 2x1 + 6x2 + 7x3 = 89.5 9x1 + 2x2 + 3x3= 56.5 Paso 1. Ordenar los renglones para que pueda ser resuelto. 9x1 + 2x2 + 3x3= 56.5 4x1 + 10x2 + 8x3 = 142 2x1 + 6x2 + 7x3 = 89.5 Paso 2. Determinar si puede ser resuelta por este método, determinando si es predominantemente dominante en su diagonal. Paso 3. Despejar las variables. X1 = -2x2/9 – 3x3/9 + 56.5/9 = -0.2222x2 – 0.3333x3 + 6.2778 X2 = -4x1/10 – 8x3/10 +142/10 = - 0.4 – 0.8x3 + 14.2 X3 = - 2x1/7 – 6x2/7 + 89.5/7 = - 0.2857x1 – 0.8571x2 + 12.7857 Paso 4. Se les asigna un valor inicial de 0 x0 = [0, 0, 0, 0] Paso 5 Se substituye esta solución temporal en las ecuaciones para obtener las nuevas x’s., pero solo cuando no se cuente con la anterior Iteración 1 X1 = - 0.2222(0) – 0.3333(0) + 6.2778 = 6.2778 X2 = - 0.4(6.2778) – 0.8(0) + 14.2 = 11.6888 X3 = - 0.2857(6.2778) – 0.8571(11.6888) + 12.7857 = 0.9736 Se sustituye en alguna ecuación y se observa si el resultado ya es adecuado: 4(6.2778) + 10(11.6888) + 8(0.9736) = 25.1112 + 116.888 + 7.7888 = 149.788 <> 142 error = abs(142 – 149.788) = 7.788 Pero si 1% = 1.42 entonces error = 7.78 = 5.48% Aun el error es muy grande. Se repite el paso 5, pero tomado los valores obtenidos en la ecuación anterior Iteración 2 X1 = - 0.2222(11.6888) – 0.3333(0.9736) + 6.2778 = 3.356 X2 = - 0.4(3.356) – 0.8(0.9736) + 14.2 = 12.0787 X3 = - 0.2857(3.356) – 0.8571(12.0787) + 12.7857 = 1.4742 Se evalúa en una ecuación en este caso en la ecuación 1 4(3.356) + 120.787 + 8(1.4742)= 146.0046 <> 142 Si 1% = 1.42 error = abs(142 – 146.0046) = 4.0046 entonces error = 2.82% Iteración 3. X1 = - 0.2222(12.0787) – 0.3333(1.4742) + 6.2778 = 5.0407 X2 = - 0.4(5.0407) – 0.8(1.4742) + 14.2 = 11.0043 X3 = - 0.2857(5.0407) – 0.8571(11.0043) + 12.7857 = 1.9137 Se sustituye 4(5.0407) + 110.043 + 8(1.9137)= 145.51, diferencia 3.51609 error = 2.47%
  • 13. Iteración 4. X1 = - 0.2222(11.0043) – 0.3333(1.9137) + 6.2778 = 3.1948 X2 = - 0.4(3.1948) – 0.8(1.913) + 14.2 = 11.3916 X3 = - 0.2857(3.1948) – 0.8571(11.3916) + 12.7857 = 2.1092 Se sustituye 4(3.1948) + 113.916 + 8(2.1092)= 143.5688, diferencia 1.5688 error = 1.10% Iteración 5. X1 = - 0.2222(11.3916) – 0.3333(2.1092) + 6.2778 = 3.0435 X2 = - 0.4(3.0435) – 0.8(2.1092) + 14.2 = 11.2952 X3 = - 0.2857(3.0435) – 0.8571(11.2952) + 12.7857 = 2.2350 Se sustituye 4(3.0435) + 112.952 + 8(2.235)= 143.006, diferencia 1.006 error = 0.7%
  • 14. MÉTODO DE JACOBI Aproxima la solución del siguiente sistema de ecuaciones lineales, con 5 iteraciones y determina la cantidad de cifras significativas exactas de la quinta iteración. Utiliza como iteración inicial Para la primera iteración consideraremos , de donde: La base del método consiste en construir una sucesión convergente definida iterativamente. El límite de esta sucesión es precisamente la solución del sistema. A efectos prácticos si el algoritmo se detiene después de un número finito de pasos se llega a una aproximación al valor de x de la solución del sistema. La sucesión se construye descomponiendo la matriz del sistema en la forma siguiente: A= D + L + U
  • 15. MÉTODO DE JACOBI Similarmente para las otras tres iteraciones resulta la tabla de aproximaciones: Iteración 0 0.0000 0.0000 0.0000 1 2.0000 0.6000 2.0000 2 1.4250 1.0000 2.2800 3 1.3050 0.9705 2.0850 4 1.3574 0.9390 2.0669 5 1.3659 0.9424 2.0837
  • 16. LOS ERRORES RELATIVOS PARA CADA VARIABLE SON: METODO DE JACOBI