La importancia de las pruebas de producto para tu empresa
Metodos de resolucion
1. UNIVERSIDAD FERMÍN TORO
VICE-RECTORADO ACADEMICO
FACULTAD DE INGENERIA
ESCUELA DE INGENERIA EN MANTENIMIENTO MECANICO
INTEGRANTE:
Josman Freitez
CABUDARE 23 DE JULIO DE 2017
2. Sistemas de resolución de ecuaciones
En el siguiente resumen veremos los diferentes sistemas que sirven para resolver
sistemas de ecuaciones, utilizando matrices que permiten utilizar algoritmos para
resolver estos sistemas.
Método de Gauss-Jordan:
El proceso de eliminación de Gauss - Jordán consiste en realizar transformaciones
elementales en el sistema inicial, destinadas a transformarlo en un sistema
diagonal. El número de operaciones elementales de este método, es superior al del
método de Gauss (alrededor de un 50% más). Sin embargo, a la hora de resolver el
sistema de llegada por remonte, el número de operaciones es menor, motivo por
el cual, el método de Gauss - Jordán es un método computacionalmente bueno
cuando tenemos que resolver varios sistemas con la misma matriz A y resolverlos
simultáneamente, utilizando el algoritmo de Gauss-Jordán. En base a lo
anteriormente expuesto, solo haríamos un proceso de eliminación en la matriz y la
resolución de un sistema con esta matriz es muy fácil. Un ejemplo en el que se
suele usar Gauss - Jordán es en el cálculo de la matriz inversa, ya que calcular la
inversa de A, es calcular N sistemas con la misma matriz.
Métodos De Eliminación Gaussiana:
El proceso de eliminación de Gaussisana o de Gauss, consiste en realizar
transformaciones elementales en el sistema inicial (intercambio de filas,
intercambio de columnas, multiplicación de filas o columnas por constantes,
operaciones con filas o columnas, . . . ), destinadas a transformarlo en un sistema
triangular superior, que resolveremos por remonte. Además, la matriz de partida
tiene el mismo determinante que la matriz de llegada, cuyo determinante es el
producto de los coeficientes diagonales de la matriz. Uno de los problemas de la
eliminación Gaussiana es que debemos dividir entre el pivote; si este es un número
muy pequeño, entonces un error de redondeo puede arrojar serias dudas sobre la
3. respuesta final. En forma general este método propone la eliminación progresiva
de variables en el sistema de ecuaciones, hasta tener sólo una ecuación con una
incógnita. Una vez resuelta esta, se procede por sustitución regresiva hasta
obtener los valores de todas las variables.
Factorización De Cholesky:
Una matriz simétrica es aquella donde Aij = Aji para toda i y j, En otras palabras, [A]
=[A] T. Tales sistemas ocurren comúnmente en problemas de ambos contextos: el
matemático y el de ingeniería. Ellos ofrecen ventajas computacionales ya que sólo
se necesita la mitad de almacenamiento y, en la mayoría de los casos, sólo se
requiere la mitad del tiempo de cálculo para su solución. Al contrario de la
Descomposición LU, no requiere de pivoteo. El método de Factorización de
Cholesky se basa en demostrar que si una matriz A es simétrica y definida positiva
en lugar de factorizarse como LU, puede ser factorizada como el producto de una
matriz triangular inferior y la traspuesta de la matriz triangular inferior, es decir los
factores triangulaes resultantes son la traspuesta de cada uno. A = L . LT
Descomposición LU:
El método de Descomposición LU se basa en demostrar que una matriz A se puede
factorizar como el producto de una matriz triangular inferior L con una matriz
triangular superior U, donde en el paso de eliminación sólo se involucran
operaciones sobre los coeficientes de la matriz, permitiendo así evaluar los
términos independientes bi de manera eficiente. La implementación del algoritmo
de la Descomposición LU tiene sus variantes en cuanto a los valores iniciales de la
diagonal que tomen las matrices L y U, es decir si los valores de la diagonal de la
matriz L tiene números 1, formalmente esto se refiere a la Descomposición de
Doolitle. Pero si los valores de la diagonal de la matriz U tiene números 1,
formalmente esto se refiere a la Descomposición de Crout
Factorización de QR, Householder:
4. Anteriormente analizamos la factorización LU de una matriz el cual conduce aun
método muy eficiente para resolver un sistema lineal. Otro método de
factorización de una A, llamada factorización QR de A. Esta factorización se usa
ampliamente en los programas de computadora para determinar valores propios
de una matriz, para resolver sistemas lineales y para determinar aproximaciones
por mínimos cuadrados.
Solución De Sistemas Lineales Utilizando Métodos Iterativos:
Un método iterado de resolución del sistema Ax = b es aquel que genera, a partir
de un vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un método
iterado se dirá que es consistente con el sistema Ax = b, si el límite x de la sucesión
(xn), en caso de existir, es solución del sistema. Se dirá que el método es
convergente si la sucesión generada por cualquier vector inicial x0 es convergente
a la solución del sistema" .Es evidente que si un método es convergente es
consistente, sin embargo, el recíproco no es cierto.
Método de Jacobi:
El Método de Jacobi transforma una matriz simétrica en una matriz diagonal al
eliminar de forma simétrica los elementos que están fuera de la diagonal.
Desafortunadamente, el método requiere un número infinito de operaciones, ya
que la eliminación de cada elemento no cero a menudo crea un nuevo valor no
cero en el elemento cero anterior. Si A es diagonalmente dominante, entonces la
sucesión que resulta de la iteración de Jacobi converge a la solución de Ax = b para
cualquier vector inicial Xo. Partimos de una aproximación inicial Xo para las
soluciones Xi al sistema de ecuaciones y sustituimos estos valores en la ecuación:
Que es la expresión que nos proporciona las nuevas componentes del vector x (k)
en función de vector anterior x (k-1) en la iteración de Jacobi, en su respectivo
algoritmo; donde el a el método de Jacobi más que usar el último valor disponible
de , con base en un conjunto de las x anteriores (). De esta forma, como se generan
5. nuevos valores, no se usan en forma inmediata sino que se retienen para la
siguiente iteración.
Método De Gauss Seidel:
El Método de Gauss Seidel emplea valores iniciales y después itera para obtener
estimaciones refinadas de la solución; es particularmente adecuado para un gran
número de ecuaciones, lo cual en cierto modo lo hace un método más
comúnmente usado. La fórmula utilizada para hallar los xi viene dada por el
despeje de cada una de las xi en cada una de las ecuaciones y se les da un valor
inicial a cada xi de cero. Observase que en el método de Gauss-Seidel los valores
actualizados de xi sustituyen de inmediato a los valores anteriores, mientras que
en el método de Jacobi todas las componentes nuevas del vector se calculan antes
de llevar a cabo la sustitución. Por contra, en el método de Gauss-Seidel los
cálculos deben llevarse a cabo por orden, ya que el nuevo valor xi depende de los
valores actualizados de x1, x2, ..., x i-1.