TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
Unidad III
1. MÉTODOS DE ELIMINACIÓN
GAUSSIANA
El método de eliminación Gaussiana para la solución de sistemas de ecuaciones lineales
consiste en convertir a través de operaciones básicas llamadas operaciones de renglón un
sistema en otro equivalente más sencillo cuya respuesta pueda leerse de manera directa. El
método de eliminación Gaussiana es el mismo para sistemas de ecuaciones 2×2, 3×3, 4×4 y
así sucesivamente siempre y cuando se respete la relación de al menos una ecuación por cada
variable.
2. MÉTODO DE ELIMINACIÓN DE
GAUSS-JORDAN
Llamada así debido a Carl Friedrich Gauss y Wilhelm Jordan, es un algoritmo del álgebra lineal para
determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones
se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro
equivalente en el que cada ecuación tiene una incógnita menos que la anterior. El método de Gauss transforma la matriz
de coeficientes en una matriz triangular superior. El método de Gauss-Jordan continúa el proceso de transformación hasta
obtener una matriz diagonal.
3. MÉTODO DE GAUSS-SEIDEL
Es un método iterativo utilizado para resolver sistemas de ecuaciones lineales. El método se llama así en
honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es similar al método de Jacobi.
Aunque este método puede aplicarse a cualquier sistema de ecuaciones lineales que produzca una matriz
(cuadrada, naturalmente pues para que exista solución única, el sistema debe tener tantas ecuaciones como incógnitas) de
coeficientes con los elementos de su diagonal no-nulos, la convergencia del método solo se garantiza si la matriz es
diagonalmente dominante o si es simétrica y, a la vez, definida positiva.
EJEMPLO
Resolver el siguiente sistema de ecuación por el método Gauss-Seidel utilizando un EPSILON = 0.001.
0.1 X1 + 7.0 X2 - 0.3 X3 = -19.30
3.0 X1 - 0.1 X2 - 0.2 X3 = 7.85
0.3 X1 - 0.2 X2 - 10.0 X3 = 71.40
SOLUCIÓN:
Primero ordenamos las ecuaciones, de modo que en la diagonal principal estén los coeficientes mayores para asegurar la convergencia.
3.0 X1 - 0.1 X2 - 0.2 X3 = 7.85
0.1 X1 + 7.0 X2 - 0.3 X3 = -19.30
0.3 X1 - 0.2 X2 - 10.0 X3 = 71.40
4. DESCOMPOSICIÓN LU
Es una forma de factorización de una matriz como el producto de una matriz triangular inferior y una
superior. Debido a la inestabilidad de este método, deben tenerse en cuenta algunos casos especiales, por ejemplo, si uno
o varios elementos de la diagonal principal de la matriz a factorizar es cero, es necesario premultiplicar la matriz por una
o varias matrices elementales de permutación. Método llamado factorización PA = LU o LU con pivote. Esta
descomposición se usa en el análisis numérico para resolver sistemas de ecuaciones (más eficientemente) o encontrar las
matrices inversas.
5. DESCOMPOSICIÓN DE
CHOLESKY
Toma su nombre del matemático André-Louis Cholesky, quien encontró que una matriz simétrica definida
positiva puede ser descompuesta como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular
inferior. La matriz triangular inferior es el triángulo de Cholesky de la matriz original positiva definida. El resultado de
Cholesky ha sido extendido a matrices con entradas complejas. Es una manera de resolver sistemas de ecuaciones
matriciales y se deriva de la factorización LU con una pequeña variación.
Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el producto de una matriz
triangular inferior L y una matriz triangular superior U; esto recibe el nombre de factorización LU. Sin embargo, si A es
simétrica y definida positiva, se pueden escoger los factores tales que U es la transpuesta de L, y esto se llama la
descomposición o factorización de Cholesky. Tanto la descomposición LU como la descomposición de Cholesky son
usadas para resolver sistemas de ecuaciones lineales. Cuando es aplicable, la descomposición de Cholesky es dos veces
más eficiente que la descomposición LU.
6. FACTORIZACIÓN QR
Factorización QR de una matriz es una descomposición de la misma como producto de una matriz
ortogonal por una triangular superior. La descomposición QR es la base del algoritmo QR utilizado para el cálculo de los
vectores y valores propios de una matriz.
Una transformación de Householder o reflexión de Householder es una transformación que refleja el
espacio con respecto a un plano determinado. Esta propiedad se puede utilizar para realizar la transformación QR de una
matriz si tenemos en cuenta que es posible elegir la matriz de Householder de manera que un vector elegido quede con
una única componente no nula tras ser transformado (es decir, premultiplicando por la matriz de Householder).
Gráficamente, esto significa que es posible reflejar el vector elegido respecto de un plano de forma que el reflejo quede
sobre uno de los ejes de la base cartesiana.
La manera de elegir el plano de reflexión y formar la matriz de Householder asociada es el siguiente:
Sea X un vector columna arbitrario m-dimensional tal que ||X|| = |α|, donde α es un escalar; (si el algoritmo
se implementa utilizando aritmética de coma flotante, entonces α debe adoptar el signo contrario que X1 para evitar
pérdida de precisión).
7. MÉTODO DE JACOBI
Es un método interactivo, usado para resolver sistemas de ecuaciones lineales del tipo Ax=b. El algoritmo toma su
nombre del matemático alemán Carl Gustav Jakob Jacobi. El método de Jacobi consiste en usar fórmulas como iteración
de punto fijo.