1. Sistemas de Ecuaciones Lineales
En matemáticas y álgebra lineal, un sistema de ecuaciones lineales,
también conocido como sistema lineal de ecuaciones o simplemente
sistema lineal, es un conjunto de ecuaciones lineales (es decir, un
sistema de ecuaciones en donde cada ecuación es de primer grado),
definidas sobre un cuerpo o un anillo conmutativo.
2. Métodos de Sistemas de Ecuaciones
Lineales
*Eliminación
Gaussiana
*Factorización de
Cholesky
*Gauss-Jordan
*Jacobi*Gauss Seidel
*Descomposición
LU
*Factorización de
QR, Householder
3. Método de Eliminación Gaussiana
El método de eliminación Gaussiana para la solución de sistemas de
ecuaciones lineales consiste en convertir a través de operaciones básicas
llamadas operaciones de renglón un sistema en otro equivalente más
sencillo cuya respuesta pueda leerse de manera directa. El método de
eliminación Gaussiana es el mismo para sistemas de ecuaciones 2×2, 3×3,
4×4 y así sucesivamente siempre y cuando se respete la relación de al
menos una ecuación por cada variable
4. Método de Gauss-Jordan
Es un algoritmo del álgebra lineal para determinar las soluciones de un
sistema de ecuaciones lineales, encontrar matrices e inversas. Un
sistema de ecuaciones se resuelve por el método de Gauss cuando se
obtienen sus soluciones mediante la reducción del sistema dado a otro
equivalente en el que cada ecuación tiene una incógnita menos que la
anterior. El método de Gauss transforma la matriz de coeficientes en
una matriz triangular superior. El método de Gauss-Jordan continúa el
proceso de transformación hasta obtener una matriz diagonal.
5. Método de Descomposición LU
El método de Descomposición LU se basa en demostrar que una matriz A se
puede factorizar como el producto de una matriz triangular inferior L con una
matriz triangular superior U, donde en el paso de eliminación sólo se
involucran operaciones sobre los coeficientes de la matriz, permitiendo
así evaluar los términos independientes bi de manera eficiente.
6. Método de Factorización de Cholesky
Una matriz A simétrica y positiva definida puede ser factorizada de manera eficiente por
medio de una matriz triangular inferior y una matriz triangular superior.
Para una matriz no singular la descomposición LU nos lleva a considerar una
descomposición de tal tipo A = LU; dadas las condiciones de A, simétrica y definida
positiva, no es necesario hacer pivoteo, por lo que ésta factorización se hace
eficientemente y en un número de operaciones la mitad de LU tomando la forma A=L.LT
, donde L (la cual podemos "verla" como la raíz cuadrada de A) es una matriz triangular
inferior donde los elementos de la diagonal son positivos.
7. Método de Factorización de QR, Householder
La descomposición o factorización QR de una matriz es una descomposición de la
misma como producto de una matriz ortogonal por una triangular superior.
Esta factorización se usa ampliamente en los programas de
computadora para determinar valores propios de una matriz, para resolver sistemas
lineales y para determinar aproximaciones por mínimos cuadrados
8. Método de Gauss Seidel
En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado
para resolver sistemas de ecuaciones lineales. Aunque este método puede
aplicarse a cualquier sistema de ecuaciones lineales que produzca una matriz
(cuadrada, naturalmente pues para que exista solución única, el sistema debe
tener tantas ecuaciones como incógnitas) de coeficientes con los elementos de
su diagonal no-nulos, la convergencia del método solo se garantiza si la matriz
es diagonalmente dominante o si es simétrica y, a la vez, definida positiva.
9. Método de Jacobi
El Método de Jacobi transforma una matriz simétrica en una matriz diagonal
al eliminar de forma simétrica los elementos que están fuera de la diagonal.
Desafortunadamente, el método requiere un número infinito de
operaciones, ya que la eliminación de cada elemento no cero a menudo crea
un nuevo valor no cero en el elemento cero anterior. Si A es diagonalmente
dominante, entonces la sucesión que resulta de la iteración de Jacobi
converge a la solución de Ax = b para cualquier vector inicial Xo.