SlideShare una empresa de Scribd logo
1 de 17
Sistema de ecuaciones lineales<br />En matemática y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente:<br />El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y x3 que satisfacen las tres ecuaciones.<br />El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico.<br />Introducción<br />En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en forma ordinaria como:<br />Donde son las incógnitas y los números son los coeficientes del sistema sobre el cuerpo . Es posible reescribir el sistema separando con coeficientes con notación matricial:<br />(1) <br />Si representamos cada matriz con una única letra obtenemos:<br />Donde A es una matriz m por n, x es un vector columna de longitud n y b es otro vector columna de longitud m. El sistema de eliminación de Gauss-Jordan se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los coeficientes.<br />Sistemas lineales reales<br />En esta sección se analizan las propiedades de los sistemas de ecuaciones lineales sobre el cuerpo , es decir, los sistemas lineales en los coeficientes de las ecuaciones son números reales.<br />Representación gráfica<br />La intersección de dos planos no paralelos es una recta.<br />Un sistema con incógnitas se puede representar en el n-espacio correspondiente.<br />En los sistemas con 2 incógnitas, el universo de nuestro sistema será el plano bidimensional, mientras que cada una de las ecuaciones será representada por una recta, si es lineal, o por una curva, si no lo es. La solución será el punto (o línea) donde intersecten todas las rectas y curvas que representan a las ecuaciones. Si no existe ningún punto en el que intersecten al mismo tiempo todas las líneas, el sistema es incompatible, o lo que es lo mismo, no tiene solución.<br />Tipos de sistemas<br />Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:<br />Sistema incompatible si no tiene ninguna solución.<br />Sistema compatible si tiene alguna solución, en este caso además puede distinguirse entre: <br />Sistema compatible determinado cuando tiene un número finito de soluciones.<br />Sistema compatible indeterminado cuando admite un conjunto infinito de soluciones.<br />Quedando así la clasificación:<br />Los sistemas incompatibles geométricamente se caracterizan por (hiper)planos o rectas que se cruzan sin cortarse. Los sistemas compatibles determinados se caracterizan por un conjunto de (hiper)planos o rectas que se cortan en un único punto. Los sistemas compatibles indeterminados se caracterizan por (hiper)planos que se cortan a lo largo de una recta [o más generalmente un hiperplano de dimensión menor]. Desde un punto de vista algebraico los sistemas compatibles determinados se caracterizan porque el determinante de la matriz es diferente de cero:<br />Sistemas compatibles indeterminados<br />Un sistema sobre un cuerpo K es compatible indeterminado cuando posee un número infinito de soluciones. Por ejemplo, el siguiente sistema:<br />Tanto la primera como la segunda ecuación se corresponden con la recta cuya pendiente es y que pasa por el punto , por lo que ambas intersecan en todos los puntos de dicha recta. El sistema es compatible por haber solución o intersección entre las rectas, pero es indeterminado al ocurrir esto en infinitos puntos.<br />En este tipo de sistemas, la solución genérica consiste en expresar una o más variables como función matemática del resto. En los sistemas lineales compatibles indeterminados, al menos una de sus ecuaciones se puede hallar como combinación lineal del resto, es decir, es linealmente dependiente.<br />Una condición necesaria para que un sistema sea compatible indeterminado es que el determinante de la matriz del sistema sea cero (y por tanto uno de sus autovalores será 0):<br />De hecho, de las dos condiciones anteriores se desprende, que el conjunto de soluciones de un sistema compatible indeterminado es un subespacio vectorial. Y la dimensión de ese espacio vectorial coincidirá con la multiplicidad geométrica del autovalor cero.<br />Sistemas incompatibles<br />De un sistema se dice que es incompatible cuando no presenta ninguna solución. Por ejemplo, supongamos el siguiente sistema:<br />Las ecuaciones se corresponden gráficamente con dos rectas, ambas con la misma pendiente, Al ser paralelas, no se cortan en ningún punto, es decir, no existe ningún valor que satisfaga a la vez ambas ecuaciones.<br />Matemáticamente un sistema de estos es incompatible cuando el rango de la matriz del sistema es inferior al rango de la matriz ampliada. Una condición necesaria para que esto suceda es que el determinante de la matriz del sistema sea cero:<br /> Métodos de resolución<br />Sustitución<br />El método de sustitución consiste en despejar en una de las ecuaciones cualquier incógnita, preferiblemente la que tenga menor coeficiente, para, a continuación, sustituirla en otra ecuación por su valor.<br />En caso de sistemas con más de dos incógnitas, la seleccionada debe ser sustituida por su valor equivalente en todas las ecuaciones excepto en la que la hemos despejado. En ese instante, tendremos un sistema con una ecuación y una incógnita menos que el inicial, en el que podemos seguir aplicando este método reiteradamente. Por ejemplo, supongamos que queremos resolver por sustitución este sistema:<br />En la primera ecuación, seleccionamos la incógnita por ser la de menor coeficiente y que posiblemente nos facilite más las operaciones, y la despejamos, obteniendo la siguiente ecuación.<br />El siguiente paso será sustituir cada ocurrencia de la incógnita en la otra ecuación, para así obtener una ecuación donde la única incógnita sea la .<br />Al resolver la ecuación obtenemos el resultado , y si ahora sustituimos esta incógnita por su valor en alguna de las ecuaciones originales obtendremos , con lo que el sistema queda ya resuelto.<br />Igualación<br />El método de igualación se puede entender como un caso particular del método de sustitución en el que se despeja la misma incógnita en dos ecuaciones y a continuación se igualan entre sí la parte derecha de ambas ecuaciones.<br />Tomando el mismo sistema utilizado como ejemplo para el método de sustitución, si despejamos la incógnita en ambas ecuaciones nos queda de la siguiente manera:<br />Como se puede observar, ambas ecuaciones comparten la misma parte izquierda, por lo que podemos afirmar que las partes derechas también son iguales entre sí.<br />Una vez obtenido el valor de la incógnita , se substituye su valor en una de las ecuaciones originales, y se obtiene obtener el valor de la .<br />La forma más fácil de tener el método de sustitución es realizando un cambio para despejar x después de averiguar el valor de la y.<br />Reducción<br />Este método suele emplearse mayoritariamente en los sistemas lineales, siendo pocos los casos en que se utiliza para resolver sistemas no lineales. El procedimiento, diseñado para sistemas con dos ecuaciones e incógnitas, consiste en transformar una de las ecuaciones (generalmente, mediante productos), de manera que obtengamos dos ecuaciones en la que una misma incógnita aparezca con el mismo coeficiente y distinto signo. A continuación, se suman ambas ecuaciones produciéndose así la reducción o cancelación de dicha incógnita, obteniendo así una ecuación con una sola incógnita, donde el método de resolución es simple.<br />Por ejemplo, en el sistema:<br />no tenemos más que multiplicar la primera ecuación por para poder cancelar la incógnita . Al multiplicar, dicha ecuación nos queda así:<br />Si sumamos esta ecuación a la segunda del sistema original, obtenemos una nueva ecuación donde la incógnita ha sido reducida y que, en este caso, nos da directamente el valor de la incógnita :<br />El siguiente paso consiste únicamente en sustituir el valor de la incógnita en cualquiera de las ecuaciones donde aparecían ambas incógnitas, y obtener así que el valor de es igual a:<br />Método de Gauss<br />La eliminación de Gauss-Jordan, más conocida como método de Gauss, es un método aplicable únicamente a los sistemas lineales de ecuaciones, y consistente en triangular la matriz aumentada del sistema mediante transformaciones elementales, hasta obtener ecuaciones de una sola incógnita, cuyo valor será igual al coeficiente situado en la misma fila de la matriz. Este procedimiento es similar al anterior de reducción, pero ejecutado de manera reiterada y siguiendo un cierto orden algorítmico.<br />En primer lugar, reducimos la incógnita , sumando a la segunda fila, la primera multiplicada por , y a la tercera, la primera fila. La matriz queda así:<br />El siguiente paso consiste en eliminar la incógnita en la primera y tercera fila, para lo cual les sumamos la segunda multiplicada por y por , respectivamente.<br />Por último, eliminamos la , tanto de la primera como de la segunda fila, sumándoles la tercera multiplicada por y por , respectivamente:<br />Llegados a este punto podemos resolver directamente las ecuaciones que se nos plantean:<br />O, si lo preferimos, podemos multiplicar las tres filas de la matriz por: , y respectivamente, y obtener así automáticamente los valores de las incógnitas en la última columna.<br />                            <br />Eliminación de Gauss-Jordan<br />En matemáticas, la eliminación Gaussiana, eliminación de Gauss o eliminación de Gauss-Jordan, llamadas así debido a Carl Friedrich Gauss y Wilhelm Jordan, son algoritmos del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. Cuando se aplica este proceso, la matriz resultante se conoce como: quot;
forma escalonadaquot;
.<br />El método fue presentado por el matemático Carl Friedrich Gauss, pero se conocía anteriormente en un importante libro matemático chino llamado Jiuzhang suanshu o Nueve capítulos del arte matemático.[ HYPERLINK quot;
http://es.wikipedia.org/wiki/Wikipedia:Verificabilidadquot;
  quot;
Wikipedia:Verificabilidadquot;
 cita requerida]<br />Análisis de Complejidad<br />La complejidad computacional de la eliminación gaussiana es aproximadamente n3. Esto es, el número de operaciones requeridas es n3 si el tamaño de la matriz es n × n.<br />Ejemplo<br />Supongamos que es necesario encontrar los números x, y, z, que satisfacen simultáneamente estas ecuaciones:<br />Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas elementales) son estas:<br />Multiplicar una ecuación por un escalar no nulo.<br />Intercambiar de posición dos ecuaciones<br />Sumar a una ecuación un múltiplo de otra.<br />Estas operaciones pueden representarse con matrices elementales que se usan también en otros procedimientos como la factorización LU o la diagonalización por congruencia de una matriz simétrica.<br />En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la primera ecuación a la segunda y después sumamos la primera ecuación a la tercera. El resultado es:<br />Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera para eliminar y.<br />Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda para eliminar z.<br />Despejando, podemos ver las soluciones:<br />Para clarificar los pasos (y es en realidad lo que las computadoras manejan), se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación matricial:<br />Primero:<br />Después,<br />Por último.<br />Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como esta:<br />Que representa la ecuación: 0x + 0y + 0z = 1, es decir, 0 = 1 que no tiene solución.<br />Forma escalonada y escalonada reducida<br />Artículo principal: Matriz escalonada<br />Dos formas especiales de matrices son la escalonada y la escalonada reducida. Una matriz puede tener las siguientes propiedades:<br />Todas las filas cero están en la parte inferior de la matriz.<br />El elemento delantero de cada fila diferente de cero, éste es llamado quot;
pivotequot;
; éstos están a la derecha del elemento delantero de la fila anterior (esto supone que todos los elementos debajo de un pivote son cero).<br />Si una matriz A cumple con esas propiedades, se dice escalonada. Además, cumpliendo estas otras condiciones, decimos que la matriz se encuentra en la forma reducida de renglón escalón o tan solo en forma escalonada reducida.<br />Todos los elementos delanteros (quot;
pivotesquot;
) son iguales a 1<br />Todos los elementos por encima de los pivotes son nulos.<br />Cuando una matriz representa a un sistema de ecuaciones situaciones como tener una columna de ceros parece imposible ya que correspondería a una variable que nunca habría aparecido. Sin embargo esta situación puede presentarse (imaginemos la ecuación de un plano en el espacio en la que no aparece alguna de las componentes, por ejemplo y+z=0). Así la matriz<br />también es una matriz escalonada.<br />Una vez que la matriz del sistema se ha transformado hasta obtener una matriz escalonada reducida es muy fácil discutirlo (es decir, determinar cuántas soluciones tiene):<br />Cuando aparece un pivote en la columna de los términos independientes el sistema es incompatible (no tiene ninguna solución).<br />En otro caso el sistema es compatible. Si además el número de pivotes coincide con el número de incógnitas el sistema es compatible determinado (tiene una única solución). Cuando el número de pivotes es menor que el número de incógnitas el sistema es indeterminado (tiene infinitas soluciones que dependen de tantos parámetros como indique la diferencia entre el número de incógnitas y el número de pivotes).<br />Otras aplicaciones<br />Encontrando la inversa de una matriz<br />Es posible usar la eliminación gaussiana para encontrar inversas de matrices n × n. Para ello se aumenta la matriz dada, digamos A con una matriz identidad simplemente escribiendo las filas de la identidad a continuación de las de nuestra matriz A, por ejemplo dada:<br />se construiría<br />y ahora se realizan las operaciones elementales sobre las filas de la matriz aumentada que sean necesarias para obtener la forma escalonada reducida de la matriz A; sumando tanto a la segunda como a la tercera fila la primera obtenemos<br />multiplicamos la segunda fila por -1 y la intercambiamos con la primera<br />ya tenemos el pivote de la primera fila que usamos para hacer ceros debajo<br />ahora usamos el pivote de la segunda fila<br />y por último cambiamos de signo la tercera fila y usamos el pivote correspondiente<br />El proceso ha finalizado porque en la parte izquierda tenemos la forma escalonada reducida de A y puesto que ésta es la matriz identidad, entonces A tiene inversa y su inversa es la matriz que aparece a la derecha, en el lugar que al principio ocupaba la identidad. Cuando la forma escalonada reducida que aparece no es la identidad es que la matriz de partida no tiene inversa.<br />Factorización LU<br />En el álgebra lineal, la factorización o descomposición LU (del inglés Lower-Upper) es una forma de factorización de una matriz como el producto de una matriz triangular inferior y una superior. Debido a la inestabilidad de este método, por ejemplo si un elemento de la diagonal es cero, es necesario premultiplicar la matriz por una matriz de permutación. Método llamado factorización PA = LU o LU con pivote.<br />Esta descomposición se usa en el análisis numérico para resolver sistemas de ecuaciones (más eficientemente) o encontrar las matrices inversas.<br />Definiciones<br />Sea A una matriz no singular (si lo fuera, entonces la descomposición podría no ser única)<br />donde L y U son matrices inferiores y superiores triangulares.<br />Para matrices , esto es:<br />Por otro lado la descomposición PLU tiene esta forma:<br />Lm − 1Pm − 1...L2P2L1P1A = U<br />Con Lm − 1...L1 matrices triangulares inferiores, Pm − 1...P1 matrices de permutacion y U una matriz triangular superior.<br />Para determinar L:<br />L = (L'm − 1 * ... * L'2 * L'1) − 1<br />y cada L'k está dado por:<br />L'k = <br />Esto se debe a que L'k es igual a Lk, pero con los elementos de la subdiagonal permutados.<br />Otra forma de ver éste tipo de factorización es: A = PTLU Recordando que las matrices de permutación matriz permutación son invertibles y su inversa es su traspuesta<br />Unicidad<br />Las matrices L y U son únicas, si la matriz no es singular. En caso contrario pueden no ser únicas.<br />Demostración:<br />Dada la matriz A ∈ Rmxn<br />A = L1U1 y A = L2U2<br />Recordemos que L1,U1,L2,U2 son invertibles por tener el determinante distinto de cero entonces:<br />L1U1 = L2U2<br />Entonces es una matriz triangular inferior, con unos en la diagonal y es triangular superior, con unos en la diagonal (recordando que el producto matricial de triangulares superiores/inferiores es triangular superior/inferior). La única matriz que cumple estas dos propiedades es la identidad. Por lo tanto:<br />y <br />Con lo cual:<br />L1 = L2 y U1 = U2<br />Algoritmos<br />La factorización LU es básicamente una forma modificada de la eliminación gaussiana. Transformamos la matriz A en una triangular superior U anulando los elementos debajo de la diagonal.<br />E1 * E2 * ... * En * A = U<br />Donde E1,E2,...,En son matrices elementales, que representan los distintos pasos de la eliminación. Luego recordando que la inversa de una matriz elemental, es otra matriz elemental:<br />Llamamos L a una matriz triangular inferior.<br />Aplicaciones<br />Resolviendo sistemas de álgebra lineal<br />Dada la ecuación matricial<br />Ax = LUx = b<br />Queremos la solución para un determinando A y b. Los pasos son los siguientes:<br />Primero, resolvemos Ly = b para y<br />Segundo, resolvemos Ux = y para x.<br />Nótese que ya tenemos las matrices L y U. La ventaja de este método es que es computacionalmente eficiente, porque podemos elegir el vector b que nos parezca y no tenemos que volver a hacer la eliminación de Gauss cada vez.<br />Factorización L-U con pivotación: Al utilizar la técnica de triangulación de Gauss para obtener la descomposición L-U de una matriz A podemos encontrarnos con el mismo problema de encontrar un coeficiente en la diagonal que sea 0 o un mal condicionamiento. Podemos entonces utilizar la misma técnica de pivotación : buscar el siguiente elemento en la columna que sea distinto de 0 o, mejor aún, el de mayor valor absoluto.<br />Pero una vez obtenida la descomposición L-U, si queremos aplicarla a resolver un sistema de ecuaciones, tendremos que tener en cuenta la “historia” o registro de las pivotaciones efectuadas para aplicar al vector de términos independientes.<br />Esto se realiza mediante la matriz de andres permutación P, que consiste en efectuar sobre la matriz identidad, las mismas permutaciones de filas que se vayan efectuando sobre la matriz que se está triangulando por Gauss.<br />Al mismo tiempo se efectúan las mismas permutaciones sobre los elementos subdiagonal de la matriz L.<br />Así, si tenemos, por ejemplo, el sistema:<br />AX=B<br />y L y U son las matrices obtenidas de la matriz A como descomposición L-U por triangulación de Gauss con pivotaciones recogidas en la matriz de permutación P, es fácil comprobar que :<br />LU=PA (LU)X=P(AX)=PB=NUEVOB<br />Por tanto los procesos de sustitución descendente y ascendente los aplicamos a : LD=NUEVOB UX=D<br />Matriz Inversa<br />Las matrices L y U pueden ser usadas para calcular la matriz inversa mediante:<br />A − 1 = U − 1L − 1<br />Algunas implementaciones que invierten matrices usan este método.<br />Determinante de una matriz<br />Las matrices L y U pueden ser usadas para calcular el determinante de la matriz A muy eficientemente porque det(A) = det(L)det(U) y los determinantes de matrices triangulares son simplemente el producto de los elementos de sus diagonales. En particular, si L es una matriz triangular en cuya diagonal todos los elementos son uno, entonces:<br />La misma aproximación al problema puede ser usada para factorizaciones LUP en las que aparece matrices de permutación, pues el determinante de una matriz de permutación P es (−1)S, donde S es el número de permutaciones de filas en la descomposición<br />
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales

Más contenido relacionado

La actualidad más candente

Web ricardo cortina
Web ricardo cortinaWeb ricardo cortina
Web ricardo cortinaManuel Vela
 
Sistema De Ecuaciones
Sistema De EcuacionesSistema De Ecuaciones
Sistema De EcuacionesIESY
 
Sistema de Ecuaciones y Métodos
Sistema de Ecuaciones y MétodosSistema de Ecuaciones y Métodos
Sistema de Ecuaciones y MétodosCristian Andrade
 
Solucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones LinealesSolucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones LinealesFernando Juhasz
 
Sistemas Ecuaciones
Sistemas EcuacionesSistemas Ecuaciones
Sistemas Ecuacionesguest8b5bd6
 
Sistema de ecuaciones lineales
Sistema de ecuaciones linealesSistema de ecuaciones lineales
Sistema de ecuaciones linealesarbizama
 
Metodos de resolucion sistema de ecuaciones
Metodos de resolucion sistema de ecuacionesMetodos de resolucion sistema de ecuaciones
Metodos de resolucion sistema de ecuacionesCarliton
 
SISTEMAS DE ECUACIONES LINEALES
SISTEMAS  DE ECUACIONES LINEALESSISTEMAS  DE ECUACIONES LINEALES
SISTEMAS DE ECUACIONES LINEALESjacqueline llamuca
 
Sistemas de Ecuaciones
Sistemas de EcuacionesSistemas de Ecuaciones
Sistemas de Ecuacionesdieguito0712
 
Sistema de Ecuaciones Lineales
Sistema de Ecuaciones LinealesSistema de Ecuaciones Lineales
Sistema de Ecuaciones Linealesnecro2609
 
Sistema de Ecuaciones Lineales
Sistema de Ecuaciones LinealesSistema de Ecuaciones Lineales
Sistema de Ecuaciones LinealesKathytha Rodriguez
 
Sistemas de ecuaciones
Sistemas de ecuaciones Sistemas de ecuaciones
Sistemas de ecuaciones Juliana Isola
 
Presentacion
PresentacionPresentacion
Presentacionmbarcat
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones Lineales Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones Lineales parra20
 
Solucion del sistema de ecuaciones
Solucion del sistema de ecuacionesSolucion del sistema de ecuaciones
Solucion del sistema de ecuacionesalgebra
 
Ecuaciones en números complejos
Ecuaciones en números complejos Ecuaciones en números complejos
Ecuaciones en números complejos Juliana Isola
 
Solucion de sistema de ecuaciones
Solucion de sistema de ecuacionesSolucion de sistema de ecuaciones
Solucion de sistema de ecuacionesBriiaṇ Martinez
 

La actualidad más candente (20)

Web ricardo cortina
Web ricardo cortinaWeb ricardo cortina
Web ricardo cortina
 
Sistema De Ecuaciones
Sistema De EcuacionesSistema De Ecuaciones
Sistema De Ecuaciones
 
Sistema de Ecuaciones y Métodos
Sistema de Ecuaciones y MétodosSistema de Ecuaciones y Métodos
Sistema de Ecuaciones y Métodos
 
A&d
A&dA&d
A&d
 
Solucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones LinealesSolucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones Lineales
 
Sistemas Ecuaciones
Sistemas EcuacionesSistemas Ecuaciones
Sistemas Ecuaciones
 
Sistema de ecuaciones lineales
Sistema de ecuaciones linealesSistema de ecuaciones lineales
Sistema de ecuaciones lineales
 
Metodos de resolucion sistema de ecuaciones
Metodos de resolucion sistema de ecuacionesMetodos de resolucion sistema de ecuaciones
Metodos de resolucion sistema de ecuaciones
 
Asignacion 2
Asignacion 2Asignacion 2
Asignacion 2
 
SISTEMAS DE ECUACIONES LINEALES
SISTEMAS  DE ECUACIONES LINEALESSISTEMAS  DE ECUACIONES LINEALES
SISTEMAS DE ECUACIONES LINEALES
 
Sistemas de Ecuaciones
Sistemas de EcuacionesSistemas de Ecuaciones
Sistemas de Ecuaciones
 
Sistema de Ecuaciones Lineales
Sistema de Ecuaciones LinealesSistema de Ecuaciones Lineales
Sistema de Ecuaciones Lineales
 
Sistema de Ecuaciones Lineales
Sistema de Ecuaciones LinealesSistema de Ecuaciones Lineales
Sistema de Ecuaciones Lineales
 
Sistemas de ecuaciones
Sistemas de ecuaciones Sistemas de ecuaciones
Sistemas de ecuaciones
 
Presentacion
PresentacionPresentacion
Presentacion
 
Salazar eres el mejor
Salazar eres el mejorSalazar eres el mejor
Salazar eres el mejor
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones Lineales Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones Lineales
 
Solucion del sistema de ecuaciones
Solucion del sistema de ecuacionesSolucion del sistema de ecuaciones
Solucion del sistema de ecuaciones
 
Ecuaciones en números complejos
Ecuaciones en números complejos Ecuaciones en números complejos
Ecuaciones en números complejos
 
Solucion de sistema de ecuaciones
Solucion de sistema de ecuacionesSolucion de sistema de ecuaciones
Solucion de sistema de ecuaciones
 

Similar a Sistemas ecuaciones lineales

Algebra Lineal.pdf
Algebra Lineal.pdfAlgebra Lineal.pdf
Algebra Lineal.pdffatimasanz4
 
Métodos de solución de ecuaciones
Métodos de solución de ecuacionesMétodos de solución de ecuaciones
Métodos de solución de ecuacionesinnovalabcun
 
Algebra lineal, Sistemas de ecuaciones y sus métodos.
Algebra lineal, Sistemas de ecuaciones y sus métodos. Algebra lineal, Sistemas de ecuaciones y sus métodos.
Algebra lineal, Sistemas de ecuaciones y sus métodos. Andrés Figueroa
 
sistemas de ecuaciones lineales
sistemas de ecuaciones linealessistemas de ecuaciones lineales
sistemas de ecuaciones linealesIzra Rasta
 
Sistemas de ecuaciones lineales
Sistemas de ecuaciones linealesSistemas de ecuaciones lineales
Sistemas de ecuaciones linealesAleBe52
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesSolución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesB3lleza Online
 
Sistemas ecuaciones
Sistemas ecuacionesSistemas ecuaciones
Sistemas ecuacionesjcremiro
 
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y GaussSistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y GaussCarlita Vaca
 
Sistemas de ecuaciones
Sistemas de ecuacionesSistemas de ecuaciones
Sistemas de ecuacionesmartincascales
 
Ecuaciones lineales con 2 incógnitas
Ecuaciones lineales con 2 incógnitasEcuaciones lineales con 2 incógnitas
Ecuaciones lineales con 2 incógnitasIsaac Mojica
 
Tipos de ecuaciones
Tipos de ecuacionesTipos de ecuaciones
Tipos de ecuacionesEdy Andy
 
Sistema de ecuaciones
Sistema de ecuacionesSistema de ecuaciones
Sistema de ecuacionesCarlita Vaca
 
Matrices
MatricesMatrices
Matricessam rex
 
Metodo de resolucion de ecuaciones
Metodo de resolucion de ecuacionesMetodo de resolucion de ecuaciones
Metodo de resolucion de ecuacionesangiegutierrez11
 

Similar a Sistemas ecuaciones lineales (19)

Algebra Lineal.pdf
Algebra Lineal.pdfAlgebra Lineal.pdf
Algebra Lineal.pdf
 
Métodos de solución de ecuaciones
Métodos de solución de ecuacionesMétodos de solución de ecuaciones
Métodos de solución de ecuaciones
 
Algebra lineal, Sistemas de ecuaciones y sus métodos.
Algebra lineal, Sistemas de ecuaciones y sus métodos. Algebra lineal, Sistemas de ecuaciones y sus métodos.
Algebra lineal, Sistemas de ecuaciones y sus métodos.
 
MéTodos 1
MéTodos 1MéTodos 1
MéTodos 1
 
sistemas de ecuaciones lineales
sistemas de ecuaciones linealessistemas de ecuaciones lineales
sistemas de ecuaciones lineales
 
Sistemas de ecuaciones lineales
Sistemas de ecuaciones linealesSistemas de ecuaciones lineales
Sistemas de ecuaciones lineales
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesSolución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones Lineales
 
Sistemas ecuaciones
Sistemas ecuacionesSistemas ecuaciones
Sistemas ecuaciones
 
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y GaussSistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
 
Analisis numerico
Analisis numericoAnalisis numerico
Analisis numerico
 
Sistemas de ecuaciones
Sistemas de ecuacionesSistemas de ecuaciones
Sistemas de ecuaciones
 
Ecuaciones lineales con 2 incógnitas
Ecuaciones lineales con 2 incógnitasEcuaciones lineales con 2 incógnitas
Ecuaciones lineales con 2 incógnitas
 
Tipos de ecuaciones
Tipos de ecuacionesTipos de ecuaciones
Tipos de ecuaciones
 
Sistema de ecuaciones
Sistema de ecuacionesSistema de ecuaciones
Sistema de ecuaciones
 
RESUMEN
RESUMEN RESUMEN
RESUMEN
 
ALGEBRA LINEAL
ALGEBRA LINEALALGEBRA LINEAL
ALGEBRA LINEAL
 
Matrices
MatricesMatrices
Matrices
 
Ecuaciones lineales
Ecuaciones linealesEcuaciones lineales
Ecuaciones lineales
 
Metodo de resolucion de ecuaciones
Metodo de resolucion de ecuacionesMetodo de resolucion de ecuaciones
Metodo de resolucion de ecuaciones
 

Más de Cesar Mendoza

Roots of polynomials
Roots of polynomialsRoots of polynomials
Roots of polynomialsCesar Mendoza
 
System of linear equations
System of linear equationsSystem of linear equations
System of linear equationsCesar Mendoza
 
System of linear equations
System of linear equationsSystem of linear equations
System of linear equationsCesar Mendoza
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidelCesar Mendoza
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidelCesar Mendoza
 
Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01
Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01
Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01Cesar Mendoza
 
METODO JACOBI Y GAUSS SEIDEL
METODO JACOBI Y GAUSS SEIDELMETODO JACOBI Y GAUSS SEIDEL
METODO JACOBI Y GAUSS SEIDELCesar Mendoza
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidelCesar Mendoza
 
Métodos directos para solución de sistemas ecuaciones lineales (2)
Métodos directos para solución de sistemas ecuaciones lineales (2)Métodos directos para solución de sistemas ecuaciones lineales (2)
Métodos directos para solución de sistemas ecuaciones lineales (2)Cesar Mendoza
 

Más de Cesar Mendoza (13)

Roots of polynomials
Roots of polynomialsRoots of polynomials
Roots of polynomials
 
System of linear equations
System of linear equationsSystem of linear equations
System of linear equations
 
System of linear equations
System of linear equationsSystem of linear equations
System of linear equations
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidel
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidel
 
Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativos
 
Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativos
 
Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01
Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01
Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01
 
METODO JACOBI Y GAUSS SEIDEL
METODO JACOBI Y GAUSS SEIDELMETODO JACOBI Y GAUSS SEIDEL
METODO JACOBI Y GAUSS SEIDEL
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidel
 
Metodo gauss seidel
Metodo gauss seidelMetodo gauss seidel
Metodo gauss seidel
 
Matrices
MatricesMatrices
Matrices
 
Métodos directos para solución de sistemas ecuaciones lineales (2)
Métodos directos para solución de sistemas ecuaciones lineales (2)Métodos directos para solución de sistemas ecuaciones lineales (2)
Métodos directos para solución de sistemas ecuaciones lineales (2)
 

Sistemas ecuaciones lineales

  • 1. Sistema de ecuaciones lineales<br />En matemática y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente:<br />El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y x3 que satisfacen las tres ecuaciones.<br />El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico.<br />Introducción<br />En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en forma ordinaria como:<br />Donde son las incógnitas y los números son los coeficientes del sistema sobre el cuerpo . Es posible reescribir el sistema separando con coeficientes con notación matricial:<br />(1) <br />Si representamos cada matriz con una única letra obtenemos:<br />Donde A es una matriz m por n, x es un vector columna de longitud n y b es otro vector columna de longitud m. El sistema de eliminación de Gauss-Jordan se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los coeficientes.<br />Sistemas lineales reales<br />En esta sección se analizan las propiedades de los sistemas de ecuaciones lineales sobre el cuerpo , es decir, los sistemas lineales en los coeficientes de las ecuaciones son números reales.<br />Representación gráfica<br />La intersección de dos planos no paralelos es una recta.<br />Un sistema con incógnitas se puede representar en el n-espacio correspondiente.<br />En los sistemas con 2 incógnitas, el universo de nuestro sistema será el plano bidimensional, mientras que cada una de las ecuaciones será representada por una recta, si es lineal, o por una curva, si no lo es. La solución será el punto (o línea) donde intersecten todas las rectas y curvas que representan a las ecuaciones. Si no existe ningún punto en el que intersecten al mismo tiempo todas las líneas, el sistema es incompatible, o lo que es lo mismo, no tiene solución.<br />Tipos de sistemas<br />Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:<br />Sistema incompatible si no tiene ninguna solución.<br />Sistema compatible si tiene alguna solución, en este caso además puede distinguirse entre: <br />Sistema compatible determinado cuando tiene un número finito de soluciones.<br />Sistema compatible indeterminado cuando admite un conjunto infinito de soluciones.<br />Quedando así la clasificación:<br />Los sistemas incompatibles geométricamente se caracterizan por (hiper)planos o rectas que se cruzan sin cortarse. Los sistemas compatibles determinados se caracterizan por un conjunto de (hiper)planos o rectas que se cortan en un único punto. Los sistemas compatibles indeterminados se caracterizan por (hiper)planos que se cortan a lo largo de una recta [o más generalmente un hiperplano de dimensión menor]. Desde un punto de vista algebraico los sistemas compatibles determinados se caracterizan porque el determinante de la matriz es diferente de cero:<br />Sistemas compatibles indeterminados<br />Un sistema sobre un cuerpo K es compatible indeterminado cuando posee un número infinito de soluciones. Por ejemplo, el siguiente sistema:<br />Tanto la primera como la segunda ecuación se corresponden con la recta cuya pendiente es y que pasa por el punto , por lo que ambas intersecan en todos los puntos de dicha recta. El sistema es compatible por haber solución o intersección entre las rectas, pero es indeterminado al ocurrir esto en infinitos puntos.<br />En este tipo de sistemas, la solución genérica consiste en expresar una o más variables como función matemática del resto. En los sistemas lineales compatibles indeterminados, al menos una de sus ecuaciones se puede hallar como combinación lineal del resto, es decir, es linealmente dependiente.<br />Una condición necesaria para que un sistema sea compatible indeterminado es que el determinante de la matriz del sistema sea cero (y por tanto uno de sus autovalores será 0):<br />De hecho, de las dos condiciones anteriores se desprende, que el conjunto de soluciones de un sistema compatible indeterminado es un subespacio vectorial. Y la dimensión de ese espacio vectorial coincidirá con la multiplicidad geométrica del autovalor cero.<br />Sistemas incompatibles<br />De un sistema se dice que es incompatible cuando no presenta ninguna solución. Por ejemplo, supongamos el siguiente sistema:<br />Las ecuaciones se corresponden gráficamente con dos rectas, ambas con la misma pendiente, Al ser paralelas, no se cortan en ningún punto, es decir, no existe ningún valor que satisfaga a la vez ambas ecuaciones.<br />Matemáticamente un sistema de estos es incompatible cuando el rango de la matriz del sistema es inferior al rango de la matriz ampliada. Una condición necesaria para que esto suceda es que el determinante de la matriz del sistema sea cero:<br /> Métodos de resolución<br />Sustitución<br />El método de sustitución consiste en despejar en una de las ecuaciones cualquier incógnita, preferiblemente la que tenga menor coeficiente, para, a continuación, sustituirla en otra ecuación por su valor.<br />En caso de sistemas con más de dos incógnitas, la seleccionada debe ser sustituida por su valor equivalente en todas las ecuaciones excepto en la que la hemos despejado. En ese instante, tendremos un sistema con una ecuación y una incógnita menos que el inicial, en el que podemos seguir aplicando este método reiteradamente. Por ejemplo, supongamos que queremos resolver por sustitución este sistema:<br />En la primera ecuación, seleccionamos la incógnita por ser la de menor coeficiente y que posiblemente nos facilite más las operaciones, y la despejamos, obteniendo la siguiente ecuación.<br />El siguiente paso será sustituir cada ocurrencia de la incógnita en la otra ecuación, para así obtener una ecuación donde la única incógnita sea la .<br />Al resolver la ecuación obtenemos el resultado , y si ahora sustituimos esta incógnita por su valor en alguna de las ecuaciones originales obtendremos , con lo que el sistema queda ya resuelto.<br />Igualación<br />El método de igualación se puede entender como un caso particular del método de sustitución en el que se despeja la misma incógnita en dos ecuaciones y a continuación se igualan entre sí la parte derecha de ambas ecuaciones.<br />Tomando el mismo sistema utilizado como ejemplo para el método de sustitución, si despejamos la incógnita en ambas ecuaciones nos queda de la siguiente manera:<br />Como se puede observar, ambas ecuaciones comparten la misma parte izquierda, por lo que podemos afirmar que las partes derechas también son iguales entre sí.<br />Una vez obtenido el valor de la incógnita , se substituye su valor en una de las ecuaciones originales, y se obtiene obtener el valor de la .<br />La forma más fácil de tener el método de sustitución es realizando un cambio para despejar x después de averiguar el valor de la y.<br />Reducción<br />Este método suele emplearse mayoritariamente en los sistemas lineales, siendo pocos los casos en que se utiliza para resolver sistemas no lineales. El procedimiento, diseñado para sistemas con dos ecuaciones e incógnitas, consiste en transformar una de las ecuaciones (generalmente, mediante productos), de manera que obtengamos dos ecuaciones en la que una misma incógnita aparezca con el mismo coeficiente y distinto signo. A continuación, se suman ambas ecuaciones produciéndose así la reducción o cancelación de dicha incógnita, obteniendo así una ecuación con una sola incógnita, donde el método de resolución es simple.<br />Por ejemplo, en el sistema:<br />no tenemos más que multiplicar la primera ecuación por para poder cancelar la incógnita . Al multiplicar, dicha ecuación nos queda así:<br />Si sumamos esta ecuación a la segunda del sistema original, obtenemos una nueva ecuación donde la incógnita ha sido reducida y que, en este caso, nos da directamente el valor de la incógnita :<br />El siguiente paso consiste únicamente en sustituir el valor de la incógnita en cualquiera de las ecuaciones donde aparecían ambas incógnitas, y obtener así que el valor de es igual a:<br />Método de Gauss<br />La eliminación de Gauss-Jordan, más conocida como método de Gauss, es un método aplicable únicamente a los sistemas lineales de ecuaciones, y consistente en triangular la matriz aumentada del sistema mediante transformaciones elementales, hasta obtener ecuaciones de una sola incógnita, cuyo valor será igual al coeficiente situado en la misma fila de la matriz. Este procedimiento es similar al anterior de reducción, pero ejecutado de manera reiterada y siguiendo un cierto orden algorítmico.<br />En primer lugar, reducimos la incógnita , sumando a la segunda fila, la primera multiplicada por , y a la tercera, la primera fila. La matriz queda así:<br />El siguiente paso consiste en eliminar la incógnita en la primera y tercera fila, para lo cual les sumamos la segunda multiplicada por y por , respectivamente.<br />Por último, eliminamos la , tanto de la primera como de la segunda fila, sumándoles la tercera multiplicada por y por , respectivamente:<br />Llegados a este punto podemos resolver directamente las ecuaciones que se nos plantean:<br />O, si lo preferimos, podemos multiplicar las tres filas de la matriz por: , y respectivamente, y obtener así automáticamente los valores de las incógnitas en la última columna.<br />                            <br />Eliminación de Gauss-Jordan<br />En matemáticas, la eliminación Gaussiana, eliminación de Gauss o eliminación de Gauss-Jordan, llamadas así debido a Carl Friedrich Gauss y Wilhelm Jordan, son algoritmos del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. Cuando se aplica este proceso, la matriz resultante se conoce como: quot; forma escalonadaquot; .<br />El método fue presentado por el matemático Carl Friedrich Gauss, pero se conocía anteriormente en un importante libro matemático chino llamado Jiuzhang suanshu o Nueve capítulos del arte matemático.[ HYPERLINK quot; http://es.wikipedia.org/wiki/Wikipedia:Verificabilidadquot; quot; Wikipedia:Verificabilidadquot; cita requerida]<br />Análisis de Complejidad<br />La complejidad computacional de la eliminación gaussiana es aproximadamente n3. Esto es, el número de operaciones requeridas es n3 si el tamaño de la matriz es n × n.<br />Ejemplo<br />Supongamos que es necesario encontrar los números x, y, z, que satisfacen simultáneamente estas ecuaciones:<br />Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas elementales) son estas:<br />Multiplicar una ecuación por un escalar no nulo.<br />Intercambiar de posición dos ecuaciones<br />Sumar a una ecuación un múltiplo de otra.<br />Estas operaciones pueden representarse con matrices elementales que se usan también en otros procedimientos como la factorización LU o la diagonalización por congruencia de una matriz simétrica.<br />En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la primera ecuación a la segunda y después sumamos la primera ecuación a la tercera. El resultado es:<br />Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera para eliminar y.<br />Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda para eliminar z.<br />Despejando, podemos ver las soluciones:<br />Para clarificar los pasos (y es en realidad lo que las computadoras manejan), se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación matricial:<br />Primero:<br />Después,<br />Por último.<br />Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como esta:<br />Que representa la ecuación: 0x + 0y + 0z = 1, es decir, 0 = 1 que no tiene solución.<br />Forma escalonada y escalonada reducida<br />Artículo principal: Matriz escalonada<br />Dos formas especiales de matrices son la escalonada y la escalonada reducida. Una matriz puede tener las siguientes propiedades:<br />Todas las filas cero están en la parte inferior de la matriz.<br />El elemento delantero de cada fila diferente de cero, éste es llamado quot; pivotequot; ; éstos están a la derecha del elemento delantero de la fila anterior (esto supone que todos los elementos debajo de un pivote son cero).<br />Si una matriz A cumple con esas propiedades, se dice escalonada. Además, cumpliendo estas otras condiciones, decimos que la matriz se encuentra en la forma reducida de renglón escalón o tan solo en forma escalonada reducida.<br />Todos los elementos delanteros (quot; pivotesquot; ) son iguales a 1<br />Todos los elementos por encima de los pivotes son nulos.<br />Cuando una matriz representa a un sistema de ecuaciones situaciones como tener una columna de ceros parece imposible ya que correspondería a una variable que nunca habría aparecido. Sin embargo esta situación puede presentarse (imaginemos la ecuación de un plano en el espacio en la que no aparece alguna de las componentes, por ejemplo y+z=0). Así la matriz<br />también es una matriz escalonada.<br />Una vez que la matriz del sistema se ha transformado hasta obtener una matriz escalonada reducida es muy fácil discutirlo (es decir, determinar cuántas soluciones tiene):<br />Cuando aparece un pivote en la columna de los términos independientes el sistema es incompatible (no tiene ninguna solución).<br />En otro caso el sistema es compatible. Si además el número de pivotes coincide con el número de incógnitas el sistema es compatible determinado (tiene una única solución). Cuando el número de pivotes es menor que el número de incógnitas el sistema es indeterminado (tiene infinitas soluciones que dependen de tantos parámetros como indique la diferencia entre el número de incógnitas y el número de pivotes).<br />Otras aplicaciones<br />Encontrando la inversa de una matriz<br />Es posible usar la eliminación gaussiana para encontrar inversas de matrices n × n. Para ello se aumenta la matriz dada, digamos A con una matriz identidad simplemente escribiendo las filas de la identidad a continuación de las de nuestra matriz A, por ejemplo dada:<br />se construiría<br />y ahora se realizan las operaciones elementales sobre las filas de la matriz aumentada que sean necesarias para obtener la forma escalonada reducida de la matriz A; sumando tanto a la segunda como a la tercera fila la primera obtenemos<br />multiplicamos la segunda fila por -1 y la intercambiamos con la primera<br />ya tenemos el pivote de la primera fila que usamos para hacer ceros debajo<br />ahora usamos el pivote de la segunda fila<br />y por último cambiamos de signo la tercera fila y usamos el pivote correspondiente<br />El proceso ha finalizado porque en la parte izquierda tenemos la forma escalonada reducida de A y puesto que ésta es la matriz identidad, entonces A tiene inversa y su inversa es la matriz que aparece a la derecha, en el lugar que al principio ocupaba la identidad. Cuando la forma escalonada reducida que aparece no es la identidad es que la matriz de partida no tiene inversa.<br />Factorización LU<br />En el álgebra lineal, la factorización o descomposición LU (del inglés Lower-Upper) es una forma de factorización de una matriz como el producto de una matriz triangular inferior y una superior. Debido a la inestabilidad de este método, por ejemplo si un elemento de la diagonal es cero, es necesario premultiplicar la matriz por una matriz de permutación. Método llamado factorización PA = LU o LU con pivote.<br />Esta descomposición se usa en el análisis numérico para resolver sistemas de ecuaciones (más eficientemente) o encontrar las matrices inversas.<br />Definiciones<br />Sea A una matriz no singular (si lo fuera, entonces la descomposición podría no ser única)<br />donde L y U son matrices inferiores y superiores triangulares.<br />Para matrices , esto es:<br />Por otro lado la descomposición PLU tiene esta forma:<br />Lm − 1Pm − 1...L2P2L1P1A = U<br />Con Lm − 1...L1 matrices triangulares inferiores, Pm − 1...P1 matrices de permutacion y U una matriz triangular superior.<br />Para determinar L:<br />L = (L'm − 1 * ... * L'2 * L'1) − 1<br />y cada L'k está dado por:<br />L'k = <br />Esto se debe a que L'k es igual a Lk, pero con los elementos de la subdiagonal permutados.<br />Otra forma de ver éste tipo de factorización es: A = PTLU Recordando que las matrices de permutación matriz permutación son invertibles y su inversa es su traspuesta<br />Unicidad<br />Las matrices L y U son únicas, si la matriz no es singular. En caso contrario pueden no ser únicas.<br />Demostración:<br />Dada la matriz A ∈ Rmxn<br />A = L1U1 y A = L2U2<br />Recordemos que L1,U1,L2,U2 son invertibles por tener el determinante distinto de cero entonces:<br />L1U1 = L2U2<br />Entonces es una matriz triangular inferior, con unos en la diagonal y es triangular superior, con unos en la diagonal (recordando que el producto matricial de triangulares superiores/inferiores es triangular superior/inferior). La única matriz que cumple estas dos propiedades es la identidad. Por lo tanto:<br />y <br />Con lo cual:<br />L1 = L2 y U1 = U2<br />Algoritmos<br />La factorización LU es básicamente una forma modificada de la eliminación gaussiana. Transformamos la matriz A en una triangular superior U anulando los elementos debajo de la diagonal.<br />E1 * E2 * ... * En * A = U<br />Donde E1,E2,...,En son matrices elementales, que representan los distintos pasos de la eliminación. Luego recordando que la inversa de una matriz elemental, es otra matriz elemental:<br />Llamamos L a una matriz triangular inferior.<br />Aplicaciones<br />Resolviendo sistemas de álgebra lineal<br />Dada la ecuación matricial<br />Ax = LUx = b<br />Queremos la solución para un determinando A y b. Los pasos son los siguientes:<br />Primero, resolvemos Ly = b para y<br />Segundo, resolvemos Ux = y para x.<br />Nótese que ya tenemos las matrices L y U. La ventaja de este método es que es computacionalmente eficiente, porque podemos elegir el vector b que nos parezca y no tenemos que volver a hacer la eliminación de Gauss cada vez.<br />Factorización L-U con pivotación: Al utilizar la técnica de triangulación de Gauss para obtener la descomposición L-U de una matriz A podemos encontrarnos con el mismo problema de encontrar un coeficiente en la diagonal que sea 0 o un mal condicionamiento. Podemos entonces utilizar la misma técnica de pivotación : buscar el siguiente elemento en la columna que sea distinto de 0 o, mejor aún, el de mayor valor absoluto.<br />Pero una vez obtenida la descomposición L-U, si queremos aplicarla a resolver un sistema de ecuaciones, tendremos que tener en cuenta la “historia” o registro de las pivotaciones efectuadas para aplicar al vector de términos independientes.<br />Esto se realiza mediante la matriz de andres permutación P, que consiste en efectuar sobre la matriz identidad, las mismas permutaciones de filas que se vayan efectuando sobre la matriz que se está triangulando por Gauss.<br />Al mismo tiempo se efectúan las mismas permutaciones sobre los elementos subdiagonal de la matriz L.<br />Así, si tenemos, por ejemplo, el sistema:<br />AX=B<br />y L y U son las matrices obtenidas de la matriz A como descomposición L-U por triangulación de Gauss con pivotaciones recogidas en la matriz de permutación P, es fácil comprobar que :<br />LU=PA (LU)X=P(AX)=PB=NUEVOB<br />Por tanto los procesos de sustitución descendente y ascendente los aplicamos a : LD=NUEVOB UX=D<br />Matriz Inversa<br />Las matrices L y U pueden ser usadas para calcular la matriz inversa mediante:<br />A − 1 = U − 1L − 1<br />Algunas implementaciones que invierten matrices usan este método.<br />Determinante de una matriz<br />Las matrices L y U pueden ser usadas para calcular el determinante de la matriz A muy eficientemente porque det(A) = det(L)det(U) y los determinantes de matrices triangulares son simplemente el producto de los elementos de sus diagonales. En particular, si L es una matriz triangular en cuya diagonal todos los elementos son uno, entonces:<br />La misma aproximación al problema puede ser usada para factorizaciones LUP en las que aparece matrices de permutación, pues el determinante de una matriz de permutación P es (−1)S, donde S es el número de permutaciones de filas en la descomposición<br />