SlideShare una empresa de Scribd logo
1 de 17
Sistema de ecuaciones lineales<br />En matemática y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente:<br />El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y x3 que satisfacen las tres ecuaciones.<br />El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico.<br />Introducción<br />En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en forma ordinaria como:<br />Donde son las incógnitas y los números son los coeficientes del sistema sobre el cuerpo . Es posible reescribir el sistema separando con coeficientes con notación matricial:<br />(1) <br />Si representamos cada matriz con una única letra obtenemos:<br />Donde A es una matriz m por n, x es un vector columna de longitud n y b es otro vector columna de longitud m. El sistema de eliminación de Gauss-Jordan se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los coeficientes.<br />Sistemas lineales reales<br />En esta sección se analizan las propiedades de los sistemas de ecuaciones lineales sobre el cuerpo , es decir, los sistemas lineales en los coeficientes de las ecuaciones son números reales.<br />Representación gráfica<br />La intersección de dos planos no paralelos es una recta.<br />Un sistema con incógnitas se puede representar en el n-espacio correspondiente.<br />En los sistemas con 2 incógnitas, el universo de nuestro sistema será el plano bidimensional, mientras que cada una de las ecuaciones será representada por una recta, si es lineal, o por una curva, si no lo es. La solución será el punto (o línea) donde intersecten todas las rectas y curvas que representan a las ecuaciones. Si no existe ningún punto en el que intersecten al mismo tiempo todas las líneas, el sistema es incompatible, o lo que es lo mismo, no tiene solución.<br />Tipos de sistemas<br />Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:<br />Sistema incompatible si no tiene ninguna solución.<br />Sistema compatible si tiene alguna solución, en este caso además puede distinguirse entre: <br />Sistema compatible determinado cuando tiene un número finito de soluciones.<br />Sistema compatible indeterminado cuando admite un conjunto infinito de soluciones.<br />Quedando así la clasificación:<br />Los sistemas incompatibles geométricamente se caracterizan por (hiper)planos o rectas que se cruzan sin cortarse. Los sistemas compatibles determinados se caracterizan por un conjunto de (hiper)planos o rectas que se cortan en un único punto. Los sistemas compatibles indeterminados se caracterizan por (hiper)planos que se cortan a lo largo de una recta [o más generalmente un hiperplano de dimensión menor]. Desde un punto de vista algebraico los sistemas compatibles determinados se caracterizan porque el determinante de la matriz es diferente de cero:<br />Sistemas compatibles indeterminados<br />Un sistema sobre un cuerpo K es compatible indeterminado cuando posee un número infinito de soluciones. Por ejemplo, el siguiente sistema:<br />Tanto la primera como la segunda ecuación se corresponden con la recta cuya pendiente es y que pasa por el punto , por lo que ambas intersecan en todos los puntos de dicha recta. El sistema es compatible por haber solución o intersección entre las rectas, pero es indeterminado al ocurrir esto en infinitos puntos.<br />En este tipo de sistemas, la solución genérica consiste en expresar una o más variables como función matemática del resto. En los sistemas lineales compatibles indeterminados, al menos una de sus ecuaciones se puede hallar como combinación lineal del resto, es decir, es linealmente dependiente.<br />Una condición necesaria para que un sistema sea compatible indeterminado es que el determinante de la matriz del sistema sea cero (y por tanto uno de sus autovalores será 0):<br />De hecho, de las dos condiciones anteriores se desprende, que el conjunto de soluciones de un sistema compatible indeterminado es un subespacio vectorial. Y la dimensión de ese espacio vectorial coincidirá con la multiplicidad geométrica del autovalor cero.<br />Sistemas incompatibles<br />De un sistema se dice que es incompatible cuando no presenta ninguna solución. Por ejemplo, supongamos el siguiente sistema:<br />Las ecuaciones se corresponden gráficamente con dos rectas, ambas con la misma pendiente, Al ser paralelas, no se cortan en ningún punto, es decir, no existe ningún valor que satisfaga a la vez ambas ecuaciones.<br />Matemáticamente un sistema de estos es incompatible cuando el rango de la matriz del sistema es inferior al rango de la matriz ampliada. Una condición necesaria para que esto suceda es que el determinante de la matriz del sistema sea cero:<br /> Métodos de resolución<br />Sustitución<br />El método de sustitución consiste en despejar en una de las ecuaciones cualquier incógnita, preferiblemente la que tenga menor coeficiente, para, a continuación, sustituirla en otra ecuación por su valor.<br />En caso de sistemas con más de dos incógnitas, la seleccionada debe ser sustituida por su valor equivalente en todas las ecuaciones excepto en la que la hemos despejado. En ese instante, tendremos un sistema con una ecuación y una incógnita menos que el inicial, en el que podemos seguir aplicando este método reiteradamente. Por ejemplo, supongamos que queremos resolver por sustitución este sistema:<br />En la primera ecuación, seleccionamos la incógnita por ser la de menor coeficiente y que posiblemente nos facilite más las operaciones, y la despejamos, obteniendo la siguiente ecuación.<br />El siguiente paso será sustituir cada ocurrencia de la incógnita en la otra ecuación, para así obtener una ecuación donde la única incógnita sea la .<br />Al resolver la ecuación obtenemos el resultado , y si ahora sustituimos esta incógnita por su valor en alguna de las ecuaciones originales obtendremos , con lo que el sistema queda ya resuelto.<br />Igualación<br />El método de igualación se puede entender como un caso particular del método de sustitución en el que se despeja la misma incógnita en dos ecuaciones y a continuación se igualan entre sí la parte derecha de ambas ecuaciones.<br />Tomando el mismo sistema utilizado como ejemplo para el método de sustitución, si despejamos la incógnita en ambas ecuaciones nos queda de la siguiente manera:<br />Como se puede observar, ambas ecuaciones comparten la misma parte izquierda, por lo que podemos afirmar que las partes derechas también son iguales entre sí.<br />Una vez obtenido el valor de la incógnita , se substituye su valor en una de las ecuaciones originales, y se obtiene obtener el valor de la .<br />La forma más fácil de tener el método de sustitución es realizando un cambio para despejar x después de averiguar el valor de la y.<br />Reducción<br />Este método suele emplearse mayoritariamente en los sistemas lineales, siendo pocos los casos en que se utiliza para resolver sistemas no lineales. El procedimiento, diseñado para sistemas con dos ecuaciones e incógnitas, consiste en transformar una de las ecuaciones (generalmente, mediante productos), de manera que obtengamos dos ecuaciones en la que una misma incógnita aparezca con el mismo coeficiente y distinto signo. A continuación, se suman ambas ecuaciones produciéndose así la reducción o cancelación de dicha incógnita, obteniendo así una ecuación con una sola incógnita, donde el método de resolución es simple.<br />Por ejemplo, en el sistema:<br />no tenemos más que multiplicar la primera ecuación por para poder cancelar la incógnita . Al multiplicar, dicha ecuación nos queda así:<br />Si sumamos esta ecuación a la segunda del sistema original, obtenemos una nueva ecuación donde la incógnita ha sido reducida y que, en este caso, nos da directamente el valor de la incógnita :<br />El siguiente paso consiste únicamente en sustituir el valor de la incógnita en cualquiera de las ecuaciones donde aparecían ambas incógnitas, y obtener así que el valor de es igual a:<br />Método de Gauss<br />La eliminación de Gauss-Jordan, más conocida como método de Gauss, es un método aplicable únicamente a los sistemas lineales de ecuaciones, y consistente en triangular la matriz aumentada del sistema mediante transformaciones elementales, hasta obtener ecuaciones de una sola incógnita, cuyo valor será igual al coeficiente situado en la misma fila de la matriz. Este procedimiento es similar al anterior de reducción, pero ejecutado de manera reiterada y siguiendo un cierto orden algorítmico.<br />En primer lugar, reducimos la incógnita , sumando a la segunda fila, la primera multiplicada por , y a la tercera, la primera fila. La matriz queda así:<br />El siguiente paso consiste en eliminar la incógnita en la primera y tercera fila, para lo cual les sumamos la segunda multiplicada por y por , respectivamente.<br />Por último, eliminamos la , tanto de la primera como de la segunda fila, sumándoles la tercera multiplicada por y por , respectivamente:<br />Llegados a este punto podemos resolver directamente las ecuaciones que se nos plantean:<br />O, si lo preferimos, podemos multiplicar las tres filas de la matriz por: , y respectivamente, y obtener así automáticamente los valores de las incógnitas en la última columna.<br />                            <br />Eliminación de Gauss-Jordan<br />En matemáticas, la eliminación Gaussiana, eliminación de Gauss o eliminación de Gauss-Jordan, llamadas así debido a Carl Friedrich Gauss y Wilhelm Jordan, son algoritmos del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. Cuando se aplica este proceso, la matriz resultante se conoce como: quot;
forma escalonadaquot;
.<br />El método fue presentado por el matemático Carl Friedrich Gauss, pero se conocía anteriormente en un importante libro matemático chino llamado Jiuzhang suanshu o Nueve capítulos del arte matemático.[ HYPERLINK quot;
http://es.wikipedia.org/wiki/Wikipedia:Verificabilidadquot;
  quot;
Wikipedia:Verificabilidadquot;
 cita requerida]<br />Análisis de Complejidad<br />La complejidad computacional de la eliminación gaussiana es aproximadamente n3. Esto es, el número de operaciones requeridas es n3 si el tamaño de la matriz es n × n.<br />Ejemplo<br />Supongamos que es necesario encontrar los números x, y, z, que satisfacen simultáneamente estas ecuaciones:<br />Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas elementales) son estas:<br />Multiplicar una ecuación por un escalar no nulo.<br />Intercambiar de posición dos ecuaciones<br />Sumar a una ecuación un múltiplo de otra.<br />Estas operaciones pueden representarse con matrices elementales que se usan también en otros procedimientos como la factorización LU o la diagonalización por congruencia de una matriz simétrica.<br />En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la primera ecuación a la segunda y después sumamos la primera ecuación a la tercera. El resultado es:<br />Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera para eliminar y.<br />Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda para eliminar z.<br />Despejando, podemos ver las soluciones:<br />Para clarificar los pasos (y es en realidad lo que las computadoras manejan), se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación matricial:<br />Primero:<br />Después,<br />Por último.<br />Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como esta:<br />Que representa la ecuación: 0x + 0y + 0z = 1, es decir, 0 = 1 que no tiene solución.<br />Forma escalonada y escalonada reducida<br />Artículo principal: Matriz escalonada<br />Dos formas especiales de matrices son la escalonada y la escalonada reducida. Una matriz puede tener las siguientes propiedades:<br />Todas las filas cero están en la parte inferior de la matriz.<br />El elemento delantero de cada fila diferente de cero, éste es llamado quot;
pivotequot;
; éstos están a la derecha del elemento delantero de la fila anterior (esto supone que todos los elementos debajo de un pivote son cero).<br />Si una matriz A cumple con esas propiedades, se dice escalonada. Además, cumpliendo estas otras condiciones, decimos que la matriz se encuentra en la forma reducida de renglón escalón o tan solo en forma escalonada reducida.<br />Todos los elementos delanteros (quot;
pivotesquot;
) son iguales a 1<br />Todos los elementos por encima de los pivotes son nulos.<br />Cuando una matriz representa a un sistema de ecuaciones situaciones como tener una columna de ceros parece imposible ya que correspondería a una variable que nunca habría aparecido. Sin embargo esta situación puede presentarse (imaginemos la ecuación de un plano en el espacio en la que no aparece alguna de las componentes, por ejemplo y+z=0). Así la matriz<br />también es una matriz escalonada.<br />Una vez que la matriz del sistema se ha transformado hasta obtener una matriz escalonada reducida es muy fácil discutirlo (es decir, determinar cuántas soluciones tiene):<br />Cuando aparece un pivote en la columna de los términos independientes el sistema es incompatible (no tiene ninguna solución).<br />En otro caso el sistema es compatible. Si además el número de pivotes coincide con el número de incógnitas el sistema es compatible determinado (tiene una única solución). Cuando el número de pivotes es menor que el número de incógnitas el sistema es indeterminado (tiene infinitas soluciones que dependen de tantos parámetros como indique la diferencia entre el número de incógnitas y el número de pivotes).<br />Otras aplicaciones<br />Encontrando la inversa de una matriz<br />Es posible usar la eliminación gaussiana para encontrar inversas de matrices n × n. Para ello se aumenta la matriz dada, digamos A con una matriz identidad simplemente escribiendo las filas de la identidad a continuación de las de nuestra matriz A, por ejemplo dada:<br />se construiría<br />y ahora se realizan las operaciones elementales sobre las filas de la matriz aumentada que sean necesarias para obtener la forma escalonada reducida de la matriz A; sumando tanto a la segunda como a la tercera fila la primera obtenemos<br />multiplicamos la segunda fila por -1 y la intercambiamos con la primera<br />ya tenemos el pivote de la primera fila que usamos para hacer ceros debajo<br />ahora usamos el pivote de la segunda fila<br />y por último cambiamos de signo la tercera fila y usamos el pivote correspondiente<br />El proceso ha finalizado porque en la parte izquierda tenemos la forma escalonada reducida de A y puesto que ésta es la matriz identidad, entonces A tiene inversa y su inversa es la matriz que aparece a la derecha, en el lugar que al principio ocupaba la identidad. Cuando la forma escalonada reducida que aparece no es la identidad es que la matriz de partida no tiene inversa.<br />Factorización LU<br />En el álgebra lineal, la factorización o descomposición LU (del inglés Lower-Upper) es una forma de factorización de una matriz como el producto de una matriz triangular inferior y una superior. Debido a la inestabilidad de este método, por ejemplo si un elemento de la diagonal es cero, es necesario premultiplicar la matriz por una matriz de permutación. Método llamado factorización PA = LU o LU con pivote.<br />Esta descomposición se usa en el análisis numérico para resolver sistemas de ecuaciones (más eficientemente) o encontrar las matrices inversas.<br />Definiciones<br />Sea A una matriz no singular (si lo fuera, entonces la descomposición podría no ser única)<br />donde L y U son matrices inferiores y superiores triangulares.<br />Para matrices , esto es:<br />Por otro lado la descomposición PLU tiene esta forma:<br />Lm − 1Pm − 1...L2P2L1P1A = U<br />Con Lm − 1...L1 matrices triangulares inferiores, Pm − 1...P1 matrices de permutacion y U una matriz triangular superior.<br />Para determinar L:<br />L = (L'm − 1 * ... * L'2 * L'1) − 1<br />y cada L'k está dado por:<br />L'k = <br />Esto se debe a que L'k es igual a Lk, pero con los elementos de la subdiagonal permutados.<br />Otra forma de ver éste tipo de factorización es: A = PTLU Recordando que las matrices de permutación matriz permutación son invertibles y su inversa es su traspuesta<br />Unicidad<br />Las matrices L y U son únicas, si la matriz no es singular. En caso contrario pueden no ser únicas.<br />Demostración:<br />Dada la matriz A ∈ Rmxn<br />A = L1U1 y A = L2U2<br />Recordemos que L1,U1,L2,U2 son invertibles por tener el determinante distinto de cero entonces:<br />L1U1 = L2U2<br />Entonces es una matriz triangular inferior, con unos en la diagonal y es triangular superior, con unos en la diagonal (recordando que el producto matricial de triangulares superiores/inferiores es triangular superior/inferior). La única matriz que cumple estas dos propiedades es la identidad. Por lo tanto:<br />y <br />Con lo cual:<br />L1 = L2 y U1 = U2<br />Algoritmos<br />La factorización LU es básicamente una forma modificada de la eliminación gaussiana. Transformamos la matriz A en una triangular superior U anulando los elementos debajo de la diagonal.<br />E1 * E2 * ... * En * A = U<br />Donde E1,E2,...,En son matrices elementales, que representan los distintos pasos de la eliminación. Luego recordando que la inversa de una matriz elemental, es otra matriz elemental:<br />Llamamos L a una matriz triangular inferior.<br />Aplicaciones<br />Resolviendo sistemas de álgebra lineal<br />Dada la ecuación matricial<br />Ax = LUx = b<br />Queremos la solución para un determinando A y b. Los pasos son los siguientes:<br />Primero, resolvemos Ly = b para y<br />Segundo, resolvemos Ux = y para x.<br />Nótese que ya tenemos las matrices L y U. La ventaja de este método es que es computacionalmente eficiente, porque podemos elegir el vector b que nos parezca y no tenemos que volver a hacer la eliminación de Gauss cada vez.<br />Factorización L-U con pivotación: Al utilizar la técnica de triangulación de Gauss para obtener la descomposición L-U de una matriz A podemos encontrarnos con el mismo problema de encontrar un coeficiente en la diagonal que sea 0 o un mal condicionamiento. Podemos entonces utilizar la misma técnica de pivotación : buscar el siguiente elemento en la columna que sea distinto de 0 o, mejor aún, el de mayor valor absoluto.<br />Pero una vez obtenida la descomposición L-U, si queremos aplicarla a resolver un sistema de ecuaciones, tendremos que tener en cuenta la “historia” o registro de las pivotaciones efectuadas para aplicar al vector de términos independientes.<br />Esto se realiza mediante la matriz de andres permutación P, que consiste en efectuar sobre la matriz identidad, las mismas permutaciones de filas que se vayan efectuando sobre la matriz que se está triangulando por Gauss.<br />Al mismo tiempo se efectúan las mismas permutaciones sobre los elementos subdiagonal de la matriz L.<br />Así, si tenemos, por ejemplo, el sistema:<br />AX=B<br />y L y U son las matrices obtenidas de la matriz A como descomposición L-U por triangulación de Gauss con pivotaciones recogidas en la matriz de permutación P, es fácil comprobar que :<br />LU=PA (LU)X=P(AX)=PB=NUEVOB<br />Por tanto los procesos de sustitución descendente y ascendente los aplicamos a : LD=NUEVOB UX=D<br />Matriz Inversa<br />Las matrices L y U pueden ser usadas para calcular la matriz inversa mediante:<br />A − 1 = U − 1L − 1<br />Algunas implementaciones que invierten matrices usan este método.<br />Determinante de una matriz<br />Las matrices L y U pueden ser usadas para calcular el determinante de la matriz A muy eficientemente porque det(A) = det(L)det(U) y los determinantes de matrices triangulares son simplemente el producto de los elementos de sus diagonales. En particular, si L es una matriz triangular en cuya diagonal todos los elementos son uno, entonces:<br />La misma aproximación al problema puede ser usada para factorizaciones LUP en las que aparece matrices de permutación, pues el determinante de una matriz de permutación P es (−1)S, donde S es el número de permutaciones de filas en la descomposición<br />
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales
Sistemas ecuaciones lineales

Más contenido relacionado

La actualidad más candente

Sistema de ecuaciones
Sistema de ecuacionesSistema de ecuaciones
Sistema de ecuacionessitayanis
 
Sistemas de Ecuaciones Lineales
Sistemas de Ecuaciones LinealesSistemas de Ecuaciones Lineales
Sistemas de Ecuaciones LinealesLucas Alegria
 
Sistemas De Ecuaciones Nacho
Sistemas De Ecuaciones NachoSistemas De Ecuaciones Nacho
Sistemas De Ecuaciones Nachocahm
 
Solución de Sistemas de Ecuaciones lineales
Solución de Sistemas de Ecuaciones linealesSolución de Sistemas de Ecuaciones lineales
Solución de Sistemas de Ecuaciones linealesherostara
 
3.1 definicion-y-clasificacion-de-ecuaciones-lineales
3.1 definicion-y-clasificacion-de-ecuaciones-lineales3.1 definicion-y-clasificacion-de-ecuaciones-lineales
3.1 definicion-y-clasificacion-de-ecuaciones-linealesCarlita Vaca
 
METODO ELIMINACION GAUSSIANA UNIDAD III
METODO ELIMINACION GAUSSIANA UNIDAD IIIMETODO ELIMINACION GAUSSIANA UNIDAD III
METODO ELIMINACION GAUSSIANA UNIDAD IIIjoseimonteroc
 
Método de gauss y gauss seidel
Método de gauss y gauss seidelMétodo de gauss y gauss seidel
Método de gauss y gauss seidelLilly Kwang
 
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y GaussSistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y GaussCarlita Vaca
 
Métodos de eliminación gaussiana
Métodos de eliminación gaussianaMétodos de eliminación gaussiana
Métodos de eliminación gaussianawilmerleon67
 
Sistema de ecuaciones
Sistema de ecuacionesSistema de ecuaciones
Sistema de ecuacionesCarlita Vaca
 
Sistemas de ecuaciones 2x2
Sistemas de ecuaciones 2x2Sistemas de ecuaciones 2x2
Sistemas de ecuaciones 2x2juan delgado
 
Unidad 9. Sistemas de ecuaciones
Unidad 9. Sistemas de ecuacionesUnidad 9. Sistemas de ecuaciones
Unidad 9. Sistemas de ecuacionesjc_elprofe
 
Metodo de eliminacion gaussiana simple
Metodo de eliminacion gaussiana simpleMetodo de eliminacion gaussiana simple
Metodo de eliminacion gaussiana simpleTensor
 
Unidad 3 sistemas de ecuaciones lineales
Unidad 3 sistemas de ecuaciones linealesUnidad 3 sistemas de ecuaciones lineales
Unidad 3 sistemas de ecuaciones linealesjoder
 
3.2.2 eliminacion gaussiana
3.2.2 eliminacion gaussiana3.2.2 eliminacion gaussiana
3.2.2 eliminacion gaussianaRoger Burgos
 
7. sistemas de ecuaciones y aplicaciones
7. sistemas de ecuaciones y aplicaciones7. sistemas de ecuaciones y aplicaciones
7. sistemas de ecuaciones y aplicacionesJacquelineSantos10
 
"Simultaneas De Las Ecuaciones"
"Simultaneas De Las Ecuaciones""Simultaneas De Las Ecuaciones"
"Simultaneas De Las Ecuaciones"Thelyn Meedinna
 

La actualidad más candente (19)

Sistema de ecuaciones
Sistema de ecuacionesSistema de ecuaciones
Sistema de ecuaciones
 
Sistemas de Ecuaciones Lineales
Sistemas de Ecuaciones LinealesSistemas de Ecuaciones Lineales
Sistemas de Ecuaciones Lineales
 
Sistemas De Ecuaciones Nacho
Sistemas De Ecuaciones NachoSistemas De Ecuaciones Nacho
Sistemas De Ecuaciones Nacho
 
Solución de Sistemas de Ecuaciones lineales
Solución de Sistemas de Ecuaciones linealesSolución de Sistemas de Ecuaciones lineales
Solución de Sistemas de Ecuaciones lineales
 
Lina 2
Lina 2Lina 2
Lina 2
 
3.1 definicion-y-clasificacion-de-ecuaciones-lineales
3.1 definicion-y-clasificacion-de-ecuaciones-lineales3.1 definicion-y-clasificacion-de-ecuaciones-lineales
3.1 definicion-y-clasificacion-de-ecuaciones-lineales
 
METODO ELIMINACION GAUSSIANA UNIDAD III
METODO ELIMINACION GAUSSIANA UNIDAD IIIMETODO ELIMINACION GAUSSIANA UNIDAD III
METODO ELIMINACION GAUSSIANA UNIDAD III
 
Método de gauss y gauss seidel
Método de gauss y gauss seidelMétodo de gauss y gauss seidel
Método de gauss y gauss seidel
 
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y GaussSistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
 
Métodos de eliminación gaussiana
Métodos de eliminación gaussianaMétodos de eliminación gaussiana
Métodos de eliminación gaussiana
 
Sistema de ecuaciones
Sistema de ecuacionesSistema de ecuaciones
Sistema de ecuaciones
 
Sistemas de ecuaciones 2x2
Sistemas de ecuaciones 2x2Sistemas de ecuaciones 2x2
Sistemas de ecuaciones 2x2
 
Sistemas de ecuaciones compatibles e incompatibles condiciones
Sistemas de ecuaciones compatibles e incompatibles condicionesSistemas de ecuaciones compatibles e incompatibles condiciones
Sistemas de ecuaciones compatibles e incompatibles condiciones
 
Unidad 9. Sistemas de ecuaciones
Unidad 9. Sistemas de ecuacionesUnidad 9. Sistemas de ecuaciones
Unidad 9. Sistemas de ecuaciones
 
Metodo de eliminacion gaussiana simple
Metodo de eliminacion gaussiana simpleMetodo de eliminacion gaussiana simple
Metodo de eliminacion gaussiana simple
 
Unidad 3 sistemas de ecuaciones lineales
Unidad 3 sistemas de ecuaciones linealesUnidad 3 sistemas de ecuaciones lineales
Unidad 3 sistemas de ecuaciones lineales
 
3.2.2 eliminacion gaussiana
3.2.2 eliminacion gaussiana3.2.2 eliminacion gaussiana
3.2.2 eliminacion gaussiana
 
7. sistemas de ecuaciones y aplicaciones
7. sistemas de ecuaciones y aplicaciones7. sistemas de ecuaciones y aplicaciones
7. sistemas de ecuaciones y aplicaciones
 
"Simultaneas De Las Ecuaciones"
"Simultaneas De Las Ecuaciones""Simultaneas De Las Ecuaciones"
"Simultaneas De Las Ecuaciones"
 

Similar a Sistemas ecuaciones lineales

SISTEMAS DE ECUACIONES LINEALES
SISTEMAS  DE ECUACIONES LINEALESSISTEMAS  DE ECUACIONES LINEALES
SISTEMAS DE ECUACIONES LINEALESjacqueline llamuca
 
Algebra Lineal.pdf
Algebra Lineal.pdfAlgebra Lineal.pdf
Algebra Lineal.pdffatimasanz4
 
Sistema de Ecuaciones y Métodos
Sistema de Ecuaciones y MétodosSistema de Ecuaciones y Métodos
Sistema de Ecuaciones y MétodosCristian Andrade
 
Web ricardo cortina
Web ricardo cortinaWeb ricardo cortina
Web ricardo cortinaManuel Vela
 
Asignacion 2 (Programacion Numerica/Analisis Numerico)
Asignacion 2 (Programacion Numerica/Analisis Numerico)Asignacion 2 (Programacion Numerica/Analisis Numerico)
Asignacion 2 (Programacion Numerica/Analisis Numerico)avbr_avbr
 
Métodos de solución de ecuaciones
Métodos de solución de ecuacionesMétodos de solución de ecuaciones
Métodos de solución de ecuacionesinnovalabcun
 
Sistema de ecuaciones lineales
Sistema de ecuaciones linealesSistema de ecuaciones lineales
Sistema de ecuaciones linealesgenesisptc_
 
Solucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones LinealesSolucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones LinealesFernando Juhasz
 
Métodos de resolución de sistemas de ecuaciones lineales
Métodos de resolución de sistemas de ecuaciones linealesMétodos de resolución de sistemas de ecuaciones lineales
Métodos de resolución de sistemas de ecuaciones linealesramiroeddy
 
Metodos de resolucion sistema de ecuaciones
Metodos de resolucion sistema de ecuacionesMetodos de resolucion sistema de ecuaciones
Metodos de resolucion sistema de ecuacionesCarliton
 
sistemas de ecuaciones lineales
sistemas de ecuaciones linealessistemas de ecuaciones lineales
sistemas de ecuaciones linealesIzra Rasta
 
Solucion de sistema de ecuaciones
Solucion de sistema de ecuacionesSolucion de sistema de ecuaciones
Solucion de sistema de ecuacionesBriiaṇ Martinez
 
Sistemas de ecuaciones lineales
Sistemas de ecuaciones linealesSistemas de ecuaciones lineales
Sistemas de ecuaciones linealesAleBe52
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesSolución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesB3lleza Online
 

Similar a Sistemas ecuaciones lineales (20)

SISTEMAS DE ECUACIONES LINEALES
SISTEMAS  DE ECUACIONES LINEALESSISTEMAS  DE ECUACIONES LINEALES
SISTEMAS DE ECUACIONES LINEALES
 
Ecuaciones lineales
Ecuaciones linealesEcuaciones lineales
Ecuaciones lineales
 
Algebra Lineal.pdf
Algebra Lineal.pdfAlgebra Lineal.pdf
Algebra Lineal.pdf
 
Sistema de Ecuaciones y Métodos
Sistema de Ecuaciones y MétodosSistema de Ecuaciones y Métodos
Sistema de Ecuaciones y Métodos
 
Clase 8 sistema de ecuaciones
Clase 8 sistema de ecuacionesClase 8 sistema de ecuaciones
Clase 8 sistema de ecuaciones
 
Yeli.an
Yeli.anYeli.an
Yeli.an
 
Web ricardo cortina
Web ricardo cortinaWeb ricardo cortina
Web ricardo cortina
 
Asignacion 2 (Programacion Numerica/Analisis Numerico)
Asignacion 2 (Programacion Numerica/Analisis Numerico)Asignacion 2 (Programacion Numerica/Analisis Numerico)
Asignacion 2 (Programacion Numerica/Analisis Numerico)
 
Métodos de solución de ecuaciones
Métodos de solución de ecuacionesMétodos de solución de ecuaciones
Métodos de solución de ecuaciones
 
Sistema de ecuaciones lineales
Sistema de ecuaciones linealesSistema de ecuaciones lineales
Sistema de ecuaciones lineales
 
Solucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones LinealesSolucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones Lineales
 
Métodos de resolución de sistemas de ecuaciones lineales
Métodos de resolución de sistemas de ecuaciones linealesMétodos de resolución de sistemas de ecuaciones lineales
Métodos de resolución de sistemas de ecuaciones lineales
 
Metodos de resolucion sistema de ecuaciones
Metodos de resolucion sistema de ecuacionesMetodos de resolucion sistema de ecuaciones
Metodos de resolucion sistema de ecuaciones
 
MéTodos 1
MéTodos 1MéTodos 1
MéTodos 1
 
sistemas de ecuaciones lineales
sistemas de ecuaciones linealessistemas de ecuaciones lineales
sistemas de ecuaciones lineales
 
Solucion de sistema de ecuaciones
Solucion de sistema de ecuacionesSolucion de sistema de ecuaciones
Solucion de sistema de ecuaciones
 
Sistemas de ecuaciones lineales
Sistemas de ecuaciones linealesSistemas de ecuaciones lineales
Sistemas de ecuaciones lineales
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesSolución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones Lineales
 
Salazar eres el mejor
Salazar eres el mejorSalazar eres el mejor
Salazar eres el mejor
 
A&d
A&dA&d
A&d
 

Más de Cesar Mendoza

Roots of polynomials
Roots of polynomialsRoots of polynomials
Roots of polynomialsCesar Mendoza
 
System of linear equations
System of linear equationsSystem of linear equations
System of linear equationsCesar Mendoza
 
System of linear equations
System of linear equationsSystem of linear equations
System of linear equationsCesar Mendoza
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidelCesar Mendoza
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidelCesar Mendoza
 
Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01
Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01
Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01Cesar Mendoza
 
METODO JACOBI Y GAUSS SEIDEL
METODO JACOBI Y GAUSS SEIDELMETODO JACOBI Y GAUSS SEIDEL
METODO JACOBI Y GAUSS SEIDELCesar Mendoza
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidelCesar Mendoza
 
Métodos directos para solución de sistemas ecuaciones lineales
Métodos directos para solución de sistemas ecuaciones linealesMétodos directos para solución de sistemas ecuaciones lineales
Métodos directos para solución de sistemas ecuaciones linealesCesar Mendoza
 

Más de Cesar Mendoza (13)

Roots of polynomials
Roots of polynomialsRoots of polynomials
Roots of polynomials
 
System of linear equations
System of linear equationsSystem of linear equations
System of linear equations
 
System of linear equations
System of linear equationsSystem of linear equations
System of linear equations
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidel
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidel
 
Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativos
 
Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativos
 
Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01
Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01
Mtodositerativosgauss seidelconrelajacin-100720193455-phpapp01
 
METODO JACOBI Y GAUSS SEIDEL
METODO JACOBI Y GAUSS SEIDELMETODO JACOBI Y GAUSS SEIDEL
METODO JACOBI Y GAUSS SEIDEL
 
Metodos jacobi y gauss seidel
Metodos jacobi y gauss seidelMetodos jacobi y gauss seidel
Metodos jacobi y gauss seidel
 
Metodo gauss seidel
Metodo gauss seidelMetodo gauss seidel
Metodo gauss seidel
 
Matrices
MatricesMatrices
Matrices
 
Métodos directos para solución de sistemas ecuaciones lineales
Métodos directos para solución de sistemas ecuaciones linealesMétodos directos para solución de sistemas ecuaciones lineales
Métodos directos para solución de sistemas ecuaciones lineales
 

Sistemas ecuaciones lineales

  • 1. Sistema de ecuaciones lineales<br />En matemática y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente:<br />El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y x3 que satisfacen las tres ecuaciones.<br />El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico.<br />Introducción<br />En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en forma ordinaria como:<br />Donde son las incógnitas y los números son los coeficientes del sistema sobre el cuerpo . Es posible reescribir el sistema separando con coeficientes con notación matricial:<br />(1) <br />Si representamos cada matriz con una única letra obtenemos:<br />Donde A es una matriz m por n, x es un vector columna de longitud n y b es otro vector columna de longitud m. El sistema de eliminación de Gauss-Jordan se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los coeficientes.<br />Sistemas lineales reales<br />En esta sección se analizan las propiedades de los sistemas de ecuaciones lineales sobre el cuerpo , es decir, los sistemas lineales en los coeficientes de las ecuaciones son números reales.<br />Representación gráfica<br />La intersección de dos planos no paralelos es una recta.<br />Un sistema con incógnitas se puede representar en el n-espacio correspondiente.<br />En los sistemas con 2 incógnitas, el universo de nuestro sistema será el plano bidimensional, mientras que cada una de las ecuaciones será representada por una recta, si es lineal, o por una curva, si no lo es. La solución será el punto (o línea) donde intersecten todas las rectas y curvas que representan a las ecuaciones. Si no existe ningún punto en el que intersecten al mismo tiempo todas las líneas, el sistema es incompatible, o lo que es lo mismo, no tiene solución.<br />Tipos de sistemas<br />Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:<br />Sistema incompatible si no tiene ninguna solución.<br />Sistema compatible si tiene alguna solución, en este caso además puede distinguirse entre: <br />Sistema compatible determinado cuando tiene un número finito de soluciones.<br />Sistema compatible indeterminado cuando admite un conjunto infinito de soluciones.<br />Quedando así la clasificación:<br />Los sistemas incompatibles geométricamente se caracterizan por (hiper)planos o rectas que se cruzan sin cortarse. Los sistemas compatibles determinados se caracterizan por un conjunto de (hiper)planos o rectas que se cortan en un único punto. Los sistemas compatibles indeterminados se caracterizan por (hiper)planos que se cortan a lo largo de una recta [o más generalmente un hiperplano de dimensión menor]. Desde un punto de vista algebraico los sistemas compatibles determinados se caracterizan porque el determinante de la matriz es diferente de cero:<br />Sistemas compatibles indeterminados<br />Un sistema sobre un cuerpo K es compatible indeterminado cuando posee un número infinito de soluciones. Por ejemplo, el siguiente sistema:<br />Tanto la primera como la segunda ecuación se corresponden con la recta cuya pendiente es y que pasa por el punto , por lo que ambas intersecan en todos los puntos de dicha recta. El sistema es compatible por haber solución o intersección entre las rectas, pero es indeterminado al ocurrir esto en infinitos puntos.<br />En este tipo de sistemas, la solución genérica consiste en expresar una o más variables como función matemática del resto. En los sistemas lineales compatibles indeterminados, al menos una de sus ecuaciones se puede hallar como combinación lineal del resto, es decir, es linealmente dependiente.<br />Una condición necesaria para que un sistema sea compatible indeterminado es que el determinante de la matriz del sistema sea cero (y por tanto uno de sus autovalores será 0):<br />De hecho, de las dos condiciones anteriores se desprende, que el conjunto de soluciones de un sistema compatible indeterminado es un subespacio vectorial. Y la dimensión de ese espacio vectorial coincidirá con la multiplicidad geométrica del autovalor cero.<br />Sistemas incompatibles<br />De un sistema se dice que es incompatible cuando no presenta ninguna solución. Por ejemplo, supongamos el siguiente sistema:<br />Las ecuaciones se corresponden gráficamente con dos rectas, ambas con la misma pendiente, Al ser paralelas, no se cortan en ningún punto, es decir, no existe ningún valor que satisfaga a la vez ambas ecuaciones.<br />Matemáticamente un sistema de estos es incompatible cuando el rango de la matriz del sistema es inferior al rango de la matriz ampliada. Una condición necesaria para que esto suceda es que el determinante de la matriz del sistema sea cero:<br /> Métodos de resolución<br />Sustitución<br />El método de sustitución consiste en despejar en una de las ecuaciones cualquier incógnita, preferiblemente la que tenga menor coeficiente, para, a continuación, sustituirla en otra ecuación por su valor.<br />En caso de sistemas con más de dos incógnitas, la seleccionada debe ser sustituida por su valor equivalente en todas las ecuaciones excepto en la que la hemos despejado. En ese instante, tendremos un sistema con una ecuación y una incógnita menos que el inicial, en el que podemos seguir aplicando este método reiteradamente. Por ejemplo, supongamos que queremos resolver por sustitución este sistema:<br />En la primera ecuación, seleccionamos la incógnita por ser la de menor coeficiente y que posiblemente nos facilite más las operaciones, y la despejamos, obteniendo la siguiente ecuación.<br />El siguiente paso será sustituir cada ocurrencia de la incógnita en la otra ecuación, para así obtener una ecuación donde la única incógnita sea la .<br />Al resolver la ecuación obtenemos el resultado , y si ahora sustituimos esta incógnita por su valor en alguna de las ecuaciones originales obtendremos , con lo que el sistema queda ya resuelto.<br />Igualación<br />El método de igualación se puede entender como un caso particular del método de sustitución en el que se despeja la misma incógnita en dos ecuaciones y a continuación se igualan entre sí la parte derecha de ambas ecuaciones.<br />Tomando el mismo sistema utilizado como ejemplo para el método de sustitución, si despejamos la incógnita en ambas ecuaciones nos queda de la siguiente manera:<br />Como se puede observar, ambas ecuaciones comparten la misma parte izquierda, por lo que podemos afirmar que las partes derechas también son iguales entre sí.<br />Una vez obtenido el valor de la incógnita , se substituye su valor en una de las ecuaciones originales, y se obtiene obtener el valor de la .<br />La forma más fácil de tener el método de sustitución es realizando un cambio para despejar x después de averiguar el valor de la y.<br />Reducción<br />Este método suele emplearse mayoritariamente en los sistemas lineales, siendo pocos los casos en que se utiliza para resolver sistemas no lineales. El procedimiento, diseñado para sistemas con dos ecuaciones e incógnitas, consiste en transformar una de las ecuaciones (generalmente, mediante productos), de manera que obtengamos dos ecuaciones en la que una misma incógnita aparezca con el mismo coeficiente y distinto signo. A continuación, se suman ambas ecuaciones produciéndose así la reducción o cancelación de dicha incógnita, obteniendo así una ecuación con una sola incógnita, donde el método de resolución es simple.<br />Por ejemplo, en el sistema:<br />no tenemos más que multiplicar la primera ecuación por para poder cancelar la incógnita . Al multiplicar, dicha ecuación nos queda así:<br />Si sumamos esta ecuación a la segunda del sistema original, obtenemos una nueva ecuación donde la incógnita ha sido reducida y que, en este caso, nos da directamente el valor de la incógnita :<br />El siguiente paso consiste únicamente en sustituir el valor de la incógnita en cualquiera de las ecuaciones donde aparecían ambas incógnitas, y obtener así que el valor de es igual a:<br />Método de Gauss<br />La eliminación de Gauss-Jordan, más conocida como método de Gauss, es un método aplicable únicamente a los sistemas lineales de ecuaciones, y consistente en triangular la matriz aumentada del sistema mediante transformaciones elementales, hasta obtener ecuaciones de una sola incógnita, cuyo valor será igual al coeficiente situado en la misma fila de la matriz. Este procedimiento es similar al anterior de reducción, pero ejecutado de manera reiterada y siguiendo un cierto orden algorítmico.<br />En primer lugar, reducimos la incógnita , sumando a la segunda fila, la primera multiplicada por , y a la tercera, la primera fila. La matriz queda así:<br />El siguiente paso consiste en eliminar la incógnita en la primera y tercera fila, para lo cual les sumamos la segunda multiplicada por y por , respectivamente.<br />Por último, eliminamos la , tanto de la primera como de la segunda fila, sumándoles la tercera multiplicada por y por , respectivamente:<br />Llegados a este punto podemos resolver directamente las ecuaciones que se nos plantean:<br />O, si lo preferimos, podemos multiplicar las tres filas de la matriz por: , y respectivamente, y obtener así automáticamente los valores de las incógnitas en la última columna.<br />                            <br />Eliminación de Gauss-Jordan<br />En matemáticas, la eliminación Gaussiana, eliminación de Gauss o eliminación de Gauss-Jordan, llamadas así debido a Carl Friedrich Gauss y Wilhelm Jordan, son algoritmos del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. Cuando se aplica este proceso, la matriz resultante se conoce como: quot; forma escalonadaquot; .<br />El método fue presentado por el matemático Carl Friedrich Gauss, pero se conocía anteriormente en un importante libro matemático chino llamado Jiuzhang suanshu o Nueve capítulos del arte matemático.[ HYPERLINK quot; http://es.wikipedia.org/wiki/Wikipedia:Verificabilidadquot; quot; Wikipedia:Verificabilidadquot; cita requerida]<br />Análisis de Complejidad<br />La complejidad computacional de la eliminación gaussiana es aproximadamente n3. Esto es, el número de operaciones requeridas es n3 si el tamaño de la matriz es n × n.<br />Ejemplo<br />Supongamos que es necesario encontrar los números x, y, z, que satisfacen simultáneamente estas ecuaciones:<br />Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas elementales) son estas:<br />Multiplicar una ecuación por un escalar no nulo.<br />Intercambiar de posición dos ecuaciones<br />Sumar a una ecuación un múltiplo de otra.<br />Estas operaciones pueden representarse con matrices elementales que se usan también en otros procedimientos como la factorización LU o la diagonalización por congruencia de una matriz simétrica.<br />En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la primera ecuación a la segunda y después sumamos la primera ecuación a la tercera. El resultado es:<br />Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera para eliminar y.<br />Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda para eliminar z.<br />Despejando, podemos ver las soluciones:<br />Para clarificar los pasos (y es en realidad lo que las computadoras manejan), se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación matricial:<br />Primero:<br />Después,<br />Por último.<br />Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como esta:<br />Que representa la ecuación: 0x + 0y + 0z = 1, es decir, 0 = 1 que no tiene solución.<br />Forma escalonada y escalonada reducida<br />Artículo principal: Matriz escalonada<br />Dos formas especiales de matrices son la escalonada y la escalonada reducida. Una matriz puede tener las siguientes propiedades:<br />Todas las filas cero están en la parte inferior de la matriz.<br />El elemento delantero de cada fila diferente de cero, éste es llamado quot; pivotequot; ; éstos están a la derecha del elemento delantero de la fila anterior (esto supone que todos los elementos debajo de un pivote son cero).<br />Si una matriz A cumple con esas propiedades, se dice escalonada. Además, cumpliendo estas otras condiciones, decimos que la matriz se encuentra en la forma reducida de renglón escalón o tan solo en forma escalonada reducida.<br />Todos los elementos delanteros (quot; pivotesquot; ) son iguales a 1<br />Todos los elementos por encima de los pivotes son nulos.<br />Cuando una matriz representa a un sistema de ecuaciones situaciones como tener una columna de ceros parece imposible ya que correspondería a una variable que nunca habría aparecido. Sin embargo esta situación puede presentarse (imaginemos la ecuación de un plano en el espacio en la que no aparece alguna de las componentes, por ejemplo y+z=0). Así la matriz<br />también es una matriz escalonada.<br />Una vez que la matriz del sistema se ha transformado hasta obtener una matriz escalonada reducida es muy fácil discutirlo (es decir, determinar cuántas soluciones tiene):<br />Cuando aparece un pivote en la columna de los términos independientes el sistema es incompatible (no tiene ninguna solución).<br />En otro caso el sistema es compatible. Si además el número de pivotes coincide con el número de incógnitas el sistema es compatible determinado (tiene una única solución). Cuando el número de pivotes es menor que el número de incógnitas el sistema es indeterminado (tiene infinitas soluciones que dependen de tantos parámetros como indique la diferencia entre el número de incógnitas y el número de pivotes).<br />Otras aplicaciones<br />Encontrando la inversa de una matriz<br />Es posible usar la eliminación gaussiana para encontrar inversas de matrices n × n. Para ello se aumenta la matriz dada, digamos A con una matriz identidad simplemente escribiendo las filas de la identidad a continuación de las de nuestra matriz A, por ejemplo dada:<br />se construiría<br />y ahora se realizan las operaciones elementales sobre las filas de la matriz aumentada que sean necesarias para obtener la forma escalonada reducida de la matriz A; sumando tanto a la segunda como a la tercera fila la primera obtenemos<br />multiplicamos la segunda fila por -1 y la intercambiamos con la primera<br />ya tenemos el pivote de la primera fila que usamos para hacer ceros debajo<br />ahora usamos el pivote de la segunda fila<br />y por último cambiamos de signo la tercera fila y usamos el pivote correspondiente<br />El proceso ha finalizado porque en la parte izquierda tenemos la forma escalonada reducida de A y puesto que ésta es la matriz identidad, entonces A tiene inversa y su inversa es la matriz que aparece a la derecha, en el lugar que al principio ocupaba la identidad. Cuando la forma escalonada reducida que aparece no es la identidad es que la matriz de partida no tiene inversa.<br />Factorización LU<br />En el álgebra lineal, la factorización o descomposición LU (del inglés Lower-Upper) es una forma de factorización de una matriz como el producto de una matriz triangular inferior y una superior. Debido a la inestabilidad de este método, por ejemplo si un elemento de la diagonal es cero, es necesario premultiplicar la matriz por una matriz de permutación. Método llamado factorización PA = LU o LU con pivote.<br />Esta descomposición se usa en el análisis numérico para resolver sistemas de ecuaciones (más eficientemente) o encontrar las matrices inversas.<br />Definiciones<br />Sea A una matriz no singular (si lo fuera, entonces la descomposición podría no ser única)<br />donde L y U son matrices inferiores y superiores triangulares.<br />Para matrices , esto es:<br />Por otro lado la descomposición PLU tiene esta forma:<br />Lm − 1Pm − 1...L2P2L1P1A = U<br />Con Lm − 1...L1 matrices triangulares inferiores, Pm − 1...P1 matrices de permutacion y U una matriz triangular superior.<br />Para determinar L:<br />L = (L'm − 1 * ... * L'2 * L'1) − 1<br />y cada L'k está dado por:<br />L'k = <br />Esto se debe a que L'k es igual a Lk, pero con los elementos de la subdiagonal permutados.<br />Otra forma de ver éste tipo de factorización es: A = PTLU Recordando que las matrices de permutación matriz permutación son invertibles y su inversa es su traspuesta<br />Unicidad<br />Las matrices L y U son únicas, si la matriz no es singular. En caso contrario pueden no ser únicas.<br />Demostración:<br />Dada la matriz A ∈ Rmxn<br />A = L1U1 y A = L2U2<br />Recordemos que L1,U1,L2,U2 son invertibles por tener el determinante distinto de cero entonces:<br />L1U1 = L2U2<br />Entonces es una matriz triangular inferior, con unos en la diagonal y es triangular superior, con unos en la diagonal (recordando que el producto matricial de triangulares superiores/inferiores es triangular superior/inferior). La única matriz que cumple estas dos propiedades es la identidad. Por lo tanto:<br />y <br />Con lo cual:<br />L1 = L2 y U1 = U2<br />Algoritmos<br />La factorización LU es básicamente una forma modificada de la eliminación gaussiana. Transformamos la matriz A en una triangular superior U anulando los elementos debajo de la diagonal.<br />E1 * E2 * ... * En * A = U<br />Donde E1,E2,...,En son matrices elementales, que representan los distintos pasos de la eliminación. Luego recordando que la inversa de una matriz elemental, es otra matriz elemental:<br />Llamamos L a una matriz triangular inferior.<br />Aplicaciones<br />Resolviendo sistemas de álgebra lineal<br />Dada la ecuación matricial<br />Ax = LUx = b<br />Queremos la solución para un determinando A y b. Los pasos son los siguientes:<br />Primero, resolvemos Ly = b para y<br />Segundo, resolvemos Ux = y para x.<br />Nótese que ya tenemos las matrices L y U. La ventaja de este método es que es computacionalmente eficiente, porque podemos elegir el vector b que nos parezca y no tenemos que volver a hacer la eliminación de Gauss cada vez.<br />Factorización L-U con pivotación: Al utilizar la técnica de triangulación de Gauss para obtener la descomposición L-U de una matriz A podemos encontrarnos con el mismo problema de encontrar un coeficiente en la diagonal que sea 0 o un mal condicionamiento. Podemos entonces utilizar la misma técnica de pivotación : buscar el siguiente elemento en la columna que sea distinto de 0 o, mejor aún, el de mayor valor absoluto.<br />Pero una vez obtenida la descomposición L-U, si queremos aplicarla a resolver un sistema de ecuaciones, tendremos que tener en cuenta la “historia” o registro de las pivotaciones efectuadas para aplicar al vector de términos independientes.<br />Esto se realiza mediante la matriz de andres permutación P, que consiste en efectuar sobre la matriz identidad, las mismas permutaciones de filas que se vayan efectuando sobre la matriz que se está triangulando por Gauss.<br />Al mismo tiempo se efectúan las mismas permutaciones sobre los elementos subdiagonal de la matriz L.<br />Así, si tenemos, por ejemplo, el sistema:<br />AX=B<br />y L y U son las matrices obtenidas de la matriz A como descomposición L-U por triangulación de Gauss con pivotaciones recogidas en la matriz de permutación P, es fácil comprobar que :<br />LU=PA (LU)X=P(AX)=PB=NUEVOB<br />Por tanto los procesos de sustitución descendente y ascendente los aplicamos a : LD=NUEVOB UX=D<br />Matriz Inversa<br />Las matrices L y U pueden ser usadas para calcular la matriz inversa mediante:<br />A − 1 = U − 1L − 1<br />Algunas implementaciones que invierten matrices usan este método.<br />Determinante de una matriz<br />Las matrices L y U pueden ser usadas para calcular el determinante de la matriz A muy eficientemente porque det(A) = det(L)det(U) y los determinantes de matrices triangulares son simplemente el producto de los elementos de sus diagonales. En particular, si L es una matriz triangular en cuya diagonal todos los elementos son uno, entonces:<br />La misma aproximación al problema puede ser usada para factorizaciones LUP en las que aparece matrices de permutación, pues el determinante de una matriz de permutación P es (−1)S, donde S es el número de permutaciones de filas en la descomposición<br />