SlideShare una empresa de Scribd logo
1 de 29
Descargar para leer sin conexión
Tema 2: Matrices, determinantes y sistemas de ecuaciones
lineales
Matrices
Una matriz con coeficientes sobre un cuerpo K (normalmente K  R) consiste en una
colección de números (o escalares) del cuerpo K ordenados por filas y columnas. Si la
matriz tiene m filas y n columnas se dirá que es de orden m  n.
Ejemplo: Las siguientes son matrices con coeficientes sobre R:
A 
0 −1 3
3 7 6
de orden 2  3 B  3 7 de orden 1  2
C 
5 3 −3
0 0 0
−2 8 8
5 0.5 0
de orden 4  3 D 
0
2
8
de orden 3  1
E 
2 1
0 −3
de orden 2  2 F 
3 0 0
5 −4 0
1 −8 0
de orden 3  3
Sea A una matriz. Para indicar la fila y columna que ocupa cada elemento usaremos la
notación A  aij, donde el índice i indica la fila y el índice j la columna. De este modo
estamos diciendo que el elemento aij de la matriz A es el que ocupa la fila i y la columna j,
considerando esto para todos los posibles i y j. Así los elementos de la matriz A  aij del
ejemplo anterior son:
a11  0 a12  −1 a13  3 a21  3 a22  7 a23  6
Recordemos que Rn
está formado por todos los vectores de n coordenadas, todas ellas
números reales. Similarmente ocurre con Kn
tomando esta vez escalares del cuerpo K en
vez de números de R.
Para una matriz A de orden m  n denotaremos por Fi la fila i-ésima de la matriz, la
cual puede interpretarse como un vector de Kn
al que llamaremos vector-fila de A;
igualmente denotaremos por Cj a la columna j-ésima de la matriz, que puede interpretarse
como un vector de Km
al que llamaremos vector-columna de A.
Una submatriz de otra es una matriz que se obtiene a partir de la inicial cogiendo unas
cuantas filas y unas cuantas columnas.
Se dice que una matriz es cuadrada si tiene el mismo número de filas que de columnas
(como la matriz E del ejemplo anterior). En esta situación si la matriz tiene n filas y n
columnas, podremos decir que es de orden n  n ó simplemente de orden n. Se llama
diagonal principal de una matriz (generalmente cuadrada) a los elementos de la forma aii
para todo i posible, es decir, los elementos que tienen el mismo índice fila que columna. La
suma de los elementos de la diagonal principal se llama traza de la matriz (la diagonal
principal de la matriz E del ejemplo anterior está formada por el a11  2 y el a22  −3; por
eso la traza de la matriz vale −1). Una matriz cuadrada se dice que es triangular inferior
(respectivamente triangular superior) cuando todo elemento que esté situado por encima
(respectivamente por debajo) de la diagonal principal es nulo (la matriz E del ejemplo
anterior es triangular superior, mientras que la matriz F es triangular inferior). A una matriz
cuadrada que es triangular tanto inferior como superior, es decir, si cumple que los
elementos que no están en la diagonal principal son nulos, se le llama matriz diagonal. La
matriz diagonal de orden n que tiene todos los elementos de la diagonal principal iguales a
1 se llama matriz identidad (o matriz unidad) de orden n, y la denotaremos por In, o
simplemente por I si está claro el tamaño. La matriz nula es la matriz que tiene todos sus
coeficientes son nulos. La matriz opuesta de una matriz A se denota por −A y consiste en
cambiar de signo todos sus coeficientes. La traza de una matriz cuadrada es la suma de los
elementos de la diagonal principal. Veamos algunos ejemplos:
5 −3
−3 5
−5 7
es submatriz de
5 7 −3
6 −5 0
−3 8 5
−5 0 7
al coger las filas 1, 3 y 4 y las columnas 1 y 3
−3 0
0 4
y
11 0 0
0 0 0
0 0 5
son matrices diagonales
1 0
0 1
es la matriz identidad de orden 2 y
1 0 0
0 1 0
0 0 1
de orden 3
0 0 0
0 0 0
es la matriz nula de orden 2  3
La opuesta de la matriz
0 4 −3
−1 2 0
es
0 −4 3
1 −2 0
La traza de la matriz
1 3 0
2 −4 −4
6 4 5
es 1 − 4  5  2
Operaciones con matrices
Fijados m y n, al conjunto de las matrices de orden m  n con coeficientes sobre un
cuerpo K lo denotaremos por MmnK.
Suma
Sean A  aij y B  bij dos matrices del mismo orden (m  n). Se define la suma de
las dos matrices como la matriz A  B  cij, también de orden m  n, que cumple que
cij  aij  bij
para cada par de índices i,j. Esto se traduce en que sumamos A y B coeficiente a
coeficiente. Observemos que esto sólo tiene sentido si las dos matrices son del mismo
orden. Por ejemplo
0 1 3
−1 5 6

2 0 −3
2 0 4

2 1 0
1 5 10
Propiedades:
 Propiedad asociativa: ∀A,B,C ∈ MmnK se tiene que
A  B  C  A  B  C
 (Propiedad conmutativa) ∀ A,B ∈ MmnK se tiene que
A  B  B  A
 (Elemento neutro) La matriz nula 0 ∈ MmnK, cumple que dada cualquier otra
matriz B ∈ MmnK se tiene que
B  0  B
 (Elemento opuesto) Dada A ∈ MmnK se cumple que
A  −A  0
Entonces MmnK es un grupo abeliano con la suma ””, por cumplir estas
propiedades.
Producto de una matriz por un escalar
Sea A  aij una matriz de orden m  n y  ∈ R. Se define el producto del escalar por
la matriz como la matriz   A  dij (o simplemente A, omitiendo el símbolo de
multiplicar) de orden m  n, que cumple que
dij  aij
para todo i,j posibles. Por ejemplo
3
0 1 3
−1 5 6

0 3 9
−3 15 18
− 4
2 −1 3
9 0 8

−8 4 −12
−36 0 −32
Propiedades
 Pseudodistributivas:
1. ∀A,B ∈ MmnK,∀ ∈ K se tiene que
A  B  A  B
2. ∀A ∈ MmnK,∀, ∈ K se tiene que
  A  A  A
 Pseudoasociativa: ∀A ∈ MmnK,∀, ∈ K se tiene que
  A  A
 Pseudoelemento neutro: ∀A ∈ MmnK se tiene que
1  A  A
(donde 1 es el neutro para la multiplicación en el cuerpo K).
Observación: Como se ve en el Tema 2 el conjunto MmnK está dotado, con la suma
y el producto por escalares que aquí se han detallado, de estructura de espacio vectorial.
Producto de matrices
Dadas dos matrices A  aij y B  bij de orden m  n y n  p, respectivamente, se
define el producto de ambas matrices como la matriz A  B  cij (en adelante AB, sin
punto) de orden m  p que cumple que
cij 
k1
n
∑ aikbkj  ai1b1j  ai2b2j ...ainbnj
para todo i,j posibles. Recordando que el producto escalar (euclídeo) de dos vectores
a1,a2,...,an,b1,b2,...,bn de Rn
está dado por
a1,a2,...,an  b1,b2,...,bn 
k1
n
∑ akbk  a1b1  a2b2 ...anbn
el producto matricial puede interpretarse del siguiente modo: para obtener el elemento del
producto AB que está situado en la fila i, columna j, hay que hacer el producto escalar
del vector-fila Fi de A por el vector-columna Cj de B (esto vale también para matrices
consideradas sobre un cuerpo arbitrario K, no necesariamente R).
Notemos que si m ≠ p no tiene sentido hacer el producto BA. Incluso aunque m  p, y
entonces tenga sentido el producto en orden inverso, la matriz AB tendría orden m  m y la
matriz BA sería de orden n  n, luego ambas no podrían ser iguales, ya que tendrían distinto
orden, si m ≠ n. Es más, aún poniéndonos en la situación en que n  m  p (así A,B,AB y
BA son cuadradas de orden n) el producto no tiene por qué ser conmutativo, es decir, es
posible que AB ≠ BA.
Dada una matriz cuadrada A se define la potencia n-ésima de A como la matriz
An

n veces A
A  A ...A
es decir, el producto de n veces A. Así A1
 A, A2
 A  A, A3
 A  A  A, etc.
Ejemplos:
1. Dadas
A 
0 −2
1 −3
B 
3 −1 0
4 −2 1
la matriz producto es
AB 
0 −2
1 −3
3 −1 0
4 −2 1

−8 4 −2
−9 5 −3
2. Para la matriz A anterior se tiene que
A4
 A  A  A  A 
0 −2
1 −3
0 −2
1 −3
0 −2
1 −3
0 −2
1 −3


−2 6
−3 7
−2 6
−3 7

−14 30
−15 31
Propiedades
1. Asociativa: Dadas matrices A de orden m  n, B de orden n  p y C de orden p  q se
tiene
ABC  ABC
y entonces podremos escribir simplemente ABC.
2. Relación con el producto por escalares: Dadas matrices A de orden m  n y B de
orden n  p y dado cualquier escalar  se tiene
AB  AB  AB
y entonces lo escribiremos de cualquiera de las formas siguientes AB  AB  AB.
3. Distributivas:
Dadas matrices A,B de orden m  n, C de orden n  p y D de orden q  m se tiene
A  BC  AC  BC y DA  B  DA  DB
4. Se tiene que
A  0  0 y 0  A  0
para cualquier matriz A, tomando la matriz nula del tamaño correspondiente en cada
caso.
5. Elemento neutro: Para cualquier matriz A se cumple que
IA  A y AI  A
tomando I la matriz identidad del tamaño adecuado en cada caso.
6. No conmutativa: En general se tiene AB ≠ BA, para matrices A y B de órdenes m  n
y n  m, respectivamente.
Trasposición de matrices
Dada una matriz A  aij de orden m  n se llama matriz traspuesta de A, a la matriz
At
 bij de orden n  m cuyos elementos son
bij  aji
para cada i,j. Observemos que cualquier matriz tiene traspuesta, no necesita ser cuadrada.
En la práctica para calcular la traspuesta de una matriz hay que tener en cuenta que las filas
de A son las columnas de At
, o equivalentemente, las columnas de A las filas de At
.
A 
2 0 −3
−2 1 4
 At

2 −2
0 1
−3 4
Una matriz cuadrada A se dice que es simétrica si
A  At
Por ejemplo, es simétrica la matriz
1 −3 0
−3 5 4
0 4 −2
Sistemas escalonados. Método de Gauss
En toda la parte de Álgebra Lineal nos van a aparecer con frecuencia (en matrices,
sistemas de ecuaciones, sistemas de vectores de algunos de los espacios Rn
, espacios
vectoriales....) sistemas escalonados. Estos sistemas se caracterizan porque se puede elegir
una ordenación en la que cada fila (ecuación o vector) tiene más ceros iniciales que la/el
anterior, exceptuando las filas (ecuaciones o vectores) nulas que pudieran aparecer al
final.
1 −3 0 3 7
0 0 4 5 0
0 0 0 1 −4
0 0 0 0 0
matriz escalonada
Ejemplo: El sistema de ecuaciones lineales
x1  2x2  3
− 2x2  −4
− x3  0
está escalonado, pues si representamos los coeficientes de modo matricial vemos que la
matriz de coeficientes
1 2 0
0 −2 0
0 0 −1
está escalonada. Resolver un sistema de ecuaciones escalonado es bien sencillo. Para éste
en concreto obtenemos en la última ecuación x3  0, de la segunda x2  2, y sustituyendo
esto en la primera que x1  −1.
Nota: Un sistema de ecuaciones lineales se caracteriza porque las incógnitas del sistema
(en este caso x1,x2 y x3) aparecen en cada una de las ecuaciones del sistema sumando,
restando o multiplicadas por un número (no aparecen ni multiplicando ni dividiendo ni
realizando otro tipo de operaciones diferentes de la suma, resta o multiplicación por
números).
Ejemplo: El sistema de vectores de R6
v1  0,0,3,4,5,4 v2  0,2,3,4,5,−3 v3  0,0,0,0,1,−6 v4  0,0,0,0,0,2
es escalonado si se elige el orden v2,v1,v3,v4. Observemos la representación matricial
con esta ordenación de los vectores:
0 2 3 4 5 −3
0 0 3 4 5 4
0 0 0 0 1 −6
0 0 0 0 0 2
El método de triangulación o escalonación de Gauss, que utilizaremos en estos
temas, se utiliza para pasar de un estado inicial (sea en forma de matriz, de sistema de
ecuaciones lineales, o de sistema de vectores) a otro estado que se denomina la
escalonación del sistema inicial. Se hace uso de 3 tipos de transformaciones (denominadas
transformaciones elementales) para la escalonación. Éstas son:
1. Cambiar el orden de las filas, ecuaciones o vectores.
2. Sumarle a una fila, ecuación o vector múltiplos de otras/os.
3. Multiplicar una fila, ecuación o vector por algún escalar no nulo.
Observación: Podemos utilizar las siguientes notaciones cuando realicemos alguna
trasformación elemental (usaremos preferentemente notación para matrices):
1. Si intercambiamos las filas Fi y Fj pondremos
Fi  Fj
2. Si le añadimos a la fila Fj  veces la fila Fi pondremos
Fj  Fi
3. Si multiplicamos la fila Fi por  pondremos
Fi
Observación: Estas transformaciones también pueden hacerse sobre las columnas, al
menos para el caso de matrices, sobreentendiendo las notaciones correspondientes
(cambiando la F de fila por la C de columna).
Ejemplo: Escalonemos (por filas) la matriz
2 1 −1 0
1 0 −3 1
−1 −1 −2 1
En primer lugar cambiamos de orden las dos primeras filas:
F1  F2
1 0 −3 1
2 1 −1 0
−1 −1 −2 1
Después le añadimos la primera fila a la segunda y a la tercera (a la segunda multiplicada
por −2 y la tercera por 1) y obtenemos
F2 − 2F1
F3  F1
1 0 −3 1
0 1 5 −2
0 −1 −5 2
Ahora nos fijamos únicamente en las dos últimas filas y le sumamos a la tercera la segunda.
Nos da
F3  F2
1 0 −3 1
0 1 5 −2
0 0 0 0
Ya tenemos escalonada la matriz inicial.
Ejemplo: Escalonar el siguiente sistema de ecuaciones lineales
x1  2x2  5x3  3
3x1  6x2  15x3  9
− 2x2  x3  −6
Matricialmente se tiene
1 2 5 3
3 6 15 9
0 −2 1 −6
Le añadimos la primera fila multiplicada por −3 a la segunda y obtenemos
F2 − 3F1
1 2 5 3
0 0 0 0
0 −2 1 −6
Cambiando las dos últimas llegamos a la matriz
F3  F2
1 2 5 3
0 −2 1 −6
0 0 0 0
que representa al sistema
x1  2x2  5x3  3
− 2x2  x3  − 6
0  0
el cual está ya escalonado.
Ejemplo: Escalonemos el sistema de vectores
−1,0,1,1,1,0,3,2,2,1,−1,0
Para ello hagamos operaciones sobre la matriz cuyas filas son estos vectores:
−1 0 1 1
1 0 3 2
2 1 −1 0
En primer lugar le añadimos la primera fila a la segunda (multiplicada por 1) y a la tercera
(multiplicada por 2),
F2  F1
F3  2F1
−1 0 1 1
0 0 4 3
0 1 1 2
Después cambiamos de orden la segunda y tercera filas y obtenemos la escalonación
F2  F3
−1 0 1 1
0 1 1 2
0 0 4 3
Entonces el sistema de vectores escalonado obtenido es
−1,0,1,1,0,1,1,2,0,0,4,3
Una variante del método de Gauss es el de Gauss-Jordan, que consigue, además de
ceros por debajo de la diagonal como lo hace el método de Gauss, también ceros por
encima y unos en la misma diagonal.
Ejemplo: Escalonar el siguiente sistema de ecuaciones lineales mediante el método de
Gauss-Jordan:
x1  2x2  5x3  3
3x1  6x2  14x3  9
− 2x2  x3  −4
Le añadimos a la segunda −3 veces la primera y obtenemos
F2 − 3F1
x1  2x2  5x3  3
− x3  0
− 2x2  x3  −4
Cambiando de orden las dos últimas filas tenemos
F2  F3
x1  2x2  5x3  3
− 2x2  x3  −4
− x3  0
sistema que ya está escalonado. Ahora le añadimos la tercera fila a la segunda y primera
multiplicada por 1 y 5, respectivamente y tenemos
F2  F3
F1  5F3
x1  2x2  3
− 2x2  −4
− x3  0
Seguidamente le sumamos la segunda ecuación a la primera y tenemos
F1  F2
x1  −1
− 2x2  −4
− x3  0
Finalmente se multiplica la segunda ecuación por − 1
2
y la tercera por −1 para quedar así:
− 1
2
F2
−F3
x1  −1
x2  2
x3  0
Rango
El rango de una matriz A es un número que será denotado por rA ó RA. Esto
podemos calcularlo, aplicando el método de Gauss para escalonar las filas
(respectivamente, las columnas) de A, teniendo en cuenta que rA es el número de filas
no nulas que resultan después de escalonar la matriz. Esto se debe a que las
transformaciones elementales que se realizan a las filas o columnas de una matriz no varían
su rango.
Definición: a) Si tenemos una matriz cuyas filas son F1,F2,...,Fn, se llama
combinación lineal de las filas (en adelante CL) a todo vector v que se pueda poner de la
forma
v 
i1
n
∑ iFi  1F1  2F2 ...nFn
para cualesquier números 1,2,...,n. En esta situación se dice que v es CL de
F1,F2,...,Fn.
b) Se dice las filas son linealmente dependientes (en adelante LD), o que hay una
relación de dependencia lineal entre ellas, si alguna es CL de los demás. En caso contrario
se dirá que son linealmente independientes (LI).
Ejemplo: En la situación de una matriz A con cuatro filas si:
 F2  1F1  3F3  4F4 se diría que F2 es CL de F1,F3 y F4.
 F1  3F2 − 2F3  F4 se diría que F1 es CL de F2,F3 y F4.
 F3  F2 − 7F4 (observemos que 1  0) se diría que F3 es CL de F1,F2 y F4.
En los tres ejemplos anteriores las filas son LD, porque existe una relación de
dependencia lineal entre ellas.
En el proceso del cálculo del rango de una matriz mediante el método de escalonación
de Gauss podemos, o bien dejar las filas nulas que nos vayan apareciendo al final (tal y
como está concebido inicialmente el método de Gauss) o bien ir eliminando estas filas
(pues luego éstas no cuentan para el rango). Lo mismo podemos hacer con las filas entre las
que haya alguna relación de dependencia lineal, eliminando alguna que sea combinación
lineal de las demás.
Ejemplo: Vamos a hallar el rango de la matriz
2 2 3 2 0
1 1 2 0 −1
1 1 2 0 −1
2 2 2 1 0
En primer lugar cambiamos de orden la primera y segunda filas, para así operar mejor
con el 1 que tiene la segunda fila como primer coeficiente. Tendríamos entonces
F1  F2
1 1 2 0 −1
2 2 3 2 0
1 1 2 0 −1
2 2 2 1 0
donde añadimos la primera fila a las restantes, multiplicándola por números adecuados (a la
segunda y cuarta se la añadimos multiplicada por −2 y a la tercera por −1). Entonces
tenemos
F2 − 2F1
F3 − F1
F4 − 2F1
1 1 2 0 −1
0 0 −1 2 2
0 0 0 0 0
0 0 −2 1 2
Ahora procederíamos igual con las tres últimas filas. En ellas es nulo el primer coeficiente
(porque lo hemos eliminado antes) y casualmente el segundo. Empezamos pues por el
tercero. Esta vez no hace falta cambiarlas de orden y lo único que tenemos que hacer es
añadir un múltiplo de la segunda fila a las demás para hacer ceros. En este caso basta
añadirle a la cuarta fila −2 veces la segunda para obtener
F4 − 2F2
1 1 2 0 −1
0 0 −1 2 2
0 0 0 0 0
0 0 0 −3 −2
Ahora procedemos con la tercera y cuarta filas, donde nos interesa cambiarlas de orden:
F3  F4
1 1 2 0 −1
0 0 −1 2 2
0 0 0 −3 −2
0 0 0 0 0
Ejemplo: Vamos a hallar el rango de la matriz
1 0 3 −2 0
−1 3 0 2 3
−1 1 −2 −2 1
0 1 1 0 −1
En primer lugar eliminamos la cuarta columna pues es -2 veces la primera
1 0 3 0
−1 3 0 3
−1 1 −2 1
0 1 1 −1
Ahora eliminamos la cuarta fila, pues es suma de la primera y la tercera
1 0 3 0
−1 3 0 3
−1 1 −2 1
Ahora añadimos la primera fila a las restantes. En este caso basta con sumarles a ambas
la primera fila. Entonces tenemos
F2  F1
F3  F1
1 0 3 0
0 3 3 3
0 1 1 1
Ahora eliminamos la segunda fila, pues es triple de la tercera y queda la matriz escalonada
1 0 3 0
0 1 1 1
que nos indica que el rango es 2.
Inversa
Una matriz cuadrada A de orden n se dice que es invertible cuando existe otra matriz
cuadrada del mismo orden B de modo que
AB  BA  In
En esta situación la matriz B es única cumpliendo lo anterior, y se llamará la matriz inversa
de A y escribiremos
B  A−1
Nota: Puede comprobarse que B es la inversa de A si y sólo si AB  In si y sólo si
BA  In, es decir, es suficiente con que uno de los dos productos resulte la matriz
identidad.
Propiedad: Una matriz cuadrada de orden n es invertible si y sólo si tiene rango n.
La inversa de una matriz invertible A puede calcularse de varias formas. Una de ellas es
directamente, planteando un sistema de ecuaciones (que se puede resolver escalonándolo
por Gauss), obtenido a partir de la suposición de que los coeficientes de A−1
son
indeterminados, y hacer el producto AA−1
 In (ó A−1
A  In). Este método no es muy
adecuado, pues hay que resolver n sistemas de n ecuaciones con n incógnitas. Es mejor el
método de Gauss-Jordan que se explica a continuación.
Método de Gauss-Jordan para el cálculo de la inversa
Este método para el cálculo de la inversa de una matriz es en general bastante eficiente.
Supongamos que tenemos una matriz A, cuadrada de orden n, que se sabe que es invertible.
Pongamos la matriz A y a continuación, a la derecha, la matriz identidad de orden n.
Usualmente se ponen ambas formando una matriz de orden n  2n y se separan por una
línea vertical, quedando en la forma A|In. Aplicamos a la matriz A el método de
Gauss-Jordan (variante del método de Gauss), consistente en hacer operaciones por fila
hasta obtener la matriz identidad. El resultado de aplicarle a la matriz identidad que hay a la
derecha de A esas mismas operaciones nos proporciona precisamente A−1
.
Observación: Si le aplicamos el método de Gauss-Jordan a una matriz no invertible
observaremos que es imposible obtener la matriz identidad en la parte izquierda.
Ejemplo: Hallar la inversa de la matriz
A 
1 0 1
2 −1 0
3 2 6
Pondríamos entonces
1 0 1
2 −1 0
3 2 6
1 0 0
0 1 0
0 0 1
y aplicamos transformaciones, por ejemplo por fila. Añadimos a la segunda fila −2 veces la
primera y a la tercera fila −3 veces y obtenemos
F2 − 2F1
F3 − 3F1
1 0 1
0 −1 −2
0 2 3
1 0 0
−2 1 0
−3 0 1
Añadimos a la tercera fila 2 veces la segunda y llegamos a
F3  2F2
1 0 1
0 −1 −2
0 0 −1
1 0 0
−2 1 0
−7 2 1
Una vez que estamos con una matriz triangular superior se hacen operaciones para hacerla
diagonal. Primero cambiamos el signo de las dos últimas filas, por lo que tenemos
−F2
−F3
1 0 1
0 1 2
0 0 1
1 0 0
2 −1 0
7 −2 −1
Ahora añadimos a la segunda fila −2 veces la tercera y se obtiene que
F2 − 2F3
1 0 1
0 1 0
0 0 1
1 0 0
−12 3 2
7 −2 −1
Finalmente a la primera fila le restamos la tercera y nos sale
F1 − F3
1 0 0
0 1 0
0 0 1
−6 2 1
−12 3 2
7 −2 −1
Entonces la matriz inversa de A es
A−1

−6 2 1
−12 3 2
7 −2 −1
Ejemplo: Hallar la inversa de la matriz
B 
1 1 0
−3 0 1
2 −1 −2
Pondríamos entonces
1 1 0
−3 0 1
2 −1 −2
1 0 0
0 1 0
0 0 1
y aplicamos transformaciones, por ejemplo por fila. Añadimos a la segunda fila −2 veces la
primera y a la tercera fila −3 veces, y obtenemos
F2  3F1
F3 − 2F1
1 1 0
0 3 1
0 −3 −2
1 0 0
3 1 0
−2 0 1
Ahora le añadimos a la tercera fila −1 por la segunda:
F3  F2
1 1 0
0 3 1
0 0 −1
1 0 0
3 1 0
1 1 1
Una vez que estamos con una matriz triangular superior, se hacen operaciones para hacerla
diagonal. Primero añadimos a la segunda fila 2 veces la tercera:
F2  2F3
1 1 0
0 3 0
0 0 −1
1 0 0
4 2 1
1 1 1
Multiplicando la segunda fila por 1
3
y la tercer por −1 sale:
− 1
3
F2
−F3
1 1 0
0 1 0
0 0 1
1 0 0
4
3
2
3
1
3
−1 −1 −1
finalmente añadimos a la primera fila −1 por la segunda:
F1 − F2
1 0 0
0 1 0
0 0 1
− 1
3
− 2
3
− 1
3
4
3
2
3
1
3
−1 −1 −1
Entonces la matriz inversa de B es
B−1

− 1
3
− 2
3
− 1
3
4
3
2
3
1
3
−1 −1 −1
Recordemos los pasos que se siguen para transformar una matriz A en la matriz
identidad:
1. Hacer ceros por debajo de la diagonal principal.
2. Convertir los elementos de la diagonal en 1.
3. Hacer ceros por encima de la diagonal principal.
Nota: Los dos últimos pasos pueden entremezclarse.
Determinantes
La definición rigurosa del concepto de determinante requiere una serie de herramientas
matemáticas que no creemos necesario tratar. El determinante está englobado dentro de lo
que se denominan las aplicaciones multilineales.
El determinante de una matriz cuadrada A de orden n con coeficientes sobre un cuerpo
K es un escalar del cuerpo. Lo vamos a denotar por |A| (reemplazando los paréntesis usados
para delimitar la matriz por líneas verticales), por detA o también por detF1,F2,....,Fn,
donde se supone que F1,F2,...,Fn ∈ Kn
son los vectores-fila de A (igualmente se podría
usar la notación detC1,C2,...,C2 a partir de los vectores-columna C1,C2,...,Cn ∈ Kn
).
Diremos indistintamente que es el determinante de la matriz o de los vectores que están en
las filas o columnas.
La definición exacta de determinante es un tanto técnica y no se va a incluir aquí
(aunque puede verse en buena parte de los textos de Álgebra). Vamos a dar las fórmulas
para el cálculo de los determinantes de orden 1, 2 y 3, y a continuación enunciaremos
algunas propiedades de los determinantes que nos permiten calcular también los
determinantes de orden superior.
Orden 1  |a|  a
Orden 2 
a b
c d
 ad − bc
Orden 3 
a11 a12 a13
a21 a22 a23
a31 a32 a33

 a11a22a33  a21a32a13  a31a12a23 − a13a22a31 − a23a32a11 − a33a12a21
Esta última fórmula se hace más sencilla de recordar si tenemos en cuenta que aparecen 6
sumandos, 3 de los cuales resultan de multiplicar los elementos que aparecen en la diagonal
principal y los de cada una de las 2 diagonales ”paralelas” a ésta, y los otros tres resultan de
multiplicar los elementos que aparecen en cada una de las 3 ”diagonales opuestas”. Esto se
conoce como Regla de Sarrus.
Ejemplo:
2 −3 0
1 −1 4
−2 3 5

 2  −1  5  1  3  0  −2  −3  4 − 0  −1  −2 − 4  3  2 − 5  −3  1 
 −10  0  24 − 0 − 24  15  5
Propiedades de los determinantes
Sea A una matriz cuadrada de orden n, y supongamos que sus filas son
F1,F2,...,Fn ∈ Kn
. Entonces se cumplen las siguientes propiedades:
1. Si Fi  Fi
′
 Fi
′′
, para ciertas filas Fi
′
,Fi
′′
∈ Kn
, entonces
detF1,...,Fi,...,Fn  detF1,...,Fi
′
,...,Fn  detF1,...,Fi
′′
,...,Fn
2. Para todo  ∈ K se tiene que
detF1,...,Fi,...,Fn  detF1,...,Fi,...,Fn
3. Para todo i,j ∈ 1,2,...,n (i ≠ j) se tiene que
detF1,...,Fj,...,Fi,...,Fn  −detF1,...,Fi,...,Fj,...,Fn
4. Para todo i,j ∈ 1,2,...,n (i ≠ j) se tiene que
detF1,...,Fi  Fj,...,Fn  detF1,...,Fi,...,Fn
para todo i,j ∈ 1,2,...,n (i ≠ j) y todo  ∈ K.
5. detF1,...,Fn  0 si y sólo si los vectores F1,F2,...,Fn son LD. De esto se deduce
que:
6. A es invertible si y sólo si detA ≠ 0. Además en esta situación
detA−1
  1
detA
7. Si A es una matriz triangular superior o inferior (en particular si es una matriz
diagonal) entonces detA es el producto de los elementos de la diagonal.
8. detA  detAt

9. detA  B  detA  detB para
toda matriz cuadrada B de orden n.
Observación: Las 5 primeras propiedades pueden enunciarse también en términos de
las columnas de la matriz.
Ejemplo: Vamos a calcular el siguiente determinante
1 0 2 3
2 −3 2 5
0 2 2 −3
1 1 2 4
Vamos a hacer ceros usando el elemento a11  1. Así tenemos
F2 − 2F1
F4 − F1
1 0 2 3
0 −3 −2 −1
0 2 2 −3
0 1 0 1
(habiéndole añadido a la segunda, tercera y cuarta filas la primera multiplicada por −2, 0 y
−1). Ahora cambiamos la segunda y cuarta filas para simplificar la eliminación, y queda
F2  F4 −
1 0 2 3
0 1 0 1
0 2 2 −3
0 −3 −2 −1
Le añadimos ahora la segunda fila a la tercera y cuarta, multiplicada por −2 y 3
respectivamente, y llegamos a
F3 − 2F2
F4  3F2
−
1 0 2 3
0 1 0 1
0 0 2 −5
0 0 −2 2
Finalmente le sumamos la tercera fila a la cuarta y tenemos
F4  F3 −
1 0 1 3
0 1 0 1
0 0 2 −5
0 0 0 −3
con lo que el valor del determinante es −1  1  2  −3  6.
En la siguiente sección veremos que no es necesario escalonar la matriz para obtener el
determinante.
Menor, menor complementario, adjunto
Se llama menor de una matriz A (no necesariamente cuadrada) al determinante de
cualquier submatriz cuadrada suya.
En una matriz cuadrada A de orden n se llama menor complementario del elemento aij
al determinante de orden n − 1 de la submatriz resultante de eliminar en A la fila i y la
columna j, que son en las que está situado el elemento. Finalmente se llama adjunto del
elemento aij a su menor complementario multiplicado por −1ij
, es decir, se multiplica
por 1 o por −1, dependiendo de que la suma de los índices fila y columna del elemento sea
par o impar. Al adjunto del elemento aij en la matriz A lo denotaremos por Aij. En el
ejemplo anterior el adjunto de a31  3 es A31 
0 −3
5 0
 15 y el adjunto de
Algunos menores de la matriz A 
2 0 3 −4
0 6 2 −1
−5 −6 0 7
son
2 0 −4
0 6 −1
−5 −6 7
 −48 y
2 −4
−5 7
 −6
En la matriz
1 0 −3
1 5 0
3 −3 2
el menor complementario de a31  3 es
0 −3
5 0
 15 y su adjunto vale A31 
0 −3
5 0
 15
Y el menor complementario de a21  1 es
0 −3
−3 2
 −9 su adjunto vale A21  −
0 −3
−3 2
 9
Cálculo del determinante desarrollando por adjuntos
Sea A una matriz cuadrada de orden n. Entonces se tiene
detA 
n
j1
∑ aljAlj  al1Al1  al2Al2 ...alnAln 
n
i1
∑ aikAik  a1kA1k  a2kA2k ...ankAnk
Lo anterior lo que nos dice es que mediante la Fl o la columna Ck podemos calcular el
determinante de la matriz sumando los productos de los elementos de esa fila o columna
por sus respectivos adjuntos. Por ejemplo si tenemos una matriz A  aij de orden 3
tendríamos (fijándonos por ejemplo en la primera fila o la segunda columna)
detA  a11A11  a12A12  a13A13  a12A12  a22A22  a32A32
Es muy útil esta regla a la hora de calcular determinantes grandes, sobre todo si aparece
alguna fila o columna con muchos elementos nulos (si es posible todos los elementos
excepto uno). Por ejemplo si queremos calcular el determinante
|A| 
3 0 −4
−2 0 1
−5 −2 4
vamos a desarrollar por los adjuntos de la segunda columna y tendremos
|A|  a12A12  a22A22  a32A32  0A12  0A22  −2A32  −2A32  −2  −
3 −4
−2 1
  23 − 8  −
Por supuesto no siempre estaremos en esta situación de tener bastantes ceros, pero
aplicando las propiedades de los determinantes podremos llegar a una matriz con muchos
ceros. Por ejemplo si queremos calcular ahora el determinante
|A| 
4 2 −4
1 3 4
2 0 6
le añadimos a la última columna −3 veces la primera y nos queda
4 2 −16
1 3 1
2 0 0
determinante que puede calcularse ahora fácilmente desarrollando por los adjuntos de la
tercera fila, para obtener
|A|  a31A31  a32A32  a33A33  2
2 −16
3 1
 0A32  0A33  22  48  100
Rango de una matriz utilizando menores
En el apéndice estará explicado con más detalle la relación entre los menores de una
matriz y su rango. Lo que nos interesa fundamentalmente es la siguiente propiedad:
Propiedad: Sea A un matriz de orden m  n (no necesariamente cuadrada). El rango de
A es el mayor orden para el que existen menores no nulos de ese orden dentro de A. En
particular se tiene que si encontramos un menor de orden r no nulo, entonces rA ≥ r.
Cálculo de la inversa de una matriz mediante
adjuntos
Vamos a dar otro método para calcular la inversa de una matriz. Supongamos que
A  aij es una matriz cuadrada invertible. Sabemos que |A| ≠ 0. Calculamos ahora lo que
vamos a llamar matriz adjunta de A, y que la vamos a denotar por
AdjA  bij
cuyos coeficientes son los adjuntos respectivos de los elementos de A, es decir, bij  Aij
para todo i,j posible. Entonces se cumple que
A−1
 1
|A|
AdjAt
De este modo la matriz inversa de A resulta de hallar la traspuesta de la adjunta y dividir
por el determinante. Da lo mismo tomar la traspuesta de la adjunta que la adjunta de la
traspuesta, así que también tendremos
A−1
 1
|A|
AdjAt

Ejemplo: Hallar la inversa de la matriz
A 
1 1 3
1 2 −1
0 1 1
Como |A|  5 y
AdjA 
A11 A12 A13
A21 A22 A23
A31 A32 A33

2 −1
1 1
−
1 −1
0 1
1 2
0 1
−
1 3
1 1
1 3
0 1
−
1 1
0 1
1 3
2 −1
−
1 3
1 −1
1 1
1 2

3 −1 1
2 1 −1
−7 4 1
tenemos que
A−1
 1
|A|
AdjAt
 1
5
3 2 −7
−1 1 4
1 −1 1

3
5
2
5
− 7
5
− 1
5
1
5
4
5
1
5
− 1
5
1
5
Ejemplo: Hallar la inversa de la matriz 2x2 invertible
A 
a b
c d
Es sencillo obtener por la fórmula anterior que
A
−1
 1
ad − bc
d −b
−c a
Por ejemplo, la inversa de la matriz
A 
−3 6
−7 8
es A
−1
 1
18
8 −6
7 −3
Determinante de Vandermonde
Es un determinante especial que se usa en determinadas situaciones como a la hora de
hallar el polinomio interpolador de Lagrange o bien al resolver ciertas reglas de cuadratura
para aproximar numéricamente integrales. Pongamos y resolvamos el caso 3x3:
1 1 1
a b c
a2
b2
c2
Realicemos las siguientes operaciones por fila (y en ese orden):
F3 − aF2
F2 − aF1

1 1 1
0 b − a c − a
0 b2
− ba c2
− ca

1 1 1
0 b − a c − a
0 bb − a cc − a

1 1 1
0 b − a c − a
0 bb − a cc − a

b − a c − a
bb − a cc − a
 b − ac − a
1 1
b c
 c − ab − ac − b
En resumen el desarrollo del determinante de Vandermonde donde la primera fila esté
formada por elementos a1, a2, ...an es
ij
 aj − ai
es decir, el producto de todas las diferencias entre los ai
′
s siempre que pongamos como
minuendo el que tiene el subíndice mayor.
Sistemas de ecuaciones lineales
Un sistema de ecuaciones de la forma
∗
a11x1  a12x2 ....a1nxn  b1
a21x1  a22x2 ....a2nxn  b2
......
am1x1  am2x2 ....amnxn  bm
donde los aij y los bi son escalares del cuerpo K y los xj representan las incógnitas del
sistema (también escalares del cuerpo K, en este caso, indeterminados), se llamará sistema
de ecuaciones lineales o sistema lineal sobre el cuerpo K. Se dirá que el sistema tiene m
ecuaciones y n incógnitas. A los aij se les llama coeficientes del sistema, a los bi términos
independientes. Agrupando los elementos anteriores tenemos
A  aij  matriz de coeficientes, de orden m  n
B 
b1
b2
...
bm
 vector de términos independientes, de orden m  1
X 
x1
x2
...
xn
 vector de las incógnitas, de orden n  1
Definimos la matriz ampliada A|B, de orden m  n  1, como la que se forma
añadiendo la columna B a la matriz A. Si ponemos el vector de términos independientes y el
de las incógnitas en forma de columna obtenemos la forma matricial del sistema AX  B.
Una solución del sistema de ecuaciones lineales (*) es un vector
S  s1,s2,...,sn ∈ Kn
tal que al sustituir cada incógnita xj por el correspondiente sj se
verifican todas las ecuaciones, o equivalentemente, si se cumple la relación matricial
ASt
 B (St
denota el traspuesto del vector-fila S, es decir, lo hemos puesto en forma de
vector-columna).
Según el número de soluciones los sistemas pueden ser compatibles (SC), si tienen
alguna solución, o incompatibles (SI), si no tienen ninguna solución. Un sistema
compatible puede tener solución única, en cuyo caso se dice que es compatible
determinado (SCD), o tener más de una solución, en cuyo caso se dice que es compatible
indeterminado (SCI). De hecho cuando el cuerpo es infinito (como ocurre con el caso
K  R) los SCI no sólo tienen más de una solución sino que tienen infinitas.
En los SCI al conjunto de todas las soluciones se le llama solución general y ésta
quedará en función de una serie de parámetros. Al menor número de parámetros que se
necesitan para expresar la solución general lo llamaremos grado de indeterminación o
grados de libertad del sistema.
Diremos que un sistema AX  B es homogéneo si B es el vector nulo, es decir, si todos
los términos independientes son nulos. Éstos siempre serán SC pues el vector nulo es
siempre una solución (la solución que se obtiene al coger todas las incógnitas con valor 0).
Entonces un sistema homogéneo es SCI si y sólo si tiene alguna solución no nula.
Al conjunto de las soluciones de un sistema homogéneo AX  0 lo denotaremos por
kerA y lo llamaremos núcleo de la matriz A.
Sistemas equivalentes. Método de Gauss para
resolver sistemas lineales
Llamaremos discutir un sistema a determinar si es SI, SCD o SCI. Por discutir y
resolver se entenderá que hay además que dar la solución o soluciones, si es SC. Para ello
lo que podemos hacer es utilizar el método de Gauss que consiste en aplicar
transformaciones elementales hasta escalonar el sistema. Recordemos las transformaciones
elementales que utilizábamos sobre matrices, sistemas o vectores:
1. Cambiar de orden las ecuaciones.
2. Multiplicar una ecuación por un escalar no nulo.
3. Sumar a una ecuación un múltiplo de otra.
Además, aquí es posible también:
4. Cambiar de orden las incógnitas.
Estas transformaciones convierten el sistema lineal inicial en otro equivalente, es decir,
con las mismas soluciones. Una vez escalonado el sistema se resuelve de forma sencilla,
pues:
 Si al final (o en algún momento previo) nos sale un absurdo, es decir, una ecuación
que no es posible que se cumpla (como 0  1, o algo similar) entonces estamos con un
SI.
 Si no estamos en la situación anterior (podremos escalonar hasta el final), estaremos
con un SC y puede ocurrir que:
- Todas las incógnitas correspondan con pivotes (se llaman pivote de cada fila al
primer coeficiente no nulo que aparece. Esto es para la matriz de coeficientes. Si
lo miramos en el sistema se corresponden con la primera incógnita que aparece en
cada ecuación). En definitiva lo que ocurrirá es que, después de escalonar y
eliminar las ecuaciones (o filas) nulas, tendremos igual número de ecuaciones que
de incógnitas. En tal caso tenemos un SCD en el que la solución del sistema se
puede hallar despejando el valor de las incógnitas, de abajo hacia arriba.
- Haya alguna incógnita del espacio que no corresponda a ningún pivote. En este
caso tenemos un SCI, y las incógnitas que no correspondan a pivotes van a ser los
parámetros del sistema. El número de parámetros (que por el método de Gauss son
ya el número mínimo necesario para expresar la solución general del sistema) será
los grados de libertad del sistema.
Durante este proceso también pueden ir eliminándose ecuaciones ”triviales” de la forma
0  0 (porque estas ecuaciones siempre se cumplen y no aportan nada nuevo) o bien
ecuaciones que sean CL de otras.
Ejemplos:
1. Discutir y resolver (en su caso) el siguiente sistema lineal
x − y  3z  −1
5x − 3y  10z  2
2y − 5z  3
Añadiéndole a la segunda ecuación la primera multiplicada por −5 obtenemos
(observemos que como son ecuaciones y no filas, empleamos E1 y E2 en vez de F1 y
F2 para referirnos a ellas)
E2 − 5E1
x − y  3z  −1
2y − 5z  7
2y − 5z  3
Si ahora le restamos a la tercera la segunda se tiene
E3 − E2
x − y  3z  −1
2y − 5z  7
0  −4
En este caso hemos obtenido una ecuación contradictoria (un absurdo) 0  −4, con lo
que deducimos que es un SI.
2. Discutir y resolver (en su caso) el siguiente sistema lineal
x − z  −1
−2x  y  z  −5
4x − y − 3z  3
Obtenemos que la matriz ampliada del sistema es
1 0 −1 −1
−2 1 1 −5
4 −1 −3 3
Le añadimos a la segunda fila la primera multiplicada por 2, y a la tercera multiplicada
por −4 y obtenemos
E2  2E1
E3 − 4E1
1 0 −1 −1
0 1 −1 −7
0 −1 1 7
Eliminando entonces la tercera ecuación (es proporcional a la segunda) llegamos a la
matriz
1 0 −1 −1
0 1 −1 −7
que representa al sistema
x − z  −1
y − z  −7
que es equivalente al sistema inicial. Como ya está escalonado y no nos ha aparecido
ninguna ecuación contradictoria estamos con un SC. Además sólo hay 2 pivotes (los
correspondientes a las incógnitas x e y), con lo que sobra un incógnita, z, que será el
único parámetro en este caso, de manera que tenemos un SCI (ya que hay algún
parámetro). Así, poniendo z   y despejando en las ecuaciones obtenemos que
y  −7  z  −7  . Y en la primera ecuación tenemos que x  z − 1   − 1. Así la
solución general de este SCI es
x   − 1
y  −7  
z  
con  ∈ R.
3. Discutir y resolver (en su caso) el siguiente sistema lineal
x1  2x2  5x3  3
3x1  6x2  14x3  9
− 2x2  x3  −4
De nuevo le añadimos a la segunda y tercera filas un múltiplo adecuado de la primera y
obtenemos
E2 − 3E1
x1  2x2  5x3  3
− x3  0
− 2x2  x3  −4
Cambiando de orden las dos últimas filas tenemos
E2  E3
x1  2x2  5x3  3
− 2x2  x3  −4
− x3  0
sistema que ya está escalonado. Como no hemos obtenido ninguna ecuación absurda
estamos con un SC. Y como las tres variables corresponden a pivotes (x1 en la primera
ecuacion, x2 en la segunda y x3 en la tercera), no va a haber ningún parámetro, de
modo que tenemos un SCD. El valor de las incógnitas se halla despejando de abajo a
arriba las variables, o, si empleamos Gauss-Jordan transformando previamente la
matriz en una matriz ”diagonal”. Así, le añadimos la tercera fila a la segunda y primera
multiplicada por 1 y 5, respectivamente y tenemos
E2  E3
E1  5E3
x1  2x2  3
− 2x2  −4
− x3  0
Finalmente le sumamos la segunda ecuación a la primera y tenemos
E1  E2
x1  −1
− 2x2  −4
− x3  0
de donde obtenemos que x1  −1, x2  2 y x3  0.
Teorema de Rouché-Fröbenius
Teorema: Un sistema de ecuaciones lineales es compatible si y sólo si el rango de la
matriz de coeficientes coincide con el de la matriz ampliada. En este caso, el sistema es
compatible determinado si este rango coincide con el número de incógnitas del espacio.
Cuando el sistema es compatible indeterminado los grados de libertad se calculan como la
diferencia entre el número de incógnitas y el rango.
Como consecuencia del Teorema de Rouché-Fröbenius obtenemos que un sistema
homogéneo AX  0 tiene solución no nula (kerA ≠ 0) si y sólo si rA  n.
Método de Cramer
Teorema: Supongamos que tenemos un sistema de ecuaciones lineales AX  B con
matriz de coeficientes A cuadrada de orden n, y del que se sabe que es SCD. Entonces la
solución del sistema x1,x2,...,xn cumple que xi  |Mi |
|A|
para todo i, donde Mi es la matriz
obtenida a partir de A sustituyendo la columna i-ésima por la columna de términos
independientes B.
El método de Cramer también puede utilizarse para resolver un SCI del siguiente modo:
Supongamos que rA  rA|B  k  n y elegimos un menor no nulo de A de orden k.
Se dejan a la izquierda las incógnitas que forman parte del menor; el resto de incógnitas se
pasarán a la derecha y serán los parámetros. Las ecuaciones que no forman parte del menor
pueden eliminarse pues son CL de las restantes. La solución general del sistema puede
obtenerse por Cramer, imaginando que tenemos el SCD en el que se consideran como
incógnitas únicamente las que están a la izquierda, es decir, las que corresponden a los
pivotes (la matriz de coeficientes de este sistema será de orden k  k pues no formarán parte
de ella los coeficientes de las incógnitas que van a ser ahora parámetros, ni tampoco los de
las ecuaciones que hemos eliminado).
El método de Cramer es en general poco útil en la práctica, pues cuando el orden del
sistema es relativamente grande hay que hacer demasiadas operaciones para resolverlo (ya
cuando estamos con 3 ecuaciones y 3 incógnitas es más recomendable el de Gauss).
Ejemplo: Discutir los siguientes sistemas lineales utilizando el Teorema de Rouché y
resolverlos (en su caso) por el método de Cramer:
1.
x1  x2 − x3  2
3x1 − x2  2x3  2
−x1 − x2 − 3x3  −2
Como
1 1 −1
3 −1 2
−1 −1 −3
 16 ≠ 0
se tiene que el rango tanto de la matriz de coeficientes como el de la matriz ampliada
valen 3. Por ello estamos con un SCD. Entonces la solución es
x1  1
16
2 1 −1
2 −1 2
−2 −1 −3
 16
16
 1
x2  1
16
1 2 −1
3 2 2
−1 −2 −3
 16
16
 1
x3  1
16
1 1 2
3 −1 2
−1 −1 −2
 0
16
 0
2.
x1 − x2  3x3  −1
2x1  x2 − x3  2
3x1  2x3  1
Es fácil comprobar que el rango tanto de la matriz de coeficientes como de la matriz
ampliada es 2. Por ello estamos con un SCI. Como las dos primeras filas de la matriz
ampliada son LI la última es necesariamente CL de ellas dos. De este modo podemos
eliminar la última y quedarnos con el sistema
x1 − x2  3x3  −1
2x1  x2 − x3  2
que es equivalente al primero. Podemos quedarnos con un menor de orden dos no nulo
(por ejemplo el que corresponde a las dos primeras filas y columnas) y poniendo el
sistema en la forma
x1 − x2  −1 − 3x3
2x1  x2  2  x3
para el que imaginamos que tiene sólo dos ecuaciones y dos incógnitas, y cuyas
soluciones podemos hallarlas en función de x3 por Cramer:
x1 
−1 − 3x3 −1
2  x3 1
1 −1
2 1
 1 − 2x3
3
x2 
1 −1 − 3x3
2 2  x3
1 −1
2 1
 4  7x3
3
Ejemplo: Discutir y resolver (en su caso) el siguiente sistema de ecuaciones lineales en
función del parámetro a
x1  2x2  5x3  3
x1  3x2  8x3  5
− 2x2  ax3  4
Añadiéndole la primera fila a las demás obtenemos
x1  2x2  5x3  3
x2  3x3  2
− 2x2  ax3  4
Le añadimos ahora la segunda fila a la tercera y tenemos
x1  2x2  5x3  3
x2  3x3  2
a  6x3  8
Entonces la discusión se hace teniendo en cuenta que el parámetro aparece en alguno de los
pivotes una vez que el sistema está escalonado. x1 y x2 son las variables que corresponden a
pivotes. El coeficiente a  6 puede ser nulo (si a  −6) con lo que en ese caso la variable x3
no sería un pivote, es más tendríamos una ecuación de la forma 0  8. Así que en ese caso
(a  −6) tenemos un SI. Y cuando a ≠ −6 tendremos que la variable x3 sí que es un pivote
(pues su coeficiente a  6 es no nulo) y estamos con un SC. Además al no sobrar ninguna
variable, ya que todas se corresponden con pivotes, tendríamos un SCD, cuya solución
(dependiente de a) se hallaría despejando como hacemos habitualmente: x3  8
a6
,
x2  2 − 3 8
a6
y x1  3 − 22 − 3 8
a6
 − 5 8
a6
.
Otro modo de discutir este sistema es utilizando el Teorema de Rouché-Froebenius,
calculando los rangos de las matrices asociadas. Para esto puede ser útil el determinante
(que en este caso tiene sentido pues la matriz de coeficientes es cuadrada; en el caso de que
sea cuadrada la matriz ampliada también se puede utilizar; pero en cualquier otro caso no),
hallando el de la matriz de coeficientes
|A| 
1 2 5
1 3 8
0 −2 a

1 2 5
0 1 3
0 −2 a
 1
1 3
−2 a
 a  6
Cuando |A| ≠ 0 (para a ≠ −6) el rango de la matriz A es 3, y como el rango de la matriz
ampliada no puede ser mayor (al tener 3 filas) tendríamos rA  rA|B  3 número de
incógnitas. Entonces tenemos que si |A| ≠ 0 (a ≠ −6) el rango de la matriz A es 3, y como
el rango de la matriz ampliada no puede ser mayor (al tener 3 filas) tendríamos
rA  rA|B  3 número de incógnitas. En este caso tendríamos un SCD, cuya única
solución, dependiente de cada valor a ≠ −6, se podrá hallar por el método anterior o
utilizando la fórmula de Cramer (éste es uno de los pocos casos en los que puede resultar
útil este método). Y en el caso en que |A|  0 (a  −6) tenemos que hacerlo de forma
directa. Pero se ve fácilmente que rA  2 y rA|B  3, con lo que tendríamos un SI.
El resultado de la discusión ha sido entonces: Si a ≠ −6 SCD y si a  −6 SI.

Más contenido relacionado

La actualidad más candente

Propiedades de los fluidos(densidad)
Propiedades de los fluidos(densidad)Propiedades de los fluidos(densidad)
Propiedades de los fluidos(densidad)sandra_rozoq
 
Vectores Problemas Nivel 0B
Vectores   Problemas Nivel 0BVectores   Problemas Nivel 0B
Vectores Problemas Nivel 0BESPOL
 
Ciencia materiales. Ejercicios introducción y enlaces.
Ciencia materiales. Ejercicios introducción y enlaces.Ciencia materiales. Ejercicios introducción y enlaces.
Ciencia materiales. Ejercicios introducción y enlaces.Ignacio Roldán Nogueras
 
Ecuaciones diferenciales en Derivadas parciales
Ecuaciones diferenciales en Derivadas parcialesEcuaciones diferenciales en Derivadas parciales
Ecuaciones diferenciales en Derivadas parcialesEdwin SB
 
Balance de energia
Balance de energiaBalance de energia
Balance de energiaelentropa
 
algunas aplicaciones del campo magnético
algunas aplicaciones del campo magnético algunas aplicaciones del campo magnético
algunas aplicaciones del campo magnético Laura Santos
 
Conexión de capacitores en serie, paralelo y mixto
Conexión de capacitores en serie, paralelo y mixtoConexión de capacitores en serie, paralelo y mixto
Conexión de capacitores en serie, paralelo y mixtoLuis Ángel Valente Ramírez
 
Solucionario ecuaciones1
Solucionario ecuaciones1Solucionario ecuaciones1
Solucionario ecuaciones1ERICK CONDE
 
5. TRIPLE PRODUCTO ESCALAR
5. TRIPLE PRODUCTO ESCALAR5. TRIPLE PRODUCTO ESCALAR
5. TRIPLE PRODUCTO ESCALARedvinogo
 
PRIMERA LEY DE LA TERMODINAMICA
PRIMERA LEY DE LA TERMODINAMICAPRIMERA LEY DE LA TERMODINAMICA
PRIMERA LEY DE LA TERMODINAMICAJorge Martínez
 
Aplicaciones de las ecuaciones diferenciales de primer orden en la química
Aplicaciones de las ecuaciones diferenciales de primer orden en la químicaAplicaciones de las ecuaciones diferenciales de primer orden en la química
Aplicaciones de las ecuaciones diferenciales de primer orden en la químicaNancy Garcia Guzman
 
Termodinamica problemas resueltos08
Termodinamica problemas resueltos08Termodinamica problemas resueltos08
Termodinamica problemas resueltos08Norman Rivera
 
Ejercicios de termodinamica
Ejercicios de termodinamicaEjercicios de termodinamica
Ejercicios de termodinamicaHector Hernandez
 

La actualidad más candente (20)

Propiedades de los fluidos(densidad)
Propiedades de los fluidos(densidad)Propiedades de los fluidos(densidad)
Propiedades de los fluidos(densidad)
 
Biomecánica
Biomecánica Biomecánica
Biomecánica
 
Vectores Problemas Nivel 0B
Vectores   Problemas Nivel 0BVectores   Problemas Nivel 0B
Vectores Problemas Nivel 0B
 
Ciencia materiales. Ejercicios introducción y enlaces.
Ciencia materiales. Ejercicios introducción y enlaces.Ciencia materiales. Ejercicios introducción y enlaces.
Ciencia materiales. Ejercicios introducción y enlaces.
 
Ecuaciones diferenciales en Derivadas parciales
Ecuaciones diferenciales en Derivadas parcialesEcuaciones diferenciales en Derivadas parciales
Ecuaciones diferenciales en Derivadas parciales
 
Balance de energia
Balance de energiaBalance de energia
Balance de energia
 
algunas aplicaciones del campo magnético
algunas aplicaciones del campo magnético algunas aplicaciones del campo magnético
algunas aplicaciones del campo magnético
 
5 hidrodinamica
5 hidrodinamica5 hidrodinamica
5 hidrodinamica
 
Ejercicio 10
Ejercicio 10Ejercicio 10
Ejercicio 10
 
Conexión de capacitores en serie, paralelo y mixto
Conexión de capacitores en serie, paralelo y mixtoConexión de capacitores en serie, paralelo y mixto
Conexión de capacitores en serie, paralelo y mixto
 
electrotecnia basica tarea academica
electrotecnia basica tarea academica electrotecnia basica tarea academica
electrotecnia basica tarea academica
 
Solucionario ecuaciones1
Solucionario ecuaciones1Solucionario ecuaciones1
Solucionario ecuaciones1
 
Fisica de zemansky
Fisica de zemanskyFisica de zemansky
Fisica de zemansky
 
5. TRIPLE PRODUCTO ESCALAR
5. TRIPLE PRODUCTO ESCALAR5. TRIPLE PRODUCTO ESCALAR
5. TRIPLE PRODUCTO ESCALAR
 
G5 oscilaciones
G5 oscilacionesG5 oscilaciones
G5 oscilaciones
 
PRIMERA LEY DE LA TERMODINAMICA
PRIMERA LEY DE LA TERMODINAMICAPRIMERA LEY DE LA TERMODINAMICA
PRIMERA LEY DE LA TERMODINAMICA
 
Aplicaciones de las ecuaciones diferenciales de primer orden en la química
Aplicaciones de las ecuaciones diferenciales de primer orden en la químicaAplicaciones de las ecuaciones diferenciales de primer orden en la química
Aplicaciones de las ecuaciones diferenciales de primer orden en la química
 
Termodinamica problemas resueltos08
Termodinamica problemas resueltos08Termodinamica problemas resueltos08
Termodinamica problemas resueltos08
 
Termodinamica trabajo
Termodinamica trabajoTermodinamica trabajo
Termodinamica trabajo
 
Ejercicios de termodinamica
Ejercicios de termodinamicaEjercicios de termodinamica
Ejercicios de termodinamica
 

Similar a matrices determinanates y sistema de ecuaciones lineales (20)

Investigacion unidad 2
Investigacion unidad 2Investigacion unidad 2
Investigacion unidad 2
 
Algebra
AlgebraAlgebra
Algebra
 
Matrices
MatricesMatrices
Matrices
 
Matrices
MatricesMatrices
Matrices
 
Matrices
MatricesMatrices
Matrices
 
Matrices
MatricesMatrices
Matrices
 
Matrices pdf
Matrices pdfMatrices pdf
Matrices pdf
 
Matrices
MatricesMatrices
Matrices
 
Matrices
MatricesMatrices
Matrices
 
Matrices
MatricesMatrices
Matrices
 
Matrices+y+determinantes 1
Matrices+y+determinantes 1Matrices+y+determinantes 1
Matrices+y+determinantes 1
 
Matrices
Matrices Matrices
Matrices
 
Matrices
MatricesMatrices
Matrices
 
Matricesu1
Matricesu1Matricesu1
Matricesu1
 
matrices y determinantes
matrices y determinantesmatrices y determinantes
matrices y determinantes
 
Matrices y determinantes
Matrices y determinantesMatrices y determinantes
Matrices y determinantes
 
Matrices+y+determinantes
Matrices+y+determinantesMatrices+y+determinantes
Matrices+y+determinantes
 
Matrices+y+determinantes
Matrices+y+determinantesMatrices+y+determinantes
Matrices+y+determinantes
 
Matrices y determinantes
Matrices y determinantesMatrices y determinantes
Matrices y determinantes
 
Columbus power matrices
Columbus  power matricesColumbus  power matrices
Columbus power matrices
 

Último

CLASE 2 MUROS CARAVISTA EN CONCRETO Y UNIDAD DE ALBAÑILERIA
CLASE 2 MUROS CARAVISTA EN CONCRETO  Y UNIDAD DE ALBAÑILERIACLASE 2 MUROS CARAVISTA EN CONCRETO  Y UNIDAD DE ALBAÑILERIA
CLASE 2 MUROS CARAVISTA EN CONCRETO Y UNIDAD DE ALBAÑILERIAMayraOchoa35
 
Topografía 1 Nivelación y Carretera en la Ingenierías
Topografía 1 Nivelación y Carretera en la IngenieríasTopografía 1 Nivelación y Carretera en la Ingenierías
Topografía 1 Nivelación y Carretera en la IngenieríasSegundo Silva Maguiña
 
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIPSEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIPJosLuisFrancoCaldern
 
Comite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxComite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxClaudiaPerez86192
 
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...SuannNeyraChongShing
 
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...Francisco Javier Mora Serrano
 
Caldera Recuperadora de químicos en celulosa tipos y funcionamiento
Caldera Recuperadora de químicos en celulosa  tipos y funcionamientoCaldera Recuperadora de químicos en celulosa  tipos y funcionamiento
Caldera Recuperadora de químicos en celulosa tipos y funcionamientoRobertoAlejandroCast6
 
ECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfmatepura
 
Curso intensivo de soldadura electrónica en pdf
Curso intensivo de soldadura electrónica  en pdfCurso intensivo de soldadura electrónica  en pdf
Curso intensivo de soldadura electrónica en pdfFernandaGarca788912
 
Introducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.pptIntroducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.pptEduardoCorado
 
Seleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusiblesSeleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusiblesSaulSantiago25
 
estadisticasII Metodo-de-la-gran-M.pdf
estadisticasII   Metodo-de-la-gran-M.pdfestadisticasII   Metodo-de-la-gran-M.pdf
estadisticasII Metodo-de-la-gran-M.pdfFlorenciopeaortiz
 
Flujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxFlujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxEduardoSnchezHernnde5
 
Edificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaEdificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaANDECE
 
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptxAMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptxLuisvila35
 
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONALCHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONALKATHIAMILAGRITOSSANC
 
Tiempos Predeterminados MOST para Estudio del Trabajo II
Tiempos Predeterminados MOST para Estudio del Trabajo IITiempos Predeterminados MOST para Estudio del Trabajo II
Tiempos Predeterminados MOST para Estudio del Trabajo IILauraFernandaValdovi
 
sistema de construcción Drywall semana 7
sistema de construcción Drywall semana 7sistema de construcción Drywall semana 7
sistema de construcción Drywall semana 7luisanthonycarrascos
 
Una estrategia de seguridad en la nube alineada al NIST
Una estrategia de seguridad en la nube alineada al NISTUna estrategia de seguridad en la nube alineada al NIST
Una estrategia de seguridad en la nube alineada al NISTFundación YOD YOD
 
Voladura Controlada Sobrexcavación (como se lleva a cabo una voladura)
Voladura Controlada  Sobrexcavación (como se lleva a cabo una voladura)Voladura Controlada  Sobrexcavación (como se lleva a cabo una voladura)
Voladura Controlada Sobrexcavación (como se lleva a cabo una voladura)ssuser563c56
 

Último (20)

CLASE 2 MUROS CARAVISTA EN CONCRETO Y UNIDAD DE ALBAÑILERIA
CLASE 2 MUROS CARAVISTA EN CONCRETO  Y UNIDAD DE ALBAÑILERIACLASE 2 MUROS CARAVISTA EN CONCRETO  Y UNIDAD DE ALBAÑILERIA
CLASE 2 MUROS CARAVISTA EN CONCRETO Y UNIDAD DE ALBAÑILERIA
 
Topografía 1 Nivelación y Carretera en la Ingenierías
Topografía 1 Nivelación y Carretera en la IngenieríasTopografía 1 Nivelación y Carretera en la Ingenierías
Topografía 1 Nivelación y Carretera en la Ingenierías
 
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIPSEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
 
Comite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxComite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptx
 
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
 
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
 
Caldera Recuperadora de químicos en celulosa tipos y funcionamiento
Caldera Recuperadora de químicos en celulosa  tipos y funcionamientoCaldera Recuperadora de químicos en celulosa  tipos y funcionamiento
Caldera Recuperadora de químicos en celulosa tipos y funcionamiento
 
ECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdf
 
Curso intensivo de soldadura electrónica en pdf
Curso intensivo de soldadura electrónica  en pdfCurso intensivo de soldadura electrónica  en pdf
Curso intensivo de soldadura electrónica en pdf
 
Introducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.pptIntroducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.ppt
 
Seleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusiblesSeleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusibles
 
estadisticasII Metodo-de-la-gran-M.pdf
estadisticasII   Metodo-de-la-gran-M.pdfestadisticasII   Metodo-de-la-gran-M.pdf
estadisticasII Metodo-de-la-gran-M.pdf
 
Flujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxFlujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptx
 
Edificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaEdificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes Granada
 
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptxAMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
 
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONALCHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
 
Tiempos Predeterminados MOST para Estudio del Trabajo II
Tiempos Predeterminados MOST para Estudio del Trabajo IITiempos Predeterminados MOST para Estudio del Trabajo II
Tiempos Predeterminados MOST para Estudio del Trabajo II
 
sistema de construcción Drywall semana 7
sistema de construcción Drywall semana 7sistema de construcción Drywall semana 7
sistema de construcción Drywall semana 7
 
Una estrategia de seguridad en la nube alineada al NIST
Una estrategia de seguridad en la nube alineada al NISTUna estrategia de seguridad en la nube alineada al NIST
Una estrategia de seguridad en la nube alineada al NIST
 
Voladura Controlada Sobrexcavación (como se lleva a cabo una voladura)
Voladura Controlada  Sobrexcavación (como se lleva a cabo una voladura)Voladura Controlada  Sobrexcavación (como se lleva a cabo una voladura)
Voladura Controlada Sobrexcavación (como se lleva a cabo una voladura)
 

matrices determinanates y sistema de ecuaciones lineales

  • 1. Tema 2: Matrices, determinantes y sistemas de ecuaciones lineales Matrices Una matriz con coeficientes sobre un cuerpo K (normalmente K  R) consiste en una colección de números (o escalares) del cuerpo K ordenados por filas y columnas. Si la matriz tiene m filas y n columnas se dirá que es de orden m  n. Ejemplo: Las siguientes son matrices con coeficientes sobre R: A  0 −1 3 3 7 6 de orden 2  3 B  3 7 de orden 1  2 C  5 3 −3 0 0 0 −2 8 8 5 0.5 0 de orden 4  3 D  0 2 8 de orden 3  1 E  2 1 0 −3 de orden 2  2 F  3 0 0 5 −4 0 1 −8 0 de orden 3  3 Sea A una matriz. Para indicar la fila y columna que ocupa cada elemento usaremos la notación A  aij, donde el índice i indica la fila y el índice j la columna. De este modo estamos diciendo que el elemento aij de la matriz A es el que ocupa la fila i y la columna j, considerando esto para todos los posibles i y j. Así los elementos de la matriz A  aij del ejemplo anterior son: a11  0 a12  −1 a13  3 a21  3 a22  7 a23  6 Recordemos que Rn está formado por todos los vectores de n coordenadas, todas ellas números reales. Similarmente ocurre con Kn tomando esta vez escalares del cuerpo K en vez de números de R. Para una matriz A de orden m  n denotaremos por Fi la fila i-ésima de la matriz, la cual puede interpretarse como un vector de Kn al que llamaremos vector-fila de A; igualmente denotaremos por Cj a la columna j-ésima de la matriz, que puede interpretarse como un vector de Km al que llamaremos vector-columna de A. Una submatriz de otra es una matriz que se obtiene a partir de la inicial cogiendo unas cuantas filas y unas cuantas columnas. Se dice que una matriz es cuadrada si tiene el mismo número de filas que de columnas (como la matriz E del ejemplo anterior). En esta situación si la matriz tiene n filas y n columnas, podremos decir que es de orden n  n ó simplemente de orden n. Se llama diagonal principal de una matriz (generalmente cuadrada) a los elementos de la forma aii para todo i posible, es decir, los elementos que tienen el mismo índice fila que columna. La
  • 2. suma de los elementos de la diagonal principal se llama traza de la matriz (la diagonal principal de la matriz E del ejemplo anterior está formada por el a11  2 y el a22  −3; por eso la traza de la matriz vale −1). Una matriz cuadrada se dice que es triangular inferior (respectivamente triangular superior) cuando todo elemento que esté situado por encima (respectivamente por debajo) de la diagonal principal es nulo (la matriz E del ejemplo anterior es triangular superior, mientras que la matriz F es triangular inferior). A una matriz cuadrada que es triangular tanto inferior como superior, es decir, si cumple que los elementos que no están en la diagonal principal son nulos, se le llama matriz diagonal. La matriz diagonal de orden n que tiene todos los elementos de la diagonal principal iguales a 1 se llama matriz identidad (o matriz unidad) de orden n, y la denotaremos por In, o simplemente por I si está claro el tamaño. La matriz nula es la matriz que tiene todos sus coeficientes son nulos. La matriz opuesta de una matriz A se denota por −A y consiste en cambiar de signo todos sus coeficientes. La traza de una matriz cuadrada es la suma de los elementos de la diagonal principal. Veamos algunos ejemplos: 5 −3 −3 5 −5 7 es submatriz de 5 7 −3 6 −5 0 −3 8 5 −5 0 7 al coger las filas 1, 3 y 4 y las columnas 1 y 3 −3 0 0 4 y 11 0 0 0 0 0 0 0 5 son matrices diagonales 1 0 0 1 es la matriz identidad de orden 2 y 1 0 0 0 1 0 0 0 1 de orden 3 0 0 0 0 0 0 es la matriz nula de orden 2  3 La opuesta de la matriz 0 4 −3 −1 2 0 es 0 −4 3 1 −2 0 La traza de la matriz 1 3 0 2 −4 −4 6 4 5 es 1 − 4  5  2 Operaciones con matrices Fijados m y n, al conjunto de las matrices de orden m  n con coeficientes sobre un cuerpo K lo denotaremos por MmnK.
  • 3. Suma Sean A  aij y B  bij dos matrices del mismo orden (m  n). Se define la suma de las dos matrices como la matriz A  B  cij, también de orden m  n, que cumple que cij  aij  bij para cada par de índices i,j. Esto se traduce en que sumamos A y B coeficiente a coeficiente. Observemos que esto sólo tiene sentido si las dos matrices son del mismo orden. Por ejemplo 0 1 3 −1 5 6  2 0 −3 2 0 4  2 1 0 1 5 10 Propiedades:  Propiedad asociativa: ∀A,B,C ∈ MmnK se tiene que A  B  C  A  B  C  (Propiedad conmutativa) ∀ A,B ∈ MmnK se tiene que A  B  B  A  (Elemento neutro) La matriz nula 0 ∈ MmnK, cumple que dada cualquier otra matriz B ∈ MmnK se tiene que B  0  B  (Elemento opuesto) Dada A ∈ MmnK se cumple que A  −A  0 Entonces MmnK es un grupo abeliano con la suma ””, por cumplir estas propiedades. Producto de una matriz por un escalar Sea A  aij una matriz de orden m  n y  ∈ R. Se define el producto del escalar por la matriz como la matriz   A  dij (o simplemente A, omitiendo el símbolo de multiplicar) de orden m  n, que cumple que dij  aij para todo i,j posibles. Por ejemplo 3 0 1 3 −1 5 6  0 3 9 −3 15 18 − 4 2 −1 3 9 0 8  −8 4 −12 −36 0 −32 Propiedades  Pseudodistributivas: 1. ∀A,B ∈ MmnK,∀ ∈ K se tiene que A  B  A  B 2. ∀A ∈ MmnK,∀, ∈ K se tiene que   A  A  A  Pseudoasociativa: ∀A ∈ MmnK,∀, ∈ K se tiene que   A  A  Pseudoelemento neutro: ∀A ∈ MmnK se tiene que 1  A  A
  • 4. (donde 1 es el neutro para la multiplicación en el cuerpo K). Observación: Como se ve en el Tema 2 el conjunto MmnK está dotado, con la suma y el producto por escalares que aquí se han detallado, de estructura de espacio vectorial. Producto de matrices Dadas dos matrices A  aij y B  bij de orden m  n y n  p, respectivamente, se define el producto de ambas matrices como la matriz A  B  cij (en adelante AB, sin punto) de orden m  p que cumple que cij  k1 n ∑ aikbkj  ai1b1j  ai2b2j ...ainbnj para todo i,j posibles. Recordando que el producto escalar (euclídeo) de dos vectores a1,a2,...,an,b1,b2,...,bn de Rn está dado por a1,a2,...,an  b1,b2,...,bn  k1 n ∑ akbk  a1b1  a2b2 ...anbn el producto matricial puede interpretarse del siguiente modo: para obtener el elemento del producto AB que está situado en la fila i, columna j, hay que hacer el producto escalar del vector-fila Fi de A por el vector-columna Cj de B (esto vale también para matrices consideradas sobre un cuerpo arbitrario K, no necesariamente R). Notemos que si m ≠ p no tiene sentido hacer el producto BA. Incluso aunque m  p, y entonces tenga sentido el producto en orden inverso, la matriz AB tendría orden m  m y la matriz BA sería de orden n  n, luego ambas no podrían ser iguales, ya que tendrían distinto orden, si m ≠ n. Es más, aún poniéndonos en la situación en que n  m  p (así A,B,AB y BA son cuadradas de orden n) el producto no tiene por qué ser conmutativo, es decir, es posible que AB ≠ BA. Dada una matriz cuadrada A se define la potencia n-ésima de A como la matriz An  n veces A A  A ...A es decir, el producto de n veces A. Así A1  A, A2  A  A, A3  A  A  A, etc. Ejemplos: 1. Dadas A  0 −2 1 −3 B  3 −1 0 4 −2 1 la matriz producto es AB  0 −2 1 −3 3 −1 0 4 −2 1  −8 4 −2 −9 5 −3 2. Para la matriz A anterior se tiene que A4  A  A  A  A  0 −2 1 −3 0 −2 1 −3 0 −2 1 −3 0 −2 1 −3   −2 6 −3 7 −2 6 −3 7  −14 30 −15 31 Propiedades
  • 5. 1. Asociativa: Dadas matrices A de orden m  n, B de orden n  p y C de orden p  q se tiene ABC  ABC y entonces podremos escribir simplemente ABC. 2. Relación con el producto por escalares: Dadas matrices A de orden m  n y B de orden n  p y dado cualquier escalar  se tiene AB  AB  AB y entonces lo escribiremos de cualquiera de las formas siguientes AB  AB  AB. 3. Distributivas: Dadas matrices A,B de orden m  n, C de orden n  p y D de orden q  m se tiene A  BC  AC  BC y DA  B  DA  DB 4. Se tiene que A  0  0 y 0  A  0 para cualquier matriz A, tomando la matriz nula del tamaño correspondiente en cada caso. 5. Elemento neutro: Para cualquier matriz A se cumple que IA  A y AI  A tomando I la matriz identidad del tamaño adecuado en cada caso. 6. No conmutativa: En general se tiene AB ≠ BA, para matrices A y B de órdenes m  n y n  m, respectivamente. Trasposición de matrices Dada una matriz A  aij de orden m  n se llama matriz traspuesta de A, a la matriz At  bij de orden n  m cuyos elementos son bij  aji para cada i,j. Observemos que cualquier matriz tiene traspuesta, no necesita ser cuadrada. En la práctica para calcular la traspuesta de una matriz hay que tener en cuenta que las filas de A son las columnas de At , o equivalentemente, las columnas de A las filas de At . A  2 0 −3 −2 1 4  At  2 −2 0 1 −3 4 Una matriz cuadrada A se dice que es simétrica si A  At Por ejemplo, es simétrica la matriz 1 −3 0 −3 5 4 0 4 −2 Sistemas escalonados. Método de Gauss En toda la parte de Álgebra Lineal nos van a aparecer con frecuencia (en matrices, sistemas de ecuaciones, sistemas de vectores de algunos de los espacios Rn , espacios
  • 6. vectoriales....) sistemas escalonados. Estos sistemas se caracterizan porque se puede elegir una ordenación en la que cada fila (ecuación o vector) tiene más ceros iniciales que la/el anterior, exceptuando las filas (ecuaciones o vectores) nulas que pudieran aparecer al final. 1 −3 0 3 7 0 0 4 5 0 0 0 0 1 −4 0 0 0 0 0 matriz escalonada Ejemplo: El sistema de ecuaciones lineales x1  2x2  3 − 2x2  −4 − x3  0 está escalonado, pues si representamos los coeficientes de modo matricial vemos que la matriz de coeficientes 1 2 0 0 −2 0 0 0 −1 está escalonada. Resolver un sistema de ecuaciones escalonado es bien sencillo. Para éste en concreto obtenemos en la última ecuación x3  0, de la segunda x2  2, y sustituyendo esto en la primera que x1  −1. Nota: Un sistema de ecuaciones lineales se caracteriza porque las incógnitas del sistema (en este caso x1,x2 y x3) aparecen en cada una de las ecuaciones del sistema sumando, restando o multiplicadas por un número (no aparecen ni multiplicando ni dividiendo ni realizando otro tipo de operaciones diferentes de la suma, resta o multiplicación por números). Ejemplo: El sistema de vectores de R6 v1  0,0,3,4,5,4 v2  0,2,3,4,5,−3 v3  0,0,0,0,1,−6 v4  0,0,0,0,0,2 es escalonado si se elige el orden v2,v1,v3,v4. Observemos la representación matricial con esta ordenación de los vectores: 0 2 3 4 5 −3 0 0 3 4 5 4 0 0 0 0 1 −6 0 0 0 0 0 2 El método de triangulación o escalonación de Gauss, que utilizaremos en estos temas, se utiliza para pasar de un estado inicial (sea en forma de matriz, de sistema de ecuaciones lineales, o de sistema de vectores) a otro estado que se denomina la escalonación del sistema inicial. Se hace uso de 3 tipos de transformaciones (denominadas transformaciones elementales) para la escalonación. Éstas son:
  • 7. 1. Cambiar el orden de las filas, ecuaciones o vectores. 2. Sumarle a una fila, ecuación o vector múltiplos de otras/os. 3. Multiplicar una fila, ecuación o vector por algún escalar no nulo. Observación: Podemos utilizar las siguientes notaciones cuando realicemos alguna trasformación elemental (usaremos preferentemente notación para matrices): 1. Si intercambiamos las filas Fi y Fj pondremos Fi  Fj 2. Si le añadimos a la fila Fj  veces la fila Fi pondremos Fj  Fi 3. Si multiplicamos la fila Fi por  pondremos Fi Observación: Estas transformaciones también pueden hacerse sobre las columnas, al menos para el caso de matrices, sobreentendiendo las notaciones correspondientes (cambiando la F de fila por la C de columna). Ejemplo: Escalonemos (por filas) la matriz 2 1 −1 0 1 0 −3 1 −1 −1 −2 1 En primer lugar cambiamos de orden las dos primeras filas: F1  F2 1 0 −3 1 2 1 −1 0 −1 −1 −2 1 Después le añadimos la primera fila a la segunda y a la tercera (a la segunda multiplicada por −2 y la tercera por 1) y obtenemos F2 − 2F1 F3  F1 1 0 −3 1 0 1 5 −2 0 −1 −5 2 Ahora nos fijamos únicamente en las dos últimas filas y le sumamos a la tercera la segunda. Nos da F3  F2 1 0 −3 1 0 1 5 −2 0 0 0 0 Ya tenemos escalonada la matriz inicial. Ejemplo: Escalonar el siguiente sistema de ecuaciones lineales x1  2x2  5x3  3 3x1  6x2  15x3  9 − 2x2  x3  −6
  • 8. Matricialmente se tiene 1 2 5 3 3 6 15 9 0 −2 1 −6 Le añadimos la primera fila multiplicada por −3 a la segunda y obtenemos F2 − 3F1 1 2 5 3 0 0 0 0 0 −2 1 −6 Cambiando las dos últimas llegamos a la matriz F3  F2 1 2 5 3 0 −2 1 −6 0 0 0 0 que representa al sistema x1  2x2  5x3  3 − 2x2  x3  − 6 0  0 el cual está ya escalonado. Ejemplo: Escalonemos el sistema de vectores −1,0,1,1,1,0,3,2,2,1,−1,0 Para ello hagamos operaciones sobre la matriz cuyas filas son estos vectores: −1 0 1 1 1 0 3 2 2 1 −1 0 En primer lugar le añadimos la primera fila a la segunda (multiplicada por 1) y a la tercera (multiplicada por 2), F2  F1 F3  2F1 −1 0 1 1 0 0 4 3 0 1 1 2 Después cambiamos de orden la segunda y tercera filas y obtenemos la escalonación F2  F3 −1 0 1 1 0 1 1 2 0 0 4 3 Entonces el sistema de vectores escalonado obtenido es
  • 9. −1,0,1,1,0,1,1,2,0,0,4,3 Una variante del método de Gauss es el de Gauss-Jordan, que consigue, además de ceros por debajo de la diagonal como lo hace el método de Gauss, también ceros por encima y unos en la misma diagonal. Ejemplo: Escalonar el siguiente sistema de ecuaciones lineales mediante el método de Gauss-Jordan: x1  2x2  5x3  3 3x1  6x2  14x3  9 − 2x2  x3  −4 Le añadimos a la segunda −3 veces la primera y obtenemos F2 − 3F1 x1  2x2  5x3  3 − x3  0 − 2x2  x3  −4 Cambiando de orden las dos últimas filas tenemos F2  F3 x1  2x2  5x3  3 − 2x2  x3  −4 − x3  0 sistema que ya está escalonado. Ahora le añadimos la tercera fila a la segunda y primera multiplicada por 1 y 5, respectivamente y tenemos F2  F3 F1  5F3 x1  2x2  3 − 2x2  −4 − x3  0 Seguidamente le sumamos la segunda ecuación a la primera y tenemos F1  F2 x1  −1 − 2x2  −4 − x3  0 Finalmente se multiplica la segunda ecuación por − 1 2 y la tercera por −1 para quedar así:
  • 10. − 1 2 F2 −F3 x1  −1 x2  2 x3  0 Rango El rango de una matriz A es un número que será denotado por rA ó RA. Esto podemos calcularlo, aplicando el método de Gauss para escalonar las filas (respectivamente, las columnas) de A, teniendo en cuenta que rA es el número de filas no nulas que resultan después de escalonar la matriz. Esto se debe a que las transformaciones elementales que se realizan a las filas o columnas de una matriz no varían su rango. Definición: a) Si tenemos una matriz cuyas filas son F1,F2,...,Fn, se llama combinación lineal de las filas (en adelante CL) a todo vector v que se pueda poner de la forma v  i1 n ∑ iFi  1F1  2F2 ...nFn para cualesquier números 1,2,...,n. En esta situación se dice que v es CL de F1,F2,...,Fn. b) Se dice las filas son linealmente dependientes (en adelante LD), o que hay una relación de dependencia lineal entre ellas, si alguna es CL de los demás. En caso contrario se dirá que son linealmente independientes (LI). Ejemplo: En la situación de una matriz A con cuatro filas si:  F2  1F1  3F3  4F4 se diría que F2 es CL de F1,F3 y F4.  F1  3F2 − 2F3  F4 se diría que F1 es CL de F2,F3 y F4.  F3  F2 − 7F4 (observemos que 1  0) se diría que F3 es CL de F1,F2 y F4. En los tres ejemplos anteriores las filas son LD, porque existe una relación de dependencia lineal entre ellas. En el proceso del cálculo del rango de una matriz mediante el método de escalonación de Gauss podemos, o bien dejar las filas nulas que nos vayan apareciendo al final (tal y como está concebido inicialmente el método de Gauss) o bien ir eliminando estas filas (pues luego éstas no cuentan para el rango). Lo mismo podemos hacer con las filas entre las que haya alguna relación de dependencia lineal, eliminando alguna que sea combinación lineal de las demás. Ejemplo: Vamos a hallar el rango de la matriz 2 2 3 2 0 1 1 2 0 −1 1 1 2 0 −1 2 2 2 1 0 En primer lugar cambiamos de orden la primera y segunda filas, para así operar mejor con el 1 que tiene la segunda fila como primer coeficiente. Tendríamos entonces
  • 11. F1  F2 1 1 2 0 −1 2 2 3 2 0 1 1 2 0 −1 2 2 2 1 0 donde añadimos la primera fila a las restantes, multiplicándola por números adecuados (a la segunda y cuarta se la añadimos multiplicada por −2 y a la tercera por −1). Entonces tenemos F2 − 2F1 F3 − F1 F4 − 2F1 1 1 2 0 −1 0 0 −1 2 2 0 0 0 0 0 0 0 −2 1 2 Ahora procederíamos igual con las tres últimas filas. En ellas es nulo el primer coeficiente (porque lo hemos eliminado antes) y casualmente el segundo. Empezamos pues por el tercero. Esta vez no hace falta cambiarlas de orden y lo único que tenemos que hacer es añadir un múltiplo de la segunda fila a las demás para hacer ceros. En este caso basta añadirle a la cuarta fila −2 veces la segunda para obtener F4 − 2F2 1 1 2 0 −1 0 0 −1 2 2 0 0 0 0 0 0 0 0 −3 −2 Ahora procedemos con la tercera y cuarta filas, donde nos interesa cambiarlas de orden: F3  F4 1 1 2 0 −1 0 0 −1 2 2 0 0 0 −3 −2 0 0 0 0 0 Ejemplo: Vamos a hallar el rango de la matriz 1 0 3 −2 0 −1 3 0 2 3 −1 1 −2 −2 1 0 1 1 0 −1 En primer lugar eliminamos la cuarta columna pues es -2 veces la primera 1 0 3 0 −1 3 0 3 −1 1 −2 1 0 1 1 −1 Ahora eliminamos la cuarta fila, pues es suma de la primera y la tercera
  • 12. 1 0 3 0 −1 3 0 3 −1 1 −2 1 Ahora añadimos la primera fila a las restantes. En este caso basta con sumarles a ambas la primera fila. Entonces tenemos F2  F1 F3  F1 1 0 3 0 0 3 3 3 0 1 1 1 Ahora eliminamos la segunda fila, pues es triple de la tercera y queda la matriz escalonada 1 0 3 0 0 1 1 1 que nos indica que el rango es 2. Inversa Una matriz cuadrada A de orden n se dice que es invertible cuando existe otra matriz cuadrada del mismo orden B de modo que AB  BA  In En esta situación la matriz B es única cumpliendo lo anterior, y se llamará la matriz inversa de A y escribiremos B  A−1 Nota: Puede comprobarse que B es la inversa de A si y sólo si AB  In si y sólo si BA  In, es decir, es suficiente con que uno de los dos productos resulte la matriz identidad. Propiedad: Una matriz cuadrada de orden n es invertible si y sólo si tiene rango n. La inversa de una matriz invertible A puede calcularse de varias formas. Una de ellas es directamente, planteando un sistema de ecuaciones (que se puede resolver escalonándolo por Gauss), obtenido a partir de la suposición de que los coeficientes de A−1 son indeterminados, y hacer el producto AA−1  In (ó A−1 A  In). Este método no es muy adecuado, pues hay que resolver n sistemas de n ecuaciones con n incógnitas. Es mejor el método de Gauss-Jordan que se explica a continuación. Método de Gauss-Jordan para el cálculo de la inversa Este método para el cálculo de la inversa de una matriz es en general bastante eficiente. Supongamos que tenemos una matriz A, cuadrada de orden n, que se sabe que es invertible. Pongamos la matriz A y a continuación, a la derecha, la matriz identidad de orden n. Usualmente se ponen ambas formando una matriz de orden n  2n y se separan por una línea vertical, quedando en la forma A|In. Aplicamos a la matriz A el método de Gauss-Jordan (variante del método de Gauss), consistente en hacer operaciones por fila hasta obtener la matriz identidad. El resultado de aplicarle a la matriz identidad que hay a la derecha de A esas mismas operaciones nos proporciona precisamente A−1 . Observación: Si le aplicamos el método de Gauss-Jordan a una matriz no invertible observaremos que es imposible obtener la matriz identidad en la parte izquierda. Ejemplo: Hallar la inversa de la matriz
  • 13. A  1 0 1 2 −1 0 3 2 6 Pondríamos entonces 1 0 1 2 −1 0 3 2 6 1 0 0 0 1 0 0 0 1 y aplicamos transformaciones, por ejemplo por fila. Añadimos a la segunda fila −2 veces la primera y a la tercera fila −3 veces y obtenemos F2 − 2F1 F3 − 3F1 1 0 1 0 −1 −2 0 2 3 1 0 0 −2 1 0 −3 0 1 Añadimos a la tercera fila 2 veces la segunda y llegamos a F3  2F2 1 0 1 0 −1 −2 0 0 −1 1 0 0 −2 1 0 −7 2 1 Una vez que estamos con una matriz triangular superior se hacen operaciones para hacerla diagonal. Primero cambiamos el signo de las dos últimas filas, por lo que tenemos −F2 −F3 1 0 1 0 1 2 0 0 1 1 0 0 2 −1 0 7 −2 −1 Ahora añadimos a la segunda fila −2 veces la tercera y se obtiene que F2 − 2F3 1 0 1 0 1 0 0 0 1 1 0 0 −12 3 2 7 −2 −1 Finalmente a la primera fila le restamos la tercera y nos sale F1 − F3 1 0 0 0 1 0 0 0 1 −6 2 1 −12 3 2 7 −2 −1 Entonces la matriz inversa de A es A−1  −6 2 1 −12 3 2 7 −2 −1 Ejemplo: Hallar la inversa de la matriz
  • 14. B  1 1 0 −3 0 1 2 −1 −2 Pondríamos entonces 1 1 0 −3 0 1 2 −1 −2 1 0 0 0 1 0 0 0 1 y aplicamos transformaciones, por ejemplo por fila. Añadimos a la segunda fila −2 veces la primera y a la tercera fila −3 veces, y obtenemos F2  3F1 F3 − 2F1 1 1 0 0 3 1 0 −3 −2 1 0 0 3 1 0 −2 0 1 Ahora le añadimos a la tercera fila −1 por la segunda: F3  F2 1 1 0 0 3 1 0 0 −1 1 0 0 3 1 0 1 1 1 Una vez que estamos con una matriz triangular superior, se hacen operaciones para hacerla diagonal. Primero añadimos a la segunda fila 2 veces la tercera: F2  2F3 1 1 0 0 3 0 0 0 −1 1 0 0 4 2 1 1 1 1 Multiplicando la segunda fila por 1 3 y la tercer por −1 sale: − 1 3 F2 −F3 1 1 0 0 1 0 0 0 1 1 0 0 4 3 2 3 1 3 −1 −1 −1 finalmente añadimos a la primera fila −1 por la segunda: F1 − F2 1 0 0 0 1 0 0 0 1 − 1 3 − 2 3 − 1 3 4 3 2 3 1 3 −1 −1 −1 Entonces la matriz inversa de B es B−1  − 1 3 − 2 3 − 1 3 4 3 2 3 1 3 −1 −1 −1 Recordemos los pasos que se siguen para transformar una matriz A en la matriz
  • 15. identidad: 1. Hacer ceros por debajo de la diagonal principal. 2. Convertir los elementos de la diagonal en 1. 3. Hacer ceros por encima de la diagonal principal. Nota: Los dos últimos pasos pueden entremezclarse. Determinantes La definición rigurosa del concepto de determinante requiere una serie de herramientas matemáticas que no creemos necesario tratar. El determinante está englobado dentro de lo que se denominan las aplicaciones multilineales. El determinante de una matriz cuadrada A de orden n con coeficientes sobre un cuerpo K es un escalar del cuerpo. Lo vamos a denotar por |A| (reemplazando los paréntesis usados para delimitar la matriz por líneas verticales), por detA o también por detF1,F2,....,Fn, donde se supone que F1,F2,...,Fn ∈ Kn son los vectores-fila de A (igualmente se podría usar la notación detC1,C2,...,C2 a partir de los vectores-columna C1,C2,...,Cn ∈ Kn ). Diremos indistintamente que es el determinante de la matriz o de los vectores que están en las filas o columnas. La definición exacta de determinante es un tanto técnica y no se va a incluir aquí (aunque puede verse en buena parte de los textos de Álgebra). Vamos a dar las fórmulas para el cálculo de los determinantes de orden 1, 2 y 3, y a continuación enunciaremos algunas propiedades de los determinantes que nos permiten calcular también los determinantes de orden superior. Orden 1  |a|  a Orden 2  a b c d  ad − bc Orden 3  a11 a12 a13 a21 a22 a23 a31 a32 a33   a11a22a33  a21a32a13  a31a12a23 − a13a22a31 − a23a32a11 − a33a12a21 Esta última fórmula se hace más sencilla de recordar si tenemos en cuenta que aparecen 6 sumandos, 3 de los cuales resultan de multiplicar los elementos que aparecen en la diagonal principal y los de cada una de las 2 diagonales ”paralelas” a ésta, y los otros tres resultan de multiplicar los elementos que aparecen en cada una de las 3 ”diagonales opuestas”. Esto se conoce como Regla de Sarrus. Ejemplo: 2 −3 0 1 −1 4 −2 3 5   2  −1  5  1  3  0  −2  −3  4 − 0  −1  −2 − 4  3  2 − 5  −3  1   −10  0  24 − 0 − 24  15  5
  • 16. Propiedades de los determinantes Sea A una matriz cuadrada de orden n, y supongamos que sus filas son F1,F2,...,Fn ∈ Kn . Entonces se cumplen las siguientes propiedades: 1. Si Fi  Fi ′  Fi ′′ , para ciertas filas Fi ′ ,Fi ′′ ∈ Kn , entonces detF1,...,Fi,...,Fn  detF1,...,Fi ′ ,...,Fn  detF1,...,Fi ′′ ,...,Fn 2. Para todo  ∈ K se tiene que detF1,...,Fi,...,Fn  detF1,...,Fi,...,Fn 3. Para todo i,j ∈ 1,2,...,n (i ≠ j) se tiene que detF1,...,Fj,...,Fi,...,Fn  −detF1,...,Fi,...,Fj,...,Fn 4. Para todo i,j ∈ 1,2,...,n (i ≠ j) se tiene que detF1,...,Fi  Fj,...,Fn  detF1,...,Fi,...,Fn para todo i,j ∈ 1,2,...,n (i ≠ j) y todo  ∈ K. 5. detF1,...,Fn  0 si y sólo si los vectores F1,F2,...,Fn son LD. De esto se deduce que: 6. A es invertible si y sólo si detA ≠ 0. Además en esta situación detA−1   1 detA 7. Si A es una matriz triangular superior o inferior (en particular si es una matriz diagonal) entonces detA es el producto de los elementos de la diagonal. 8. detA  detAt  9. detA  B  detA  detB para toda matriz cuadrada B de orden n. Observación: Las 5 primeras propiedades pueden enunciarse también en términos de las columnas de la matriz. Ejemplo: Vamos a calcular el siguiente determinante 1 0 2 3 2 −3 2 5 0 2 2 −3 1 1 2 4 Vamos a hacer ceros usando el elemento a11  1. Así tenemos F2 − 2F1 F4 − F1 1 0 2 3 0 −3 −2 −1 0 2 2 −3 0 1 0 1 (habiéndole añadido a la segunda, tercera y cuarta filas la primera multiplicada por −2, 0 y −1). Ahora cambiamos la segunda y cuarta filas para simplificar la eliminación, y queda
  • 17. F2  F4 − 1 0 2 3 0 1 0 1 0 2 2 −3 0 −3 −2 −1 Le añadimos ahora la segunda fila a la tercera y cuarta, multiplicada por −2 y 3 respectivamente, y llegamos a F3 − 2F2 F4  3F2 − 1 0 2 3 0 1 0 1 0 0 2 −5 0 0 −2 2 Finalmente le sumamos la tercera fila a la cuarta y tenemos F4  F3 − 1 0 1 3 0 1 0 1 0 0 2 −5 0 0 0 −3 con lo que el valor del determinante es −1  1  2  −3  6. En la siguiente sección veremos que no es necesario escalonar la matriz para obtener el determinante. Menor, menor complementario, adjunto Se llama menor de una matriz A (no necesariamente cuadrada) al determinante de cualquier submatriz cuadrada suya. En una matriz cuadrada A de orden n se llama menor complementario del elemento aij al determinante de orden n − 1 de la submatriz resultante de eliminar en A la fila i y la columna j, que son en las que está situado el elemento. Finalmente se llama adjunto del elemento aij a su menor complementario multiplicado por −1ij , es decir, se multiplica por 1 o por −1, dependiendo de que la suma de los índices fila y columna del elemento sea par o impar. Al adjunto del elemento aij en la matriz A lo denotaremos por Aij. En el ejemplo anterior el adjunto de a31  3 es A31  0 −3 5 0  15 y el adjunto de
  • 18. Algunos menores de la matriz A  2 0 3 −4 0 6 2 −1 −5 −6 0 7 son 2 0 −4 0 6 −1 −5 −6 7  −48 y 2 −4 −5 7  −6 En la matriz 1 0 −3 1 5 0 3 −3 2 el menor complementario de a31  3 es 0 −3 5 0  15 y su adjunto vale A31  0 −3 5 0  15 Y el menor complementario de a21  1 es 0 −3 −3 2  −9 su adjunto vale A21  − 0 −3 −3 2  9 Cálculo del determinante desarrollando por adjuntos Sea A una matriz cuadrada de orden n. Entonces se tiene detA  n j1 ∑ aljAlj  al1Al1  al2Al2 ...alnAln  n i1 ∑ aikAik  a1kA1k  a2kA2k ...ankAnk Lo anterior lo que nos dice es que mediante la Fl o la columna Ck podemos calcular el determinante de la matriz sumando los productos de los elementos de esa fila o columna por sus respectivos adjuntos. Por ejemplo si tenemos una matriz A  aij de orden 3 tendríamos (fijándonos por ejemplo en la primera fila o la segunda columna) detA  a11A11  a12A12  a13A13  a12A12  a22A22  a32A32 Es muy útil esta regla a la hora de calcular determinantes grandes, sobre todo si aparece alguna fila o columna con muchos elementos nulos (si es posible todos los elementos excepto uno). Por ejemplo si queremos calcular el determinante |A|  3 0 −4 −2 0 1 −5 −2 4 vamos a desarrollar por los adjuntos de la segunda columna y tendremos
  • 19. |A|  a12A12  a22A22  a32A32  0A12  0A22  −2A32  −2A32  −2  − 3 −4 −2 1   23 − 8  − Por supuesto no siempre estaremos en esta situación de tener bastantes ceros, pero aplicando las propiedades de los determinantes podremos llegar a una matriz con muchos ceros. Por ejemplo si queremos calcular ahora el determinante |A|  4 2 −4 1 3 4 2 0 6 le añadimos a la última columna −3 veces la primera y nos queda 4 2 −16 1 3 1 2 0 0 determinante que puede calcularse ahora fácilmente desarrollando por los adjuntos de la tercera fila, para obtener |A|  a31A31  a32A32  a33A33  2 2 −16 3 1  0A32  0A33  22  48  100 Rango de una matriz utilizando menores En el apéndice estará explicado con más detalle la relación entre los menores de una matriz y su rango. Lo que nos interesa fundamentalmente es la siguiente propiedad: Propiedad: Sea A un matriz de orden m  n (no necesariamente cuadrada). El rango de A es el mayor orden para el que existen menores no nulos de ese orden dentro de A. En particular se tiene que si encontramos un menor de orden r no nulo, entonces rA ≥ r. Cálculo de la inversa de una matriz mediante adjuntos Vamos a dar otro método para calcular la inversa de una matriz. Supongamos que A  aij es una matriz cuadrada invertible. Sabemos que |A| ≠ 0. Calculamos ahora lo que vamos a llamar matriz adjunta de A, y que la vamos a denotar por AdjA  bij cuyos coeficientes son los adjuntos respectivos de los elementos de A, es decir, bij  Aij para todo i,j posible. Entonces se cumple que A−1  1 |A| AdjAt De este modo la matriz inversa de A resulta de hallar la traspuesta de la adjunta y dividir por el determinante. Da lo mismo tomar la traspuesta de la adjunta que la adjunta de la traspuesta, así que también tendremos A−1  1 |A| AdjAt  Ejemplo: Hallar la inversa de la matriz
  • 20. A  1 1 3 1 2 −1 0 1 1 Como |A|  5 y AdjA  A11 A12 A13 A21 A22 A23 A31 A32 A33  2 −1 1 1 − 1 −1 0 1 1 2 0 1 − 1 3 1 1 1 3 0 1 − 1 1 0 1 1 3 2 −1 − 1 3 1 −1 1 1 1 2  3 −1 1 2 1 −1 −7 4 1 tenemos que A−1  1 |A| AdjAt  1 5 3 2 −7 −1 1 4 1 −1 1  3 5 2 5 − 7 5 − 1 5 1 5 4 5 1 5 − 1 5 1 5 Ejemplo: Hallar la inversa de la matriz 2x2 invertible A  a b c d Es sencillo obtener por la fórmula anterior que A −1  1 ad − bc d −b −c a Por ejemplo, la inversa de la matriz A  −3 6 −7 8 es A −1  1 18 8 −6 7 −3 Determinante de Vandermonde Es un determinante especial que se usa en determinadas situaciones como a la hora de hallar el polinomio interpolador de Lagrange o bien al resolver ciertas reglas de cuadratura para aproximar numéricamente integrales. Pongamos y resolvamos el caso 3x3:
  • 21. 1 1 1 a b c a2 b2 c2 Realicemos las siguientes operaciones por fila (y en ese orden): F3 − aF2 F2 − aF1  1 1 1 0 b − a c − a 0 b2 − ba c2 − ca  1 1 1 0 b − a c − a 0 bb − a cc − a  1 1 1 0 b − a c − a 0 bb − a cc − a  b − a c − a bb − a cc − a  b − ac − a 1 1 b c  c − ab − ac − b En resumen el desarrollo del determinante de Vandermonde donde la primera fila esté formada por elementos a1, a2, ...an es ij  aj − ai es decir, el producto de todas las diferencias entre los ai ′ s siempre que pongamos como minuendo el que tiene el subíndice mayor. Sistemas de ecuaciones lineales Un sistema de ecuaciones de la forma ∗ a11x1  a12x2 ....a1nxn  b1 a21x1  a22x2 ....a2nxn  b2 ...... am1x1  am2x2 ....amnxn  bm donde los aij y los bi son escalares del cuerpo K y los xj representan las incógnitas del sistema (también escalares del cuerpo K, en este caso, indeterminados), se llamará sistema de ecuaciones lineales o sistema lineal sobre el cuerpo K. Se dirá que el sistema tiene m ecuaciones y n incógnitas. A los aij se les llama coeficientes del sistema, a los bi términos independientes. Agrupando los elementos anteriores tenemos
  • 22. A  aij  matriz de coeficientes, de orden m  n B  b1 b2 ... bm  vector de términos independientes, de orden m  1 X  x1 x2 ... xn  vector de las incógnitas, de orden n  1 Definimos la matriz ampliada A|B, de orden m  n  1, como la que se forma añadiendo la columna B a la matriz A. Si ponemos el vector de términos independientes y el de las incógnitas en forma de columna obtenemos la forma matricial del sistema AX  B. Una solución del sistema de ecuaciones lineales (*) es un vector S  s1,s2,...,sn ∈ Kn tal que al sustituir cada incógnita xj por el correspondiente sj se verifican todas las ecuaciones, o equivalentemente, si se cumple la relación matricial ASt  B (St denota el traspuesto del vector-fila S, es decir, lo hemos puesto en forma de vector-columna). Según el número de soluciones los sistemas pueden ser compatibles (SC), si tienen alguna solución, o incompatibles (SI), si no tienen ninguna solución. Un sistema compatible puede tener solución única, en cuyo caso se dice que es compatible determinado (SCD), o tener más de una solución, en cuyo caso se dice que es compatible indeterminado (SCI). De hecho cuando el cuerpo es infinito (como ocurre con el caso K  R) los SCI no sólo tienen más de una solución sino que tienen infinitas. En los SCI al conjunto de todas las soluciones se le llama solución general y ésta quedará en función de una serie de parámetros. Al menor número de parámetros que se necesitan para expresar la solución general lo llamaremos grado de indeterminación o grados de libertad del sistema. Diremos que un sistema AX  B es homogéneo si B es el vector nulo, es decir, si todos los términos independientes son nulos. Éstos siempre serán SC pues el vector nulo es siempre una solución (la solución que se obtiene al coger todas las incógnitas con valor 0). Entonces un sistema homogéneo es SCI si y sólo si tiene alguna solución no nula. Al conjunto de las soluciones de un sistema homogéneo AX  0 lo denotaremos por kerA y lo llamaremos núcleo de la matriz A. Sistemas equivalentes. Método de Gauss para resolver sistemas lineales Llamaremos discutir un sistema a determinar si es SI, SCD o SCI. Por discutir y resolver se entenderá que hay además que dar la solución o soluciones, si es SC. Para ello lo que podemos hacer es utilizar el método de Gauss que consiste en aplicar transformaciones elementales hasta escalonar el sistema. Recordemos las transformaciones elementales que utilizábamos sobre matrices, sistemas o vectores:
  • 23. 1. Cambiar de orden las ecuaciones. 2. Multiplicar una ecuación por un escalar no nulo. 3. Sumar a una ecuación un múltiplo de otra. Además, aquí es posible también: 4. Cambiar de orden las incógnitas. Estas transformaciones convierten el sistema lineal inicial en otro equivalente, es decir, con las mismas soluciones. Una vez escalonado el sistema se resuelve de forma sencilla, pues:  Si al final (o en algún momento previo) nos sale un absurdo, es decir, una ecuación que no es posible que se cumpla (como 0  1, o algo similar) entonces estamos con un SI.  Si no estamos en la situación anterior (podremos escalonar hasta el final), estaremos con un SC y puede ocurrir que: - Todas las incógnitas correspondan con pivotes (se llaman pivote de cada fila al primer coeficiente no nulo que aparece. Esto es para la matriz de coeficientes. Si lo miramos en el sistema se corresponden con la primera incógnita que aparece en cada ecuación). En definitiva lo que ocurrirá es que, después de escalonar y eliminar las ecuaciones (o filas) nulas, tendremos igual número de ecuaciones que de incógnitas. En tal caso tenemos un SCD en el que la solución del sistema se puede hallar despejando el valor de las incógnitas, de abajo hacia arriba. - Haya alguna incógnita del espacio que no corresponda a ningún pivote. En este caso tenemos un SCI, y las incógnitas que no correspondan a pivotes van a ser los parámetros del sistema. El número de parámetros (que por el método de Gauss son ya el número mínimo necesario para expresar la solución general del sistema) será los grados de libertad del sistema. Durante este proceso también pueden ir eliminándose ecuaciones ”triviales” de la forma 0  0 (porque estas ecuaciones siempre se cumplen y no aportan nada nuevo) o bien ecuaciones que sean CL de otras. Ejemplos: 1. Discutir y resolver (en su caso) el siguiente sistema lineal x − y  3z  −1 5x − 3y  10z  2 2y − 5z  3 Añadiéndole a la segunda ecuación la primera multiplicada por −5 obtenemos (observemos que como son ecuaciones y no filas, empleamos E1 y E2 en vez de F1 y F2 para referirnos a ellas) E2 − 5E1 x − y  3z  −1 2y − 5z  7 2y − 5z  3 Si ahora le restamos a la tercera la segunda se tiene
  • 24. E3 − E2 x − y  3z  −1 2y − 5z  7 0  −4 En este caso hemos obtenido una ecuación contradictoria (un absurdo) 0  −4, con lo que deducimos que es un SI. 2. Discutir y resolver (en su caso) el siguiente sistema lineal x − z  −1 −2x  y  z  −5 4x − y − 3z  3 Obtenemos que la matriz ampliada del sistema es 1 0 −1 −1 −2 1 1 −5 4 −1 −3 3 Le añadimos a la segunda fila la primera multiplicada por 2, y a la tercera multiplicada por −4 y obtenemos E2  2E1 E3 − 4E1 1 0 −1 −1 0 1 −1 −7 0 −1 1 7 Eliminando entonces la tercera ecuación (es proporcional a la segunda) llegamos a la matriz 1 0 −1 −1 0 1 −1 −7 que representa al sistema x − z  −1 y − z  −7 que es equivalente al sistema inicial. Como ya está escalonado y no nos ha aparecido ninguna ecuación contradictoria estamos con un SC. Además sólo hay 2 pivotes (los correspondientes a las incógnitas x e y), con lo que sobra un incógnita, z, que será el único parámetro en este caso, de manera que tenemos un SCI (ya que hay algún parámetro). Así, poniendo z   y despejando en las ecuaciones obtenemos que y  −7  z  −7  . Y en la primera ecuación tenemos que x  z − 1   − 1. Así la solución general de este SCI es
  • 25. x   − 1 y  −7   z   con  ∈ R. 3. Discutir y resolver (en su caso) el siguiente sistema lineal x1  2x2  5x3  3 3x1  6x2  14x3  9 − 2x2  x3  −4 De nuevo le añadimos a la segunda y tercera filas un múltiplo adecuado de la primera y obtenemos E2 − 3E1 x1  2x2  5x3  3 − x3  0 − 2x2  x3  −4 Cambiando de orden las dos últimas filas tenemos E2  E3 x1  2x2  5x3  3 − 2x2  x3  −4 − x3  0 sistema que ya está escalonado. Como no hemos obtenido ninguna ecuación absurda estamos con un SC. Y como las tres variables corresponden a pivotes (x1 en la primera ecuacion, x2 en la segunda y x3 en la tercera), no va a haber ningún parámetro, de modo que tenemos un SCD. El valor de las incógnitas se halla despejando de abajo a arriba las variables, o, si empleamos Gauss-Jordan transformando previamente la matriz en una matriz ”diagonal”. Así, le añadimos la tercera fila a la segunda y primera multiplicada por 1 y 5, respectivamente y tenemos E2  E3 E1  5E3 x1  2x2  3 − 2x2  −4 − x3  0 Finalmente le sumamos la segunda ecuación a la primera y tenemos E1  E2 x1  −1 − 2x2  −4 − x3  0 de donde obtenemos que x1  −1, x2  2 y x3  0.
  • 26. Teorema de Rouché-Fröbenius Teorema: Un sistema de ecuaciones lineales es compatible si y sólo si el rango de la matriz de coeficientes coincide con el de la matriz ampliada. En este caso, el sistema es compatible determinado si este rango coincide con el número de incógnitas del espacio. Cuando el sistema es compatible indeterminado los grados de libertad se calculan como la diferencia entre el número de incógnitas y el rango. Como consecuencia del Teorema de Rouché-Fröbenius obtenemos que un sistema homogéneo AX  0 tiene solución no nula (kerA ≠ 0) si y sólo si rA  n. Método de Cramer Teorema: Supongamos que tenemos un sistema de ecuaciones lineales AX  B con matriz de coeficientes A cuadrada de orden n, y del que se sabe que es SCD. Entonces la solución del sistema x1,x2,...,xn cumple que xi  |Mi | |A| para todo i, donde Mi es la matriz obtenida a partir de A sustituyendo la columna i-ésima por la columna de términos independientes B. El método de Cramer también puede utilizarse para resolver un SCI del siguiente modo: Supongamos que rA  rA|B  k  n y elegimos un menor no nulo de A de orden k. Se dejan a la izquierda las incógnitas que forman parte del menor; el resto de incógnitas se pasarán a la derecha y serán los parámetros. Las ecuaciones que no forman parte del menor pueden eliminarse pues son CL de las restantes. La solución general del sistema puede obtenerse por Cramer, imaginando que tenemos el SCD en el que se consideran como incógnitas únicamente las que están a la izquierda, es decir, las que corresponden a los pivotes (la matriz de coeficientes de este sistema será de orden k  k pues no formarán parte de ella los coeficientes de las incógnitas que van a ser ahora parámetros, ni tampoco los de las ecuaciones que hemos eliminado). El método de Cramer es en general poco útil en la práctica, pues cuando el orden del sistema es relativamente grande hay que hacer demasiadas operaciones para resolverlo (ya cuando estamos con 3 ecuaciones y 3 incógnitas es más recomendable el de Gauss). Ejemplo: Discutir los siguientes sistemas lineales utilizando el Teorema de Rouché y resolverlos (en su caso) por el método de Cramer: 1. x1  x2 − x3  2 3x1 − x2  2x3  2 −x1 − x2 − 3x3  −2 Como 1 1 −1 3 −1 2 −1 −1 −3  16 ≠ 0 se tiene que el rango tanto de la matriz de coeficientes como el de la matriz ampliada valen 3. Por ello estamos con un SCD. Entonces la solución es
  • 27. x1  1 16 2 1 −1 2 −1 2 −2 −1 −3  16 16  1 x2  1 16 1 2 −1 3 2 2 −1 −2 −3  16 16  1 x3  1 16 1 1 2 3 −1 2 −1 −1 −2  0 16  0 2. x1 − x2  3x3  −1 2x1  x2 − x3  2 3x1  2x3  1 Es fácil comprobar que el rango tanto de la matriz de coeficientes como de la matriz ampliada es 2. Por ello estamos con un SCI. Como las dos primeras filas de la matriz ampliada son LI la última es necesariamente CL de ellas dos. De este modo podemos eliminar la última y quedarnos con el sistema x1 − x2  3x3  −1 2x1  x2 − x3  2 que es equivalente al primero. Podemos quedarnos con un menor de orden dos no nulo (por ejemplo el que corresponde a las dos primeras filas y columnas) y poniendo el sistema en la forma x1 − x2  −1 − 3x3 2x1  x2  2  x3 para el que imaginamos que tiene sólo dos ecuaciones y dos incógnitas, y cuyas soluciones podemos hallarlas en función de x3 por Cramer: x1  −1 − 3x3 −1 2  x3 1 1 −1 2 1  1 − 2x3 3
  • 28. x2  1 −1 − 3x3 2 2  x3 1 −1 2 1  4  7x3 3 Ejemplo: Discutir y resolver (en su caso) el siguiente sistema de ecuaciones lineales en función del parámetro a x1  2x2  5x3  3 x1  3x2  8x3  5 − 2x2  ax3  4 Añadiéndole la primera fila a las demás obtenemos x1  2x2  5x3  3 x2  3x3  2 − 2x2  ax3  4 Le añadimos ahora la segunda fila a la tercera y tenemos x1  2x2  5x3  3 x2  3x3  2 a  6x3  8 Entonces la discusión se hace teniendo en cuenta que el parámetro aparece en alguno de los pivotes una vez que el sistema está escalonado. x1 y x2 son las variables que corresponden a pivotes. El coeficiente a  6 puede ser nulo (si a  −6) con lo que en ese caso la variable x3 no sería un pivote, es más tendríamos una ecuación de la forma 0  8. Así que en ese caso (a  −6) tenemos un SI. Y cuando a ≠ −6 tendremos que la variable x3 sí que es un pivote (pues su coeficiente a  6 es no nulo) y estamos con un SC. Además al no sobrar ninguna variable, ya que todas se corresponden con pivotes, tendríamos un SCD, cuya solución (dependiente de a) se hallaría despejando como hacemos habitualmente: x3  8 a6 , x2  2 − 3 8 a6 y x1  3 − 22 − 3 8 a6  − 5 8 a6 . Otro modo de discutir este sistema es utilizando el Teorema de Rouché-Froebenius, calculando los rangos de las matrices asociadas. Para esto puede ser útil el determinante (que en este caso tiene sentido pues la matriz de coeficientes es cuadrada; en el caso de que sea cuadrada la matriz ampliada también se puede utilizar; pero en cualquier otro caso no), hallando el de la matriz de coeficientes |A|  1 2 5 1 3 8 0 −2 a  1 2 5 0 1 3 0 −2 a  1 1 3 −2 a  a  6 Cuando |A| ≠ 0 (para a ≠ −6) el rango de la matriz A es 3, y como el rango de la matriz ampliada no puede ser mayor (al tener 3 filas) tendríamos rA  rA|B  3 número de
  • 29. incógnitas. Entonces tenemos que si |A| ≠ 0 (a ≠ −6) el rango de la matriz A es 3, y como el rango de la matriz ampliada no puede ser mayor (al tener 3 filas) tendríamos rA  rA|B  3 número de incógnitas. En este caso tendríamos un SCD, cuya única solución, dependiente de cada valor a ≠ −6, se podrá hallar por el método anterior o utilizando la fórmula de Cramer (éste es uno de los pocos casos en los que puede resultar útil este método). Y en el caso en que |A|  0 (a  −6) tenemos que hacerlo de forma directa. Pero se ve fácilmente que rA  2 y rA|B  3, con lo que tendríamos un SI. El resultado de la discusión ha sido entonces: Si a ≠ −6 SCD y si a  −6 SI.