SlideShare una empresa de Scribd logo
1 de 208
Descargar para leer sin conexión
Rep´ublica Bolivariana de Venezuela
Universidad Nacional Experimental Polit´ecnica
“Antonio Jos´e de Sucre”
Vice-Rectorado Barquisimeto
Departamento de Estudios Generales y B´asicos
Secci´on de Matem´atica
Apuntes de ´Algebra Lineal
Autores: MSc. Jorge F. Campos S.
MSc. Dorka M. Chaves E.
Barquisimeto, 2008
´Indice general
´Indice general I
1. Matrices y Sistemas de Ecuaciones Lineales 1
1.1. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Suma de Matrices y Multiplicaci´on por Escalar . . . . . . . . . . . . . . . 5
1.1.2. Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.3. Transposici´on o Trasposici´on de Matrices . . . . . . . . . . . . . . . . . . . 16
1.2. Operaciones Elementales por Filas . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4. Inversa de una Matriz Cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.5. Determinantes. Propiedades de los Determinantes . . . . . . . . . . . . . . . . . . 46
1.6. Matriz Adjunta. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
1.7. Determinantes de Matrices Triangulares por Bloques . . . . . . . . . . . . . . . . 70
2. Espacios Vectoriales 76
2.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.3. Combinaci´on Lineal y Espacio Generado . . . . . . . . . . . . . . . . . . . . . . . 88
2.4. Independencia y Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.5. Bases y Dimensi´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
2.6. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz . . . . . . . . . . 107
3. Matriz de Cambio de Base. Espacios con Producto Interno 117
3.1. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.2. Espacios con producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
3.3. Bases Ortonormales y Proceso de Ortonormalizaci´on de Gram-Schmidt . . . . . . 132
3.4. Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
4. Transformaciones Lineales. Autovalores y Autovectores de una Matriz 149
4.1. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
4.2. Representaci´on Matricial de una Transformaci´on Lineal . . . . . . . . . . . . . . . 161
4.3. N´ucleo e Imagen de una Transformaci´on Lineal . . . . . . . . . . . . . . . . . . . 168
4.4. Autovalores y Autovectores de una Matriz . . . . . . . . . . . . . . . . . . . . . . 175
4.5. Diagonalizaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
i
´Indice general ii
4.6. Autovectores y Autoespacios Generalizados. Forma Can´onica de Jordan . . . . . . 191
Ap´endices 207
A. Campos y N´umeros Complejos 208
A.1. Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
A.2. El Campo de los N´umeros Complejos . . . . . . . . . . . . . . . . . . . . . . . . . 218
B. Algo m´as sobre Espacios Vectoriales 226
B.1. K-Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
B.2. Espacios Vectoriales de Dimensi´on Infinita . . . . . . . . . . . . . . . . . . . . . . 228
B.3. Espacios con Producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
B.4. Espacios Normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
C. Algo m´as sobre Transformaciones Lineales 229
C.1. Transformaciones Lineales Invertibles . . . . . . . . . . . . . . . . . . . . . . . . . 229
C.2. Autovalores y Autovectores de Transformaciones Lineales . . . . . . . . . . . . . . 234
D. Demostraciones de Algunos Teoremas 238
Cap´ıtulo 1
Matrices y Sistemas de Ecuaciones Lineales
1.1. Operaciones con Matrices
Definici´on 1.1. Sean m, n ∈ Z+
. Una matriz real A de orden m por n (m × n) es un
arreglo bidimensional de n´umeros reales dispuestos en m filas y n columnas como sigue
A = (aij)m×n =







a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
...
am1 am2 · · · amn







=







a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
...
am1 am2 · · · amn







donde aij ∈ R para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}, el cual es llamado componente
ij-´esima de A.
Para cada i ∈ {1, . . ., m} la i-´esima fila de A la denotaremos por A(i) y est´a dada por
A(i) = ai1 ai2 · · · ain
Para cada j ∈ {1, . . ., n} la j-´esima columna de A la denotaremos por A(j)
y est´a dada por
A(j)
=







a1j
a2j
...
amj







Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las
componentes a11, a22, . . ., ann forman lo que llamaremos diagonal principal de A.
Cuando m = 1, diremos que A es una matriz fila y cuando n = 1, diremos que A es una
matriz columna.
La notaci´on A = (aij)m×n, significa que A es la matriz de orden m × n cuya ij-´esima compo-
nente es aij para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}.
El conjunto formado por todas las matrices reales de orden m×n lo denotaremos por Mm×n(R).
1
Matrices y Sistemas de Ecuaciones Lineales 2
Observaci´on 1.1. Podemos considerar matrices sobre un campo K (ver ap´endice B), por
ejemplo K = C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son
elementos de K.
Observaci´on 1.2. Se debe tener cuidado cuando se usa la notaci´on (aij)m×n, el cambio de
´ındices no significa que se trata de otra matriz, los ´ındices son “mudos”, esto es
(aij)m×n = (akr)m×n = (apq)m×n = (aji)m×n
Ejemplo 1.1.
1. A =
−2 0
√
5
2
3
4 1
es una matriz real de orden 2×3, la componente 2, 1 de A es a2,1 = 2
3
,
la fila 2 de A es A(2) = 2
3
4 1 , la columna 3 de A es A(3)
=
√
5
1
2. B =




−1 4 0
5 12 −3
0 2 −8



 es una matriz cuadrada real de orden 3, las componentes de la
diagonal principal son a1,1 = −1, a2,2 = 12, a3,3 = −8.
3. La matriz In = (δij)n×n, donde δij =
1 si i = j
0 si i = j
, para cada i, j ∈ {1, . . . , n}, es llamada
matriz identidad de orden n, esto es,
In =







1 0 · · · 0
0 1
...
...
...
...
... 0
0 · · · 0 1







n×n
4. La matriz 0/
m×n = (ξij)m×n, donde ξij = 0 para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . . , n},
es llamada matriz nula de orden m × n, es decir
0/
m×n =




0 · · · 0
...
...
0 · · · 0




m×n
Matrices y Sistemas de Ecuaciones Lineales 3
Cuando m = n, s´olo escribiremos 0/
n en lugar de 0/
n×n, es decir,
0/
n =




0 · · · 0
...
...
...
0 · · · 0




n×n
Definici´on 1.2. Sea A ∈ Mn×n(R). Diremos que A = (aij)n×n es
1. Triangular superior si aij = 0 para i, j ∈ {1, . . ., n} con i > j.
2. Triangular inferior si aij = 0 para i, j ∈ {1, . . ., n} con i < j.
3. Diagonal si aij = 0 para i, j ∈ {1, . . . , n} con i = j, es decir, A es triangular superior e
inferior simult´aneamente.
4. Escalar si es diagonal y existe λ ∈ R tal que aii = λ para i ∈ {1, . . . , n}.
Observaci´on 1.3. Una matriz cuadrada es triangular superior (respectivamente inferior) si y
s´olo si todas sus componentes bajo (respectivamente sobre) la diagonal principal son iguales a
cero.
Observaci´on 1.4. Cuando A ∈ Mn×n(R) es diagonal y las componentes en la diagonal principal
son λ1, λ2, . . . , λn ∈ R, entonces escribiremos A = diag(λ1, λ2, . . . , λn)
Ejemplo 1.2.
1. Para cada n ∈ Z+
, In y 0/
n son matrices escalares, y por lo tanto diagonales y consecuente-
mente triangulares superior e inferior.
2. A =







−5 4 0 −7
0 3 12 5
0 0 2 1
0 0 0 0







es triangular superior.
3. A =







−5 0 0 0
0 4 0 0
0 −1 0 0
9 13 −3 8







es triangular inferior.
Matrices y Sistemas de Ecuaciones Lineales 4
4. A =







6 0 0 0
0 −3 0 0
0 0 −5 0
0 0 0 0







es diagonal, en cuyo caso podemos escribir A = diag(6, −3, −5, 0).
5. A =







8 0 0 0
0 8 0 0
0 0 8 0
0 0 0 8







es escalar, en cuyo caso podemos escribir A = diag(8, 8, 8, 8).
Definici´on 1.3. Sean A, B ∈ Mm×n(R). Diremos que A y B son matrices iguales, lo cual
denotaremos por A = B, si la componente ij-´esima de A es igual a la componente ij-´esima de
B para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . ., n}, es decir, si A = (aij)m×n y B = (bij)m×n,
diremos que A y B son iguales si
aij = bij para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}
Observaci´on 1.5. N´otese que para que dos matrices sean iguales, en primer lugar deben ser
del mismo orden.
Ejemplo 1.3. Si A =
5 −1 0
−6 8 3
; B =




5 7
0 y
−2 4



 y C =




x 7
0 −3
−2 4



, entonces A = B
pues ni siquiera son del mismo orden; B = C si y s´olo si x = 5 e y = −3.
El siguiente teorema es una consecuencia directa de la definici´on de igualdad de matrices, su
demostraci´on la dejamos como ejercicio.
Teorema 1.1. Sean A, B ∈ Mm×n(R). Entonces las siguientes proposiciones son equivalentes
1. A = B.
2. A(i) = B(i) para cada i ∈ {1, . . ., m}.
3. A(j)
= B(j)
para cada j ∈ {1, . . ., n}.
Demostraci´on. ¡Ejercicio!
Matrices y Sistemas de Ecuaciones Lineales 5
1.1.1. Suma de Matrices y Multiplicaci´on por Escalar
En esta secci´on definiremos dos operaciones con matrices que dotar´an al conjunto Mm×n(R)
de una estructura algebraica conocida como espacio vectorial, dicha estructura ser´a tratada
en el cap´tulo 2 del presente trabajo.
Definici´on 1.4. Sean A, B ∈ Mm×n(R) con A = (aij)m×n y B = (bij)m×n. Definiremos la
matriz suma de A con B, como la matriz A + B ∈ Mm×n(R) cuya ij-´esima componente viene
dada por aij + bij para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}, esto es, si A + B = (cij)m×n,
entonces cij = aij + bij para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}.
Observaci´on 1.6. Para poder sumar dos matrices estas deben ser del mismo orden.
Ejemplo 1.4. Si A =




4 −9 0 8
−7 3 5 −12
1 0 −6 2



 y B =




−3 9 5 −4
1 −13 3 9
10 4 7 11



, entonces
A + B =




4 −9 0 8
−7 3 5 −12
1 0 −6 2



 +




−3 9 5 −4
1 −13 3 9
10 4 7 11




=




4 + (−3) −9 + 9 0 + 5 8 + (−4)
−7 + 1 3 + (−13) 5 + 3 −12 + 9
1 + 10 0 + 4 −6 + 7 2 + 11



 =




1 0 5 4
−6 −10 8 −3
11 4 1 13




Definici´on 1.5. Sean A ∈ Mm×n(R) y α ∈ R (α es llamado escalar), con A = (aij)m×n.
Definiremos la multiplicaci´on de α por A ( multiplicaci´on por escalar) como la matriz
α · A ´o simplemente αA cuya ij-´esima componente es αaij para cada i ∈ {1, . . . , m} y cada
j ∈ {1, . . ., n}, esto es, si αA = (bij)m×n, entonces bij = αaij para cada i ∈ {1, . . . , m} y cada
j ∈ {1, . . . , n}.
Observaci´on 1.7. La notaci´on de multiplicaci´on por escalar es α · A o αA y no A · α ni Aα,
se debe colocar primero el escalar luego la matriz.
Observaci´on 1.8. Toda matriz escalar de orden n es un m´ultiplo escalar de In, ms an, A ∈
Mn×n(R) es una matriz escalar si y s´olo si existe λ ∈ R tal que A = λIn.
Matrices y Sistemas de Ecuaciones Lineales 6
Ejemplo 1.5. Sea A la matriz del ejemplo 1.4, entonces
2 · A = 2 ·




4 −9 0 8
−7 3 5 −12
1 0 −6 2



 =




2 · 4 2(−9) 2 · 0 2 · 8
2(−7) 2 · 3 2 · 5 2(−12)
2 · 1 2 · 0 2(−6) 2 · 2




=




8 −18 0 16
−14 6 10 −24
2 0 −12 4




Teorema 1.2. Sean A, B, C ∈ Mm×n(R) y α, β ∈ R cualesquiera. Entonces
1. A + B = B + A (conmutatividad de la suma).
2. (A + B) + C = A + (B + C) (asociatividad de la suma).
3. A + 0/
m×n = A = 0/
m×n +A (neutro aditivo).
4. Existe una matriz D ∈ Mm×n(R) tal que A + D = 0/
m×n = D + A (opuesto aditivo).
5. α(A + B) = αA + αB (distributividad de la multiplicaci´on por escalar respecto a la suma
matricial).
6. (α + β)A = αA + βA (distributividad de la multiplicaci´on por escalar respecto a la suma
escalar).
7. α(βA) = (αβ)A = β(αA) (asociatividad de la multiplicaci´on por escalar).
8. 1 · A = A (neutro de la multiplicaci´on por escalar).
Demostraci´on. Sean A = (aij)m×n, B = (bij)m×n y C = (cij)m×n.
1. Hagamos A + B = E = (eij)m×n y B + A = F = (fij)m×n. Por definici´on de suma de
matrices, tenemos que para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}
eij = aij + bij = bij + aij = fij
Luego A + B = E = F = B + A (definici´on de igualdad de matrices).
Matrices y Sistemas de Ecuaciones Lineales 7
2. Hagamos A + B = E = (eij)m×n, (A + B) + C = E + C = F = (fij)m×n, B + C = G =
(gij)m×n y A + (B + C) = A + G = H = (hij)m×n. As´ı que por definici´on de suma de
matrices
fij = eij + cij = (aij + bij) + cij = aij + (bij + cij) = aij + gij = hij
De donde (A + B) + C = F = H = A + (B + C) (definici´on de igualdad de matrices).
3. Recordemos que 0/
m×n = (ξij)m×n donde ξij = 0 para cada i ∈ {1, . . . , m} y cada j ∈
{1, . . . , n}. As´ı que si A + 0/
m×n = E = (eij)m×n, entonces, por definici´on de suma de
matrices, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
eij = aij + ξij = aij + 0 = aij
Por lo tanto A + 0/
m×n = E = A y por conmutatividad
A + 0/
m×n = A = 0/
m×n +A
4. Definamos D = (dij)m×n con dij = −aij para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}.
Hagamos A + D = E = (eij)m×n. Entonces, por definici´on de suma de matrices, para cada
i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}
eij = aij + dij = aij + (−aij) = 0
Por lo tanto A + D = E = 0/
m×n y por conmutatividad
A + D = 0/
m×n = D + A
5. Hagamos A + B = E = (eij)m×n, α(A + B) = αE = F = (fij)m×n, αA = G = (gij)m×n,
αB = H = (hij)m×n y αA + αB = G + H = P = (pij)m×n. Entonces, para cada
i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n} tenemos que
fij = αeij (definici´on de multiplicaci´on por escalar)
= α(aij + bij) (definici´on de suma de matrices)
= αaij + αbij
= gij + hij (definici´on de multiplicaci´on por escalar)
= pij (definici´on de suma de matrices)
Luego
α(A + B) = F = P = αA + αB
Matrices y Sistemas de Ecuaciones Lineales 8
6. Hagamos (α + β)A = E = (eij)m×n, αA = F = (fij)m×n, βA = G = (gij)m×n y αA + βA =
F + G = H = (hij)m×n. En consecuencia, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . ., n}
se tiene que
eij = (α + β)aij (definici´on de multiplicaci´on por escalar)
= αaij + βaij
= fij + gij (definici´on de multiplicaci´on por escalar)
= hij (definici´on de suma de matrices)
De donde
(α + β)A = E = H = αA + βA
7. Hagamos βA = E = (eij)m×n, α(βA) = αE = F = (fij)m×n y (αβ)A = G = (gij)m×n.
As´ı que, por definici´on de multiplicaci´on de por escalar, para cada i ∈ {1, . . ., m} y cada
j ∈ {1, . . . , n} obtenemos
fij = αeij = α(βaij) = (αβ)aij = gij
Luego α(βA) = F = G = (αβ)A y en consecuencia
β(αA) = (βα)A = (αβ)A
Por lo tanto
α(βA) = (αβ)A = β(αA)
8. Hagamos 1 · A = E = (eij)m×n. As´ı que al usar la definici´on de multiplicaci´on por escalar,
se tiene que para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}
eij = 1 · aij = aij
En consecuencia
1 · A = E = A
Teorema 1.3.
1. La matriz nula 0/
m×n es la ´unica matriz real de orden m×n tal que para cada A ∈ Mm×n(R)
se cumple que A + 0/
m×n = A = 0/
m×n +A.
Matrices y Sistemas de Ecuaciones Lineales 9
2. Para cada matriz A ∈ Mm×n(R), existe una ´unica matriz D ∈ Mm×n(R) tal que A + D =
0/
m×n = D + A, tal matriz D es llamada matriz opuesta de A y se denota por −A.
Demostraci´on. La parte 3 del teorema 1.2 garantiza que la matriz nula 0/
m×n satisface que para
cada A ∈ Mm×n(R) se cumple que A + 0/
m×n = A = 0/
m×n +A. Adem´as, la existencia de la matriz
D es garantizada en la parte 4 del mismo teorema. S´olo faltar´ıa probar la unicidad de ambas
matrices.
1. Supongamos que P ∈ Mm×n(R) es tal que A + P = A = P + A para cada A ∈ Mm×n(R),
luego
P = P + 0/
m×n (por la parte 3 del teorema 1.2)
= 0/
m×n (hip´otesis)
2. Sea A ∈ Mm×n(R) cualquiera. Supongamos que existen D, E ∈ Mm×n(R) tales que
A + D = 0/
m×n = D + A (1.1)
A + E = 0/
m×n = E + A (1.2)
En consecuencia
D = D + 0/
m×n (teorema 1.2 parte 3)
= D + (A + E) (por la ecuaci´on 1.2)
= (D + A) + E (teorema 1.2 parte 2)
= 0/
m×n +E (por la ecuaci´on 1.1)
= E (teorema 1.2 parte 3)
Teorema 1.4. Sean A, B, C ∈ Mm×n(R) tales que A + B = A + C. Entonces B = C.
Demostraci´on. ¡Ejercicio!
Teorema 1.5. Sean A ∈ Mm×n(R) y α ∈ R cualesquiera. Entonces
1. 0 · A = 0/
m×n.
Matrices y Sistemas de Ecuaciones Lineales 10
2. α 0/
m×n = 0/
m×n.
3. (−1)A = −A.
4. Si αA = 0/
m×n, entonces α = 0 ´o A = 0/
m×n.
Demostraci´on.
1. Sabemos que
0 · A + 0/
m×n = 0 · A (¿por qu´e?)
adem´as
0 · A = (0 + 0)A = 0 · A + 0 · A
as´ı que
0 · A + 0 · A = 0 · A + 0/
m×n
y por el teorema 1.4, se tiene que 0 · A = 0/
m×n
2. Por un lado
α · 0/
m×n = α · 0/
m×n + 0/
m×n (¿por qu´e?)
por otro lado
α · 0/
m×n = α(0/
m×n + 0/
m×n) = α · 0/
m×n +α · 0/
m×n
luego
α · 0/
m×n + 0/
m×n = α · 0/
m×n +α · 0/
m×n
y nuevamente, usando el teorema 1.4, tenemos que α 0/
m×n = 0/
m×n
3. Basta probar que A + (−1)A = 0/
m×n, y por unicidad, obtendr´ıamos el resultado. Veamos
A + (−1)A = 1 · A + (−1)A (teorema 1.2 parte 8)
= (1 + (−1))A (teorema 1.2 parte 6)
= 0 · A
= 0/
m×n (por la parte 1)
Luego, por unicidad de la matriz opuesta, (−1)A = −A
Matrices y Sistemas de Ecuaciones Lineales 11
4. Supongamos que αA = 0/
m×n. Si α = 0, no hay nada que probar, supongamos entonces que
α = 0, as´ı que
A = 1 · A (teorema 1.2 parte 8)
= (α−1
α)A
A = α−1
(αA) (teorema 1.2 parte 7)
= α−1
0/
m×n (por hip´otesis)
= 0/
m×n (por la parte 2)
Con lo cual, se concluye la prueba.
Definici´on 1.6. Sean A, B ∈ Mm×n(R). Definiremos A − B = A + (−B).
Ejemplo 1.6. Si A =







4 −12 0
−6 5 −3
6 −1 2
7 0 1







y B =







5 −10 −6
6 −1 11
4 0 5
−2 −6 −1







, entonces
A − B = A + (−B) =







4 −12 0
−6 5 −3
6 −1 2
7 0 1







+







−







5 −10 −6
6 −1 11
4 0 5
−2 −6 −1














=







4 −12 0
−6 5 −3
6 −1 2
7 0 1







+







−5 10 6
−6 1 −11
−4 0 −5
2 6 1







=







−1 −2 6
−12 6 −14
2 −1 −3
9 6 2







1.1.2. Producto de Matrices
A diferencia de las dos operaciones definidas en la secci´on anterior, la multiplicaci´on de matrices
no se define de manera “natural”, como veremos luego, no por ello deja de ser importante dicha
operaci´on.
Matrices y Sistemas de Ecuaciones Lineales 12
Definici´on 1.7. Sean A = (aij)m×n ∈ Mm×n(R) y B = (bjk)n×p ∈ Mn×p(R). Definiremos el
producto de A por B como la matriz C = (cik)m×p ∈ Mm×p(R), denotada por AB ´o A · B, tal
que para cada i ∈ {1, . . ., m} y cada k ∈ {1, . . . , p} se tiene que
cik =
n
j=1
aijbjk = ai1b1k + ai2b2k + · · · + ainbnk
Observaci´on 1.9. N´otese que para poder definir el producto AB, la cantidad de columnas de
A debe coincidir con la cantidad de filas de B, adem´as, la matriz resultante, es una matriz cuya
cantidad de filas coincide con la cantidad de filas de A y su cantidad de columnas es igual a la
cantidad de columnas de B.
Ejemplo 1.7. Sean A =
2 −1 0
0 3 1
y B =




3 1 0
2 −1 −2
−4 −2 3



. Entonces
AB = A · B
=
2 · 3 + (−1)2 + 0(−4) 2 · 1 + (−1)(−1) + 0(−2) 2 · 0 + (−1)(−2) + 0 · 3
0 · 3 + 3 · 2 + 1(−4) 0 · 1 + 3(−1) + 1(−2) 0 · 0 + 3(−2) + 1 · 3
=
6 − 2 + 0 2 + 1 + 0 0 + 2 + 0
0 + 6 − 4 0 − 3 − 2 0 − 6 + 3
=
4 3 2
2 −5 −3
Observaci´on 1.10. N´otese que en el ejemplo anterior, el producto BA no est´a definido, esto
nos dice que el producto de matrices no es conmutativo, m´as a´un, a pesar de que ambos productos
est´an definidos, AB y BA, no necesariamente son ambos del mismo orden, adem´as, siendo ambos
productos del mismo orden, en cuyo caso necesariamente A y B deben ser cuadradas y del mismo
orden, las matrices AB y BA no tienen por que ser iguales, cuando esto ocurre, es decir, cuando
AB = BA, se dice que A y B son matrices que conmutan.
A continuaci´on enunciaremos un teorema que expone las principales propiedades del producto
de matrices
Teorema 1.6. Sean A ∈ Mm×n(R); B, C ∈ Mn×p(R); C ∈ Mp×q(R) y α ∈ R. Entonces
1. (AB)D = A(BD) (asociatividad del producto de matrices).
2. A(B + C) = AB + AC (distributividad a izquierda del producto de matrices).
Matrices y Sistemas de Ecuaciones Lineales 13
3. (B + C)D = BD + CD (distributividad a derecha del producto de matrices).
4. α(AB) = (αA)B = A(αB) (asociatividad del producto de matrices y la multiplicaci´on por
escalar).
5. ImA = A = AIn (neutros del producto de matrices).
6. B 0/
p×q = 0/
n×q y 0/
m×n B = 0/
m×p.
Demostraci´on. Sean A = (aij)m×n; B = (bjk)n×p; C = (cjk)n×p y D = (dkl)p×q.
1. Hagamos AB = E = (eik)m×p; (AB)D = ED = F = (fil)m×q; BD = G = (gjl)n×q y
A(BD) = AG = H = (hil)m×q. Entonces, usando la definici´on de producto matricial, para
cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}
eik =
n
j=1
aijbjk
para cada j ∈ {1, . . ., n} y cada l ∈ {1, . . . , q}
gjl =
p
k=1
bjkdkl
y para cada i ∈ {1, . . . , m} y cada l ∈ {1, . . ., q}
fil =
p
k=1
eikdkl; hil =
n
j=1
aijgjl
Luego
fil =
p
k=1
eikdkl =
p
k=1
n
j=1
aijbjk dkl =
p
k=1
n
j=1
aijbjkdkl =
n
j=1
p
k=1
aijbjkdkl
=
n
j=1
aij
p
k=1
bjkdkl =
n
j=1
aijgjl = hil
Por lo tanto, usando la definici´on de igualdad de matrices
(AB)D = F = H = A(BD)
Matrices y Sistemas de Ecuaciones Lineales 14
2. Hagamos B + C = E = (ejk)n×p; A(B + C) = AE = F = (fik)m×p; AB = G = (gik)m×p;
AC = H = (hik)m×p y AB + AC = G + H = R = (rik)m×p. Entonces, para cada i ∈
{1, . . . , m} y cada k ∈ {1, . . ., p}
fik =
n
j=1
aijejk (definici´on de producto de matrices)
=
n
j=1
aij(bjk + cjk) (definici´on de suma de matrices)
=
n
j=1
(aijbjk + aijcjk) =
n
j=1
aijbjk +
n
j=1
aijcjk
= gik + hik (definici´on de producto de matrices)
= rik (definici´on de suma de matrices)
En consecuencia
A(B + C) = F = R = AB + AC
3. An´alogo a la demostraci´on de la parte 2.
4. Sean AB = E = (eik)m×p; α(AB) = αE = F = (fik)m×p; αA = G = (gij)m×n y (αA)B =
GB = H = (hik)m×p. Entonces, para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}
fik = αeik (definici´on de multiplicaci´on por escalar)
= α
n
j=1
aijbjk (definici´on de producto de matrices)
=
n
j=1
α(aijbjk) =
n
j=1
(αaij)bjk
=
n
j=1
gijbjk (definici´on de multiplicaci´on por escalar)
= hik (definici´on de producto de matrices)
De donde α(AB) = F = H = (αA)B. De manera an´aloga se prueba que α(AB) = A(αB),
as´ı que
α(AB) = (αA)B = A(αB)
5. Recordemos que In = (δjk)n×n, donde
δjk =
1 si j = k
0 si j = k
(1.3)
Matrices y Sistemas de Ecuaciones Lineales 15
para cada j, k ∈ {1, . . . , n}.
Hagamos AIn = E = (eik)m×n. Entonces, para cada i ∈ {1, . . ., m} y cada k ∈ {1, . . ., n}
eik =
n
j=1
aijδjk (definici´on de producto de matrices)
= ai1δ1k + · · · + ai(k−1)δ(k−1)k + aikδkk + ai(k+1)δ(k+1)k + · · · + ainδnk
= ai1 · 0 + · · · + ai(k−1) · 0 + aik · 1 + ai(k+1) · 0 + · · · + ain · 0 (por 1.3)
= aik
Por lo tanto AIn = E = A, an´alogamente puede probarse que ImA = A, en consecuencia
AIn = A = ImA
6. ¡Ejercicio!
Ejercicio 1.1. Pruebe que si A ∈ Mm×n(R) y B ∈ Mn×p(R), entonces
1. AB = AB(1)
AB(2)
· · · AB(p) (desarrollo por columnas del producto AB), es decir,
la k-´esima columna de AB, que es (AB)(k)
, es igual a A por la k-´esima columna de B,
AB(k)
, para cada k ∈ {1, . . . , p}.
2. AB =







A(1)B
A(2)B
...
A(m)B







(desarrollo por filas del producto AB), es decir, la i-´esima fila de AB,
que es (AB)(i), es igual a la i-´esima fila de A por B, A(i)B, para cada i ∈ {1, . . . , m}.
Ejercicio 1.2. Dada una matriz A ∈ Mn×n(R), para k ∈ N definamos
Ak
=



0/
n si A = 0/
n y k ≥ 1
In si A = 0/
n y k = 0
Ak−1
A si A = 0/
n y k ≥ 1
Pruebe que Ak
Ar
= Ak+r
para cualesquiera k, r ∈ N.
Definici´on 1.8. Una matriz N ∈ Mn×n(R) es llamada nilpotente si existe p ∈ N tal que
Np
= 0/
n, adem´as, si p es tal que Np−1
= 0/
n, diremos que N es nilpotente de orden p.
Matrices y Sistemas de Ecuaciones Lineales 16
Observaci´on 1.11. La matriz nula de orden n es nilpotente y conveninos en que es nilpotente
de orden 0.
Ejemplo 1.8. Las siguientes matrices son nilpotentes
N1 =







−1 1 0 0
−1 0 1 0
−1 0 1 0
−1 0 1 0







; N2 =







0 1 0 0
0 0 1 0
0 0 0 1
0 0 0 0







N1 es de orden 3 y N2 es de orden 4 (¡verif´ıquelo!).
1.1.3. Transposici´on o Trasposici´on de Matrices
Definici´on 1.9. Sea A = (aij)m×n ∈ Mm×n(R). Definiremos la transpuesta o traspuesta de
A como la matriz AT
= (bji)n×m ∈ Mn×m(R) tal que
bji = aij para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}
Ejemplo 1.9. Sea
A =




−2 5 0 7
3 0 1 −6
−5 12 −2 9




Entonces
AT
=







−2 3 −5
5 0 12
0 1 −2
7 −6 9







Observaci´on 1.12. N´otese que las filas de A “pasan” a ser las columnas de AT
y las columnas
de A “pasan” a ser las filas de AT
, m´as propiamente
A(i)
T
= AT (i)
para cada i ∈ {1, . . ., m}
A(j) T
= AT
(j)
para cada j ∈ {1, . . ., n}
Teorema 1.7. Sean A, B ∈ Mm×n(R), C ∈ Mn×p(R) y α ∈ R. Entonces
Matrices y Sistemas de Ecuaciones Lineales 17
1. AT T
= A (propiedad de involuci´on de la transposici´on de matrices)
2. (A + B)T
= AT
+ BT
(transpuesta de la suma)
3. (αA)T
= αAT
(transpuesta de la multiplicaci´on por escalar)
4. (AC)T
= CT
AT
(transpuesta del producto matricial)
5. (In)T
= In y (0/
m×n)T
= 0/
n×m
Demostraci´on. Sean A = (aij)m×n; B = (bij)m×n y C = (cjk)n×p.
1. Hagamos AT
= D = (dji)n×m y AT T
= DT
= E = (eij)m×n. Entonces, para cada
i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}, por definici´on de transpuesta
eij = dji = aij
Luego
AT T
= E = A
2. Sean A + B = D = (dij)m×n; (A + B)T
= DT
= E = (eji)n×m; AT
= F = (fji)n×m;
BT
= G = (gji)n×m y AT
+BT
= F+G = H = (hji)n×m. Entonces, para cada i ∈ {1, . . ., m}
y cada j ∈ {1, . . ., n}
eji = dij (definici´on de transpuesta)
= aij + bij (definici´on de suma de matrices)
= fji + gji (definici´on de transpuesta)
= hji (definici´on de suma de matrices)
Por lo tanto
(A + B)T
= E = H = AT
+ BT
3. Hagamos αA = D = (dij)m×n; (αA)T
= DT
= E = (eji)n×m; AT
= F = (fji)n×m; y
αAT
= αF = G = (gji)n×m. Entonces, para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}
eji = dij (definici´on de transpuesta)
= αaij (definici´on de multiplicaci´on por escalar)
= αfji (definici´on de transpuesta)
= gji (definici´on de multiplicaci´on por escalar)
Matrices y Sistemas de Ecuaciones Lineales 18
As´ı que
(αA)T
= E = G = αAT
4. Sean AC = D = (dik)m×p; (AC)T
= DT
= E = (eki)p×m; CT
= F = (fkj)p×n; AT
=
G = (gji)n×m y CT
AT
= FG = H = (hki)p×m. Entonces, para cada i ∈ {1, . . ., m} y cada
k ∈ {1, . . . , p}
eki = dik (definici´on de transpuesta)
=
n
j=1
aijcjk (definici´on de producto)
=
n
j=1
gjifkj (definici´on de transpuesta)
=
n
j=1
fkjgji = hki (definici´on de producto)
De donde
(AC)T
= E = H = CT
AT
5. ¡Ejercicio!
Definici´on 1.10. Sea A ∈ Mn×n(R). Diremos que
1. A es sim´etrica si AT
= A.
2. A es antisim´etrica si AT
= −A.
Ejemplo 1.10.
1. In es sim´etrica para todo n ∈ N.
2. 0/
n es sim´etrica y antisim´etrica para todo n ∈ N ¿existe alguna otra matriz que sea sim´etrica
y antisim´etrica simult´aneamente?
3. La matriz
A =







0 5 7 −6
−5 0 −4 8
−7 4 0 12
6 −8 −12 0







Matrices y Sistemas de Ecuaciones Lineales 19
es antisim´etrica pues
AT
=







0 −5 −7 6
5 0 4 −8
7 −4 0 −12
−6 8 12 0







= −A
4. La matriz
A =







5 −9 3 0
−9 2 −1 13
3 −1 0 7
0 13 7 −3







es sim´etrica ya que
AT
=







5 −9 3 0
−9 2 −1 13
3 −1 0 7
0 13 7 −3







= A
Teorema 1.8. Sea A ∈ Mn×n(R). Entonces
1. A es sim´etrica si y s´olo si aij = aji para cualesquiera i, j ∈ {1, . . ., n}.
2. A es antisim´etrica si y s´olo si aij = −aji para cualesquiera i, j ∈ {1, . . . , n}.
3. Si A es antisim´etrica, entonces aii = 0 para cualquiera i ∈ {1, . . ., n}.
Demostraci´on. ¡Ejercicio!
1.2. Operaciones Elementales por Filas
Las operaciones elementales por filas son herramientas usadas con mucha frecuencia en
la resoluci´on de los sistemas de ecuaciones lineales al igual que en c´alculo de la inversa
de una matriz cuadrada. Estas operaciones las usaremos a lo largo de todo el curso, por ello
deben ser manejadas con la mayor perfecci´on posible por parte del estudiante que desee aprender
la materia. Comencemos por definir dichas operaciones.
Denotemos por Fm(R) el conjunto formado por todas las matrices reales con m filas.
Matrices y Sistemas de Ecuaciones Lineales 20
Definici´on 1.11. Una operaci´on elemental por filas (OEF) es una funci´on f : Fm(R) →
Fm(R) la cual es de uno de los siguientes tipos
OEF Tipo 1. Si f(A) = B, entonces existen s ∈ {1, . . . , m} y α = 0 tales que B(i) = A(i)
para cada i ∈ {1, . . . , m}, con i = s, y adem´as B(s) = αA(s), esto es, una de las filas
de A es multiplicada por un escalar no nulo y el resto de las filas permanecen iguales.
f(A) = f






























A(1)
...
A(s−1)
A(s)
A(s+1)
...
A(m)






























=















A(1)
...
A(s−1)
αA(s)
A(s+1)
...
A(m)















= B
Por comodidad, en lugar de escribir B = f(A), escribiremos A
Fs → αFs
→B.
OEF Tipo 2. Si f(A) = B, entonces existen s, t ∈ {1, . . . , m}, con s = t, y α ∈ R tales
que B(i) = A(i) para cada i ∈ {1, . . ., m}, con i = s, y adem´as B(s) = A(s) + αA(t),
es decir, a una fila de A le sumamos un m´ultiplo escalar de alguna otra fila de A,
distinta de la primera, dejando el resto de las filas intactas.
f(A) = f






























A(1)
...
A(s−1)
A(s)
A(s+1)
...
A(m)






























=















A(1)
...
A(s−1)
A(s) + αA(t)
A(s+1)
...
A(m)















= B
Al igual que antes, en lugar de escribir B = f(A), escribiremos A
Fs → Fs + αFt
→B.
OEF Tipo 3. Si f(A) = B, entonces existen s, t ∈ {1, . . ., m} tales que B(i) = A(i) para
cada i ∈ {1, . . . , m}, con i = s e i = t y adem´as B(s) = A(t) y B(t) = A(s), dicho de
otra manera, intercambiamos dos filas de A y dejamos el resto sin alterar.
Matrices y Sistemas de Ecuaciones Lineales 21
f(A) = f






















































A(1)
...
A(s−1)
A(s)
A(s+1)
...
A(t−1)
A(t)
A(t+1)
...
A(m)






















































=



























A(1)
...
A(s−1)
A(t)
A(s+1)
...
A(t−1)
A(s)
A(t+1)
...
A(m)



























= B
Nuevamente, en lugar de escribir B = f(A), escribiremos A
Fs ↔ Ft
→B.
Observaci´on 1.13. N´otese que si A ∈ Mm×n(R) y f : Fm(R) → Fm(R) es una OEF, entonces
f(A) ∈ Mm×n(R).
Ejercicio 1.3. Pruebe que toda OEF f : Fm(R) → Fm(R) es una funci´on invertible y que su
inversa f−1
: Fm(R) → Fm(R) es tambi´en una OEF del mismo tipo que f.
Ejemplo 1.11. Sea
A =







−2 4 −5
6 3 4
2 −1 8
−6 21 −15







Entonces
A =







−2 4 −5
6 3 4
2 −1 8
−6 21 −15







F1 ↔ F3
→
(OEF 3)







2 −1 8
6 3 4
−2 4 −5
−6 21 −15







F4 → 1
3
F4
→
(OEF 1)







2 −1 8
6 3 4
−2 4 −5
−2 7 −5







F3 → F3 + F1
→
(OEF 2)







2 −1 8
6 3 4
0 3 3
−2 7 −5







= B
Matrices y Sistemas de Ecuaciones Lineales 22
Observaci´on 1.14. Se pueden aplicar m´as de dos operaciones por filas en un solo paso, lo ´unico
que debemos cuidar es no transformar, en el mismo paso, una fila m´as de una vez y no
transformar, en el mismo paso, una fila que va ser usada para transformar a otra(s).
Observaci´on 1.15. De manera an´aloga a como se definieron las operaciones elementales por
filas, pueden definirse operaciones elementales por columnas (OEC), sin embargo, estas
´ultimas s´olo se usar´an para el c´alculo de determinantes y no para la resoluci´on de sistemas
de ecuaciones lineales ni para hallar la inversa de una matriz cuadrada, en estos ´ultimos dos
problemas s´olo usaremos las operaciones elementales por filas.
Definici´on 1.12. Sea A = (aij)m×n ∈ Mm×n(R). Diremos que A es una matriz
Escalonada
1. Si todas las filas nulas de A, si las hay, est´an ubicadas en las ´ultimas posiciones,
esto es, si A(i) es una fila no nula de A, entonces A(s) tambi´en es no nula para cada
1 ≤ s < i.
2. Si A(i) y A(i+1) son dos filas no nulas de A, entonces la primera componente no nula de
A(i) (contada de izquierda a derecha) est´a mas a la izquierda de la primera componente
no nula de A(i+1), es decir, si j, k ∈ {1, . . ., n} son tales que aij = 0; a(i+1)k = 0 y
ais = 0 = a(i+1)t para cada 1 ≤ s < j y cada 1 ≤ t < k, entonces j < k.
Reducida por Filas (RF)
1. Si A(i) es una fila no nula de A, entonces la primera componente no nula de A(i) es
igual a 1 (uno), dicha componente es llamada pivote, es decir, si j ∈ {1, . . ., n} es
tal que aij = 0 y ais = 0 para cada 1 ≤ s < j, entonces aij = 1.
2. Si A(j)
es una columna de A que tiene un pivote, entonces el resto de las componentes
de A(j)
son iguales a 0 (cero), esto es, si i ∈ {1, . . . , m} es tal que aij = 1 y ais = 0
para cada 1 ≤ s < j, entonces akj = 0 para cada k ∈ {1, . . ., m} con k = i.
Escalonada Reducida por Filas (ERF) si es escalonada y reducida por filas simult´anea-
mente.
Ejemplo 1.12.
Matrices y Sistemas de Ecuaciones Lineales 23
1. Para cualesquiera m, n ∈ Z+
, In y 0/
m×n son matrices escalonadas reducidas por filas.
2. E =







2 −1 3 8 3
0 5 1 6 −4
0 0 0 8 −7
0 0 0 0 0







es escalonada pero no es reducida por filas.
3. R =










1 0 0 7
0 0 0 0
0 0 1 −9
0 0 0 6
0 1 0 1










es reducida por filas pero no es escalonada.
4. F =










1 0 −5 0 8
0 1 3 0 −1
0 0 0 1 −2
0 0 0 0 0
0 0 0 0 0










es escalonada reducida por filas.
Ejercicio 1.4. Sea A ∈ Mm×n(R). Pruebe que:
1. Si A es una matriz escalonada, entonces la cantidad de filas no nulas de A es, a lo sumo,
el m´ınimo entre m y n.
2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el m´ınimo entre
m y n.
Ejercicio 1.5. Pruebe que si A ∈ Mn×n(R) es una matriz escalonada, entonces A es triangular
superior.
Definici´on 1.13. Sean A, B ∈ Mm×n(R). Diremos que B es equivalente por filas a A si
existen OEF f1, f2, . . . , fr : Fm(R) → Fm(R) tales que B = (f1 ◦ f2 ◦ · · · ◦ fr)(A)
Ejemplo 1.13. Consideremos las matrices A y B del ejemplo 1.11. Entonces B es equivalente
por filas a A (¿por qu´e?).
Teorema 1.9. Sean A, B, C ∈ Mm×n(R). Tenemos que
Matrices y Sistemas de Ecuaciones Lineales 24
1. A es equivalente por filas a A.
2. Si B es equivalente por filas a A, entonces A es equivalente por filas a B.
3. Si C es equivalente por filas a B y B es equivalente por filas a A, entonces C es equivalente
por filas a A.
Demostraci´on. ¡Ejercicio!
Observaci´on 1.16. La parte 2 del teorema 1.9, nos permite decir A y B son equivalentes por
filas en lugar de B es equivalente por filas a A ´o A es equivalente por filas a B.
Teorema 1.10. Toda matriz A ∈ Mm×n(R) es equivalente por filas a
1. Una matriz escalonada.
2. Una matriz reducida por filas.
3. Una ´unica matriz escalonada reducida por filas, la cual llamaremos la forma escalonada
reducida por filas (FERF) de A.
Demostraci´on. Ver ap´endice D
Observaci´on 1.17. A ∈ Mn×n(R) es equivalente por filas a In si y s´olo si In es la FERF de A.
El siguiente ejemplo ilustra el procedimiento a seguir para hallar la FERF de una matriz.
Ejemplo 1.14. Hallar la FERF de
A =







6 −1 −15 2 13
−1 0 2 −1 −3
0 −3 −9 0 9
7 1 −11 3 10







Soluci´on.
A =







6 −1 −15 2 13
−1 0 2 −1 −3
0 −3 −9 0 9
7 1 −11 3 10







F1 ↔ F2
→







−1 0 2 −1 −3
6 −1 −15 2 13
0 −3 −9 0 9
7 1 −11 3 10







Matrices y Sistemas de Ecuaciones Lineales 25
F1 → −F1
→







1 0 −2 1 3
6 −1 −15 2 13
0 −3 −9 0 9
7 1 −11 3 10







F2 → F2 − 6F1
→
F4 → F4 − 7F1







1 0 −2 1 3
0 −1 −3 −4 −5
0 −3 −9 0 9
0 1 3 −4 −11







F2 → −F2
→







1 0 −2 1 3
0 1 3 4 5
0 −3 −9 0 9
0 1 3 −4 −11







F3 → F3 + 3F2
→
F4 → F4 − F2







1 0 −2 1 3
0 1 3 4 5
0 0 0 12 24
0 0 0 −8 −16







F3 → 1
12
F3
→







1 0 −2 1 3
0 1 3 4 5
0 0 0 1 2
0 0 0 −8 −16







F1 → F1 − F3
F2 → F2 − 4F3
→
F4 → F4 + 8F3







1 0 −2 0 1
0 1 3 0 −3
0 0 0 1 2
0 0 0 0 0







As´ı que la FERF de A es
C =







1 0 −2 0 1
0 1 3 0 −3
0 0 0 1 2
0 0 0 0 0







Definici´on 1.14. Una matriz E ∈ Mn×n(R) es llamada matriz elemental si existe una OEF
f : Fn(R) → Fn(R) tal que E = f(In), es decir, E se obtiene de In por medio de una ´unica OEF.
Ejemplo 1.15.
1. E1 =







1 0 0 0
0 1 0 0
−5 0 1 0
0 0 0 1







es elemental, pues
I4 =







1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1







F3 → F3 − 5F1
→







1 0 0 0
0 1 0 0
−5 0 1 0
0 0 0 1







= E1
Matrices y Sistemas de Ecuaciones Lineales 26
2. E2 =




1 0 0
0 4 0
0 0 1



 es elemental, ya que
I3 =




1 0 0
0 1 0
0 0 1



 F2 → 4F2
→




1 0 0
0 4 0
0 0 1



 = E2
3. E3 =










1 0 0 0 0
0 0 0 0 1
0 0 1 0 0
0 0 0 1 0
0 1 0 0 0










es elemental, dado que
I5 =










1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1










F2 ↔ F5
→










1 0 0 0 0
0 0 0 0 1
0 0 1 0 0
0 0 0 1 0
0 1 0 0 0










= E3
Teorema 1.11. Sean A ∈ Mm×n(R), B ∈ Mn×p(R) y f : Fm(R) → Fm(R) una OEF. Entonces
1. f(AB) = f(A)B.
2. (f(A))(j)
= f A(j)
para cada j ∈ {1, . . ., n} de donde
f(A) = f A(1)
f A(2)
· · · f A(n)
es decir, la fila j-´esima de f(A) es igual a f aplicada a la j-´esima fila de A.
Demostraci´on. Ver ap´endice D.
Como una consecuencia directa de este teorema tenemos el siguiente resultado.
Corolario 1.12. Si A ∈ Mm×n(R), B ∈ Mn×p(R) y f, f1, f2, . . . , fr : Fm(R) → Fm(R) son OEF,
entonces
Matrices y Sistemas de Ecuaciones Lineales 27
1. f(A) = f(Im)A.
2. (f1 ◦ f2 ◦ · · · ◦ fr)(AB) = (f1 ◦ f2 ◦ · · · ◦ fr)(A)B.
3. ((f1 ◦ f2 ◦ · · · ◦ fr)(A))(j)
= (f1 ◦ f2 ◦ · · · ◦ fr) A(j)
para cada j ∈ {1, . . ., m}.
Demostraci´on. ¡Ejercicio!
Otra consecuencia del mismo teorema, en conjunci´on con el corolario anterior, es la siguiente.
Corolario 1.13. Sean A, B ∈ Mm×n(R) dos matrices equivalentes por filas. Entonces existen
matrices elementales E1, E2, . . . , Er ∈ Mm×m(R) tales que B = E1E2 · · · ErA
Demostraci´on. ¡Ejercicio!
1.3. Sistemas de Ecuaciones Lineales
La presente secci´on esta muy relacionada con las OEF y las matrices, y es quiz´as, junto con la
secci´on anterior, la m´as importante del presente cap´ıtulo.
Definici´on 1.15. Un sistema de ecuaciones lineales con m ecuaciones y n inc´ognitas es
un conjunto de ecuaciones de la forma



a11x1 + a12x2 + · · · + a1nxn = b1
a21x1 + a22x2 + · · · + a2nxn = b2
...
...
...
...
...
am1x1 + am2x2 + · · · + amnxn = bm
(1.4)
donde x1, x2, . . . , xn son las inc´ognitas del sistema 1.4 y toman valores en R; aij ∈ R son
n´umeros fijos para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . . , n} y los llamaremos coeficientes del
sistema 1.4 y b1, b2, . . . , bm ∈ R son fijos y son los t´erminos independientes del sistema 1.4.
Si b1 = b2 = · · · = bm = 0, diremos que el sistema 1.4 es homog´eneo, en caso contrario
diremos que es no homog´eneo.
Cuando m = n, se dice que el sistema 1.4 es un sistema cuadrado.
Matrices y Sistemas de Ecuaciones Lineales 28
Si hacemos
A = (aij)m×n =







a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
...
am1 am2 · · · amn







; b =







b1
b2
...
bm







y x =







x1
x2
...
xn







,
el sistema 1.4 puede escribirse como la ecuaci´on matricial Ax = b (¡verif´ıquelo!), que llamare-
mos representaci´on matricial del sistema 1.4. La matriz A es llamada matriz de coefi-
cientes o matriz del sistema 1.4, la matriz
[A|b] =







a11 a12 · · · a1n b1
a21 a22 · · · a2n b2
...
...
...
...
am1 am2 · · · amn bm







es llamada matriz ampliada del sistema 1.4, x se conoce con el nombre de matriz inc´ognita
o matriz de inc´ognitas y b es conocida como matriz de t´erminos independientes.
El sistema 


a11x1 + a12x2 + · · · + a1nxn = 0
a21x1 + a22x2 + · · · + a2nxn = 0
...
...
...
...
...
am1x1 + am2x2 + · · · + amnxn = 0
(1.5)
es llamado sistema homog´eneo asociado al sistema 1.4.
Diremos que c1, c2, . . . , cn es una soluci´on del sistema 1.4 si al sustituir x1 = c1, x2 =
c2, . . . , xn = cn en 1.4, las igualdades son satisfechas.
Se dice que el sistema 1.4 es
Inconsistente si no tiene soluci´on alguna.
Consistente si tiene al menos una soluci´on, cuando tiene una ´unica soluci´on, se dice que
es consistente determinado, si tiene m´as de una soluci´on, se dice que es consistente
indeterminado.
Observaci´on 1.18. En general, no haremos diferencia al referirnos al sistema y a su repre-
sentaci´on matricial.
Matrices y Sistemas de Ecuaciones Lineales 29
Observaci´on 1.19. Todo sistema homog´eneo Ax = 0/
m×1 es consistente, x = 0/
n×1 es soluci´on
de ´este, la cual es llamada soluci´on trivial.
Observaci´on 1.20. Es claro si A ∈ Mm×n(R) y x =







x1
x2
...
xn







∈ Mn×1(R), entonces
Ax = x1A(1)
+ x2A(2)
+ · · · + xnA(n)
Ejemplo 1.16.
1.
3x1 +2x2 −6x3 = 0
−x1 +5x2 −7x3 = 4
es un sistema de ecuaciones lineales de dos ecuaciones y tres inc´ognitas, es no homog´eneo,
su representaci´on matricial es
3 2 −6
−1 5 −7




x1
x2
x3



 =
0
4
La matriz es y la matriz ampliada del sistema son, respectivamente
3 2 −6
−1 5 −7
y
3 2 −6 0
−1 5 −7 4
las matrices inc´ognitas y de t´erminos independientes son, respectivamente




x1
x2
x3



 y
0
4
2.



6x −2y +9z = 1
−5x +12y −3z = −2
x 6z = 6
es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres inc´ognitas, es no
homog´eneo y su representaci´on matricial es
Matrices y Sistemas de Ecuaciones Lineales 30




6 −2 9
−5 12 −3
1 0 6








x
y
z



 =




1
−2
6




El sistema homog´eneo asociado a este sistema es



6x −2y +9z = 0
−5x +12y −3z = 0
x 6z = 0
Una pregunta que surge de manera inmediata es ¿c´omo garantizar que un sistema de ecuaciones
lineales es consistente o inconsistente? y en caso de que sea consistente ¿c´omo resolver dicho
sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero antes
daremos las bases te´oricas que nos permitan usar dichas herramientas.
Teorema 1.14. Sean Ax = b y Cx = d las representaciones matriciales de dos sistemas de
ecuaciones lineales con m ecuaciones y n inc´ognitas. Supongamos que las matrices [A|b] y [C|d]
son equivalentes por filas. Entonces ambos sistemas tienen exactamente las mismas soluciones o
ninguno tiene soluci´on.
Demostraci´on. Dado que las matrices [A|b] y [C|d] son equivalentes por filas, entonces existen
OEF f1, f2, . . . , fr : Fm(R) → Fm(R) tales que
(f1 ◦ f2 ◦ · · · ◦ fr)([A|b]) = [C|d]
por la parte 3 del corolario 1.12
(f1 ◦ f2 ◦ · · · ◦ fr)(A) = C y (f1 ◦ f2 ◦ · · · ◦ fr)(b) = d
y por la parte 2 del mismo corolario, tenemos que
(f1 ◦ f2 ◦ · · · ◦ fr)(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr)(A)x
As´ı que, si Ax = b, entonces
Cx = (f1 ◦ f2 ◦ · · · ◦ fr)(A)x = (f1 ◦ f2 ◦ · · · ◦ fr)(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr)(b) = d
Matrices y Sistemas de Ecuaciones Lineales 31
Adem´as, en virtud del ejercicio 1.3, f1, f2, . . . , fr son invertibles y f−1
1 , f−1
2 , . . . , f−1
r son tambi´en
OEF sobre Fm(R), luego, si Cx = d, entonces
Ax = (f1 ◦ f2 ◦ · · · ◦ fr)−1
(C)x = (f−1
r ◦ · · · ◦ f−1
2 ◦ f−1
1 )(C)x
= (f−1
r ◦ · · · ◦ f−1
2 ◦ f−1
1 )(Cx) = (f−1
r ◦ · · · ◦ f−1
2 ◦ f−1
1 )(d) = (f1 ◦ f2 ◦ · · · ◦ fr)−1
(d) = b
Por lo tanto Ax = b si y s´olo si Cx = d, en consecuencia, o ambos sistemas son inconsistentes o
ambos tienen la(s) misma(s) soluci´on(es).
Observaci´on 1.21. Cuando la matriz del sistema es una matriz ERF, es f´acil decidir si el
sistema es o no consistente, y en caso de serlo, es sencillo hallar la(s) soluci´on(es) de este. La
idea es hallar la FERF de la matriz ampliada del sistema, y en virtud del teorema 1.14, resolver,
de manera sencilla, el sistema dado.
Corolario 1.15. Sean A, C ∈ Mm×n(R) y b, d ∈ Mm×1(R) tales que [C|d] es la FERF de [A|b].
El sistema Ax = b tiene soluci´on si y s´olo si el n´umero de filas no nulas de [C|d] es igual al
n´umero de filas no nulas de C.
Demostraci´on. ¡Ejercicio!
Ejemplo 1.17. Decidir cu´al de los siguientes sistemas son consistentes y cu´ales no, en caso de
serlo, mostrar su(s) soluci´on(es).
1.



2x +y −z = 1
2x −y +5z = 5
−y +3z = 2
2.



2x +y −z = 2
x −2y +4z = −3
5x −4y +8z = −9
−y +3z = 2
3.



x +y −2z +w = 1
4x +2y +2z = −2
2y −10z +3w = 3
Matrices y Sistemas de Ecuaciones Lineales 32
4.



x +y −2z +w = 1
4x +2y +2z = −2
2y −10z +4w = 3
Soluci´on.
1. La matriz ampliada del sistema es




2 1 −1 1
2 −1 5 5
0 −1 3 2




Hallemos su FERF




2 1 −1 1
2 −1 5 5
0 −1 3 2



 F1 → 1
2
F1
→




1 1
2
−1
2
1
2
2 −1 5 5
0 −1 3 2



 F2 → F2 − 2F1
→




1 1
2
−1
2
1
2
0 −2 6 4
0 −1 3 2




F1 → −1
2
F1
→




1 1
2
−1
2
1
2
0 1 −3 −2
0 −1 3 2




F1 → F1 − 1
2
F2
→
F3 → F3 + F2




1 0 1 3
2
0 1 −3 −2
0 0 0 0




La ´ultima fila de esta ´ultima matriz equivale a la ecuaci´on 0 · x + 0 · y + 0 · z = 0, que no
aporta nada a la soluci´on. As´ı que el sistema dado es equivalente al sistema
x +z = 3
2
y −3z = −2
que a su vez equivale a
x = −z + 3
2
y = 3z − 2
Luego el sistema dado es consistente indeterminado. Haciendo z = α, con α ∈ R, obtenemos
x = −α +
3
2
; y = 3α − 2
En consecuencia la soluci´on del sistema dado viene dada por
x = −α +
3
2
; y = 3α − 2; z = α; con α ∈ R
Matrices y Sistemas de Ecuaciones Lineales 33
o bien 



x
y
z



 =




−α +3
2
3α −2
α



 = α




−1
3
1



 +




3
2
−2
0



 ; con α ∈ R
2. En este caso la matriz del sistema es







2 1 −1 2
1 −2 4 −3
5 −4 8 −9
0 −1 3 2







Vamos a hallar su FERF







2 1 −1 2
1 −2 4 −3
5 −4 8 −9
0 −1 3 2







F1 ↔ F2
→







1 −2 4 −3
2 1 −1 2
5 −4 8 −9
0 −1 3 2







F2 → F2 − 2F1
→
F3 → F3 − 5F1







1 −2 4 −3
0 5 −9 8
0 6 −12 6
0 −1 3 2







F2 ↔ F4
→







1 −2 4 −3
0 −1 3 2
0 6 −12 6
0 5 −9 8







F2 → −F2
→







1 −2 4 −3
0 1 −3 −2
0 6 −12 6
0 5 −9 8







F1 → F1 + 2F2
→
F3 → F3 − 6F2
F4 → F4 − 5F2







1 0 −2 −7
0 1 −3 −2
0 0 6 18
0 0 6 18







F3 → 1
6
F3
→







1 0 −2 −7
0 1 −3 −2
0 0 1 3
0 0 6 18







F1 → F1 + 2F3
→
F2 → F2 + 3F3
F4 → F4 − 6F3







1 0 0 −1
0 1 0 7
0 0 1 3
0 0 0 0







Luego, el sistema dado es equivalente al sistema



x = −1
y = 7
z = 3
Matrices y Sistemas de Ecuaciones Lineales 34
Por lo tanto el sistema es consistente determinado y su soluci´on es
x = −1; y = 7; z = 3
o bien 



x
y
z



 =




−1
7
3




3. Hallemos la FERF de la matriz ampliada del sistema que es




1 1 −2 1 1
4 2 2 0 −2
0 2 −10 3 3








1 1 −2 1 1
4 2 2 0 −2
0 2 −10 3 3



 F2 → F2 − 4F1
→




1 1 −2 1 1
0 −2 10 −4 −6
0 2 −10 3 3




F2 → −1
2
F2
→




1 1 −2 1 1
0 1 −5 2 3
0 2 −10 3 3




F1 → F1 − F2
→
F3 → F3 − 2F2




1 0 3 −1 −2
0 1 −5 2 3
0 0 0 −1 −3




F3 → −F3
→




1 0 3 −1 −2
0 1 −5 2 3
0 0 0 1 3




F1 → F1 + F3
→
F2 → F2 − 2F3




1 0 3 0 1
0 1 −5 0 −3
0 0 0 1 3




En consecuencia el sistema dado es equivalente al sistema



x +3z = 1
y −5z = −3
w = 3
o equivalentemente 


x = −3z + 1
y = 5z − 3
w = 3
Matrices y Sistemas de Ecuaciones Lineales 35
Por lo tanto el sistema original es consistente indeterminado. Haciendo z = α, con α ∈ R,
tenemos que la soluci´on del sistema es







x
y
z
w







=







−3α +1
5α −3
α
3







= α







−3
5
1
0







+







1
−3
0
3







; con α ∈ R
4. Hallemos la FERF de la matriz




1 1 −2 1 1
4 2 2 0 −2
0 2 −10 4 3




que es la matriz ampliada del sistema




1 1 −2 1 1
4 2 2 0 −2
0 2 −10 4 3



 F2 → F2 − 4F1
→




1 1 −2 1 1
0 −2 10 −4 −6
0 2 −10 4 3




F3 → F3 + F2
→




1 1 −2 1 1
0 −2 10 −4 −6
0 0 0 0 −3




Sin necesidad de llegar a la FERF de la matriz, vemos que la ´ultima fila de esta ´ultima
matriz equivale a la ecuaci´on
0 · x + 0 · y + 0 · z + 0 · w = −3
la cual es contradictoria, en consecuencia, el sistema original es inconsistente.
Teorema 1.16. El sistema homog´eneo Ax = 0/
m×1, con A ∈ Mm×n(R), tiene infinitas soluciones
si m < n, esto es, si el sistema homog´eneo Ax = 0/
m×1 tiene m´as inc´ognitas que ecuaciones,
entonces es consistente indeterminado.
Demostraci´on. ¡Ejercicio!
Matrices y Sistemas de Ecuaciones Lineales 36
Teorema 1.17. Sea A ∈ Mm×n(R). Supongamos que x1, x2 ∈ Mn×1(R) son soluciones del
sistema homog´eneo Ax = 0/
m×1. Entonces, para cada α ∈ R, se tiene que x1 + x2 y αx1 son
tambi´en soluciones del sistema.
Demostraci´on. ¡Ejercicio!
Teorema 1.18. Sean A ∈ Mm×n(R) y b ∈ Mm×1(R). Supongamos que xp es una soluci´on del
sistema Ax = b. Entonces, para cada soluci´on xg del sistema Ax = b, existe una soluci´on xh de
Ax = 0/
m×1 tal que xg = xh + xp.
Demostraci´on. Dado que xp es soluci´on del sistema Ax = b, tenemos que Axp = b.
Sea xg una soluci´on cualquiera de Ax = b. Entonces Axg = b. Definamos xh = xg − xp. As´ı que
Axh = A(xg − xp) = Axg − Axp = b − b = 0/
m×1
es decir, xp es soluci´on del sistema homog´eneo Ax = 0/
m×1 y adem´as xg = xh + xp.
Ejemplo 1.18. Para el sistema de la parte 1 del ejemplo 1.17 tenemos que
xp =




3
2
−2
0



 ; xh = α




−1
3
1



 ; con α ∈ R
Para el sistema de la parte 2 del mismo ejemplo, se tiene que
xp =




−1
7
3



 ; xh =




0
0
0




N´otese que en este caso xg = xp.
Finalmente, para el sistema de la parte 3 del ejemplo en cuesti´on
xp =







1
−3
0
3







; xh = α







−3
5
1
0







; con α ∈ R
Ejercicio 1.6. Sea A ∈ Mm×n(R). Pruebe que si el sistema Ax = b tiene soluci´on para cada
b ∈ Mm×1(R), entonces m ≤ n.
Matrices y Sistemas de Ecuaciones Lineales 37
1.4. Inversa de una Matriz Cuadrada
En la presente secci´on, presentaremos un breve estudio sobre las matrices invertibles y
sus aplicaciones en la resoluci´on de los sistemas de ecuaciones, cabe destacar que se pueden
definir inversas laterales de matrices no cuadradas, sin embargo, s´olo estudiaremos el caso de
matrices cuadradas.
Definici´on 1.16. sea A ∈ Mn×n(R). diremos que A es invertible si existe una matriz B ∈
Mn×n(R) tal que
AB = In = BA
Cualquier matriz B que satisfaga las igualdades anteriores es llamada inversa de A.
Ejemplo 1.19. Si A =
2 −2
−3 4
, entonces B =
2 1
3
2
1
es una inversa de A ya que
AB =
2 −2
−3 4
2 1
3
2
1
=
4 − 3 2 − 2
3 − 3 −3 + 4
=
1 0
0 1
= I2
AB =
2 1
3
2
1
2 −2
−3 4
=
4 − 3 −4 + 4
3 − 3 −3 + 4
=
1 0
0 1
= I2
Teorema 1.19. Si A ∈ Mn×n(R) es invertible, entonces A tiene s´olo una inversa, es decir,
existe una ´unica matriz B ∈ Mn×n(R) tal que AB = In = BA, tal matriz es denotada por A−1
.
Demostraci´on. Supongamos que A ∈ Mn×n(R) es invertible y que B, C ∈ Mn×n(R) son inver-
sas de A. Entonces
AB = In = BA (1.6)
AC = In = CA (1.7)
Luego
C = CIn (por la parte 5 del teorema 1.6)
= C(AB) (por la ecuaci´on 1.6)
= (CA)B (por la parte 1 del teorema 1.6)
= InB (por la ecuaci´on 1.7)
= B (por la parte 5 del teorema 1.6)
Matrices y Sistemas de Ecuaciones Lineales 38
Teorema 1.20. Sean A, B ∈ Mn×n(R) dos matrices invertibles y α ∈ R con α = 0. Entonces
1. A−1
es invertible y (A−1
)
−1
= A (propiedad involutiva de la inversa)
2. AB es invertible y (AB)−1
= B−1
A−1
(inversa del producto matricial)
3. αA es invertible y (αA)−1
= α−1
A−1
(inversa del m´ultiplo escalar)
4. AT
es invertible y AT −1
= (A−1
)
T
(inversa de la transpuesta)
Demostraci´on.
1. Se deduce directamente de la definici´on de matriz invertible.
2. En primer lugar
(AB)(B−1
A−1
) = ABB−1
A−1
(teorema 1.6 parte 1)
= A(BB−1
)A−1
(teorema 1.6 parte 1)
= AInA−1
(definici´on de matriz inversa)
= (AIn)A−1
(teorema 1.6 parte 1)
= AA−1
(teorema 1.6 parte 5)
= In (definici´on de matriz inversa)
Adem´as
(B−1
A−1
)(AB) = B−1
A−1
AB (teorema 1.6 parte 1)
= B−1
(A−1
A)B (teorema 1.6 parte 1)
= B−1
InB (definici´on de matriz inversa)
= (B−1
In)B (teorema 1.6 parte 1)
= B−1
B (teorema 1.6 parte 5)
= In (definici´on de matriz inversa)
Luego, por el teorema 1.19, tenemos que AB es invertible y (AB)−1
= B−1
A−1
.
Matrices y Sistemas de Ecuaciones Lineales 39
3. Veamos
(αA)(α−1
A−1
) = (α−1
(αA))A−1
(teorema 1.6 parte 4)
= ((α−1
α)A)A−1
(teorema 1.2 parte 7)
= (1 · A)A−1
= AA−1
(teorema 1.2 parte 8)
= In (definici´on de matriz inversa)
An´alogamente, se prueba que (α−1
A−1
)(αA) = In. Nuevamente, usando el teorema 1.19,
se tiene que αA es invertible y (αA)−1
= α−1
A−1
.
4. Por un lado
AT
(A−1
)T
= (A−1
A)T
(teorema 1.7 parte 4)
= (In)T
(definici´on de matriz inversa)
= In (teorema 1.7 parte 5)
Por otro lado
(A−1
)T
AT
= (AA−1
)T
(teorema 1.7 parte 4)
= (In)T
(definici´on de matriz inversa)
= In (teorema 1.7 parte 5)
Por lo tanto, haciendo uso del teorema 1.19, se tiene que AT
es invertible y AT −1
=
(A−1
)
T
.
Teorema 1.21. Toda matriz elemental es invertible y su inversa es tambi´en una matriz elemen-
tal.
Demostraci´on. Sea E ∈ Mn×n(R) una matriz elemental. Entonces existe una OEF f : Fn(R) →
Fn(R) tal que E = f(In). El ejercicio 1.3 garantiza que f es invertible y su inversa f−1
es tambi´en
una OEF sobre Fn(R), as´ı que F = f−1
(In) es una matriz elemental, adem´as
EF = f(In)f−1
(In)
= f(f−1
(In)) (corolario 1.12 parte 1)
= In
Matrices y Sistemas de Ecuaciones Lineales 40
y
FE = f−1
(In)f(In)
= f−1
(f(In)) (corolario 1.12 parte 1)
= In
Luego, E es invertible y E−1
= F, es decir, (f(In))−1
= f−1
(In).
Ahora bien ¿c´omo saber si una matriz cuadrada A es o no invertible? y en caso de que lo
sea ¿c´omo hallar A−1
? Estas dos preguntas pueden ser respondidas mediante un procedimiento
´unico. Daremos un ejemplo sencillo que ilustrar´a tal procedimiento.
Ejemplo 1.20. En cada uno de los siguientes casos decidir si A es o no invertible, en caso
afirmativo, hallar A−1
.
1. A =
2 −2
−3 4
2. A =
2 −8
−3 12
Soluci´on.
1. Supongamos que A es invertible y sea
B =
x y
z w
tal que AB = I2, as´ı que
A
x
z
=
1
0
y A
y
w
=
0
1
como la matriz de ambos sistemas es la misma, a saber A, podemos resolverlos de manera
simult´anea considerando la siguiente matriz 2 veces ampliada
[A|I2] =
2 −2 1 0
−3 4 0 1
Matrices y Sistemas de Ecuaciones Lineales 41
Al hallar la FERF de esta matriz, las tercera y cuarta columnas nos dar´an, respectivamente,
las soluciones del primer y segundo sistema, si existen, que a su vez nos dar´an, respecti-
vamente, las primera y segunda columnas de B, si existe. Hallemos entonces la FERF de
esta matriz.
[A|I2] =
2 −2 1 0
−3 4 0 1
F1 → 1
2
F1
→
1 −1 1
2
0
−3 4 0 1
F2 → F2 + 3F1
→
1 −1 1
2
0
0 1 3
2
1
F1 → F1 + F2
→
1 0 2 1
0 1 3
2
1
Por lo tanto
B =
2 1
3
2
1
El lector puede verificar que BA = I2, por lo tanto, A es invertible y
A−1
= B =
2 1
3
2
1
Comparar este resultado con el ejemplo 1.20.
2. Como en el caso anterior, supongamos que existe
B =
x y
z w
tal que AB = I2, al igual que antes, hallemos la FERF de la matriz [A|I2]
[A|I2] =
2 −8 1 0
−3 12 0 1
F1 → 1
2
F1
→
1 −4 1
2
0
−3 12 0 1
F2 → F2 + 3F1
→
1 −1 1
2
0
0 0 3
2
1
La ´ultima fila de esta ´ultima matriz equivale a las ecuaciones
0 · x + 0 · z =
3
2
0 · y + 0 · w = 1
Por lo tanto, no existe matriz B tal que AB = I2, en consecuencia, A no es invertible.
Matrices y Sistemas de Ecuaciones Lineales 42
Estos dos ejemplos, como dijimos antes, ilustran el procedimiento general para decidir si una
matriz cuadrada A es o no invertible, adem´as, en caso afirmativo, nos permite hallar A−1
.
Algoritmo para decidir si una matriz A ∈ Mn×n(R) es o no invertible, y en caso
afirmativo mostrar la matriz A−1
.
Paso 1. Formar la matriz ampliada [A|In].
Paso 2. Hallar la FERF de la matriz en el paso previo.
Paso 3. Si la matriz en el paso previo es [In|B], entonces A es invertible y A−1
= B, sino
A no es invertible.
Ejemplo 1.21. Decidir si la matriz
A =







2 0 3 1
−1 1 1 3
1 −1 2 −2
0 1 −1 2







es invertible o no, en caso afirmativo, hallar A−1
.
Soluci´on.







2 0 3 1 1 0 0 0
−1 1 1 3 0 1 0 0
1 −1 2 −2 0 0 1 0
0 1 −1 2 0 0 0 1







F1 ↔ F3
→







1 −1 2 −2 0 0 1 0
−1 1 1 3 0 1 0 0
2 0 3 1 1 0 0 0
0 1 −1 2 0 0 0 1







F2 → F2 + F1
→
F3 → F3 − 2F1







1 −1 2 −2 0 0 1 0
0 0 3 1 0 1 1 0
0 2 −1 5 1 0 −2 0
0 1 −1 2 0 0 0 1







F2 ↔ F4
→







1 −1 2 −2 0 0 1 0
0 1 −1 2 0 0 0 1
0 2 −1 5 1 0 −2 0
0 0 3 1 0 1 1 0







Matrices y Sistemas de Ecuaciones Lineales 43
F1 → F1 + F2
→
F3 → F3 + 2F2







1 0 1 0 0 0 1 1
0 1 −1 2 0 0 0 1
0 0 1 1 1 0 −2 −2
0 0 3 1 0 1 1 0







F1 → F1 − F3
→
F2 → F2 + F3
F4 → F4 − 3F3







1 0 0 −1 −1 0 3 3
0 1 0 3 1 0 −2 −1
0 0 1 1 1 0 −2 −2
0 0 0 −2 −3 1 7 6







F4 → −1
2
F4
→







1 0 0 −1 −1 0 3 3
0 1 0 3 1 0 −2 −1
0 0 1 1 1 0 −2 −2
0 0 0 1 3
2
−1
2
−7
2
−3







F1 → F1 + F4
→
F2 → F2 − 3F4
F3 → F3 − F4







1 0 0 0 1
2
−1
2
−1
2
0
0 1 0 0 −7
2
3
2
17
2
8
0 0 1 0 −1
2
1
2
3
2
1
0 0 0 1 3
2
−1
2
−7
2
−3







Luego A es invertible y
A−1
=







1
2
−1
2
−1
2
0
−7
2
3
2
17
2
8
−1
2
1
2
3
2
1
3
2
−1
2
−7
2
−3







=
1
2







1 −1 −1 0
−7 3 17 16
−1 1 3 2
3 −1 −7 −6







El siguiente teorema nos ser´a muy ´util a la hora de saber si una matriz es o no invertible.
Teorema 1.22. Sea A ∈ Mn×n(R). Entonces las siguientes proposiciones son equivalentes.
1. A es invertible.
2. El sistema Ax = b tiene una ´unica soluci´on para cada b ∈ Mn×1(R).
3. El sistema homog´eneo Ax = 0/
n×1 tiene como ´unica soluci´on la trivial.
4. A es equivalente por filas a In.
Matrices y Sistemas de Ecuaciones Lineales 44
5. Existen matrices elementales E1, E2, . . . , Er ∈ Mn×n(R) tales que A = E1E2 · · · Er.
Demostraci´on.
(1. ⇒ 2.) Supongamos que A es invertible. Entonces, por definici´on de matriz inversa, existe
A−1
∈ Mn×n(R) tal que AA−1
= In = A−1
A
Sean b ∈ Mn×1(R) cualquiera y x0 ∈ Mn×1(R) una soluci´on del sistema Ax = b. Entonces
x0 = Inx0 (teorema 1.6 parte 5)
= (A−1
A)x0 (por definici´on de inversa)
= A−1
(Ax0) (teorema 1.6 parte 1)
= A−1
b (pues x0 es soluci´on del sistema Ax = b)
As´ı que el sistema Ax = b tiene como ´unica soluci´on x0 = A−1
b.
(2. ⇒ 3.) Supongamos que el sistema Ax = b tiene una ´unica soluci´on para cada b ∈ Mn×1(R).
Entonces el sistema homog´eneo Ax = 0/
n×1 tiene una ´unica soluci´on, pero sabemos que
x = 0/
n×1 es soluci´on de este sistema (observaci´on 1.19), as´ı que la ´unica soluci´on de dicho
sistema es la soluci´on trivial.
(3. ⇒ 4.) Supongamos que el sistema homog´oneo Ax = 0/
n×1 tiene como ´unica soluci´on la trivial.
Procederemos por reducci´on al absurdo. Supongamos que A no es equivalente por filas a
In. Por lo tanto, usando la observaci´on 1.17, si CA es la FERF de A, entonces CA debe
tener alguna fila nula (¿por qu´e?), la cual debe estar ubicada en la ´ultima posici´on pues
CA es escalonada reducida por filas, esta fila equivale a la ecuaci´on
0 · x1 + 0 · x2 + · · · + 0 · xn = 0
donde
x =







x1
x2
...
xn







y en consecuencia no aporta ninguna informaci´on a la soluci´on del sistema Ax = 0/
n×1.
Definamos DA ∈ M(n−1)×n(R) la matriz que se obtiene al eliminar la ´ultima fila de CA.
Luego el sistema homog´eneo Ax = 0/
n×1 es equivalente al sistema homog´eneo DAx = 0/
(n−1)×1
Matrices y Sistemas de Ecuaciones Lineales 45
el cual, en virtud del teorema 1.16, tiene infinitas soluciones, de donde, el sistema Ax = 0/
n×1
tiene infinitas soluciones, lo cual contradice la hip´otesis, por lo tanto A es equivalente por
filas a In.
(4. ⇒ 5.) Supongamos que A es equivalente por filas a In. Entonces existen OEF f1, f2, . . . , fr :
Fn(R) → Fn(R) tales que
A = (f1 ◦ f2 ◦ · · · ◦ fr)(In)
Luego, usando recursivamente el corolario 1.12 partes 1 y 2, tenemos que
A = f1(In)f2(In) · · ·fr(In)
As´ı que la matriz Ei = fi(In) es elemental para cada i ∈ {1, . . . , r} y adem´as
A = E1E2 · · · Er
(5. ⇒ 1.) Supongamos que A = E1E2 · · · Er donde E1, E2, . . ., Er ∈ Mn×n(R) son matrices ele-
mentales. Dado que toda matriz elemental es invertible (teorema 1.21) y usando recursiva-
mente la parte 2 del teorema 1.20, se tiene que A es invertible.
Lo cual concluye la prueba.
Teorema 1.23. Sean A, B ∈ Mn×n(R). Si AB = In, entonces BA = In; y en consecuencia
A−1
= B.
Demostraci´on. Supongamos que AB = In. Sea xh una soluci´on del sistema homog´eneo Bx =
0/
n×1. Entonces
Bxh = 0/
n×1 (1.8)
Luego
xh = Inxh (teorema 1.6 parte 5)
= (AB)xh (por hip´otesis)
= A(Bxh) (teorema 1.6 parte 1)
= A 0/
n×1 (por ecuaci´on 1.8)
= 0/
n×1 (teorema 1.6 parte 6)
Matrices y Sistemas de Ecuaciones Lineales 46
As´ı que la ´unica soluci´on del sistema homog´eneo Bx = 0/
n×1 es la trivial, y en virtud del teorema
1.22, B es invertible. Adem´as
A = AIn (teorema 1.6 parte 5)
= A(BB−1
) (definici´on de matriz inversa)
= (AB)B−1
(teorema 1.6 parte 1)
= InB−1
(por hip´otesis)
= B−1
(teorema 1.6 parte 5)
Por lo tanto BA = In (definici´on de inversa) y como consecuencia de la parte 1 del teorema 1.20
A−1
= (B−1
)−1
= B.
Observaci´on 1.22. El teorema 1.23 nos permite garantizar que A−1
= B s´olo con probar que
AB = In ´o BA = In.
Ejercicio 1.7. Sean A, B ∈ Mn×n(R). Pruebe que si AB es invertible, entonces A y B tambi´en
son invertibles
1.5. Determinantes. Propiedades de los Determinantes
En esta secci´on trataremos los determinantes y algunas de sus propiedades, en primer lugar
definiremos los determinantes de orden 2, continuando luego con los determinantes de
orden 3, para finalmente definir los determinantes de orden n.
Definici´on 1.17. Sea A =
a11 a12
a21 a22
∈ M2×2(R). Definiremos el determinante de A, como
el n´umero real det(A) = |A|, dado por
det(A) = |A| =
a11 a12
a21 a22
= a11a22 − a12a21
este tipo de determinante se suele llamar determinante de orden 2.
Ejemplo 1.22. Hallar det(A) para A =
−6 5
−7 6
Matrices y Sistemas de Ecuaciones Lineales 47
Soluci´on. det(A) =
−6 5
−7 6
= (−6)6 − 5(−7) = −36 + 35 = −1
Ejercicio 1.8. Pruebe que A =
a11 a12
a21 a22
∈ M2×2(R) es invertible si y s´olo si det(A) = 0.
Adem´as, si A es invertible, entonces A−1
=
1
det(A)
a22 −a12
−a21 a11
Definici´on 1.18. Dada la matriz
A =




a11 a12 a13
a21 a22 a23
a31 a32 a33



 ∈ M3×3(R)
Definiremos el determinante de A, denotado por det(A) ´o |A|, como
det(A) = |A| =
a11 a12 a13
a21 a22 a23
a31 a32 a33
= a11
a22 a23
a32 a33
− a12
a21 a23
a31 a33
+ a13
a21 a22
a31 a32
este tipo de determinante es llamado determinante de orden 3.
Observaci´on 1.23. N´otese que estamos definiendo el determinante de orden 3 en funci´on de
determinantes de orden 2.
Ejemplo 1.23. Hallar det(A) para A =




2 −3 −1
−6 1 5
−7 0 6




Soluci´on.
det(A) = |A| =
2 −3 −1
−6 1 5
−7 0 6
= 2
1 5
0 6
− (−3)
−6 5
−7 6
+ (−1)
−6 1
−7 0
= 2(6 − 0) + 3(−36 + 35) − (0 + 7) = 2
Matrices y Sistemas de Ecuaciones Lineales 48
Observaci´on 1.24. Una forma muy sencilla recordar la f´ormula de determinantes de orden 3
es la siguiente
a11 a12 a13
ց ւ
a21 a22 a23
ցւ ցւ
a31 a32 a33
= a11a22a33 + a21a32a13 + a31a12a23
− a13a22a31 − a23a32a11 − a33a12a21
ցւ ցւ
a11 a12 a13
ւ ց
a21 a22 a23



←
no es parte del determinante, es s´olo para
ayudar a recordar la f´ormula
Los productos generados por las flechas rojas (ց) se colocan con signo positivo, los que son
generados por las flechas azules (ւ) se colocan con signo negativo.
Puede verificar que la igualdad anterior es cierta. Tambi´en se puede hacer el c´alculo si en lugar
de colocar las dos primeras filas al final, se colocan las dos ´ultimas filas en la parte superior, las
dos primeras columnas a la derecha o las dos ´ultimas columnas a la izquierda.
Este m´etodo se conoce como la m´etodo de Sarrus para el c´alculo de determinantes de orden
3 y s´olo es aplicable a determinantes de orden 3.
Ejemplo 1.24. Calculemos el determinante del ejemplo 1.23 usando este m´etodo.
Soluci´on.
2 −3 −1
−6 1 5
−7 0 6
= 2 · 1 · 6 + (−6)0(−1) + (−7)(−3)5 − (−1)1(−7) − 5 · 0 · 2 − 6(−3)(−6)
2 −3 −1
−6 1 5
2 −3 −1
−6 1 5
−7 0 6
= 12 + 0 + 105 − 7 − 0 − 108 = 2
Compare este resultado con el obtenido en el ejemplo 1.23.
Matrices y Sistemas de Ecuaciones Lineales 49
Antes de definir determinantes de orden n, daremos dos definiciones previas.
Definici´on 1.19. Sea A =∈ Mn×n(R). Para cada i, j ∈ {1, . . ., n} definamos la matriz MA
ij ∈
M(n−1)×(n−1)(R) que se obtiene de A al eliminar su i-´esima fila y su j-´esima columna, dicha
matriz es llamada ij-´esimo menor de A.
Observaci´on 1.25. Si en lugar de eliminar una fila y una columna de A, eliminamos dos filas
y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A,
estas matrices se denotan por MA
ij,kl, lo que significa que se han eliminado las filas i e j (con
i = j) y las columnas k y l (con k = l) de A. De manera an´aloga se pueden definir menores de
A ∈ Mn×n(R) hasta de orden n − 1.
Observaci´on 1.26. Es claro que MA
ij,kl = MA
ji,lk = MA
ji,kl = MA
ij,lk para cada i, j, k, l ∈ {1, . . ., n}
con i = j y k = l.
Ejemplo 1.25. Consideremos la matriz
A =







−9 2 −1 4
0 8 −5 7
1 6 3 −6
−4 1 0 3







Hallar MA
23; MA
42 y MA
22.
Soluci´on.
MA
23 =




−9 2 4
1 6 −6
−4 1 3



 ; MA
42 =




−9 −1 4
0 −5 7
1 3 −6



 y MA
22 =




−9 −1 4
1 3 −6
−4 0 3




Definici´on 1.20. Sea A ∈ Mn×n(R). Para cada i, j ∈ {1, . . ., n} definiremos el ij-´esimo co-
factor de A como el n´umero real CA
ij dado por
CA
ij = (−1)i+j
det MA
ij
Ejemplo 1.26. Para la matriz del ejemplo 1.25 se tiene que
Matrices y Sistemas de Ecuaciones Lineales 50
CA
23 = (−1)2+3
det MA
23 = −
−9 2 4
1 6 −6
−4 1 3
= −(−162 + 4 + 48 + 96 − 54 − 6) = 74
CA
42 = (−1)4+2
det MA
42 =
−9 −1 4
0 −5 7
1 3 −6
= −270 + 0 − 7 + 20 + 189 − 0 = −68
CA
22 = (−1)2+2
det MA
22 =
−9 −1 4
1 3 −6
−4 0 3
= −81 + 0 − 24 + 48 − 0 + 3 = −54
Pasemos ahora a definir los determinantes de orden n. En primer lugar notemos que la f´ormula
dada en la definici´on 1.18 puede ser escrita como
det(A) = |A| = a11CA
11 + a12CA
12 + a13CA
13
La idea es generalizar esta f´ormula para una matriz A de orden n.
Definici´on 1.21. Sea A ∈ Mn×n(R). Definiremos el determinante de A, determinante de
orden n, como el n´umero real det(A) = |A| dado por
det(A) = |A| =
a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
...
...
an1 an2 · · · ann
=
n
j=1
a1jCA
1j =
n
j=1
a1j(−1)1+j
det MA
1j
Ejemplo 1.27. Hallar el determinante de la matriz del ejemplo 1.25
Soluci´on.
det(A) = |A| =
−9 2 −1 4
0 8 −5 7
1 6 3 −6
−4 1 0 3
= (−9)(−1)1+1
det MA
11 + 2(−1)1+2
det MA
12 + (−1)(−1)1+3
det MA
13
+4(−1)1+4
det MA
14
Matrices y Sistemas de Ecuaciones Lineales 51
det(A) = −9
8 −5 7
6 3 −6
1 0 3
− 2
0 −5 7
1 3 −6
−4 0 3
−
0 8 7
1 6 −6
−4 1 3
− 4
0 8 −5
1 6 3
−4 1 0
= −9(72 + 0 + 30 − 21 − 0 + 90) − 2(0 + 0 − 120 + 84 − 0 + 15)
−(0 + 7 + 192 + 168 − 0 − 24) − 4(0 − 5 − 96 − 120 − 0 − 0)
= −1539 + 42 − 343 + 884 = −956
Ejemplo 1.28. Calcular el determinante de la matriz
A =










2 0 0 0 0
12 1 0 0 0
−3 0 −3 0 0
5 −8 7 −1 0
−9 6 −7 0 −6










Soluci´on. Notemos primero que A es triangular inferior.
det(A) = |A| =
2 0 0 0 0
12 1 0 0 0
−3 0 −3 0 0
5 −8 7 −1 0
−9 6 −7 0 −6
= 2(−1)1+1
det MA
11 + 0(−1)1+2
det MA
12 + 0(−1)1+3
det MA
13
+0(−1)1+4
det MA
14 + 0(−1)1+5
det MA
15
= 2(−1)1+1
det MA
11 + 0(−1)1+2
det MA
12 + 0(−1)1+3
det MA
13
+0(−1)1+4
det MA
14 + 0(−1)1+5
det MA
15
= 2
1 0 0 0
0 −3 0 0
−8 7 −1 0
6 −7 0 −6
Matrices y Sistemas de Ecuaciones Lineales 52
det(A) = 2



1(−1)1+1
−3 0 0
7 −1 0
−7 0 −6
+ 0(−1)1+2
0 0 0
−8 −1 0
6 0 −6
+0(−1)1+3
0 −3 0
−8 7 0
6 −7 −6
+ 0(−1)1+4
0 −3 0
−8 7 −1
6 −7 0




= 2 · 1
−3 0 0
7 −1 0
−7 0 −6
= 2 · 1 (−3)(−1)1+1
−1 0
0 −6
+ 0(−1)1+2
7 0
−7 −6
+ 0(−1)1+3
7 −1
−7 0
= 2 · 1(−3)
−1 0
0 −6
= 2 · 1(−3)((−1)(−6) − 0 · 0)
= 2 · 1(−3)(−1)(−6) = −36
¡El determinante de A es el producto de las componentes de la diagonal principal! este resultado
se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego.
La demostraci´on del teorema que enunciaremos a continuaci´on escapa del objetivo del curso,
sin embargo, de ´el se derivan el resto de las propiedades que ser´an enunciadas m´as adelante, en
el ap´endice D se puede encontrar una demostraci´on de este.
Teorema 1.24. Si A = (aij)n×n ∈ Mn×n(R), entonces
1. det(A) =
n
j=1
aijCA
ij =
n
j=1
aij(−1)i+j
det MA
ij para cada i ∈ {1, . . ., n} (Desarrollo del
determinante de A mediante la fila i-´esima).
2. det(A) =
n
i=1
aijCA
ij =
n
i=1
aij(−1)i+j
det MA
ij para cada j ∈ {1, . . ., n} (Desarrollo del
determinante de A mediante la columna j-´esima).
Demostraci´on. Ver ap´endice D.
Matrices y Sistemas de Ecuaciones Lineales 53
Ejemplo 1.29. Calcular el determinante de la matriz A del ejemplo 1.23 al desarrollar el de-
terminante mediante la tercera fila y mediante la segunda columna.
Soluci´on. En primer lugar hallemos el determinante de A desarroll´andolo mediante la tercera
fila.
det(A) = |A| =
2 −3 −1
−6 1 5
−7 0 6
= −7(−1)3+1 −3 −1
1 5
+ 0(−1)3+2 2 −1
−6 5
+ 6(−1)3+3 2 −3
−6 1
= −7(−15 + 1) + 0 + 6(2 − 18) = 2
Ahora desarrollemos el determinante de A mediante la segunda columna.
det(A) = |A| =
2 −3 −1
−6 1 5
−7 0 6
= −3(−1)1+2
−6 5
−7 6
+ 1(−1)2+2
2 −1
−7 6
+ 0(−1)3+2
2 −1
−6 5
= 3(−36 + 35) + (12 − 7) + 0 = 2
Teorema 1.25. Si A ∈ Mn×n(R), entonces det AT
= det(A).
Demostraci´on. ¡Ejercicio!
Sugerencia: proceder por inducci´on sobre n y usar el teorema 1.24
Teorema 1.26. Si A = (aij)n×n ∈ Mn×n(R) una matriz triangular (superior o inferior), en-
tonces det(A) = a11a22 · · · ann.
Demostraci´on. Procedamos por inducci´on sobre n. Supongamos, sin perder generalidad que
A es una matriz triangular superior.
Verifiquemos que la tesis se cumple para n = 2. Sea
A =
a11 a12
0 a22
Matrices y Sistemas de Ecuaciones Lineales 54
Entonces
det(A) = a11a22 − a12 · 0 = a11a22
Supongamos ahora que la tesis se cumple para n − 1, esto es, supongamos que para cualquier
matriz triangular superior A = (aij)(n−1)×(n−1) ∈ M(n−1)×(n−1)(R) se cumple que det(A) =
a11a22 · · · a(n−1)(n−1) (Hip´otesis Inductiva).
Probemos ahora que se cumple para n. Sea
A =







a11 a12 · · · a1n
0 a22 · · · a2n
...
...
...
...
0 · · · 0 ann







Entonces, al desarrollar el determinante de A mediante la fila n, obtenemos
det(A) = 0 · CA
n1 + · · · + 0 · CA
n(n−1) + annCA
nn = ann(−1)n+n
det(MA
nn) = ann det MA
nn
Pero
MA
nn =







a11 a12 · · · a1(n−1)
0 a22 · · · a2(n−1)
...
...
...
...
0 · · · 0 a(n−1)(n−1)







es decir, MA
nn es una matriz triangular superior de orden (n−1), por lo tanto, usando la Hip´otesis
Inductiva, se tiene que det MA
nn = a11a22 · · · a(n−1)(n−1). Luego
det(A) = anna11a22 · · · a(n−1)(n−1) = a11a22 · · · a(n−1)(n−1)ann
Lo cual concluye la prueba.
Los teoremas que enunciaremos a continuaci´on, nos presentan las propiedades b´asicas del
determinante, estas propiedades nos permitir´an hallar el determinante de una matriz sin hacer
demasiados c´alculos. Los enunciados de estas propiedades se dar´an s´olo para filas, sin embargo,
en virtud del teorema 1.25, se pueden enunciar propiedades an´alogas para columnas.
Teorema 1.27. Sea A ∈ Mn×n(R). Si existe s ∈ {1, . . ., n} tal que A(s) = 0/
1×n, entonces
det(A) = 0, es decir, si A tiene una fila nula, su determinante es cero.
Matrices y Sistemas de Ecuaciones Lineales 55
Demostraci´on. Sea A = (aij)n×n. Como A(s) = 0/
1×n, entonces asj = 0 para cada j ∈ {1, . . ., n}.
As´ı que, al desarrollar el determinante de A por medio de la fila s, se tiene que
det(A) =
n
j=1
asjCA
sj =
n
j=1
0 · CA
sj = 0
Teorema 1.28. Sean A, B ∈ Mn×n(R) y α ∈ R. Si existe s ∈ {1, . . ., n} tal que B(s) = αA(s)
y B(i) = A(i) para i = s, entonces det(B) = α det(A), esto es, si multiplicamos una fila de A
por un escalar α, entonces el determinante de la matriz resultante es igual al determinante de A
multiplicado por α.
Demostraci´on. Sean A = (aij)n×n y B = (bij)n×n. Como B(s) = αA(s) y B(i) = A(i) para i = s,
entonces bsj = αasj para cada j ∈ {1, . . ., n} y adem´as, la matriz que se obtiene al eliminar la
fila s de B coincide con la matriz que se obtiene al eliminar la fila s de A. Luego MA
sj = MB
sj para
cada j ∈ {1, . . ., n} (¿por qu´e?).
Por lo tanto
CB
sj = (−1)s+j
det(MB
sj) = (−1)s+j
det(MA
sj) = CA
sj
para cada j ∈ {1, . . . , n}.
As´ı, al desarrollar el determinante de B por medio de la fila s, obtenemos
det(B) =
n
j=1
bsjCB
sj =
n
j=1
αasjCA
sj = α
n
j=1
asjCA
sj = α det(A)
Ejemplo 1.30. Sea
A =




2 −1 2
12 −16 4
−2 0 3




Entonces
det(A) =
2 −1 2
12 −16 4
−2 0 3
=
2 −1 2
4 · 3 4(−4) 4 · 1
−2 0 3
= 4
2 −1 2
3 −4 1
−2 0 3
= 4[2(−4)3 + 3 · 0 · 2 + (−2)(−1)1 − 2(−4)(−2) − 1 · 0 · 2 − 3(−1)3]
= 4[−24 + 0 + 2 − 16 − 0 + 9] = 4(−29) = −116
Matrices y Sistemas de Ecuaciones Lineales 56
Teorema 1.29. Sean A, B, C ∈ Mn×n(R). Si existe s ∈ {1, . . ., n} tal que C(s) = A(s) + B(s)
y C(i) = B(i) = A(i) para i = s, entonces det(C) = det(A) + det(B), dicho de otra manera, si
tenemos tres matrices A, B, C cuyas filas son id´enticas excepto la fila s, y que la fila s de C es
igual a la suma de la fila s de A con la fila s de B, entonces el determinante de C es igual a la
suma del determinante de A con el determinante de B.
Demostraci´on. Sean A = (aij)n×n, B = (bij)n×n y C = (cij)n×n. Sean A, B, C ∈ Mn×n(R).
Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i = s, entonces csj = asj + bsj para cada
j ∈ {1, . . . , n} y adem´as, las matrices que se obtienen al eliminar la fila s de A, B y C son
iguales, as´ı que MA
sj = MB
sj = MC
sj para cada j ∈ {1, . . ., n}.
Por lo tanto
CC
sj = CB
sj = CA
sj
para cada j ∈ {1, . . . , n} (¿por qu´e?).
En consecuencia
det(C) =
n
j=1
csjCC
sj =
n
j=1
(asj + bsj)CC
sj =
n
j=1
asjCC
sj +
n
j=1
bsjCC
sj
=
n
j=1
asjCA
sj +
n
j=1
bsjCB
sj = det(A) + det(B)
Ejemplo 1.31. Sea A la matriz del ejemplo 1.30. Entonces
det(A) =
2 −1 2
12 −16 4
−2 0 3
=
4 + (−2) −1 2
6 + 6 −16 4
1 + (−3) 0 3
=
4 −1 2
6 −16 4
1 0 3
+
−2 −1 2
6 −16 4
−3 0 3
= [4(−16)3 + 6 · 0 · 2 + 1(−1)4 − 2(−16)1 − 4 · 0 · 4 − 3(−1)6] +
[−2(−16)3 + 6 · 0 · 2 + (−3)(−1)4 − 2(−16)(−3) − 4 · 0(−2) − 3(−1)6]
= [−192 + 0 − 4 + 32 − 0 + 18] + [96 + 0 + 12 − 96 − 0 + 18]
= −146 + 30 = −116
Teorema 1.30. Sean A, B ∈ Mn×n(R). Si existen s, t ∈ {1, . . ., n} tales que s = t, B(s) = A(t),
B(t) = A(s) y B(i) = A(i) para i = s y i = t, entonces det(B) = − det(A), en otras palabras,
si intercambiamos dos filas distintas de A, el determinante de la matriz resultante es igual al
determinante de A multiplicado por −1.
Matrices y Sistemas de Ecuaciones Lineales 57
Demostraci´on. Ver Ap´endice D.
Ejemplo 1.32. Sea A la matriz del ejemplo 1.30 y sea
B =




2 −1 2
4 −16 12
3 0 −2




Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las fila 2 de B es igual
a la fila 2 de A. Adem´as
det(B) =
2 −1 2
4 −16 12
3 0 −2
= 2(−16)(−2) + 4 · 0 · 2 + 3(−1)12 − 2(−16)3 − 12 · 0 · 2 − (−2)(−1)4
= 64 + 0 − 36 + 96 − 0 − 8 = 116 = − det(A)
Teorema 1.31. Sea A ∈ Mn×n(R). Si existen s, t ∈ {1, . . ., n} tales que s = t y A(s) = A(t),
entonces det(A) = 0, es decir, si A tiene dos filas iguales, su determinante es igual a cero.
Demostraci´on. Sea B ∈ Mn×n(R) la matriz que se obtiene al intercambiar las filas s y t de A.
Como A(s) = A(t), entonces B = A y as´ı det(B) = det(A).
Por otro lado, dado que s = t y seg´un el teorema 1.30, det(B) = − det(A).
As´ı que det(A) = det(B) = − det(A) y en consecuencia det(A) = 0.
Ejemplo 1.33. Sea
A =




2 −1 −2
4 −16 12
2 −1 −2




Entonces
det(A) =
2 −1 −2
4 −16 12
2 −1 −2
= 2(−16)(−2) + 4(−1)(−2) + 2(−1)12 − (−2)(−16)2 − 12(−1)2 − (−2)(−1)4
= 64 + 8 − 24 − 64 + 24 − 8 = 0
Matrices y Sistemas de Ecuaciones Lineales 58
Teorema 1.32. Sean A ∈ Mn×n(R) y α ∈ R. Si existen s, t ∈ {1, . . ., n} tales que s = t y
A(s) = αA(t), entonces det(A) = 0, esto es, si una fila de A es un m´ultiplo escalar de alguna otra
fila de A, su determinante es igual a cero.
Demostraci´on. Sea B ∈ Mn×n(R) tal que B(i) = A(i) para cada i ∈ {1, . . . , n} con i = s y
B(s) = A(t) = B(t). Por lo tanto, en virtud del teorema 1.31, se tiene que det(B) = 0.
Por otro lado, como A(s) = αA(t) = αB(t) = αB(s), entonces, usando el teorema 1.28, se tiene
que det(A) = α det(B) = α0 = 0.
Ejemplo 1.34. Sea
A =




2 8 2
−4 −16 1
3 12 −2




Entonces la columna A(2)
= 4A(1)
, adem´as
det(A) =
2 8 2
−4 −16 1
3 12 −2
= 2(−16)(−2) + (−4)12 · 2 + 3 · 8 · 1 − 2(−16)3 − 1 · 12 · 2 − (−2)8(−4)
= 64 − 96 + 24 + 96 − 24 − 64 = 0
Teorema 1.33. Sean A, B ∈ Mn×n(R) y α ∈ R. Si existen s, t ∈ {1, . . ., n} tales que s = t,
B(s) = A(s) + αA(t) y B(i) = A(i) para i = s, entonces det(B) = det(A), dicho de otra forma, si
a una fila de A le sumamos un m´ultiplo escalar de alguna otra fila de A, el determinante de la
matriz resultante es igual al determinante de A.
Demostraci´on. Sea C ∈ Mn×n(R) tal que C(i) = B(i) = A(i) para i = s y C(s) = αA(t). Por lo
tanto, dado que s = t y en virtud del teorema 1.32, det(C) = 0.
Adem´as, como B(s) = A(s) + αA(t) = A(s) + C(s) y en virtud del teorema 1.29
det(B) = det(A) + det(C) = det(A) + 0 = det(A)
Matrices y Sistemas de Ecuaciones Lineales 59
Ejemplo 1.35. Sea A la matriz del ejemplo 1.30 y sea
B =




2 −1 2
−2 −9 −10
−2 0 3




As´ı que B(2) = A(2) − 7A(1) (¿verif´ıquelo!). Adem´as
det(B) =
2 −1 2
−2 −9 −10
−2 0 3
= 2(−9)3 + (−2)0 · 2 + (−2)(−1)(−10) − 2(−9)(−2) − (−10)0 · 2 − 3(−1)(−2)
= −54 + 0 − 20 − 36 − 0 − 6 = −116 = det(A)
El siguiente ejemplo nos da un m´etodo para calcular el determinante de una matriz A haciendo
uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el c´alculo resulta
mucho m´as sencillo que al usar la definici´on.
Como se dijo en la observaci´on 1.15, usaremos tanto OEF como operaciones elementales por
columnas (OEC) para el c´alculo de determinantes, estas operaciones las indicaremos de manera
an´aloga a las OEF, salvo que en lugar de usar F usaremos C.
Ejemplo 1.36. Hallar el determinante de la matriz
A =










6 −1 2 13 2
−1 0 −1 −3 −1
0 −3 0 9 0
7 1 3 12 3
0 −2 4 1 −3










Soluci´on.
det(A) =
6 −1 2 13 2
−1 0 −1 −3 −1
0 −3 0 9 0
7 1 3 12 3
0 −2 4 1 −3
=
6 −1 2 10 2
−1 0 −1 −3 −1
0 −3 0 0 0
7 1 3 15 3
0 −2 4 −5 −3
C4 → C4 + 3C2
por teorema 1.33
Matrices y Sistemas de Ecuaciones Lineales 60
det(A) = −3(−1)3+2
6 2 10 2
−1 −1 −3 −1
7 3 15 3
0 4 −5 −3
desarrollando el determinante
mediante la tercera fila
= 3
0 −4 −8 −4
−1 −1 −3 −1
0 −4 −6 −4
0 4 −5 −3




F1 → F1 + 6F2
F3 → F3 + 7F2
por teorema 1.33




= 3(−1)(−1)2+1
−4 −8 −4
−4 −6 −4
4 −5 −3
desarrollando el determinante
mediante la primera columna
= 3
0 −13 −7
0 −11 −7
4 −5 −3




F1 → F1 + F3
F2 → F2 + F3
por teorema 1.33




= 3 · 4(−1)3+1
−13 −7
−11 −7
desarrollando el determinante
mediante la primera columna
= 12(−13(−7) − (−7)(−11)) = 12 · 14 = 168
Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos m´etodos ¿cu´al de los dos
le parece m´as sencillo?
Teorema 1.34. Sea A = (aij)n×n ∈ Mn×n(R). Entonces para cualesquiera s, t ∈ {1, . . ., n} con
s = t se tiene que
n
k=1
askCA
tk = 0 y
n
k=1
aksCA
kt = 0
Demostraci´on. Sea s, t ∈ {1, . . . , n} con s = t. Definamos B = (bij)n×n tal que B(i) = A(i)
para cada i ∈ {1, . . . , n} con i = t y B(t) = A(s). As´ı que, usando el teorema 1.31, det(B) = 0.
Por otro lado, las matrices que se obtienen al eliminar la fila t de B y la fila t de A, son iguales,
por lo tanto MB
tk = MA
tk para cada k ∈ {1, . . ., n}, de donde CB
tk = CA
tk. Luego, al desarrollar el
determinante de B mediante la fila t, se tiene que
det(B) =
n
k=1
btkCB
tk =
n
k=1
askCA
tk
En consecuencia
n
k=1
askCA
tk = 0, an´alogamente se prueba que
n
k=1
aksCA
kt = 0.
Matrices y Sistemas de Ecuaciones Lineales 61
Teorema 1.35. Si E ∈ Mn×n(R) es una matriz elemental, entonces para cada A ∈ Mn×n(R) se
tiene que det(EB) = det(E) det(B).
Demostraci´on. Como E ∈ Mn×n(R) es una matriz elemental, existe una OEF f : Fn(R) →
Fn(R) tal que E = f(In). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f(In)A =
f(A).
Debemos proceder por casos sobre el tipo de OEF.
Caso 1. f es una OEF tipo 1. As que existen s ∈ {1, . . ., n} y α = 0 tales que E(s) = α(In)(s)
(donde (In)(s) es la fila s de In) y para i = s se tiene que E(i) = (In)(i). Luego
(f(A))(s) = αA(s) y para i = s tenemos (f(A))(i) = A(i).
Por lo tanto, seg´un el teorema 1.28,
det(E) = α det(In) = α · 1 = α
y
det(EA) = det(f(A)) = α det(A) = det(E) det(A).
Caso 2. f es una OEF tipo 2. Luego existen s, t ∈ {1, . . . , n}, con s = t, y α ∈ R tales que
E(s) = (In)(s) + α(In)(t) y E(i) = (In)(i) para i = s. As que (f(A))(s) = A(s) + αA(t) y
(f(A))(i) = A(i) para i = s.
Usando el teorema 1.33, tenemos que
det(E) = det(In) = 1
y
det(EA) = det(f(A)) = det(A) = 1 · det(A) = det(E) det(A)
Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t ∈ {1, . . ., n} tales que E(s) = (In)(t),
E(t) = (In)(s) y E(i) = (In)(i) para i = s e i = t. De donde (f(A))(s) = A(s) + αA(t) y
(f(A))(i) = A(i) para i = s e i = t.
Si s = t, entonces E = In y f(A) = A, as que
det(E) = det(In) = 1
Matrices y Sistemas de Ecuaciones Lineales 62
y
det(EA) = det(f(A)) = det(A) = 1 · det(A) = det(E) det(A)
Si s = t, podemos usar el teorema 1.30 y obtenemos
det(E) = − det(In) = −1
y
det(EA) = det(f(A)) = − det(A) = (−1) det(A) = det(E) det(A)
Observaci´on 1.27. De la prueba del teorema 1.35, se tiene que si E ∈ Mn×n(R) es una matriz
elemental, entonces det(E) = 0.
Corolario 1.36. Sean E1, E2, . . . , Er ∈ Mn×n(R) matrices elementales. Entonces, para cada
A ∈ Mn×n(R), se tiene que det(E1E2 · · · ErA) = det(E1) det(E2) · · ·det(Er) det(A).
Demostraci´on. ¡Ejercicio!
Teorema 1.37. Si A ∈ Mn×n(R) es una matriz ERF, entonces det(A) = 0 si y s´olo si A = In.
Demostraci´on. Sea A = (aij)n×n. Como A es ERF, entonces A es triangular superior (ver
ejercicio 1.5), as´ı que aij = 0 para i > j y det(A) = a11a22 · · · ann.
Supongamos que det(A) = 0. Luego aii = 0 para cada i ∈ {1, . . . , n}. Como aij = 0 para i > j,
entonces para cada i ∈ {1, . . . , n}, la primera componente no nula en la i-´esima fila es aii, y por
ser A una matriz ERF, se tiene que aii = 1 para cada i ∈ {1, . . . , n}, es decir, aii es un pivote y
por lo tanto aij = 0 para i = j (¿por qu´e?). En resumen
aij =
1 si i = j
0 si i = j
Es decir, A = In.
Rec´ıprocamente, si A = In, entonces det(A) = 1 = 0.
En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz
cuadrada.
Matrices y Sistemas de Ecuaciones Lineales 63
Teorema 1.38. Sea A ∈ Mn×n(R). Entonces A es invertible si y s´olo si det(A) = 0.
Demostraci´on. Sea B ∈ Mn×n(R) la FERF A. Entonces existen matrices elementales E1, E2, . . ., Er ∈
Mn×n(R) tales que B = E1E2 · · · ErA. Como det(Ei) = 0 para cada i ∈ {1, . . . , r}, entonces
det(A) = 0 si y s´olo si det(B) = 0; y usando el teorema 1.37 se tiene que B = In. Por lo tanto
det(A) = 0 si y s´olo si la FERF de A es In, lo cual concluye la prueba.
Teorema 1.39. Sean A, B ∈ Mn×n(R). Entonces det(AB) = det(A) det(B).
Demostraci´on.
Caso 1. det(A) = 0. As´ı que, en virtud del teorema 1.38, A no es invertible. Luego, usando
el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se
tiene que det(AB) = 0. Por lo tanto
det(AB) = 0 = 0 det(B) = det(A) det(B)
Caso 2. det(A) = 0. Luego A es invertible, en virtud del teorema 1.38. As´ı que, al usar
el teorema 1.22, tenemos que existen matrices elementales E1, E2, . . . , Er ∈ Mn×n(R)
tales que A = E1E2 · · · Er. Luego, por el corolario 1.36
det(A) = det(E1E2 · · · Er) = det(E1) det(E2) · · ·det(Er) y
det(AB) = det(E1E2 · · · ErB) = det(E1) det(E2) · · ·det(Er) det(B) = det(A) det(B)
1.6. Matriz Adjunta. Regla de Cramer
En esta secci´on definiremos la adjunta de una matriz y enunciaremos la regla de Cramer,
que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante aplicaci´on
de los determinantes.
Definici´on 1.22. Sea A ∈ Mn×n(R). Se define la matriz adjunta de A como la matriz adj(A) ∈
Mn×n(R) cuya ij-´esima componente es el ji-´esimo cofactor de A para cada i, j ∈ {1, . . ., n}, es
decir, si adj(A) = (bij)n×n, entonces bij = CA
ji para cualesquiera i, j ∈ {1, . . . , n}.
Matrices y Sistemas de Ecuaciones Lineales 64
Observaci´on 1.28. Si C = (CA
ij )n×n, es decir, si C es la matriz real cuadrada cuya ij-´esima
componente es el ij-´esimo cofactor de A para cada i, j ∈ {1, . . ., n}, entonces adj(A) = CT
.
Ejemplo 1.37. Hallar la adjunta de
A =




2 −1 3
1 0 2
4 −1 7




Soluci´on. Necesitamos hallar cada uno de los cofactores de A. Veamos
CA
11 = (−1)1+1 0 2
−1 7
= 2; CA
12 = (−1)1+2 1 2
4 7
= 1; CA
13 = (−1)1+3 1 0
4 −1
= −1;
CA
21 = (−1)2+1 −1 3
−1 7
= 4; CA
22 = (−1)2+2 2 3
4 7
= 2; CA
23 = (−1)2+3 2 −1
4 −1
= −2;
CA
31 = (−1)3+1 −1 3
0 2
= −2; CA
32 = (−1)3+2 2 3
1 2
= −1; CA
33 = (−1)3+3 2 −1
1 0
= 1;
As que
adj(A) =




CA
11 CA
21 CA
31
CA
12 CA
22 CA
32
CA
13 CA
23 CA
33



 =




2 4 −2
1 2 −1
−1 −2 1




Teorema 1.40. Sea A ∈ Mn×n(R). Entonces A adj(A) = det(A)In = adj(A)A.
Demostraci´on. Hagamos adj(A) = (bjk)n×n. As´ı que para cada j, k ∈ {1, . . . , n}, se tiene que
bjk = CA
kj.
Si hacemos A adj(A) = D = (dik)n×n, entonces, para cada i, k ∈ {1, . . ., n}, tenemos que
dik =
n
j=1
aijbjk =
n
j=1
aijCA
kj.
Pero n
j=1
aijCA
ij = det(A)
Matrices y Sistemas de Ecuaciones Lineales 65
y seg´un el teorema 1.34, si i = k, entonces
n
j=1
aijCA
kj = 0
Por lo tanto
dik =
det(A) si i = k
0 si i = k
= det(A)
1 si i = k
0 si i = k
= det(A)δik
donde In = (δik)n×n. En consecuencia A adj(A) = det(A)In. De manera an´aloga se prueba que
adj(A)A = det(A)In, lo cual concluye la prueba.
Teorema 1.41. Si A ∈ Mn×n(R) es invertible, entonces det(A−1
) =
1
det(A)
y A−1
=
1
det(A)
adj(A).
Demostraci´on. Como A es invertible, entonces existe A−1
∈ Mn×n(R) tal que AA−1
= In =
A−1
A, y por el teorema 1.39
det(A) det(A−1
) = det(AA−1
) = det(In) = 1.
Luego
det(A−1
) =
1
det(A)
.
Por otro lado, usando el teorema 1.40, se tiene que
A
1
det(A)
adj(A) =
1
det(A)
A adj(A) =
1
det(A)
det(A)In = In.
De donde
A−1
=
1
det(A)
adj(A).
Ejercicio 1.9. Sea A ∈ Mn×n(R) una matriz invertible. Pruebe que adj(A) tambi´en es invertible
y adem´as (adj(A))−1
= adj(A−1
).
Matrices y Sistemas de Ecuaciones Lineales 66
Consideremos la ecuaci´on matricial Ax = b, donde A ∈ Mn×n(R). Si A es invertible, entonces
la ´unica soluci´on de dicha ecuaci´on est´a dada por x = A−1
b, as´ı que, una forma de hallar la
soluci´on de la ecuaci´on en cuesti´on, es calcular la inversa de A y multiplicarla por b, pero quiz´as
esto es mucho m´as complicado y costoso (en t´erminos de c´alculos) que hallar la FERF de la
matriz [A|b].
En el siguiente teorema presentaremos una herramienta que permite resolver la ecuaci´on an-
terior usando determinantes, sin necesidad de hallar la inversa de A ni la FERF de [A|b], dicha
herramienta se conoce con el nombre de la regla de Cramer.
Teorema 1.42 (Regla de Cramer). Sea A ∈ Mn×n(R) una matriz invertible y b ∈ Mn×1(R). Si
x =







x1
x2
...
xn







es la soluci´on de la ecuaci´on Ax = b, entonces, para cada j ∈ {1, . . ., n}, xj =
det(Ab
j)
det(A)
,
donde Ab
j es la matriz que se obtiene de A al reemplazar A(j)
(la columna j) por b, esto es,
Ab
j = A(1)
· · · A(j−1)
b A(j+1)
· · · A(n)
Demostraci´on. Como A = (aij)n×n es invertible, entonces la ´unica soluci´on del sistema Ax = b
es x = A−1
b, pero A−1
=
1
det(A)
adj(A), as´ı que x =
1
det(A)
adj(A)b, por lo tanto, si b =







b1
b2
...
bn







,
entonces xj =
1
det(A)
n
i=1
CA
ij bi para cada j ∈ {1, . . . , n}.
Por otro lado, para cada j ∈ {1, . . ., n}, se tiene que
Ab
j =















a11 · · · a1(j−1) b1 a1(j+1) · · · a1n
...
...
...
...
...
a(i−1)1 · · · a(i−1)(j−1) bi−1 a(i−1)(j+1) · · · a(i−1)n
ai1 · · · ai(j−1) bi ai(j+1) · · · ain
a(i+1)1 · · · a(i+1)(j−1) bi+1 a(i+1)(j+1) · · · a(i+1)n
...
...
...
...
...
an1 · · · an(j−1) bn an(j+1) · · · ann















Por lo tanto, para cada i ∈ {1, . . ., n}, tenemos que M
Ab
j
ij = MA
ij y as´ı
C
Ab
j
ij = (−1)i+j
det M
Ab
j
ij = (−1)i+j
det MA
ij = CA
ij
Matrices y Sistemas de Ecuaciones Lineales 67
Luego, al desarrollar el determinante de Ab
j por medio de la j-´esima columna, obtenemos
det(Ab
j) =
n
i=1
C
Ab
j
ij bi =
n
i=1
CA
ij bi
En consecuencia, para cada j ∈ {1, . . . , n} tenemos que
xj =
det(Ab
j)
det(A)
Ejemplo 1.38. Verificar que la matriz del sistema



x +2z −w = 3
x +y +2z +w = 2
4x +2y +2z −3w = 1
2y +z +4w = 1
es invertible y usar la regla de Cramer para hallar la soluci´on del sistema.
Soluci´on. La matriz del sistema es
A =







1 0 2 −1
1 1 2 1
4 2 2 −3
0 2 1 4







hallemos su determinante
det(A) =
1 0 2 −1
1 1 2 1
4 2 2 −3
0 2 1 4
=
1 0 2 −1
0 1 0 2
0 2 −6 1
0 2 1 4
=
1 0 2
2 −6 1
2 1 4
=
1 0 0
2 −6 −3
2 1 0
=
−6 −3
1 0
= 3 = 0.
Por lo tanto la matriz del sistema es invertible, as´ı que podemos aplicar la regla de Cramer para
resolverlo. En este caso la matriz de t´erminos independientes es
b =







3
2
1
1







Matrices y Sistemas de Ecuaciones Lineales 68
Luego
det Ab
1 =
3 0 2 −1
2 1 2 1
1 2 2 −3
1 2 1 4
=
0 −6 −1 −13
0 −3 0 −7
0 0 1 −7
1 2 1 4
= −
−6 −1 −13
−3 0 −7
0 1 −7
= −
−6 0 −20
−3 0 −7
0 1 −7
=
−6 −20
−3 −7
= 42 − 60 = −18.
det Ab
2 =
1 3 2 −1
1 2 2 1
4 1 2 −3
0 1 1 4
=
1 3 2 −1
0 −1 0 2
0 −11 −6 1
0 1 1 4
=
−1 0 2
−11 −6 1
1 1 4
=
−1 0 0
−11 −6 −21
1 1 6
= −
−6 −21
1 6
= −(−36 + 21) = 15.
det Ab
3 =
1 0 3 −1
1 1 2 1
4 2 1 −3
0 2 1 4
=
1 0 2 −1
0 1 −1 2
0 2 −11 1
0 2 1 4
=
1 −1 2
2 −11 1
2 1 4
=
1 −1 2
0 −9 −3
0 3 0
=
−9 −3
3 0
= 9.
det Ab
4 =
1 0 2 3
1 1 2 2
4 2 2 1
0 2 1 1
=
1 0 2 3
0 1 0 −1
0 2 −6 −11
0 2 1 1
=
1 0 −1
2 −6 −11
2 1 1
=
1 0 0
2 −6 −9
2 1 3
=
−6 −9
1 3
= −18 + 9 = −9.
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales
Matrices y Sistemas Lineales

Más contenido relacionado

La actualidad más candente

Conjunto Fundamental de Soluciones
Conjunto Fundamental de SolucionesConjunto Fundamental de Soluciones
Conjunto Fundamental de SolucionesDiego Salazar
 
Capitulo 3 funciones de varias variables
Capitulo 3     funciones de varias variables Capitulo 3     funciones de varias variables
Capitulo 3 funciones de varias variables Paul Borikua
 
Sistemas de ecuaciones homogéneas por el método de Gauss Jordan
Sistemas de ecuaciones homogéneas por el método de Gauss JordanSistemas de ecuaciones homogéneas por el método de Gauss Jordan
Sistemas de ecuaciones homogéneas por el método de Gauss JordanDaniel Orozco
 
Algebra lineal 3. Transformaciones lineales
Algebra lineal 3. Transformaciones linealesAlgebra lineal 3. Transformaciones lineales
Algebra lineal 3. Transformaciones linealesEdward Ropero
 
Ejercicios ecuaciones diferenciales
Ejercicios ecuaciones diferencialesEjercicios ecuaciones diferenciales
Ejercicios ecuaciones diferencialesRuben Jordan Rojas
 
MAT150-U2-2 Diferencial total-Derivada total.pdf
MAT150-U2-2 Diferencial total-Derivada total.pdfMAT150-U2-2 Diferencial total-Derivada total.pdf
MAT150-U2-2 Diferencial total-Derivada total.pdfluis calizaya
 
Aplicaciones de espacios y subespacios vectoriales en la carrera de Mecatrónica
Aplicaciones de espacios y subespacios vectoriales en la carrera de MecatrónicaAplicaciones de espacios y subespacios vectoriales en la carrera de Mecatrónica
Aplicaciones de espacios y subespacios vectoriales en la carrera de MecatrónicaRicardoCceres8
 
11.sistemas singulares
11.sistemas singulares11.sistemas singulares
11.sistemas singularesrjvillon
 
Presentación sobre Espacios Vectoriales.
Presentación sobre Espacios Vectoriales.Presentación sobre Espacios Vectoriales.
Presentación sobre Espacios Vectoriales.CharlesJMorris
 
Numeros Pseudo-aleatorios y variables aleatorias
Numeros Pseudo-aleatorios y variables aleatoriasNumeros Pseudo-aleatorios y variables aleatorias
Numeros Pseudo-aleatorios y variables aleatoriasAlberto Carranza Garcia
 
Matrices y determinantes
Matrices y determinantesMatrices y determinantes
Matrices y determinantesCarlos Iza
 
Ma 1116 ejercicios con soluciones
Ma 1116 ejercicios con solucionesMa 1116 ejercicios con soluciones
Ma 1116 ejercicios con solucionesodipza
 
Liderazgo en la ingenieria industrial
Liderazgo en la ingenieria industrialLiderazgo en la ingenieria industrial
Liderazgo en la ingenieria industrialibetica
 
SimulacióN De Variables Aleatorias
SimulacióN De  Variables  AleatoriasSimulacióN De  Variables  Aleatorias
SimulacióN De Variables AleatoriasJuan Lizaldes
 
Sets theory with animation
Sets theory with animationSets theory with animation
Sets theory with animationAnshu Rathore
 
Tipos de metodos numericos
Tipos de metodos numericosTipos de metodos numericos
Tipos de metodos numericosTensor
 

La actualidad más candente (20)

Conjunto Fundamental de Soluciones
Conjunto Fundamental de SolucionesConjunto Fundamental de Soluciones
Conjunto Fundamental de Soluciones
 
Capitulo 3 funciones de varias variables
Capitulo 3     funciones de varias variables Capitulo 3     funciones de varias variables
Capitulo 3 funciones de varias variables
 
Sistemas de ecuaciones homogéneas por el método de Gauss Jordan
Sistemas de ecuaciones homogéneas por el método de Gauss JordanSistemas de ecuaciones homogéneas por el método de Gauss Jordan
Sistemas de ecuaciones homogéneas por el método de Gauss Jordan
 
serie de taylor
 serie de taylor serie de taylor
serie de taylor
 
Unidad 3 calculo integral
Unidad 3 calculo integralUnidad 3 calculo integral
Unidad 3 calculo integral
 
Algebra lineal 3. Transformaciones lineales
Algebra lineal 3. Transformaciones linealesAlgebra lineal 3. Transformaciones lineales
Algebra lineal 3. Transformaciones lineales
 
Ejercicios ecuaciones diferenciales
Ejercicios ecuaciones diferencialesEjercicios ecuaciones diferenciales
Ejercicios ecuaciones diferenciales
 
MAT150-U2-2 Diferencial total-Derivada total.pdf
MAT150-U2-2 Diferencial total-Derivada total.pdfMAT150-U2-2 Diferencial total-Derivada total.pdf
MAT150-U2-2 Diferencial total-Derivada total.pdf
 
Aplicaciones de espacios y subespacios vectoriales en la carrera de Mecatrónica
Aplicaciones de espacios y subespacios vectoriales en la carrera de MecatrónicaAplicaciones de espacios y subespacios vectoriales en la carrera de Mecatrónica
Aplicaciones de espacios y subespacios vectoriales en la carrera de Mecatrónica
 
11.sistemas singulares
11.sistemas singulares11.sistemas singulares
11.sistemas singulares
 
Presentación sobre Espacios Vectoriales.
Presentación sobre Espacios Vectoriales.Presentación sobre Espacios Vectoriales.
Presentación sobre Espacios Vectoriales.
 
Integrales dobles
Integrales doblesIntegrales dobles
Integrales dobles
 
Numeros Pseudo-aleatorios y variables aleatorias
Numeros Pseudo-aleatorios y variables aleatoriasNumeros Pseudo-aleatorios y variables aleatorias
Numeros Pseudo-aleatorios y variables aleatorias
 
Matrices y determinantes
Matrices y determinantesMatrices y determinantes
Matrices y determinantes
 
Ma 1116 ejercicios con soluciones
Ma 1116 ejercicios con solucionesMa 1116 ejercicios con soluciones
Ma 1116 ejercicios con soluciones
 
Liderazgo en la ingenieria industrial
Liderazgo en la ingenieria industrialLiderazgo en la ingenieria industrial
Liderazgo en la ingenieria industrial
 
SimulacióN De Variables Aleatorias
SimulacióN De  Variables  AleatoriasSimulacióN De  Variables  Aleatorias
SimulacióN De Variables Aleatorias
 
Sets theory with animation
Sets theory with animationSets theory with animation
Sets theory with animation
 
Ejercicios integral definida
Ejercicios integral definidaEjercicios integral definida
Ejercicios integral definida
 
Tipos de metodos numericos
Tipos de metodos numericosTipos de metodos numericos
Tipos de metodos numericos
 

Similar a Matrices y Sistemas Lineales

Similar a Matrices y Sistemas Lineales (20)

Algebra lineal
Algebra linealAlgebra lineal
Algebra lineal
 
Alg lin itig_ap
Alg lin itig_apAlg lin itig_ap
Alg lin itig_ap
 
Alg lin itig_ap
Alg lin itig_apAlg lin itig_ap
Alg lin itig_ap
 
Algebra
AlgebraAlgebra
Algebra
 
110038266 matrices-y-determinantes
110038266 matrices-y-determinantes110038266 matrices-y-determinantes
110038266 matrices-y-determinantes
 
Algebra lineal 08_09
Algebra lineal 08_09Algebra lineal 08_09
Algebra lineal 08_09
 
Font Belaire Matematicas para la economia y la empresa
Font Belaire   Matematicas para la economia y la empresaFont Belaire   Matematicas para la economia y la empresa
Font Belaire Matematicas para la economia y la empresa
 
Libro algebra-lineal
Libro algebra-linealLibro algebra-lineal
Libro algebra-lineal
 
Libro cs2
Libro cs2Libro cs2
Libro cs2
 
algebra lineal
algebra linealalgebra lineal
algebra lineal
 
1469722664 933 _material_cursovariassoraya
1469722664 933 _material_cursovariassoraya1469722664 933 _material_cursovariassoraya
1469722664 933 _material_cursovariassoraya
 
Matrices y sistemas lineales
Matrices y sistemas linealesMatrices y sistemas lineales
Matrices y sistemas lineales
 
Matrices y sistemas lineales
Matrices y sistemas linealesMatrices y sistemas lineales
Matrices y sistemas lineales
 
Guia1c2019.pdf
Guia1c2019.pdfGuia1c2019.pdf
Guia1c2019.pdf
 
Algebra lineal juanrada
Algebra lineal juanradaAlgebra lineal juanrada
Algebra lineal juanrada
 
Libro de algebra lineal y geometría
Libro de algebra lineal y geometríaLibro de algebra lineal y geometría
Libro de algebra lineal y geometría
 
Apunte metodosnumericos
Apunte metodosnumericosApunte metodosnumericos
Apunte metodosnumericos
 
Elementos de ecuaciones_diferenciales_ordinarias
Elementos de ecuaciones_diferenciales_ordinariasElementos de ecuaciones_diferenciales_ordinarias
Elementos de ecuaciones_diferenciales_ordinarias
 
Apuntesaed
ApuntesaedApuntesaed
Apuntesaed
 
Calculo 3 curvas d nivel
Calculo 3 curvas d nivelCalculo 3 curvas d nivel
Calculo 3 curvas d nivel
 

Más de Felipe Vargas

mecanismos: engranajes guia de rondon
mecanismos: engranajes guia de rondonmecanismos: engranajes guia de rondon
mecanismos: engranajes guia de rondonFelipe Vargas
 
mecanismos: levas (EJERCICIOS) guia de rondon
mecanismos: levas (EJERCICIOS) guia de rondonmecanismos: levas (EJERCICIOS) guia de rondon
mecanismos: levas (EJERCICIOS) guia de rondonFelipe Vargas
 
mecanismos: levas (TEORIA) guia de rondon
mecanismos: levas (TEORIA) guia de rondonmecanismos: levas (TEORIA) guia de rondon
mecanismos: levas (TEORIA) guia de rondonFelipe Vargas
 
mecanismos: fuerzas guia de rondon
mecanismos: fuerzas guia de rondonmecanismos: fuerzas guia de rondon
mecanismos: fuerzas guia de rondonFelipe Vargas
 
mecanismos: aceleraciones guia de rondon
mecanismos: aceleraciones guia de rondonmecanismos: aceleraciones guia de rondon
mecanismos: aceleraciones guia de rondonFelipe Vargas
 
mecanismos: velocidades guia de rondon
mecanismos: velocidades guia de rondonmecanismos: velocidades guia de rondon
mecanismos: velocidades guia de rondonFelipe Vargas
 

Más de Felipe Vargas (6)

mecanismos: engranajes guia de rondon
mecanismos: engranajes guia de rondonmecanismos: engranajes guia de rondon
mecanismos: engranajes guia de rondon
 
mecanismos: levas (EJERCICIOS) guia de rondon
mecanismos: levas (EJERCICIOS) guia de rondonmecanismos: levas (EJERCICIOS) guia de rondon
mecanismos: levas (EJERCICIOS) guia de rondon
 
mecanismos: levas (TEORIA) guia de rondon
mecanismos: levas (TEORIA) guia de rondonmecanismos: levas (TEORIA) guia de rondon
mecanismos: levas (TEORIA) guia de rondon
 
mecanismos: fuerzas guia de rondon
mecanismos: fuerzas guia de rondonmecanismos: fuerzas guia de rondon
mecanismos: fuerzas guia de rondon
 
mecanismos: aceleraciones guia de rondon
mecanismos: aceleraciones guia de rondonmecanismos: aceleraciones guia de rondon
mecanismos: aceleraciones guia de rondon
 
mecanismos: velocidades guia de rondon
mecanismos: velocidades guia de rondonmecanismos: velocidades guia de rondon
mecanismos: velocidades guia de rondon
 

Último

Espontaneidad de las reacciones y procesos espontáneos
Espontaneidad de las reacciones y procesos espontáneosEspontaneidad de las reacciones y procesos espontáneos
Espontaneidad de las reacciones y procesos espontáneosOscarGonzalez231938
 
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023ANDECE
 
NOM-002-STPS-2010, combate contra incendio.pptx
NOM-002-STPS-2010, combate contra incendio.pptxNOM-002-STPS-2010, combate contra incendio.pptx
NOM-002-STPS-2010, combate contra incendio.pptxJairReyna1
 
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdfS454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdffredyflores58
 
QUIMICA ORGANICA I ENOLES Y ENAMINAS LIBR
QUIMICA ORGANICA I ENOLES Y ENAMINAS LIBRQUIMICA ORGANICA I ENOLES Y ENAMINAS LIBR
QUIMICA ORGANICA I ENOLES Y ENAMINAS LIBRyanimarca23
 
Fisiología del azufre en plantas S.S.pdf
Fisiología del azufre en plantas S.S.pdfFisiología del azufre en plantas S.S.pdf
Fisiología del azufre en plantas S.S.pdfJessLeonelVargasJimn
 
LEYES DE EXPONENTES SEMANA 1 CESAR VALLEJO.pdf
LEYES DE EXPONENTES SEMANA 1 CESAR VALLEJO.pdfLEYES DE EXPONENTES SEMANA 1 CESAR VALLEJO.pdf
LEYES DE EXPONENTES SEMANA 1 CESAR VALLEJO.pdfAdelaHerrera9
 
Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...
Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...
Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...ssuser646243
 
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptxAMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptxLuisvila35
 
3.3 Tipos de conexiones en los transformadores trifasicos.pdf
3.3 Tipos de conexiones en los transformadores trifasicos.pdf3.3 Tipos de conexiones en los transformadores trifasicos.pdf
3.3 Tipos de conexiones en los transformadores trifasicos.pdfRicardoRomeroUrbano
 
Tarea de UTP matematices y soluciones ingenieria
Tarea de UTP matematices y soluciones ingenieriaTarea de UTP matematices y soluciones ingenieria
Tarea de UTP matematices y soluciones ingenieriaSebastianQP1
 
5.1 MATERIAL COMPLEMENTARIO Sesión 02.pptx
5.1 MATERIAL COMPLEMENTARIO Sesión 02.pptx5.1 MATERIAL COMPLEMENTARIO Sesión 02.pptx
5.1 MATERIAL COMPLEMENTARIO Sesión 02.pptxNayeliZarzosa1
 
Físicas 1: Ecuaciones Dimensionales y Vectores
Físicas 1: Ecuaciones Dimensionales y VectoresFísicas 1: Ecuaciones Dimensionales y Vectores
Físicas 1: Ecuaciones Dimensionales y VectoresSegundo Silva Maguiña
 
Edificio residencial Becrux en Madrid. Fachada de GRC
Edificio residencial Becrux en Madrid. Fachada de GRCEdificio residencial Becrux en Madrid. Fachada de GRC
Edificio residencial Becrux en Madrid. Fachada de GRCANDECE
 
SOUDAL: Soluciones de sellado, pegado y hermeticidad
SOUDAL: Soluciones de sellado, pegado y hermeticidadSOUDAL: Soluciones de sellado, pegado y hermeticidad
SOUDAL: Soluciones de sellado, pegado y hermeticidadANDECE
 
VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)
VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)
VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)ssuser6958b11
 
Edificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaEdificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaANDECE
 
Electricidad y electronica industrial unidad 1
Electricidad y electronica industrial unidad 1Electricidad y electronica industrial unidad 1
Electricidad y electronica industrial unidad 1victorrodrigues972054
 
Topografía 1 Nivelación y Carretera en la Ingenierías
Topografía 1 Nivelación y Carretera en la IngenieríasTopografía 1 Nivelación y Carretera en la Ingenierías
Topografía 1 Nivelación y Carretera en la IngenieríasSegundo Silva Maguiña
 
Trabajo en altura de acuerdo a la normativa peruana
Trabajo en altura de acuerdo a la normativa peruanaTrabajo en altura de acuerdo a la normativa peruana
Trabajo en altura de acuerdo a la normativa peruana5extraviado
 

Último (20)

Espontaneidad de las reacciones y procesos espontáneos
Espontaneidad de las reacciones y procesos espontáneosEspontaneidad de las reacciones y procesos espontáneos
Espontaneidad de las reacciones y procesos espontáneos
 
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
 
NOM-002-STPS-2010, combate contra incendio.pptx
NOM-002-STPS-2010, combate contra incendio.pptxNOM-002-STPS-2010, combate contra incendio.pptx
NOM-002-STPS-2010, combate contra incendio.pptx
 
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdfS454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
 
QUIMICA ORGANICA I ENOLES Y ENAMINAS LIBR
QUIMICA ORGANICA I ENOLES Y ENAMINAS LIBRQUIMICA ORGANICA I ENOLES Y ENAMINAS LIBR
QUIMICA ORGANICA I ENOLES Y ENAMINAS LIBR
 
Fisiología del azufre en plantas S.S.pdf
Fisiología del azufre en plantas S.S.pdfFisiología del azufre en plantas S.S.pdf
Fisiología del azufre en plantas S.S.pdf
 
LEYES DE EXPONENTES SEMANA 1 CESAR VALLEJO.pdf
LEYES DE EXPONENTES SEMANA 1 CESAR VALLEJO.pdfLEYES DE EXPONENTES SEMANA 1 CESAR VALLEJO.pdf
LEYES DE EXPONENTES SEMANA 1 CESAR VALLEJO.pdf
 
Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...
Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...
Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...
 
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptxAMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
 
3.3 Tipos de conexiones en los transformadores trifasicos.pdf
3.3 Tipos de conexiones en los transformadores trifasicos.pdf3.3 Tipos de conexiones en los transformadores trifasicos.pdf
3.3 Tipos de conexiones en los transformadores trifasicos.pdf
 
Tarea de UTP matematices y soluciones ingenieria
Tarea de UTP matematices y soluciones ingenieriaTarea de UTP matematices y soluciones ingenieria
Tarea de UTP matematices y soluciones ingenieria
 
5.1 MATERIAL COMPLEMENTARIO Sesión 02.pptx
5.1 MATERIAL COMPLEMENTARIO Sesión 02.pptx5.1 MATERIAL COMPLEMENTARIO Sesión 02.pptx
5.1 MATERIAL COMPLEMENTARIO Sesión 02.pptx
 
Físicas 1: Ecuaciones Dimensionales y Vectores
Físicas 1: Ecuaciones Dimensionales y VectoresFísicas 1: Ecuaciones Dimensionales y Vectores
Físicas 1: Ecuaciones Dimensionales y Vectores
 
Edificio residencial Becrux en Madrid. Fachada de GRC
Edificio residencial Becrux en Madrid. Fachada de GRCEdificio residencial Becrux en Madrid. Fachada de GRC
Edificio residencial Becrux en Madrid. Fachada de GRC
 
SOUDAL: Soluciones de sellado, pegado y hermeticidad
SOUDAL: Soluciones de sellado, pegado y hermeticidadSOUDAL: Soluciones de sellado, pegado y hermeticidad
SOUDAL: Soluciones de sellado, pegado y hermeticidad
 
VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)
VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)
VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)
 
Edificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaEdificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes Granada
 
Electricidad y electronica industrial unidad 1
Electricidad y electronica industrial unidad 1Electricidad y electronica industrial unidad 1
Electricidad y electronica industrial unidad 1
 
Topografía 1 Nivelación y Carretera en la Ingenierías
Topografía 1 Nivelación y Carretera en la IngenieríasTopografía 1 Nivelación y Carretera en la Ingenierías
Topografía 1 Nivelación y Carretera en la Ingenierías
 
Trabajo en altura de acuerdo a la normativa peruana
Trabajo en altura de acuerdo a la normativa peruanaTrabajo en altura de acuerdo a la normativa peruana
Trabajo en altura de acuerdo a la normativa peruana
 

Matrices y Sistemas Lineales

  • 1. Rep´ublica Bolivariana de Venezuela Universidad Nacional Experimental Polit´ecnica “Antonio Jos´e de Sucre” Vice-Rectorado Barquisimeto Departamento de Estudios Generales y B´asicos Secci´on de Matem´atica Apuntes de ´Algebra Lineal Autores: MSc. Jorge F. Campos S. MSc. Dorka M. Chaves E. Barquisimeto, 2008
  • 2. ´Indice general ´Indice general I 1. Matrices y Sistemas de Ecuaciones Lineales 1 1.1. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1.1. Suma de Matrices y Multiplicaci´on por Escalar . . . . . . . . . . . . . . . 5 1.1.2. Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.1.3. Transposici´on o Trasposici´on de Matrices . . . . . . . . . . . . . . . . . . . 16 1.2. Operaciones Elementales por Filas . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.3. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.4. Inversa de una Matriz Cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 1.5. Determinantes. Propiedades de los Determinantes . . . . . . . . . . . . . . . . . . 46 1.6. Matriz Adjunta. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 1.7. Determinantes de Matrices Triangulares por Bloques . . . . . . . . . . . . . . . . 70 2. Espacios Vectoriales 76 2.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 2.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 2.3. Combinaci´on Lineal y Espacio Generado . . . . . . . . . . . . . . . . . . . . . . . 88 2.4. Independencia y Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 95 2.5. Bases y Dimensi´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 2.6. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz . . . . . . . . . . 107 3. Matriz de Cambio de Base. Espacios con Producto Interno 117 3.1. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 3.2. Espacios con producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 3.3. Bases Ortonormales y Proceso de Ortonormalizaci´on de Gram-Schmidt . . . . . . 132 3.4. Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 4. Transformaciones Lineales. Autovalores y Autovectores de una Matriz 149 4.1. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 4.2. Representaci´on Matricial de una Transformaci´on Lineal . . . . . . . . . . . . . . . 161 4.3. N´ucleo e Imagen de una Transformaci´on Lineal . . . . . . . . . . . . . . . . . . . 168 4.4. Autovalores y Autovectores de una Matriz . . . . . . . . . . . . . . . . . . . . . . 175 4.5. Diagonalizaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 i
  • 3. ´Indice general ii 4.6. Autovectores y Autoespacios Generalizados. Forma Can´onica de Jordan . . . . . . 191 Ap´endices 207 A. Campos y N´umeros Complejos 208 A.1. Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 A.2. El Campo de los N´umeros Complejos . . . . . . . . . . . . . . . . . . . . . . . . . 218 B. Algo m´as sobre Espacios Vectoriales 226 B.1. K-Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 B.2. Espacios Vectoriales de Dimensi´on Infinita . . . . . . . . . . . . . . . . . . . . . . 228 B.3. Espacios con Producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 B.4. Espacios Normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 C. Algo m´as sobre Transformaciones Lineales 229 C.1. Transformaciones Lineales Invertibles . . . . . . . . . . . . . . . . . . . . . . . . . 229 C.2. Autovalores y Autovectores de Transformaciones Lineales . . . . . . . . . . . . . . 234 D. Demostraciones de Algunos Teoremas 238
  • 4. Cap´ıtulo 1 Matrices y Sistemas de Ecuaciones Lineales 1.1. Operaciones con Matrices Definici´on 1.1. Sean m, n ∈ Z+ . Una matriz real A de orden m por n (m × n) es un arreglo bidimensional de n´umeros reales dispuestos en m filas y n columnas como sigue A = (aij)m×n =        a11 a12 · · · a1n a21 a22 · · · a2n ... ... ... am1 am2 · · · amn        =        a11 a12 · · · a1n a21 a22 · · · a2n ... ... ... am1 am2 · · · amn        donde aij ∈ R para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}, el cual es llamado componente ij-´esima de A. Para cada i ∈ {1, . . ., m} la i-´esima fila de A la denotaremos por A(i) y est´a dada por A(i) = ai1 ai2 · · · ain Para cada j ∈ {1, . . ., n} la j-´esima columna de A la denotaremos por A(j) y est´a dada por A(j) =        a1j a2j ... amj        Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las componentes a11, a22, . . ., ann forman lo que llamaremos diagonal principal de A. Cuando m = 1, diremos que A es una matriz fila y cuando n = 1, diremos que A es una matriz columna. La notaci´on A = (aij)m×n, significa que A es la matriz de orden m × n cuya ij-´esima compo- nente es aij para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}. El conjunto formado por todas las matrices reales de orden m×n lo denotaremos por Mm×n(R). 1
  • 5. Matrices y Sistemas de Ecuaciones Lineales 2 Observaci´on 1.1. Podemos considerar matrices sobre un campo K (ver ap´endice B), por ejemplo K = C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son elementos de K. Observaci´on 1.2. Se debe tener cuidado cuando se usa la notaci´on (aij)m×n, el cambio de ´ındices no significa que se trata de otra matriz, los ´ındices son “mudos”, esto es (aij)m×n = (akr)m×n = (apq)m×n = (aji)m×n Ejemplo 1.1. 1. A = −2 0 √ 5 2 3 4 1 es una matriz real de orden 2×3, la componente 2, 1 de A es a2,1 = 2 3 , la fila 2 de A es A(2) = 2 3 4 1 , la columna 3 de A es A(3) = √ 5 1 2. B =     −1 4 0 5 12 −3 0 2 −8     es una matriz cuadrada real de orden 3, las componentes de la diagonal principal son a1,1 = −1, a2,2 = 12, a3,3 = −8. 3. La matriz In = (δij)n×n, donde δij = 1 si i = j 0 si i = j , para cada i, j ∈ {1, . . . , n}, es llamada matriz identidad de orden n, esto es, In =        1 0 · · · 0 0 1 ... ... ... ... ... 0 0 · · · 0 1        n×n 4. La matriz 0/ m×n = (ξij)m×n, donde ξij = 0 para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . . , n}, es llamada matriz nula de orden m × n, es decir 0/ m×n =     0 · · · 0 ... ... 0 · · · 0     m×n
  • 6. Matrices y Sistemas de Ecuaciones Lineales 3 Cuando m = n, s´olo escribiremos 0/ n en lugar de 0/ n×n, es decir, 0/ n =     0 · · · 0 ... ... ... 0 · · · 0     n×n Definici´on 1.2. Sea A ∈ Mn×n(R). Diremos que A = (aij)n×n es 1. Triangular superior si aij = 0 para i, j ∈ {1, . . ., n} con i > j. 2. Triangular inferior si aij = 0 para i, j ∈ {1, . . ., n} con i < j. 3. Diagonal si aij = 0 para i, j ∈ {1, . . . , n} con i = j, es decir, A es triangular superior e inferior simult´aneamente. 4. Escalar si es diagonal y existe λ ∈ R tal que aii = λ para i ∈ {1, . . . , n}. Observaci´on 1.3. Una matriz cuadrada es triangular superior (respectivamente inferior) si y s´olo si todas sus componentes bajo (respectivamente sobre) la diagonal principal son iguales a cero. Observaci´on 1.4. Cuando A ∈ Mn×n(R) es diagonal y las componentes en la diagonal principal son λ1, λ2, . . . , λn ∈ R, entonces escribiremos A = diag(λ1, λ2, . . . , λn) Ejemplo 1.2. 1. Para cada n ∈ Z+ , In y 0/ n son matrices escalares, y por lo tanto diagonales y consecuente- mente triangulares superior e inferior. 2. A =        −5 4 0 −7 0 3 12 5 0 0 2 1 0 0 0 0        es triangular superior. 3. A =        −5 0 0 0 0 4 0 0 0 −1 0 0 9 13 −3 8        es triangular inferior.
  • 7. Matrices y Sistemas de Ecuaciones Lineales 4 4. A =        6 0 0 0 0 −3 0 0 0 0 −5 0 0 0 0 0        es diagonal, en cuyo caso podemos escribir A = diag(6, −3, −5, 0). 5. A =        8 0 0 0 0 8 0 0 0 0 8 0 0 0 0 8        es escalar, en cuyo caso podemos escribir A = diag(8, 8, 8, 8). Definici´on 1.3. Sean A, B ∈ Mm×n(R). Diremos que A y B son matrices iguales, lo cual denotaremos por A = B, si la componente ij-´esima de A es igual a la componente ij-´esima de B para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . ., n}, es decir, si A = (aij)m×n y B = (bij)m×n, diremos que A y B son iguales si aij = bij para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n} Observaci´on 1.5. N´otese que para que dos matrices sean iguales, en primer lugar deben ser del mismo orden. Ejemplo 1.3. Si A = 5 −1 0 −6 8 3 ; B =     5 7 0 y −2 4     y C =     x 7 0 −3 −2 4    , entonces A = B pues ni siquiera son del mismo orden; B = C si y s´olo si x = 5 e y = −3. El siguiente teorema es una consecuencia directa de la definici´on de igualdad de matrices, su demostraci´on la dejamos como ejercicio. Teorema 1.1. Sean A, B ∈ Mm×n(R). Entonces las siguientes proposiciones son equivalentes 1. A = B. 2. A(i) = B(i) para cada i ∈ {1, . . ., m}. 3. A(j) = B(j) para cada j ∈ {1, . . ., n}. Demostraci´on. ¡Ejercicio!
  • 8. Matrices y Sistemas de Ecuaciones Lineales 5 1.1.1. Suma de Matrices y Multiplicaci´on por Escalar En esta secci´on definiremos dos operaciones con matrices que dotar´an al conjunto Mm×n(R) de una estructura algebraica conocida como espacio vectorial, dicha estructura ser´a tratada en el cap´tulo 2 del presente trabajo. Definici´on 1.4. Sean A, B ∈ Mm×n(R) con A = (aij)m×n y B = (bij)m×n. Definiremos la matriz suma de A con B, como la matriz A + B ∈ Mm×n(R) cuya ij-´esima componente viene dada por aij + bij para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}, esto es, si A + B = (cij)m×n, entonces cij = aij + bij para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}. Observaci´on 1.6. Para poder sumar dos matrices estas deben ser del mismo orden. Ejemplo 1.4. Si A =     4 −9 0 8 −7 3 5 −12 1 0 −6 2     y B =     −3 9 5 −4 1 −13 3 9 10 4 7 11    , entonces A + B =     4 −9 0 8 −7 3 5 −12 1 0 −6 2     +     −3 9 5 −4 1 −13 3 9 10 4 7 11     =     4 + (−3) −9 + 9 0 + 5 8 + (−4) −7 + 1 3 + (−13) 5 + 3 −12 + 9 1 + 10 0 + 4 −6 + 7 2 + 11     =     1 0 5 4 −6 −10 8 −3 11 4 1 13     Definici´on 1.5. Sean A ∈ Mm×n(R) y α ∈ R (α es llamado escalar), con A = (aij)m×n. Definiremos la multiplicaci´on de α por A ( multiplicaci´on por escalar) como la matriz α · A ´o simplemente αA cuya ij-´esima componente es αaij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . ., n}, esto es, si αA = (bij)m×n, entonces bij = αaij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}. Observaci´on 1.7. La notaci´on de multiplicaci´on por escalar es α · A o αA y no A · α ni Aα, se debe colocar primero el escalar luego la matriz. Observaci´on 1.8. Toda matriz escalar de orden n es un m´ultiplo escalar de In, ms an, A ∈ Mn×n(R) es una matriz escalar si y s´olo si existe λ ∈ R tal que A = λIn.
  • 9. Matrices y Sistemas de Ecuaciones Lineales 6 Ejemplo 1.5. Sea A la matriz del ejemplo 1.4, entonces 2 · A = 2 ·     4 −9 0 8 −7 3 5 −12 1 0 −6 2     =     2 · 4 2(−9) 2 · 0 2 · 8 2(−7) 2 · 3 2 · 5 2(−12) 2 · 1 2 · 0 2(−6) 2 · 2     =     8 −18 0 16 −14 6 10 −24 2 0 −12 4     Teorema 1.2. Sean A, B, C ∈ Mm×n(R) y α, β ∈ R cualesquiera. Entonces 1. A + B = B + A (conmutatividad de la suma). 2. (A + B) + C = A + (B + C) (asociatividad de la suma). 3. A + 0/ m×n = A = 0/ m×n +A (neutro aditivo). 4. Existe una matriz D ∈ Mm×n(R) tal que A + D = 0/ m×n = D + A (opuesto aditivo). 5. α(A + B) = αA + αB (distributividad de la multiplicaci´on por escalar respecto a la suma matricial). 6. (α + β)A = αA + βA (distributividad de la multiplicaci´on por escalar respecto a la suma escalar). 7. α(βA) = (αβ)A = β(αA) (asociatividad de la multiplicaci´on por escalar). 8. 1 · A = A (neutro de la multiplicaci´on por escalar). Demostraci´on. Sean A = (aij)m×n, B = (bij)m×n y C = (cij)m×n. 1. Hagamos A + B = E = (eij)m×n y B + A = F = (fij)m×n. Por definici´on de suma de matrices, tenemos que para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n} eij = aij + bij = bij + aij = fij Luego A + B = E = F = B + A (definici´on de igualdad de matrices).
  • 10. Matrices y Sistemas de Ecuaciones Lineales 7 2. Hagamos A + B = E = (eij)m×n, (A + B) + C = E + C = F = (fij)m×n, B + C = G = (gij)m×n y A + (B + C) = A + G = H = (hij)m×n. As´ı que por definici´on de suma de matrices fij = eij + cij = (aij + bij) + cij = aij + (bij + cij) = aij + gij = hij De donde (A + B) + C = F = H = A + (B + C) (definici´on de igualdad de matrices). 3. Recordemos que 0/ m×n = (ξij)m×n donde ξij = 0 para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}. As´ı que si A + 0/ m×n = E = (eij)m×n, entonces, por definici´on de suma de matrices, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} eij = aij + ξij = aij + 0 = aij Por lo tanto A + 0/ m×n = E = A y por conmutatividad A + 0/ m×n = A = 0/ m×n +A 4. Definamos D = (dij)m×n con dij = −aij para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}. Hagamos A + D = E = (eij)m×n. Entonces, por definici´on de suma de matrices, para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n} eij = aij + dij = aij + (−aij) = 0 Por lo tanto A + D = E = 0/ m×n y por conmutatividad A + D = 0/ m×n = D + A 5. Hagamos A + B = E = (eij)m×n, α(A + B) = αE = F = (fij)m×n, αA = G = (gij)m×n, αB = H = (hij)m×n y αA + αB = G + H = P = (pij)m×n. Entonces, para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n} tenemos que fij = αeij (definici´on de multiplicaci´on por escalar) = α(aij + bij) (definici´on de suma de matrices) = αaij + αbij = gij + hij (definici´on de multiplicaci´on por escalar) = pij (definici´on de suma de matrices) Luego α(A + B) = F = P = αA + αB
  • 11. Matrices y Sistemas de Ecuaciones Lineales 8 6. Hagamos (α + β)A = E = (eij)m×n, αA = F = (fij)m×n, βA = G = (gij)m×n y αA + βA = F + G = H = (hij)m×n. En consecuencia, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . ., n} se tiene que eij = (α + β)aij (definici´on de multiplicaci´on por escalar) = αaij + βaij = fij + gij (definici´on de multiplicaci´on por escalar) = hij (definici´on de suma de matrices) De donde (α + β)A = E = H = αA + βA 7. Hagamos βA = E = (eij)m×n, α(βA) = αE = F = (fij)m×n y (αβ)A = G = (gij)m×n. As´ı que, por definici´on de multiplicaci´on de por escalar, para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . . , n} obtenemos fij = αeij = α(βaij) = (αβ)aij = gij Luego α(βA) = F = G = (αβ)A y en consecuencia β(αA) = (βα)A = (αβ)A Por lo tanto α(βA) = (αβ)A = β(αA) 8. Hagamos 1 · A = E = (eij)m×n. As´ı que al usar la definici´on de multiplicaci´on por escalar, se tiene que para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n} eij = 1 · aij = aij En consecuencia 1 · A = E = A Teorema 1.3. 1. La matriz nula 0/ m×n es la ´unica matriz real de orden m×n tal que para cada A ∈ Mm×n(R) se cumple que A + 0/ m×n = A = 0/ m×n +A.
  • 12. Matrices y Sistemas de Ecuaciones Lineales 9 2. Para cada matriz A ∈ Mm×n(R), existe una ´unica matriz D ∈ Mm×n(R) tal que A + D = 0/ m×n = D + A, tal matriz D es llamada matriz opuesta de A y se denota por −A. Demostraci´on. La parte 3 del teorema 1.2 garantiza que la matriz nula 0/ m×n satisface que para cada A ∈ Mm×n(R) se cumple que A + 0/ m×n = A = 0/ m×n +A. Adem´as, la existencia de la matriz D es garantizada en la parte 4 del mismo teorema. S´olo faltar´ıa probar la unicidad de ambas matrices. 1. Supongamos que P ∈ Mm×n(R) es tal que A + P = A = P + A para cada A ∈ Mm×n(R), luego P = P + 0/ m×n (por la parte 3 del teorema 1.2) = 0/ m×n (hip´otesis) 2. Sea A ∈ Mm×n(R) cualquiera. Supongamos que existen D, E ∈ Mm×n(R) tales que A + D = 0/ m×n = D + A (1.1) A + E = 0/ m×n = E + A (1.2) En consecuencia D = D + 0/ m×n (teorema 1.2 parte 3) = D + (A + E) (por la ecuaci´on 1.2) = (D + A) + E (teorema 1.2 parte 2) = 0/ m×n +E (por la ecuaci´on 1.1) = E (teorema 1.2 parte 3) Teorema 1.4. Sean A, B, C ∈ Mm×n(R) tales que A + B = A + C. Entonces B = C. Demostraci´on. ¡Ejercicio! Teorema 1.5. Sean A ∈ Mm×n(R) y α ∈ R cualesquiera. Entonces 1. 0 · A = 0/ m×n.
  • 13. Matrices y Sistemas de Ecuaciones Lineales 10 2. α 0/ m×n = 0/ m×n. 3. (−1)A = −A. 4. Si αA = 0/ m×n, entonces α = 0 ´o A = 0/ m×n. Demostraci´on. 1. Sabemos que 0 · A + 0/ m×n = 0 · A (¿por qu´e?) adem´as 0 · A = (0 + 0)A = 0 · A + 0 · A as´ı que 0 · A + 0 · A = 0 · A + 0/ m×n y por el teorema 1.4, se tiene que 0 · A = 0/ m×n 2. Por un lado α · 0/ m×n = α · 0/ m×n + 0/ m×n (¿por qu´e?) por otro lado α · 0/ m×n = α(0/ m×n + 0/ m×n) = α · 0/ m×n +α · 0/ m×n luego α · 0/ m×n + 0/ m×n = α · 0/ m×n +α · 0/ m×n y nuevamente, usando el teorema 1.4, tenemos que α 0/ m×n = 0/ m×n 3. Basta probar que A + (−1)A = 0/ m×n, y por unicidad, obtendr´ıamos el resultado. Veamos A + (−1)A = 1 · A + (−1)A (teorema 1.2 parte 8) = (1 + (−1))A (teorema 1.2 parte 6) = 0 · A = 0/ m×n (por la parte 1) Luego, por unicidad de la matriz opuesta, (−1)A = −A
  • 14. Matrices y Sistemas de Ecuaciones Lineales 11 4. Supongamos que αA = 0/ m×n. Si α = 0, no hay nada que probar, supongamos entonces que α = 0, as´ı que A = 1 · A (teorema 1.2 parte 8) = (α−1 α)A A = α−1 (αA) (teorema 1.2 parte 7) = α−1 0/ m×n (por hip´otesis) = 0/ m×n (por la parte 2) Con lo cual, se concluye la prueba. Definici´on 1.6. Sean A, B ∈ Mm×n(R). Definiremos A − B = A + (−B). Ejemplo 1.6. Si A =        4 −12 0 −6 5 −3 6 −1 2 7 0 1        y B =        5 −10 −6 6 −1 11 4 0 5 −2 −6 −1        , entonces A − B = A + (−B) =        4 −12 0 −6 5 −3 6 −1 2 7 0 1        +        −        5 −10 −6 6 −1 11 4 0 5 −2 −6 −1               =        4 −12 0 −6 5 −3 6 −1 2 7 0 1        +        −5 10 6 −6 1 −11 −4 0 −5 2 6 1        =        −1 −2 6 −12 6 −14 2 −1 −3 9 6 2        1.1.2. Producto de Matrices A diferencia de las dos operaciones definidas en la secci´on anterior, la multiplicaci´on de matrices no se define de manera “natural”, como veremos luego, no por ello deja de ser importante dicha operaci´on.
  • 15. Matrices y Sistemas de Ecuaciones Lineales 12 Definici´on 1.7. Sean A = (aij)m×n ∈ Mm×n(R) y B = (bjk)n×p ∈ Mn×p(R). Definiremos el producto de A por B como la matriz C = (cik)m×p ∈ Mm×p(R), denotada por AB ´o A · B, tal que para cada i ∈ {1, . . ., m} y cada k ∈ {1, . . . , p} se tiene que cik = n j=1 aijbjk = ai1b1k + ai2b2k + · · · + ainbnk Observaci´on 1.9. N´otese que para poder definir el producto AB, la cantidad de columnas de A debe coincidir con la cantidad de filas de B, adem´as, la matriz resultante, es una matriz cuya cantidad de filas coincide con la cantidad de filas de A y su cantidad de columnas es igual a la cantidad de columnas de B. Ejemplo 1.7. Sean A = 2 −1 0 0 3 1 y B =     3 1 0 2 −1 −2 −4 −2 3    . Entonces AB = A · B = 2 · 3 + (−1)2 + 0(−4) 2 · 1 + (−1)(−1) + 0(−2) 2 · 0 + (−1)(−2) + 0 · 3 0 · 3 + 3 · 2 + 1(−4) 0 · 1 + 3(−1) + 1(−2) 0 · 0 + 3(−2) + 1 · 3 = 6 − 2 + 0 2 + 1 + 0 0 + 2 + 0 0 + 6 − 4 0 − 3 − 2 0 − 6 + 3 = 4 3 2 2 −5 −3 Observaci´on 1.10. N´otese que en el ejemplo anterior, el producto BA no est´a definido, esto nos dice que el producto de matrices no es conmutativo, m´as a´un, a pesar de que ambos productos est´an definidos, AB y BA, no necesariamente son ambos del mismo orden, adem´as, siendo ambos productos del mismo orden, en cuyo caso necesariamente A y B deben ser cuadradas y del mismo orden, las matrices AB y BA no tienen por que ser iguales, cuando esto ocurre, es decir, cuando AB = BA, se dice que A y B son matrices que conmutan. A continuaci´on enunciaremos un teorema que expone las principales propiedades del producto de matrices Teorema 1.6. Sean A ∈ Mm×n(R); B, C ∈ Mn×p(R); C ∈ Mp×q(R) y α ∈ R. Entonces 1. (AB)D = A(BD) (asociatividad del producto de matrices). 2. A(B + C) = AB + AC (distributividad a izquierda del producto de matrices).
  • 16. Matrices y Sistemas de Ecuaciones Lineales 13 3. (B + C)D = BD + CD (distributividad a derecha del producto de matrices). 4. α(AB) = (αA)B = A(αB) (asociatividad del producto de matrices y la multiplicaci´on por escalar). 5. ImA = A = AIn (neutros del producto de matrices). 6. B 0/ p×q = 0/ n×q y 0/ m×n B = 0/ m×p. Demostraci´on. Sean A = (aij)m×n; B = (bjk)n×p; C = (cjk)n×p y D = (dkl)p×q. 1. Hagamos AB = E = (eik)m×p; (AB)D = ED = F = (fil)m×q; BD = G = (gjl)n×q y A(BD) = AG = H = (hil)m×q. Entonces, usando la definici´on de producto matricial, para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p} eik = n j=1 aijbjk para cada j ∈ {1, . . ., n} y cada l ∈ {1, . . . , q} gjl = p k=1 bjkdkl y para cada i ∈ {1, . . . , m} y cada l ∈ {1, . . ., q} fil = p k=1 eikdkl; hil = n j=1 aijgjl Luego fil = p k=1 eikdkl = p k=1 n j=1 aijbjk dkl = p k=1 n j=1 aijbjkdkl = n j=1 p k=1 aijbjkdkl = n j=1 aij p k=1 bjkdkl = n j=1 aijgjl = hil Por lo tanto, usando la definici´on de igualdad de matrices (AB)D = F = H = A(BD)
  • 17. Matrices y Sistemas de Ecuaciones Lineales 14 2. Hagamos B + C = E = (ejk)n×p; A(B + C) = AE = F = (fik)m×p; AB = G = (gik)m×p; AC = H = (hik)m×p y AB + AC = G + H = R = (rik)m×p. Entonces, para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . ., p} fik = n j=1 aijejk (definici´on de producto de matrices) = n j=1 aij(bjk + cjk) (definici´on de suma de matrices) = n j=1 (aijbjk + aijcjk) = n j=1 aijbjk + n j=1 aijcjk = gik + hik (definici´on de producto de matrices) = rik (definici´on de suma de matrices) En consecuencia A(B + C) = F = R = AB + AC 3. An´alogo a la demostraci´on de la parte 2. 4. Sean AB = E = (eik)m×p; α(AB) = αE = F = (fik)m×p; αA = G = (gij)m×n y (αA)B = GB = H = (hik)m×p. Entonces, para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p} fik = αeik (definici´on de multiplicaci´on por escalar) = α n j=1 aijbjk (definici´on de producto de matrices) = n j=1 α(aijbjk) = n j=1 (αaij)bjk = n j=1 gijbjk (definici´on de multiplicaci´on por escalar) = hik (definici´on de producto de matrices) De donde α(AB) = F = H = (αA)B. De manera an´aloga se prueba que α(AB) = A(αB), as´ı que α(AB) = (αA)B = A(αB) 5. Recordemos que In = (δjk)n×n, donde δjk = 1 si j = k 0 si j = k (1.3)
  • 18. Matrices y Sistemas de Ecuaciones Lineales 15 para cada j, k ∈ {1, . . . , n}. Hagamos AIn = E = (eik)m×n. Entonces, para cada i ∈ {1, . . ., m} y cada k ∈ {1, . . ., n} eik = n j=1 aijδjk (definici´on de producto de matrices) = ai1δ1k + · · · + ai(k−1)δ(k−1)k + aikδkk + ai(k+1)δ(k+1)k + · · · + ainδnk = ai1 · 0 + · · · + ai(k−1) · 0 + aik · 1 + ai(k+1) · 0 + · · · + ain · 0 (por 1.3) = aik Por lo tanto AIn = E = A, an´alogamente puede probarse que ImA = A, en consecuencia AIn = A = ImA 6. ¡Ejercicio! Ejercicio 1.1. Pruebe que si A ∈ Mm×n(R) y B ∈ Mn×p(R), entonces 1. AB = AB(1) AB(2) · · · AB(p) (desarrollo por columnas del producto AB), es decir, la k-´esima columna de AB, que es (AB)(k) , es igual a A por la k-´esima columna de B, AB(k) , para cada k ∈ {1, . . . , p}. 2. AB =        A(1)B A(2)B ... A(m)B        (desarrollo por filas del producto AB), es decir, la i-´esima fila de AB, que es (AB)(i), es igual a la i-´esima fila de A por B, A(i)B, para cada i ∈ {1, . . . , m}. Ejercicio 1.2. Dada una matriz A ∈ Mn×n(R), para k ∈ N definamos Ak =    0/ n si A = 0/ n y k ≥ 1 In si A = 0/ n y k = 0 Ak−1 A si A = 0/ n y k ≥ 1 Pruebe que Ak Ar = Ak+r para cualesquiera k, r ∈ N. Definici´on 1.8. Una matriz N ∈ Mn×n(R) es llamada nilpotente si existe p ∈ N tal que Np = 0/ n, adem´as, si p es tal que Np−1 = 0/ n, diremos que N es nilpotente de orden p.
  • 19. Matrices y Sistemas de Ecuaciones Lineales 16 Observaci´on 1.11. La matriz nula de orden n es nilpotente y conveninos en que es nilpotente de orden 0. Ejemplo 1.8. Las siguientes matrices son nilpotentes N1 =        −1 1 0 0 −1 0 1 0 −1 0 1 0 −1 0 1 0        ; N2 =        0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0        N1 es de orden 3 y N2 es de orden 4 (¡verif´ıquelo!). 1.1.3. Transposici´on o Trasposici´on de Matrices Definici´on 1.9. Sea A = (aij)m×n ∈ Mm×n(R). Definiremos la transpuesta o traspuesta de A como la matriz AT = (bji)n×m ∈ Mn×m(R) tal que bji = aij para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n} Ejemplo 1.9. Sea A =     −2 5 0 7 3 0 1 −6 −5 12 −2 9     Entonces AT =        −2 3 −5 5 0 12 0 1 −2 7 −6 9        Observaci´on 1.12. N´otese que las filas de A “pasan” a ser las columnas de AT y las columnas de A “pasan” a ser las filas de AT , m´as propiamente A(i) T = AT (i) para cada i ∈ {1, . . ., m} A(j) T = AT (j) para cada j ∈ {1, . . ., n} Teorema 1.7. Sean A, B ∈ Mm×n(R), C ∈ Mn×p(R) y α ∈ R. Entonces
  • 20. Matrices y Sistemas de Ecuaciones Lineales 17 1. AT T = A (propiedad de involuci´on de la transposici´on de matrices) 2. (A + B)T = AT + BT (transpuesta de la suma) 3. (αA)T = αAT (transpuesta de la multiplicaci´on por escalar) 4. (AC)T = CT AT (transpuesta del producto matricial) 5. (In)T = In y (0/ m×n)T = 0/ n×m Demostraci´on. Sean A = (aij)m×n; B = (bij)m×n y C = (cjk)n×p. 1. Hagamos AT = D = (dji)n×m y AT T = DT = E = (eij)m×n. Entonces, para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n}, por definici´on de transpuesta eij = dji = aij Luego AT T = E = A 2. Sean A + B = D = (dij)m×n; (A + B)T = DT = E = (eji)n×m; AT = F = (fji)n×m; BT = G = (gji)n×m y AT +BT = F+G = H = (hji)n×m. Entonces, para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n} eji = dij (definici´on de transpuesta) = aij + bij (definici´on de suma de matrices) = fji + gji (definici´on de transpuesta) = hji (definici´on de suma de matrices) Por lo tanto (A + B)T = E = H = AT + BT 3. Hagamos αA = D = (dij)m×n; (αA)T = DT = E = (eji)n×m; AT = F = (fji)n×m; y αAT = αF = G = (gji)n×m. Entonces, para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . ., n} eji = dij (definici´on de transpuesta) = αaij (definici´on de multiplicaci´on por escalar) = αfji (definici´on de transpuesta) = gji (definici´on de multiplicaci´on por escalar)
  • 21. Matrices y Sistemas de Ecuaciones Lineales 18 As´ı que (αA)T = E = G = αAT 4. Sean AC = D = (dik)m×p; (AC)T = DT = E = (eki)p×m; CT = F = (fkj)p×n; AT = G = (gji)n×m y CT AT = FG = H = (hki)p×m. Entonces, para cada i ∈ {1, . . ., m} y cada k ∈ {1, . . . , p} eki = dik (definici´on de transpuesta) = n j=1 aijcjk (definici´on de producto) = n j=1 gjifkj (definici´on de transpuesta) = n j=1 fkjgji = hki (definici´on de producto) De donde (AC)T = E = H = CT AT 5. ¡Ejercicio! Definici´on 1.10. Sea A ∈ Mn×n(R). Diremos que 1. A es sim´etrica si AT = A. 2. A es antisim´etrica si AT = −A. Ejemplo 1.10. 1. In es sim´etrica para todo n ∈ N. 2. 0/ n es sim´etrica y antisim´etrica para todo n ∈ N ¿existe alguna otra matriz que sea sim´etrica y antisim´etrica simult´aneamente? 3. La matriz A =        0 5 7 −6 −5 0 −4 8 −7 4 0 12 6 −8 −12 0       
  • 22. Matrices y Sistemas de Ecuaciones Lineales 19 es antisim´etrica pues AT =        0 −5 −7 6 5 0 4 −8 7 −4 0 −12 −6 8 12 0        = −A 4. La matriz A =        5 −9 3 0 −9 2 −1 13 3 −1 0 7 0 13 7 −3        es sim´etrica ya que AT =        5 −9 3 0 −9 2 −1 13 3 −1 0 7 0 13 7 −3        = A Teorema 1.8. Sea A ∈ Mn×n(R). Entonces 1. A es sim´etrica si y s´olo si aij = aji para cualesquiera i, j ∈ {1, . . ., n}. 2. A es antisim´etrica si y s´olo si aij = −aji para cualesquiera i, j ∈ {1, . . . , n}. 3. Si A es antisim´etrica, entonces aii = 0 para cualquiera i ∈ {1, . . ., n}. Demostraci´on. ¡Ejercicio! 1.2. Operaciones Elementales por Filas Las operaciones elementales por filas son herramientas usadas con mucha frecuencia en la resoluci´on de los sistemas de ecuaciones lineales al igual que en c´alculo de la inversa de una matriz cuadrada. Estas operaciones las usaremos a lo largo de todo el curso, por ello deben ser manejadas con la mayor perfecci´on posible por parte del estudiante que desee aprender la materia. Comencemos por definir dichas operaciones. Denotemos por Fm(R) el conjunto formado por todas las matrices reales con m filas.
  • 23. Matrices y Sistemas de Ecuaciones Lineales 20 Definici´on 1.11. Una operaci´on elemental por filas (OEF) es una funci´on f : Fm(R) → Fm(R) la cual es de uno de los siguientes tipos OEF Tipo 1. Si f(A) = B, entonces existen s ∈ {1, . . . , m} y α = 0 tales que B(i) = A(i) para cada i ∈ {1, . . . , m}, con i = s, y adem´as B(s) = αA(s), esto es, una de las filas de A es multiplicada por un escalar no nulo y el resto de las filas permanecen iguales. f(A) = f                               A(1) ... A(s−1) A(s) A(s+1) ... A(m)                               =                A(1) ... A(s−1) αA(s) A(s+1) ... A(m)                = B Por comodidad, en lugar de escribir B = f(A), escribiremos A Fs → αFs →B. OEF Tipo 2. Si f(A) = B, entonces existen s, t ∈ {1, . . . , m}, con s = t, y α ∈ R tales que B(i) = A(i) para cada i ∈ {1, . . ., m}, con i = s, y adem´as B(s) = A(s) + αA(t), es decir, a una fila de A le sumamos un m´ultiplo escalar de alguna otra fila de A, distinta de la primera, dejando el resto de las filas intactas. f(A) = f                               A(1) ... A(s−1) A(s) A(s+1) ... A(m)                               =                A(1) ... A(s−1) A(s) + αA(t) A(s+1) ... A(m)                = B Al igual que antes, en lugar de escribir B = f(A), escribiremos A Fs → Fs + αFt →B. OEF Tipo 3. Si f(A) = B, entonces existen s, t ∈ {1, . . ., m} tales que B(i) = A(i) para cada i ∈ {1, . . . , m}, con i = s e i = t y adem´as B(s) = A(t) y B(t) = A(s), dicho de otra manera, intercambiamos dos filas de A y dejamos el resto sin alterar.
  • 24. Matrices y Sistemas de Ecuaciones Lineales 21 f(A) = f                                                       A(1) ... A(s−1) A(s) A(s+1) ... A(t−1) A(t) A(t+1) ... A(m)                                                       =                            A(1) ... A(s−1) A(t) A(s+1) ... A(t−1) A(s) A(t+1) ... A(m)                            = B Nuevamente, en lugar de escribir B = f(A), escribiremos A Fs ↔ Ft →B. Observaci´on 1.13. N´otese que si A ∈ Mm×n(R) y f : Fm(R) → Fm(R) es una OEF, entonces f(A) ∈ Mm×n(R). Ejercicio 1.3. Pruebe que toda OEF f : Fm(R) → Fm(R) es una funci´on invertible y que su inversa f−1 : Fm(R) → Fm(R) es tambi´en una OEF del mismo tipo que f. Ejemplo 1.11. Sea A =        −2 4 −5 6 3 4 2 −1 8 −6 21 −15        Entonces A =        −2 4 −5 6 3 4 2 −1 8 −6 21 −15        F1 ↔ F3 → (OEF 3)        2 −1 8 6 3 4 −2 4 −5 −6 21 −15        F4 → 1 3 F4 → (OEF 1)        2 −1 8 6 3 4 −2 4 −5 −2 7 −5        F3 → F3 + F1 → (OEF 2)        2 −1 8 6 3 4 0 3 3 −2 7 −5        = B
  • 25. Matrices y Sistemas de Ecuaciones Lineales 22 Observaci´on 1.14. Se pueden aplicar m´as de dos operaciones por filas en un solo paso, lo ´unico que debemos cuidar es no transformar, en el mismo paso, una fila m´as de una vez y no transformar, en el mismo paso, una fila que va ser usada para transformar a otra(s). Observaci´on 1.15. De manera an´aloga a como se definieron las operaciones elementales por filas, pueden definirse operaciones elementales por columnas (OEC), sin embargo, estas ´ultimas s´olo se usar´an para el c´alculo de determinantes y no para la resoluci´on de sistemas de ecuaciones lineales ni para hallar la inversa de una matriz cuadrada, en estos ´ultimos dos problemas s´olo usaremos las operaciones elementales por filas. Definici´on 1.12. Sea A = (aij)m×n ∈ Mm×n(R). Diremos que A es una matriz Escalonada 1. Si todas las filas nulas de A, si las hay, est´an ubicadas en las ´ultimas posiciones, esto es, si A(i) es una fila no nula de A, entonces A(s) tambi´en es no nula para cada 1 ≤ s < i. 2. Si A(i) y A(i+1) son dos filas no nulas de A, entonces la primera componente no nula de A(i) (contada de izquierda a derecha) est´a mas a la izquierda de la primera componente no nula de A(i+1), es decir, si j, k ∈ {1, . . ., n} son tales que aij = 0; a(i+1)k = 0 y ais = 0 = a(i+1)t para cada 1 ≤ s < j y cada 1 ≤ t < k, entonces j < k. Reducida por Filas (RF) 1. Si A(i) es una fila no nula de A, entonces la primera componente no nula de A(i) es igual a 1 (uno), dicha componente es llamada pivote, es decir, si j ∈ {1, . . ., n} es tal que aij = 0 y ais = 0 para cada 1 ≤ s < j, entonces aij = 1. 2. Si A(j) es una columna de A que tiene un pivote, entonces el resto de las componentes de A(j) son iguales a 0 (cero), esto es, si i ∈ {1, . . . , m} es tal que aij = 1 y ais = 0 para cada 1 ≤ s < j, entonces akj = 0 para cada k ∈ {1, . . ., m} con k = i. Escalonada Reducida por Filas (ERF) si es escalonada y reducida por filas simult´anea- mente. Ejemplo 1.12.
  • 26. Matrices y Sistemas de Ecuaciones Lineales 23 1. Para cualesquiera m, n ∈ Z+ , In y 0/ m×n son matrices escalonadas reducidas por filas. 2. E =        2 −1 3 8 3 0 5 1 6 −4 0 0 0 8 −7 0 0 0 0 0        es escalonada pero no es reducida por filas. 3. R =           1 0 0 7 0 0 0 0 0 0 1 −9 0 0 0 6 0 1 0 1           es reducida por filas pero no es escalonada. 4. F =           1 0 −5 0 8 0 1 3 0 −1 0 0 0 1 −2 0 0 0 0 0 0 0 0 0 0           es escalonada reducida por filas. Ejercicio 1.4. Sea A ∈ Mm×n(R). Pruebe que: 1. Si A es una matriz escalonada, entonces la cantidad de filas no nulas de A es, a lo sumo, el m´ınimo entre m y n. 2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el m´ınimo entre m y n. Ejercicio 1.5. Pruebe que si A ∈ Mn×n(R) es una matriz escalonada, entonces A es triangular superior. Definici´on 1.13. Sean A, B ∈ Mm×n(R). Diremos que B es equivalente por filas a A si existen OEF f1, f2, . . . , fr : Fm(R) → Fm(R) tales que B = (f1 ◦ f2 ◦ · · · ◦ fr)(A) Ejemplo 1.13. Consideremos las matrices A y B del ejemplo 1.11. Entonces B es equivalente por filas a A (¿por qu´e?). Teorema 1.9. Sean A, B, C ∈ Mm×n(R). Tenemos que
  • 27. Matrices y Sistemas de Ecuaciones Lineales 24 1. A es equivalente por filas a A. 2. Si B es equivalente por filas a A, entonces A es equivalente por filas a B. 3. Si C es equivalente por filas a B y B es equivalente por filas a A, entonces C es equivalente por filas a A. Demostraci´on. ¡Ejercicio! Observaci´on 1.16. La parte 2 del teorema 1.9, nos permite decir A y B son equivalentes por filas en lugar de B es equivalente por filas a A ´o A es equivalente por filas a B. Teorema 1.10. Toda matriz A ∈ Mm×n(R) es equivalente por filas a 1. Una matriz escalonada. 2. Una matriz reducida por filas. 3. Una ´unica matriz escalonada reducida por filas, la cual llamaremos la forma escalonada reducida por filas (FERF) de A. Demostraci´on. Ver ap´endice D Observaci´on 1.17. A ∈ Mn×n(R) es equivalente por filas a In si y s´olo si In es la FERF de A. El siguiente ejemplo ilustra el procedimiento a seguir para hallar la FERF de una matriz. Ejemplo 1.14. Hallar la FERF de A =        6 −1 −15 2 13 −1 0 2 −1 −3 0 −3 −9 0 9 7 1 −11 3 10        Soluci´on. A =        6 −1 −15 2 13 −1 0 2 −1 −3 0 −3 −9 0 9 7 1 −11 3 10        F1 ↔ F2 →        −1 0 2 −1 −3 6 −1 −15 2 13 0 −3 −9 0 9 7 1 −11 3 10       
  • 28. Matrices y Sistemas de Ecuaciones Lineales 25 F1 → −F1 →        1 0 −2 1 3 6 −1 −15 2 13 0 −3 −9 0 9 7 1 −11 3 10        F2 → F2 − 6F1 → F4 → F4 − 7F1        1 0 −2 1 3 0 −1 −3 −4 −5 0 −3 −9 0 9 0 1 3 −4 −11        F2 → −F2 →        1 0 −2 1 3 0 1 3 4 5 0 −3 −9 0 9 0 1 3 −4 −11        F3 → F3 + 3F2 → F4 → F4 − F2        1 0 −2 1 3 0 1 3 4 5 0 0 0 12 24 0 0 0 −8 −16        F3 → 1 12 F3 →        1 0 −2 1 3 0 1 3 4 5 0 0 0 1 2 0 0 0 −8 −16        F1 → F1 − F3 F2 → F2 − 4F3 → F4 → F4 + 8F3        1 0 −2 0 1 0 1 3 0 −3 0 0 0 1 2 0 0 0 0 0        As´ı que la FERF de A es C =        1 0 −2 0 1 0 1 3 0 −3 0 0 0 1 2 0 0 0 0 0        Definici´on 1.14. Una matriz E ∈ Mn×n(R) es llamada matriz elemental si existe una OEF f : Fn(R) → Fn(R) tal que E = f(In), es decir, E se obtiene de In por medio de una ´unica OEF. Ejemplo 1.15. 1. E1 =        1 0 0 0 0 1 0 0 −5 0 1 0 0 0 0 1        es elemental, pues I4 =        1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1        F3 → F3 − 5F1 →        1 0 0 0 0 1 0 0 −5 0 1 0 0 0 0 1        = E1
  • 29. Matrices y Sistemas de Ecuaciones Lineales 26 2. E2 =     1 0 0 0 4 0 0 0 1     es elemental, ya que I3 =     1 0 0 0 1 0 0 0 1     F2 → 4F2 →     1 0 0 0 4 0 0 0 1     = E2 3. E3 =           1 0 0 0 0 0 0 0 0 1 0 0 1 0 0 0 0 0 1 0 0 1 0 0 0           es elemental, dado que I5 =           1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 1           F2 ↔ F5 →           1 0 0 0 0 0 0 0 0 1 0 0 1 0 0 0 0 0 1 0 0 1 0 0 0           = E3 Teorema 1.11. Sean A ∈ Mm×n(R), B ∈ Mn×p(R) y f : Fm(R) → Fm(R) una OEF. Entonces 1. f(AB) = f(A)B. 2. (f(A))(j) = f A(j) para cada j ∈ {1, . . ., n} de donde f(A) = f A(1) f A(2) · · · f A(n) es decir, la fila j-´esima de f(A) es igual a f aplicada a la j-´esima fila de A. Demostraci´on. Ver ap´endice D. Como una consecuencia directa de este teorema tenemos el siguiente resultado. Corolario 1.12. Si A ∈ Mm×n(R), B ∈ Mn×p(R) y f, f1, f2, . . . , fr : Fm(R) → Fm(R) son OEF, entonces
  • 30. Matrices y Sistemas de Ecuaciones Lineales 27 1. f(A) = f(Im)A. 2. (f1 ◦ f2 ◦ · · · ◦ fr)(AB) = (f1 ◦ f2 ◦ · · · ◦ fr)(A)B. 3. ((f1 ◦ f2 ◦ · · · ◦ fr)(A))(j) = (f1 ◦ f2 ◦ · · · ◦ fr) A(j) para cada j ∈ {1, . . ., m}. Demostraci´on. ¡Ejercicio! Otra consecuencia del mismo teorema, en conjunci´on con el corolario anterior, es la siguiente. Corolario 1.13. Sean A, B ∈ Mm×n(R) dos matrices equivalentes por filas. Entonces existen matrices elementales E1, E2, . . . , Er ∈ Mm×m(R) tales que B = E1E2 · · · ErA Demostraci´on. ¡Ejercicio! 1.3. Sistemas de Ecuaciones Lineales La presente secci´on esta muy relacionada con las OEF y las matrices, y es quiz´as, junto con la secci´on anterior, la m´as importante del presente cap´ıtulo. Definici´on 1.15. Un sistema de ecuaciones lineales con m ecuaciones y n inc´ognitas es un conjunto de ecuaciones de la forma    a11x1 + a12x2 + · · · + a1nxn = b1 a21x1 + a22x2 + · · · + a2nxn = b2 ... ... ... ... ... am1x1 + am2x2 + · · · + amnxn = bm (1.4) donde x1, x2, . . . , xn son las inc´ognitas del sistema 1.4 y toman valores en R; aij ∈ R son n´umeros fijos para cada i ∈ {1, . . ., m} y cada j ∈ {1, . . . , n} y los llamaremos coeficientes del sistema 1.4 y b1, b2, . . . , bm ∈ R son fijos y son los t´erminos independientes del sistema 1.4. Si b1 = b2 = · · · = bm = 0, diremos que el sistema 1.4 es homog´eneo, en caso contrario diremos que es no homog´eneo. Cuando m = n, se dice que el sistema 1.4 es un sistema cuadrado.
  • 31. Matrices y Sistemas de Ecuaciones Lineales 28 Si hacemos A = (aij)m×n =        a11 a12 · · · a1n a21 a22 · · · a2n ... ... ... am1 am2 · · · amn        ; b =        b1 b2 ... bm        y x =        x1 x2 ... xn        , el sistema 1.4 puede escribirse como la ecuaci´on matricial Ax = b (¡verif´ıquelo!), que llamare- mos representaci´on matricial del sistema 1.4. La matriz A es llamada matriz de coefi- cientes o matriz del sistema 1.4, la matriz [A|b] =        a11 a12 · · · a1n b1 a21 a22 · · · a2n b2 ... ... ... ... am1 am2 · · · amn bm        es llamada matriz ampliada del sistema 1.4, x se conoce con el nombre de matriz inc´ognita o matriz de inc´ognitas y b es conocida como matriz de t´erminos independientes. El sistema    a11x1 + a12x2 + · · · + a1nxn = 0 a21x1 + a22x2 + · · · + a2nxn = 0 ... ... ... ... ... am1x1 + am2x2 + · · · + amnxn = 0 (1.5) es llamado sistema homog´eneo asociado al sistema 1.4. Diremos que c1, c2, . . . , cn es una soluci´on del sistema 1.4 si al sustituir x1 = c1, x2 = c2, . . . , xn = cn en 1.4, las igualdades son satisfechas. Se dice que el sistema 1.4 es Inconsistente si no tiene soluci´on alguna. Consistente si tiene al menos una soluci´on, cuando tiene una ´unica soluci´on, se dice que es consistente determinado, si tiene m´as de una soluci´on, se dice que es consistente indeterminado. Observaci´on 1.18. En general, no haremos diferencia al referirnos al sistema y a su repre- sentaci´on matricial.
  • 32. Matrices y Sistemas de Ecuaciones Lineales 29 Observaci´on 1.19. Todo sistema homog´eneo Ax = 0/ m×1 es consistente, x = 0/ n×1 es soluci´on de ´este, la cual es llamada soluci´on trivial. Observaci´on 1.20. Es claro si A ∈ Mm×n(R) y x =        x1 x2 ... xn        ∈ Mn×1(R), entonces Ax = x1A(1) + x2A(2) + · · · + xnA(n) Ejemplo 1.16. 1. 3x1 +2x2 −6x3 = 0 −x1 +5x2 −7x3 = 4 es un sistema de ecuaciones lineales de dos ecuaciones y tres inc´ognitas, es no homog´eneo, su representaci´on matricial es 3 2 −6 −1 5 −7     x1 x2 x3     = 0 4 La matriz es y la matriz ampliada del sistema son, respectivamente 3 2 −6 −1 5 −7 y 3 2 −6 0 −1 5 −7 4 las matrices inc´ognitas y de t´erminos independientes son, respectivamente     x1 x2 x3     y 0 4 2.    6x −2y +9z = 1 −5x +12y −3z = −2 x 6z = 6 es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres inc´ognitas, es no homog´eneo y su representaci´on matricial es
  • 33. Matrices y Sistemas de Ecuaciones Lineales 30     6 −2 9 −5 12 −3 1 0 6         x y z     =     1 −2 6     El sistema homog´eneo asociado a este sistema es    6x −2y +9z = 0 −5x +12y −3z = 0 x 6z = 0 Una pregunta que surge de manera inmediata es ¿c´omo garantizar que un sistema de ecuaciones lineales es consistente o inconsistente? y en caso de que sea consistente ¿c´omo resolver dicho sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero antes daremos las bases te´oricas que nos permitan usar dichas herramientas. Teorema 1.14. Sean Ax = b y Cx = d las representaciones matriciales de dos sistemas de ecuaciones lineales con m ecuaciones y n inc´ognitas. Supongamos que las matrices [A|b] y [C|d] son equivalentes por filas. Entonces ambos sistemas tienen exactamente las mismas soluciones o ninguno tiene soluci´on. Demostraci´on. Dado que las matrices [A|b] y [C|d] son equivalentes por filas, entonces existen OEF f1, f2, . . . , fr : Fm(R) → Fm(R) tales que (f1 ◦ f2 ◦ · · · ◦ fr)([A|b]) = [C|d] por la parte 3 del corolario 1.12 (f1 ◦ f2 ◦ · · · ◦ fr)(A) = C y (f1 ◦ f2 ◦ · · · ◦ fr)(b) = d y por la parte 2 del mismo corolario, tenemos que (f1 ◦ f2 ◦ · · · ◦ fr)(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr)(A)x As´ı que, si Ax = b, entonces Cx = (f1 ◦ f2 ◦ · · · ◦ fr)(A)x = (f1 ◦ f2 ◦ · · · ◦ fr)(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr)(b) = d
  • 34. Matrices y Sistemas de Ecuaciones Lineales 31 Adem´as, en virtud del ejercicio 1.3, f1, f2, . . . , fr son invertibles y f−1 1 , f−1 2 , . . . , f−1 r son tambi´en OEF sobre Fm(R), luego, si Cx = d, entonces Ax = (f1 ◦ f2 ◦ · · · ◦ fr)−1 (C)x = (f−1 r ◦ · · · ◦ f−1 2 ◦ f−1 1 )(C)x = (f−1 r ◦ · · · ◦ f−1 2 ◦ f−1 1 )(Cx) = (f−1 r ◦ · · · ◦ f−1 2 ◦ f−1 1 )(d) = (f1 ◦ f2 ◦ · · · ◦ fr)−1 (d) = b Por lo tanto Ax = b si y s´olo si Cx = d, en consecuencia, o ambos sistemas son inconsistentes o ambos tienen la(s) misma(s) soluci´on(es). Observaci´on 1.21. Cuando la matriz del sistema es una matriz ERF, es f´acil decidir si el sistema es o no consistente, y en caso de serlo, es sencillo hallar la(s) soluci´on(es) de este. La idea es hallar la FERF de la matriz ampliada del sistema, y en virtud del teorema 1.14, resolver, de manera sencilla, el sistema dado. Corolario 1.15. Sean A, C ∈ Mm×n(R) y b, d ∈ Mm×1(R) tales que [C|d] es la FERF de [A|b]. El sistema Ax = b tiene soluci´on si y s´olo si el n´umero de filas no nulas de [C|d] es igual al n´umero de filas no nulas de C. Demostraci´on. ¡Ejercicio! Ejemplo 1.17. Decidir cu´al de los siguientes sistemas son consistentes y cu´ales no, en caso de serlo, mostrar su(s) soluci´on(es). 1.    2x +y −z = 1 2x −y +5z = 5 −y +3z = 2 2.    2x +y −z = 2 x −2y +4z = −3 5x −4y +8z = −9 −y +3z = 2 3.    x +y −2z +w = 1 4x +2y +2z = −2 2y −10z +3w = 3
  • 35. Matrices y Sistemas de Ecuaciones Lineales 32 4.    x +y −2z +w = 1 4x +2y +2z = −2 2y −10z +4w = 3 Soluci´on. 1. La matriz ampliada del sistema es     2 1 −1 1 2 −1 5 5 0 −1 3 2     Hallemos su FERF     2 1 −1 1 2 −1 5 5 0 −1 3 2     F1 → 1 2 F1 →     1 1 2 −1 2 1 2 2 −1 5 5 0 −1 3 2     F2 → F2 − 2F1 →     1 1 2 −1 2 1 2 0 −2 6 4 0 −1 3 2     F1 → −1 2 F1 →     1 1 2 −1 2 1 2 0 1 −3 −2 0 −1 3 2     F1 → F1 − 1 2 F2 → F3 → F3 + F2     1 0 1 3 2 0 1 −3 −2 0 0 0 0     La ´ultima fila de esta ´ultima matriz equivale a la ecuaci´on 0 · x + 0 · y + 0 · z = 0, que no aporta nada a la soluci´on. As´ı que el sistema dado es equivalente al sistema x +z = 3 2 y −3z = −2 que a su vez equivale a x = −z + 3 2 y = 3z − 2 Luego el sistema dado es consistente indeterminado. Haciendo z = α, con α ∈ R, obtenemos x = −α + 3 2 ; y = 3α − 2 En consecuencia la soluci´on del sistema dado viene dada por x = −α + 3 2 ; y = 3α − 2; z = α; con α ∈ R
  • 36. Matrices y Sistemas de Ecuaciones Lineales 33 o bien     x y z     =     −α +3 2 3α −2 α     = α     −1 3 1     +     3 2 −2 0     ; con α ∈ R 2. En este caso la matriz del sistema es        2 1 −1 2 1 −2 4 −3 5 −4 8 −9 0 −1 3 2        Vamos a hallar su FERF        2 1 −1 2 1 −2 4 −3 5 −4 8 −9 0 −1 3 2        F1 ↔ F2 →        1 −2 4 −3 2 1 −1 2 5 −4 8 −9 0 −1 3 2        F2 → F2 − 2F1 → F3 → F3 − 5F1        1 −2 4 −3 0 5 −9 8 0 6 −12 6 0 −1 3 2        F2 ↔ F4 →        1 −2 4 −3 0 −1 3 2 0 6 −12 6 0 5 −9 8        F2 → −F2 →        1 −2 4 −3 0 1 −3 −2 0 6 −12 6 0 5 −9 8        F1 → F1 + 2F2 → F3 → F3 − 6F2 F4 → F4 − 5F2        1 0 −2 −7 0 1 −3 −2 0 0 6 18 0 0 6 18        F3 → 1 6 F3 →        1 0 −2 −7 0 1 −3 −2 0 0 1 3 0 0 6 18        F1 → F1 + 2F3 → F2 → F2 + 3F3 F4 → F4 − 6F3        1 0 0 −1 0 1 0 7 0 0 1 3 0 0 0 0        Luego, el sistema dado es equivalente al sistema    x = −1 y = 7 z = 3
  • 37. Matrices y Sistemas de Ecuaciones Lineales 34 Por lo tanto el sistema es consistente determinado y su soluci´on es x = −1; y = 7; z = 3 o bien     x y z     =     −1 7 3     3. Hallemos la FERF de la matriz ampliada del sistema que es     1 1 −2 1 1 4 2 2 0 −2 0 2 −10 3 3         1 1 −2 1 1 4 2 2 0 −2 0 2 −10 3 3     F2 → F2 − 4F1 →     1 1 −2 1 1 0 −2 10 −4 −6 0 2 −10 3 3     F2 → −1 2 F2 →     1 1 −2 1 1 0 1 −5 2 3 0 2 −10 3 3     F1 → F1 − F2 → F3 → F3 − 2F2     1 0 3 −1 −2 0 1 −5 2 3 0 0 0 −1 −3     F3 → −F3 →     1 0 3 −1 −2 0 1 −5 2 3 0 0 0 1 3     F1 → F1 + F3 → F2 → F2 − 2F3     1 0 3 0 1 0 1 −5 0 −3 0 0 0 1 3     En consecuencia el sistema dado es equivalente al sistema    x +3z = 1 y −5z = −3 w = 3 o equivalentemente    x = −3z + 1 y = 5z − 3 w = 3
  • 38. Matrices y Sistemas de Ecuaciones Lineales 35 Por lo tanto el sistema original es consistente indeterminado. Haciendo z = α, con α ∈ R, tenemos que la soluci´on del sistema es        x y z w        =        −3α +1 5α −3 α 3        = α        −3 5 1 0        +        1 −3 0 3        ; con α ∈ R 4. Hallemos la FERF de la matriz     1 1 −2 1 1 4 2 2 0 −2 0 2 −10 4 3     que es la matriz ampliada del sistema     1 1 −2 1 1 4 2 2 0 −2 0 2 −10 4 3     F2 → F2 − 4F1 →     1 1 −2 1 1 0 −2 10 −4 −6 0 2 −10 4 3     F3 → F3 + F2 →     1 1 −2 1 1 0 −2 10 −4 −6 0 0 0 0 −3     Sin necesidad de llegar a la FERF de la matriz, vemos que la ´ultima fila de esta ´ultima matriz equivale a la ecuaci´on 0 · x + 0 · y + 0 · z + 0 · w = −3 la cual es contradictoria, en consecuencia, el sistema original es inconsistente. Teorema 1.16. El sistema homog´eneo Ax = 0/ m×1, con A ∈ Mm×n(R), tiene infinitas soluciones si m < n, esto es, si el sistema homog´eneo Ax = 0/ m×1 tiene m´as inc´ognitas que ecuaciones, entonces es consistente indeterminado. Demostraci´on. ¡Ejercicio!
  • 39. Matrices y Sistemas de Ecuaciones Lineales 36 Teorema 1.17. Sea A ∈ Mm×n(R). Supongamos que x1, x2 ∈ Mn×1(R) son soluciones del sistema homog´eneo Ax = 0/ m×1. Entonces, para cada α ∈ R, se tiene que x1 + x2 y αx1 son tambi´en soluciones del sistema. Demostraci´on. ¡Ejercicio! Teorema 1.18. Sean A ∈ Mm×n(R) y b ∈ Mm×1(R). Supongamos que xp es una soluci´on del sistema Ax = b. Entonces, para cada soluci´on xg del sistema Ax = b, existe una soluci´on xh de Ax = 0/ m×1 tal que xg = xh + xp. Demostraci´on. Dado que xp es soluci´on del sistema Ax = b, tenemos que Axp = b. Sea xg una soluci´on cualquiera de Ax = b. Entonces Axg = b. Definamos xh = xg − xp. As´ı que Axh = A(xg − xp) = Axg − Axp = b − b = 0/ m×1 es decir, xp es soluci´on del sistema homog´eneo Ax = 0/ m×1 y adem´as xg = xh + xp. Ejemplo 1.18. Para el sistema de la parte 1 del ejemplo 1.17 tenemos que xp =     3 2 −2 0     ; xh = α     −1 3 1     ; con α ∈ R Para el sistema de la parte 2 del mismo ejemplo, se tiene que xp =     −1 7 3     ; xh =     0 0 0     N´otese que en este caso xg = xp. Finalmente, para el sistema de la parte 3 del ejemplo en cuesti´on xp =        1 −3 0 3        ; xh = α        −3 5 1 0        ; con α ∈ R Ejercicio 1.6. Sea A ∈ Mm×n(R). Pruebe que si el sistema Ax = b tiene soluci´on para cada b ∈ Mm×1(R), entonces m ≤ n.
  • 40. Matrices y Sistemas de Ecuaciones Lineales 37 1.4. Inversa de una Matriz Cuadrada En la presente secci´on, presentaremos un breve estudio sobre las matrices invertibles y sus aplicaciones en la resoluci´on de los sistemas de ecuaciones, cabe destacar que se pueden definir inversas laterales de matrices no cuadradas, sin embargo, s´olo estudiaremos el caso de matrices cuadradas. Definici´on 1.16. sea A ∈ Mn×n(R). diremos que A es invertible si existe una matriz B ∈ Mn×n(R) tal que AB = In = BA Cualquier matriz B que satisfaga las igualdades anteriores es llamada inversa de A. Ejemplo 1.19. Si A = 2 −2 −3 4 , entonces B = 2 1 3 2 1 es una inversa de A ya que AB = 2 −2 −3 4 2 1 3 2 1 = 4 − 3 2 − 2 3 − 3 −3 + 4 = 1 0 0 1 = I2 AB = 2 1 3 2 1 2 −2 −3 4 = 4 − 3 −4 + 4 3 − 3 −3 + 4 = 1 0 0 1 = I2 Teorema 1.19. Si A ∈ Mn×n(R) es invertible, entonces A tiene s´olo una inversa, es decir, existe una ´unica matriz B ∈ Mn×n(R) tal que AB = In = BA, tal matriz es denotada por A−1 . Demostraci´on. Supongamos que A ∈ Mn×n(R) es invertible y que B, C ∈ Mn×n(R) son inver- sas de A. Entonces AB = In = BA (1.6) AC = In = CA (1.7) Luego C = CIn (por la parte 5 del teorema 1.6) = C(AB) (por la ecuaci´on 1.6) = (CA)B (por la parte 1 del teorema 1.6) = InB (por la ecuaci´on 1.7) = B (por la parte 5 del teorema 1.6)
  • 41. Matrices y Sistemas de Ecuaciones Lineales 38 Teorema 1.20. Sean A, B ∈ Mn×n(R) dos matrices invertibles y α ∈ R con α = 0. Entonces 1. A−1 es invertible y (A−1 ) −1 = A (propiedad involutiva de la inversa) 2. AB es invertible y (AB)−1 = B−1 A−1 (inversa del producto matricial) 3. αA es invertible y (αA)−1 = α−1 A−1 (inversa del m´ultiplo escalar) 4. AT es invertible y AT −1 = (A−1 ) T (inversa de la transpuesta) Demostraci´on. 1. Se deduce directamente de la definici´on de matriz invertible. 2. En primer lugar (AB)(B−1 A−1 ) = ABB−1 A−1 (teorema 1.6 parte 1) = A(BB−1 )A−1 (teorema 1.6 parte 1) = AInA−1 (definici´on de matriz inversa) = (AIn)A−1 (teorema 1.6 parte 1) = AA−1 (teorema 1.6 parte 5) = In (definici´on de matriz inversa) Adem´as (B−1 A−1 )(AB) = B−1 A−1 AB (teorema 1.6 parte 1) = B−1 (A−1 A)B (teorema 1.6 parte 1) = B−1 InB (definici´on de matriz inversa) = (B−1 In)B (teorema 1.6 parte 1) = B−1 B (teorema 1.6 parte 5) = In (definici´on de matriz inversa) Luego, por el teorema 1.19, tenemos que AB es invertible y (AB)−1 = B−1 A−1 .
  • 42. Matrices y Sistemas de Ecuaciones Lineales 39 3. Veamos (αA)(α−1 A−1 ) = (α−1 (αA))A−1 (teorema 1.6 parte 4) = ((α−1 α)A)A−1 (teorema 1.2 parte 7) = (1 · A)A−1 = AA−1 (teorema 1.2 parte 8) = In (definici´on de matriz inversa) An´alogamente, se prueba que (α−1 A−1 )(αA) = In. Nuevamente, usando el teorema 1.19, se tiene que αA es invertible y (αA)−1 = α−1 A−1 . 4. Por un lado AT (A−1 )T = (A−1 A)T (teorema 1.7 parte 4) = (In)T (definici´on de matriz inversa) = In (teorema 1.7 parte 5) Por otro lado (A−1 )T AT = (AA−1 )T (teorema 1.7 parte 4) = (In)T (definici´on de matriz inversa) = In (teorema 1.7 parte 5) Por lo tanto, haciendo uso del teorema 1.19, se tiene que AT es invertible y AT −1 = (A−1 ) T . Teorema 1.21. Toda matriz elemental es invertible y su inversa es tambi´en una matriz elemen- tal. Demostraci´on. Sea E ∈ Mn×n(R) una matriz elemental. Entonces existe una OEF f : Fn(R) → Fn(R) tal que E = f(In). El ejercicio 1.3 garantiza que f es invertible y su inversa f−1 es tambi´en una OEF sobre Fn(R), as´ı que F = f−1 (In) es una matriz elemental, adem´as EF = f(In)f−1 (In) = f(f−1 (In)) (corolario 1.12 parte 1) = In
  • 43. Matrices y Sistemas de Ecuaciones Lineales 40 y FE = f−1 (In)f(In) = f−1 (f(In)) (corolario 1.12 parte 1) = In Luego, E es invertible y E−1 = F, es decir, (f(In))−1 = f−1 (In). Ahora bien ¿c´omo saber si una matriz cuadrada A es o no invertible? y en caso de que lo sea ¿c´omo hallar A−1 ? Estas dos preguntas pueden ser respondidas mediante un procedimiento ´unico. Daremos un ejemplo sencillo que ilustrar´a tal procedimiento. Ejemplo 1.20. En cada uno de los siguientes casos decidir si A es o no invertible, en caso afirmativo, hallar A−1 . 1. A = 2 −2 −3 4 2. A = 2 −8 −3 12 Soluci´on. 1. Supongamos que A es invertible y sea B = x y z w tal que AB = I2, as´ı que A x z = 1 0 y A y w = 0 1 como la matriz de ambos sistemas es la misma, a saber A, podemos resolverlos de manera simult´anea considerando la siguiente matriz 2 veces ampliada [A|I2] = 2 −2 1 0 −3 4 0 1
  • 44. Matrices y Sistemas de Ecuaciones Lineales 41 Al hallar la FERF de esta matriz, las tercera y cuarta columnas nos dar´an, respectivamente, las soluciones del primer y segundo sistema, si existen, que a su vez nos dar´an, respecti- vamente, las primera y segunda columnas de B, si existe. Hallemos entonces la FERF de esta matriz. [A|I2] = 2 −2 1 0 −3 4 0 1 F1 → 1 2 F1 → 1 −1 1 2 0 −3 4 0 1 F2 → F2 + 3F1 → 1 −1 1 2 0 0 1 3 2 1 F1 → F1 + F2 → 1 0 2 1 0 1 3 2 1 Por lo tanto B = 2 1 3 2 1 El lector puede verificar que BA = I2, por lo tanto, A es invertible y A−1 = B = 2 1 3 2 1 Comparar este resultado con el ejemplo 1.20. 2. Como en el caso anterior, supongamos que existe B = x y z w tal que AB = I2, al igual que antes, hallemos la FERF de la matriz [A|I2] [A|I2] = 2 −8 1 0 −3 12 0 1 F1 → 1 2 F1 → 1 −4 1 2 0 −3 12 0 1 F2 → F2 + 3F1 → 1 −1 1 2 0 0 0 3 2 1 La ´ultima fila de esta ´ultima matriz equivale a las ecuaciones 0 · x + 0 · z = 3 2 0 · y + 0 · w = 1 Por lo tanto, no existe matriz B tal que AB = I2, en consecuencia, A no es invertible.
  • 45. Matrices y Sistemas de Ecuaciones Lineales 42 Estos dos ejemplos, como dijimos antes, ilustran el procedimiento general para decidir si una matriz cuadrada A es o no invertible, adem´as, en caso afirmativo, nos permite hallar A−1 . Algoritmo para decidir si una matriz A ∈ Mn×n(R) es o no invertible, y en caso afirmativo mostrar la matriz A−1 . Paso 1. Formar la matriz ampliada [A|In]. Paso 2. Hallar la FERF de la matriz en el paso previo. Paso 3. Si la matriz en el paso previo es [In|B], entonces A es invertible y A−1 = B, sino A no es invertible. Ejemplo 1.21. Decidir si la matriz A =        2 0 3 1 −1 1 1 3 1 −1 2 −2 0 1 −1 2        es invertible o no, en caso afirmativo, hallar A−1 . Soluci´on.        2 0 3 1 1 0 0 0 −1 1 1 3 0 1 0 0 1 −1 2 −2 0 0 1 0 0 1 −1 2 0 0 0 1        F1 ↔ F3 →        1 −1 2 −2 0 0 1 0 −1 1 1 3 0 1 0 0 2 0 3 1 1 0 0 0 0 1 −1 2 0 0 0 1        F2 → F2 + F1 → F3 → F3 − 2F1        1 −1 2 −2 0 0 1 0 0 0 3 1 0 1 1 0 0 2 −1 5 1 0 −2 0 0 1 −1 2 0 0 0 1        F2 ↔ F4 →        1 −1 2 −2 0 0 1 0 0 1 −1 2 0 0 0 1 0 2 −1 5 1 0 −2 0 0 0 3 1 0 1 1 0       
  • 46. Matrices y Sistemas de Ecuaciones Lineales 43 F1 → F1 + F2 → F3 → F3 + 2F2        1 0 1 0 0 0 1 1 0 1 −1 2 0 0 0 1 0 0 1 1 1 0 −2 −2 0 0 3 1 0 1 1 0        F1 → F1 − F3 → F2 → F2 + F3 F4 → F4 − 3F3        1 0 0 −1 −1 0 3 3 0 1 0 3 1 0 −2 −1 0 0 1 1 1 0 −2 −2 0 0 0 −2 −3 1 7 6        F4 → −1 2 F4 →        1 0 0 −1 −1 0 3 3 0 1 0 3 1 0 −2 −1 0 0 1 1 1 0 −2 −2 0 0 0 1 3 2 −1 2 −7 2 −3        F1 → F1 + F4 → F2 → F2 − 3F4 F3 → F3 − F4        1 0 0 0 1 2 −1 2 −1 2 0 0 1 0 0 −7 2 3 2 17 2 8 0 0 1 0 −1 2 1 2 3 2 1 0 0 0 1 3 2 −1 2 −7 2 −3        Luego A es invertible y A−1 =        1 2 −1 2 −1 2 0 −7 2 3 2 17 2 8 −1 2 1 2 3 2 1 3 2 −1 2 −7 2 −3        = 1 2        1 −1 −1 0 −7 3 17 16 −1 1 3 2 3 −1 −7 −6        El siguiente teorema nos ser´a muy ´util a la hora de saber si una matriz es o no invertible. Teorema 1.22. Sea A ∈ Mn×n(R). Entonces las siguientes proposiciones son equivalentes. 1. A es invertible. 2. El sistema Ax = b tiene una ´unica soluci´on para cada b ∈ Mn×1(R). 3. El sistema homog´eneo Ax = 0/ n×1 tiene como ´unica soluci´on la trivial. 4. A es equivalente por filas a In.
  • 47. Matrices y Sistemas de Ecuaciones Lineales 44 5. Existen matrices elementales E1, E2, . . . , Er ∈ Mn×n(R) tales que A = E1E2 · · · Er. Demostraci´on. (1. ⇒ 2.) Supongamos que A es invertible. Entonces, por definici´on de matriz inversa, existe A−1 ∈ Mn×n(R) tal que AA−1 = In = A−1 A Sean b ∈ Mn×1(R) cualquiera y x0 ∈ Mn×1(R) una soluci´on del sistema Ax = b. Entonces x0 = Inx0 (teorema 1.6 parte 5) = (A−1 A)x0 (por definici´on de inversa) = A−1 (Ax0) (teorema 1.6 parte 1) = A−1 b (pues x0 es soluci´on del sistema Ax = b) As´ı que el sistema Ax = b tiene como ´unica soluci´on x0 = A−1 b. (2. ⇒ 3.) Supongamos que el sistema Ax = b tiene una ´unica soluci´on para cada b ∈ Mn×1(R). Entonces el sistema homog´eneo Ax = 0/ n×1 tiene una ´unica soluci´on, pero sabemos que x = 0/ n×1 es soluci´on de este sistema (observaci´on 1.19), as´ı que la ´unica soluci´on de dicho sistema es la soluci´on trivial. (3. ⇒ 4.) Supongamos que el sistema homog´oneo Ax = 0/ n×1 tiene como ´unica soluci´on la trivial. Procederemos por reducci´on al absurdo. Supongamos que A no es equivalente por filas a In. Por lo tanto, usando la observaci´on 1.17, si CA es la FERF de A, entonces CA debe tener alguna fila nula (¿por qu´e?), la cual debe estar ubicada en la ´ultima posici´on pues CA es escalonada reducida por filas, esta fila equivale a la ecuaci´on 0 · x1 + 0 · x2 + · · · + 0 · xn = 0 donde x =        x1 x2 ... xn        y en consecuencia no aporta ninguna informaci´on a la soluci´on del sistema Ax = 0/ n×1. Definamos DA ∈ M(n−1)×n(R) la matriz que se obtiene al eliminar la ´ultima fila de CA. Luego el sistema homog´eneo Ax = 0/ n×1 es equivalente al sistema homog´eneo DAx = 0/ (n−1)×1
  • 48. Matrices y Sistemas de Ecuaciones Lineales 45 el cual, en virtud del teorema 1.16, tiene infinitas soluciones, de donde, el sistema Ax = 0/ n×1 tiene infinitas soluciones, lo cual contradice la hip´otesis, por lo tanto A es equivalente por filas a In. (4. ⇒ 5.) Supongamos que A es equivalente por filas a In. Entonces existen OEF f1, f2, . . . , fr : Fn(R) → Fn(R) tales que A = (f1 ◦ f2 ◦ · · · ◦ fr)(In) Luego, usando recursivamente el corolario 1.12 partes 1 y 2, tenemos que A = f1(In)f2(In) · · ·fr(In) As´ı que la matriz Ei = fi(In) es elemental para cada i ∈ {1, . . . , r} y adem´as A = E1E2 · · · Er (5. ⇒ 1.) Supongamos que A = E1E2 · · · Er donde E1, E2, . . ., Er ∈ Mn×n(R) son matrices ele- mentales. Dado que toda matriz elemental es invertible (teorema 1.21) y usando recursiva- mente la parte 2 del teorema 1.20, se tiene que A es invertible. Lo cual concluye la prueba. Teorema 1.23. Sean A, B ∈ Mn×n(R). Si AB = In, entonces BA = In; y en consecuencia A−1 = B. Demostraci´on. Supongamos que AB = In. Sea xh una soluci´on del sistema homog´eneo Bx = 0/ n×1. Entonces Bxh = 0/ n×1 (1.8) Luego xh = Inxh (teorema 1.6 parte 5) = (AB)xh (por hip´otesis) = A(Bxh) (teorema 1.6 parte 1) = A 0/ n×1 (por ecuaci´on 1.8) = 0/ n×1 (teorema 1.6 parte 6)
  • 49. Matrices y Sistemas de Ecuaciones Lineales 46 As´ı que la ´unica soluci´on del sistema homog´eneo Bx = 0/ n×1 es la trivial, y en virtud del teorema 1.22, B es invertible. Adem´as A = AIn (teorema 1.6 parte 5) = A(BB−1 ) (definici´on de matriz inversa) = (AB)B−1 (teorema 1.6 parte 1) = InB−1 (por hip´otesis) = B−1 (teorema 1.6 parte 5) Por lo tanto BA = In (definici´on de inversa) y como consecuencia de la parte 1 del teorema 1.20 A−1 = (B−1 )−1 = B. Observaci´on 1.22. El teorema 1.23 nos permite garantizar que A−1 = B s´olo con probar que AB = In ´o BA = In. Ejercicio 1.7. Sean A, B ∈ Mn×n(R). Pruebe que si AB es invertible, entonces A y B tambi´en son invertibles 1.5. Determinantes. Propiedades de los Determinantes En esta secci´on trataremos los determinantes y algunas de sus propiedades, en primer lugar definiremos los determinantes de orden 2, continuando luego con los determinantes de orden 3, para finalmente definir los determinantes de orden n. Definici´on 1.17. Sea A = a11 a12 a21 a22 ∈ M2×2(R). Definiremos el determinante de A, como el n´umero real det(A) = |A|, dado por det(A) = |A| = a11 a12 a21 a22 = a11a22 − a12a21 este tipo de determinante se suele llamar determinante de orden 2. Ejemplo 1.22. Hallar det(A) para A = −6 5 −7 6
  • 50. Matrices y Sistemas de Ecuaciones Lineales 47 Soluci´on. det(A) = −6 5 −7 6 = (−6)6 − 5(−7) = −36 + 35 = −1 Ejercicio 1.8. Pruebe que A = a11 a12 a21 a22 ∈ M2×2(R) es invertible si y s´olo si det(A) = 0. Adem´as, si A es invertible, entonces A−1 = 1 det(A) a22 −a12 −a21 a11 Definici´on 1.18. Dada la matriz A =     a11 a12 a13 a21 a22 a23 a31 a32 a33     ∈ M3×3(R) Definiremos el determinante de A, denotado por det(A) ´o |A|, como det(A) = |A| = a11 a12 a13 a21 a22 a23 a31 a32 a33 = a11 a22 a23 a32 a33 − a12 a21 a23 a31 a33 + a13 a21 a22 a31 a32 este tipo de determinante es llamado determinante de orden 3. Observaci´on 1.23. N´otese que estamos definiendo el determinante de orden 3 en funci´on de determinantes de orden 2. Ejemplo 1.23. Hallar det(A) para A =     2 −3 −1 −6 1 5 −7 0 6     Soluci´on. det(A) = |A| = 2 −3 −1 −6 1 5 −7 0 6 = 2 1 5 0 6 − (−3) −6 5 −7 6 + (−1) −6 1 −7 0 = 2(6 − 0) + 3(−36 + 35) − (0 + 7) = 2
  • 51. Matrices y Sistemas de Ecuaciones Lineales 48 Observaci´on 1.24. Una forma muy sencilla recordar la f´ormula de determinantes de orden 3 es la siguiente a11 a12 a13 ց ւ a21 a22 a23 ցւ ցւ a31 a32 a33 = a11a22a33 + a21a32a13 + a31a12a23 − a13a22a31 − a23a32a11 − a33a12a21 ցւ ցւ a11 a12 a13 ւ ց a21 a22 a23    ← no es parte del determinante, es s´olo para ayudar a recordar la f´ormula Los productos generados por las flechas rojas (ց) se colocan con signo positivo, los que son generados por las flechas azules (ւ) se colocan con signo negativo. Puede verificar que la igualdad anterior es cierta. Tambi´en se puede hacer el c´alculo si en lugar de colocar las dos primeras filas al final, se colocan las dos ´ultimas filas en la parte superior, las dos primeras columnas a la derecha o las dos ´ultimas columnas a la izquierda. Este m´etodo se conoce como la m´etodo de Sarrus para el c´alculo de determinantes de orden 3 y s´olo es aplicable a determinantes de orden 3. Ejemplo 1.24. Calculemos el determinante del ejemplo 1.23 usando este m´etodo. Soluci´on. 2 −3 −1 −6 1 5 −7 0 6 = 2 · 1 · 6 + (−6)0(−1) + (−7)(−3)5 − (−1)1(−7) − 5 · 0 · 2 − 6(−3)(−6) 2 −3 −1 −6 1 5 2 −3 −1 −6 1 5 −7 0 6 = 12 + 0 + 105 − 7 − 0 − 108 = 2 Compare este resultado con el obtenido en el ejemplo 1.23.
  • 52. Matrices y Sistemas de Ecuaciones Lineales 49 Antes de definir determinantes de orden n, daremos dos definiciones previas. Definici´on 1.19. Sea A =∈ Mn×n(R). Para cada i, j ∈ {1, . . ., n} definamos la matriz MA ij ∈ M(n−1)×(n−1)(R) que se obtiene de A al eliminar su i-´esima fila y su j-´esima columna, dicha matriz es llamada ij-´esimo menor de A. Observaci´on 1.25. Si en lugar de eliminar una fila y una columna de A, eliminamos dos filas y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A, estas matrices se denotan por MA ij,kl, lo que significa que se han eliminado las filas i e j (con i = j) y las columnas k y l (con k = l) de A. De manera an´aloga se pueden definir menores de A ∈ Mn×n(R) hasta de orden n − 1. Observaci´on 1.26. Es claro que MA ij,kl = MA ji,lk = MA ji,kl = MA ij,lk para cada i, j, k, l ∈ {1, . . ., n} con i = j y k = l. Ejemplo 1.25. Consideremos la matriz A =        −9 2 −1 4 0 8 −5 7 1 6 3 −6 −4 1 0 3        Hallar MA 23; MA 42 y MA 22. Soluci´on. MA 23 =     −9 2 4 1 6 −6 −4 1 3     ; MA 42 =     −9 −1 4 0 −5 7 1 3 −6     y MA 22 =     −9 −1 4 1 3 −6 −4 0 3     Definici´on 1.20. Sea A ∈ Mn×n(R). Para cada i, j ∈ {1, . . ., n} definiremos el ij-´esimo co- factor de A como el n´umero real CA ij dado por CA ij = (−1)i+j det MA ij Ejemplo 1.26. Para la matriz del ejemplo 1.25 se tiene que
  • 53. Matrices y Sistemas de Ecuaciones Lineales 50 CA 23 = (−1)2+3 det MA 23 = − −9 2 4 1 6 −6 −4 1 3 = −(−162 + 4 + 48 + 96 − 54 − 6) = 74 CA 42 = (−1)4+2 det MA 42 = −9 −1 4 0 −5 7 1 3 −6 = −270 + 0 − 7 + 20 + 189 − 0 = −68 CA 22 = (−1)2+2 det MA 22 = −9 −1 4 1 3 −6 −4 0 3 = −81 + 0 − 24 + 48 − 0 + 3 = −54 Pasemos ahora a definir los determinantes de orden n. En primer lugar notemos que la f´ormula dada en la definici´on 1.18 puede ser escrita como det(A) = |A| = a11CA 11 + a12CA 12 + a13CA 13 La idea es generalizar esta f´ormula para una matriz A de orden n. Definici´on 1.21. Sea A ∈ Mn×n(R). Definiremos el determinante de A, determinante de orden n, como el n´umero real det(A) = |A| dado por det(A) = |A| = a11 a12 · · · a1n a21 a22 · · · a2n ... ... ... ... an1 an2 · · · ann = n j=1 a1jCA 1j = n j=1 a1j(−1)1+j det MA 1j Ejemplo 1.27. Hallar el determinante de la matriz del ejemplo 1.25 Soluci´on. det(A) = |A| = −9 2 −1 4 0 8 −5 7 1 6 3 −6 −4 1 0 3 = (−9)(−1)1+1 det MA 11 + 2(−1)1+2 det MA 12 + (−1)(−1)1+3 det MA 13 +4(−1)1+4 det MA 14
  • 54. Matrices y Sistemas de Ecuaciones Lineales 51 det(A) = −9 8 −5 7 6 3 −6 1 0 3 − 2 0 −5 7 1 3 −6 −4 0 3 − 0 8 7 1 6 −6 −4 1 3 − 4 0 8 −5 1 6 3 −4 1 0 = −9(72 + 0 + 30 − 21 − 0 + 90) − 2(0 + 0 − 120 + 84 − 0 + 15) −(0 + 7 + 192 + 168 − 0 − 24) − 4(0 − 5 − 96 − 120 − 0 − 0) = −1539 + 42 − 343 + 884 = −956 Ejemplo 1.28. Calcular el determinante de la matriz A =           2 0 0 0 0 12 1 0 0 0 −3 0 −3 0 0 5 −8 7 −1 0 −9 6 −7 0 −6           Soluci´on. Notemos primero que A es triangular inferior. det(A) = |A| = 2 0 0 0 0 12 1 0 0 0 −3 0 −3 0 0 5 −8 7 −1 0 −9 6 −7 0 −6 = 2(−1)1+1 det MA 11 + 0(−1)1+2 det MA 12 + 0(−1)1+3 det MA 13 +0(−1)1+4 det MA 14 + 0(−1)1+5 det MA 15 = 2(−1)1+1 det MA 11 + 0(−1)1+2 det MA 12 + 0(−1)1+3 det MA 13 +0(−1)1+4 det MA 14 + 0(−1)1+5 det MA 15 = 2 1 0 0 0 0 −3 0 0 −8 7 −1 0 6 −7 0 −6
  • 55. Matrices y Sistemas de Ecuaciones Lineales 52 det(A) = 2    1(−1)1+1 −3 0 0 7 −1 0 −7 0 −6 + 0(−1)1+2 0 0 0 −8 −1 0 6 0 −6 +0(−1)1+3 0 −3 0 −8 7 0 6 −7 −6 + 0(−1)1+4 0 −3 0 −8 7 −1 6 −7 0     = 2 · 1 −3 0 0 7 −1 0 −7 0 −6 = 2 · 1 (−3)(−1)1+1 −1 0 0 −6 + 0(−1)1+2 7 0 −7 −6 + 0(−1)1+3 7 −1 −7 0 = 2 · 1(−3) −1 0 0 −6 = 2 · 1(−3)((−1)(−6) − 0 · 0) = 2 · 1(−3)(−1)(−6) = −36 ¡El determinante de A es el producto de las componentes de la diagonal principal! este resultado se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego. La demostraci´on del teorema que enunciaremos a continuaci´on escapa del objetivo del curso, sin embargo, de ´el se derivan el resto de las propiedades que ser´an enunciadas m´as adelante, en el ap´endice D se puede encontrar una demostraci´on de este. Teorema 1.24. Si A = (aij)n×n ∈ Mn×n(R), entonces 1. det(A) = n j=1 aijCA ij = n j=1 aij(−1)i+j det MA ij para cada i ∈ {1, . . ., n} (Desarrollo del determinante de A mediante la fila i-´esima). 2. det(A) = n i=1 aijCA ij = n i=1 aij(−1)i+j det MA ij para cada j ∈ {1, . . ., n} (Desarrollo del determinante de A mediante la columna j-´esima). Demostraci´on. Ver ap´endice D.
  • 56. Matrices y Sistemas de Ecuaciones Lineales 53 Ejemplo 1.29. Calcular el determinante de la matriz A del ejemplo 1.23 al desarrollar el de- terminante mediante la tercera fila y mediante la segunda columna. Soluci´on. En primer lugar hallemos el determinante de A desarroll´andolo mediante la tercera fila. det(A) = |A| = 2 −3 −1 −6 1 5 −7 0 6 = −7(−1)3+1 −3 −1 1 5 + 0(−1)3+2 2 −1 −6 5 + 6(−1)3+3 2 −3 −6 1 = −7(−15 + 1) + 0 + 6(2 − 18) = 2 Ahora desarrollemos el determinante de A mediante la segunda columna. det(A) = |A| = 2 −3 −1 −6 1 5 −7 0 6 = −3(−1)1+2 −6 5 −7 6 + 1(−1)2+2 2 −1 −7 6 + 0(−1)3+2 2 −1 −6 5 = 3(−36 + 35) + (12 − 7) + 0 = 2 Teorema 1.25. Si A ∈ Mn×n(R), entonces det AT = det(A). Demostraci´on. ¡Ejercicio! Sugerencia: proceder por inducci´on sobre n y usar el teorema 1.24 Teorema 1.26. Si A = (aij)n×n ∈ Mn×n(R) una matriz triangular (superior o inferior), en- tonces det(A) = a11a22 · · · ann. Demostraci´on. Procedamos por inducci´on sobre n. Supongamos, sin perder generalidad que A es una matriz triangular superior. Verifiquemos que la tesis se cumple para n = 2. Sea A = a11 a12 0 a22
  • 57. Matrices y Sistemas de Ecuaciones Lineales 54 Entonces det(A) = a11a22 − a12 · 0 = a11a22 Supongamos ahora que la tesis se cumple para n − 1, esto es, supongamos que para cualquier matriz triangular superior A = (aij)(n−1)×(n−1) ∈ M(n−1)×(n−1)(R) se cumple que det(A) = a11a22 · · · a(n−1)(n−1) (Hip´otesis Inductiva). Probemos ahora que se cumple para n. Sea A =        a11 a12 · · · a1n 0 a22 · · · a2n ... ... ... ... 0 · · · 0 ann        Entonces, al desarrollar el determinante de A mediante la fila n, obtenemos det(A) = 0 · CA n1 + · · · + 0 · CA n(n−1) + annCA nn = ann(−1)n+n det(MA nn) = ann det MA nn Pero MA nn =        a11 a12 · · · a1(n−1) 0 a22 · · · a2(n−1) ... ... ... ... 0 · · · 0 a(n−1)(n−1)        es decir, MA nn es una matriz triangular superior de orden (n−1), por lo tanto, usando la Hip´otesis Inductiva, se tiene que det MA nn = a11a22 · · · a(n−1)(n−1). Luego det(A) = anna11a22 · · · a(n−1)(n−1) = a11a22 · · · a(n−1)(n−1)ann Lo cual concluye la prueba. Los teoremas que enunciaremos a continuaci´on, nos presentan las propiedades b´asicas del determinante, estas propiedades nos permitir´an hallar el determinante de una matriz sin hacer demasiados c´alculos. Los enunciados de estas propiedades se dar´an s´olo para filas, sin embargo, en virtud del teorema 1.25, se pueden enunciar propiedades an´alogas para columnas. Teorema 1.27. Sea A ∈ Mn×n(R). Si existe s ∈ {1, . . ., n} tal que A(s) = 0/ 1×n, entonces det(A) = 0, es decir, si A tiene una fila nula, su determinante es cero.
  • 58. Matrices y Sistemas de Ecuaciones Lineales 55 Demostraci´on. Sea A = (aij)n×n. Como A(s) = 0/ 1×n, entonces asj = 0 para cada j ∈ {1, . . ., n}. As´ı que, al desarrollar el determinante de A por medio de la fila s, se tiene que det(A) = n j=1 asjCA sj = n j=1 0 · CA sj = 0 Teorema 1.28. Sean A, B ∈ Mn×n(R) y α ∈ R. Si existe s ∈ {1, . . ., n} tal que B(s) = αA(s) y B(i) = A(i) para i = s, entonces det(B) = α det(A), esto es, si multiplicamos una fila de A por un escalar α, entonces el determinante de la matriz resultante es igual al determinante de A multiplicado por α. Demostraci´on. Sean A = (aij)n×n y B = (bij)n×n. Como B(s) = αA(s) y B(i) = A(i) para i = s, entonces bsj = αasj para cada j ∈ {1, . . ., n} y adem´as, la matriz que se obtiene al eliminar la fila s de B coincide con la matriz que se obtiene al eliminar la fila s de A. Luego MA sj = MB sj para cada j ∈ {1, . . ., n} (¿por qu´e?). Por lo tanto CB sj = (−1)s+j det(MB sj) = (−1)s+j det(MA sj) = CA sj para cada j ∈ {1, . . . , n}. As´ı, al desarrollar el determinante de B por medio de la fila s, obtenemos det(B) = n j=1 bsjCB sj = n j=1 αasjCA sj = α n j=1 asjCA sj = α det(A) Ejemplo 1.30. Sea A =     2 −1 2 12 −16 4 −2 0 3     Entonces det(A) = 2 −1 2 12 −16 4 −2 0 3 = 2 −1 2 4 · 3 4(−4) 4 · 1 −2 0 3 = 4 2 −1 2 3 −4 1 −2 0 3 = 4[2(−4)3 + 3 · 0 · 2 + (−2)(−1)1 − 2(−4)(−2) − 1 · 0 · 2 − 3(−1)3] = 4[−24 + 0 + 2 − 16 − 0 + 9] = 4(−29) = −116
  • 59. Matrices y Sistemas de Ecuaciones Lineales 56 Teorema 1.29. Sean A, B, C ∈ Mn×n(R). Si existe s ∈ {1, . . ., n} tal que C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i = s, entonces det(C) = det(A) + det(B), dicho de otra manera, si tenemos tres matrices A, B, C cuyas filas son id´enticas excepto la fila s, y que la fila s de C es igual a la suma de la fila s de A con la fila s de B, entonces el determinante de C es igual a la suma del determinante de A con el determinante de B. Demostraci´on. Sean A = (aij)n×n, B = (bij)n×n y C = (cij)n×n. Sean A, B, C ∈ Mn×n(R). Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i = s, entonces csj = asj + bsj para cada j ∈ {1, . . . , n} y adem´as, las matrices que se obtienen al eliminar la fila s de A, B y C son iguales, as´ı que MA sj = MB sj = MC sj para cada j ∈ {1, . . ., n}. Por lo tanto CC sj = CB sj = CA sj para cada j ∈ {1, . . . , n} (¿por qu´e?). En consecuencia det(C) = n j=1 csjCC sj = n j=1 (asj + bsj)CC sj = n j=1 asjCC sj + n j=1 bsjCC sj = n j=1 asjCA sj + n j=1 bsjCB sj = det(A) + det(B) Ejemplo 1.31. Sea A la matriz del ejemplo 1.30. Entonces det(A) = 2 −1 2 12 −16 4 −2 0 3 = 4 + (−2) −1 2 6 + 6 −16 4 1 + (−3) 0 3 = 4 −1 2 6 −16 4 1 0 3 + −2 −1 2 6 −16 4 −3 0 3 = [4(−16)3 + 6 · 0 · 2 + 1(−1)4 − 2(−16)1 − 4 · 0 · 4 − 3(−1)6] + [−2(−16)3 + 6 · 0 · 2 + (−3)(−1)4 − 2(−16)(−3) − 4 · 0(−2) − 3(−1)6] = [−192 + 0 − 4 + 32 − 0 + 18] + [96 + 0 + 12 − 96 − 0 + 18] = −146 + 30 = −116 Teorema 1.30. Sean A, B ∈ Mn×n(R). Si existen s, t ∈ {1, . . ., n} tales que s = t, B(s) = A(t), B(t) = A(s) y B(i) = A(i) para i = s y i = t, entonces det(B) = − det(A), en otras palabras, si intercambiamos dos filas distintas de A, el determinante de la matriz resultante es igual al determinante de A multiplicado por −1.
  • 60. Matrices y Sistemas de Ecuaciones Lineales 57 Demostraci´on. Ver Ap´endice D. Ejemplo 1.32. Sea A la matriz del ejemplo 1.30 y sea B =     2 −1 2 4 −16 12 3 0 −2     Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las fila 2 de B es igual a la fila 2 de A. Adem´as det(B) = 2 −1 2 4 −16 12 3 0 −2 = 2(−16)(−2) + 4 · 0 · 2 + 3(−1)12 − 2(−16)3 − 12 · 0 · 2 − (−2)(−1)4 = 64 + 0 − 36 + 96 − 0 − 8 = 116 = − det(A) Teorema 1.31. Sea A ∈ Mn×n(R). Si existen s, t ∈ {1, . . ., n} tales que s = t y A(s) = A(t), entonces det(A) = 0, es decir, si A tiene dos filas iguales, su determinante es igual a cero. Demostraci´on. Sea B ∈ Mn×n(R) la matriz que se obtiene al intercambiar las filas s y t de A. Como A(s) = A(t), entonces B = A y as´ı det(B) = det(A). Por otro lado, dado que s = t y seg´un el teorema 1.30, det(B) = − det(A). As´ı que det(A) = det(B) = − det(A) y en consecuencia det(A) = 0. Ejemplo 1.33. Sea A =     2 −1 −2 4 −16 12 2 −1 −2     Entonces det(A) = 2 −1 −2 4 −16 12 2 −1 −2 = 2(−16)(−2) + 4(−1)(−2) + 2(−1)12 − (−2)(−16)2 − 12(−1)2 − (−2)(−1)4 = 64 + 8 − 24 − 64 + 24 − 8 = 0
  • 61. Matrices y Sistemas de Ecuaciones Lineales 58 Teorema 1.32. Sean A ∈ Mn×n(R) y α ∈ R. Si existen s, t ∈ {1, . . ., n} tales que s = t y A(s) = αA(t), entonces det(A) = 0, esto es, si una fila de A es un m´ultiplo escalar de alguna otra fila de A, su determinante es igual a cero. Demostraci´on. Sea B ∈ Mn×n(R) tal que B(i) = A(i) para cada i ∈ {1, . . . , n} con i = s y B(s) = A(t) = B(t). Por lo tanto, en virtud del teorema 1.31, se tiene que det(B) = 0. Por otro lado, como A(s) = αA(t) = αB(t) = αB(s), entonces, usando el teorema 1.28, se tiene que det(A) = α det(B) = α0 = 0. Ejemplo 1.34. Sea A =     2 8 2 −4 −16 1 3 12 −2     Entonces la columna A(2) = 4A(1) , adem´as det(A) = 2 8 2 −4 −16 1 3 12 −2 = 2(−16)(−2) + (−4)12 · 2 + 3 · 8 · 1 − 2(−16)3 − 1 · 12 · 2 − (−2)8(−4) = 64 − 96 + 24 + 96 − 24 − 64 = 0 Teorema 1.33. Sean A, B ∈ Mn×n(R) y α ∈ R. Si existen s, t ∈ {1, . . ., n} tales que s = t, B(s) = A(s) + αA(t) y B(i) = A(i) para i = s, entonces det(B) = det(A), dicho de otra forma, si a una fila de A le sumamos un m´ultiplo escalar de alguna otra fila de A, el determinante de la matriz resultante es igual al determinante de A. Demostraci´on. Sea C ∈ Mn×n(R) tal que C(i) = B(i) = A(i) para i = s y C(s) = αA(t). Por lo tanto, dado que s = t y en virtud del teorema 1.32, det(C) = 0. Adem´as, como B(s) = A(s) + αA(t) = A(s) + C(s) y en virtud del teorema 1.29 det(B) = det(A) + det(C) = det(A) + 0 = det(A)
  • 62. Matrices y Sistemas de Ecuaciones Lineales 59 Ejemplo 1.35. Sea A la matriz del ejemplo 1.30 y sea B =     2 −1 2 −2 −9 −10 −2 0 3     As´ı que B(2) = A(2) − 7A(1) (¿verif´ıquelo!). Adem´as det(B) = 2 −1 2 −2 −9 −10 −2 0 3 = 2(−9)3 + (−2)0 · 2 + (−2)(−1)(−10) − 2(−9)(−2) − (−10)0 · 2 − 3(−1)(−2) = −54 + 0 − 20 − 36 − 0 − 6 = −116 = det(A) El siguiente ejemplo nos da un m´etodo para calcular el determinante de una matriz A haciendo uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el c´alculo resulta mucho m´as sencillo que al usar la definici´on. Como se dijo en la observaci´on 1.15, usaremos tanto OEF como operaciones elementales por columnas (OEC) para el c´alculo de determinantes, estas operaciones las indicaremos de manera an´aloga a las OEF, salvo que en lugar de usar F usaremos C. Ejemplo 1.36. Hallar el determinante de la matriz A =           6 −1 2 13 2 −1 0 −1 −3 −1 0 −3 0 9 0 7 1 3 12 3 0 −2 4 1 −3           Soluci´on. det(A) = 6 −1 2 13 2 −1 0 −1 −3 −1 0 −3 0 9 0 7 1 3 12 3 0 −2 4 1 −3 = 6 −1 2 10 2 −1 0 −1 −3 −1 0 −3 0 0 0 7 1 3 15 3 0 −2 4 −5 −3 C4 → C4 + 3C2 por teorema 1.33
  • 63. Matrices y Sistemas de Ecuaciones Lineales 60 det(A) = −3(−1)3+2 6 2 10 2 −1 −1 −3 −1 7 3 15 3 0 4 −5 −3 desarrollando el determinante mediante la tercera fila = 3 0 −4 −8 −4 −1 −1 −3 −1 0 −4 −6 −4 0 4 −5 −3     F1 → F1 + 6F2 F3 → F3 + 7F2 por teorema 1.33     = 3(−1)(−1)2+1 −4 −8 −4 −4 −6 −4 4 −5 −3 desarrollando el determinante mediante la primera columna = 3 0 −13 −7 0 −11 −7 4 −5 −3     F1 → F1 + F3 F2 → F2 + F3 por teorema 1.33     = 3 · 4(−1)3+1 −13 −7 −11 −7 desarrollando el determinante mediante la primera columna = 12(−13(−7) − (−7)(−11)) = 12 · 14 = 168 Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos m´etodos ¿cu´al de los dos le parece m´as sencillo? Teorema 1.34. Sea A = (aij)n×n ∈ Mn×n(R). Entonces para cualesquiera s, t ∈ {1, . . ., n} con s = t se tiene que n k=1 askCA tk = 0 y n k=1 aksCA kt = 0 Demostraci´on. Sea s, t ∈ {1, . . . , n} con s = t. Definamos B = (bij)n×n tal que B(i) = A(i) para cada i ∈ {1, . . . , n} con i = t y B(t) = A(s). As´ı que, usando el teorema 1.31, det(B) = 0. Por otro lado, las matrices que se obtienen al eliminar la fila t de B y la fila t de A, son iguales, por lo tanto MB tk = MA tk para cada k ∈ {1, . . ., n}, de donde CB tk = CA tk. Luego, al desarrollar el determinante de B mediante la fila t, se tiene que det(B) = n k=1 btkCB tk = n k=1 askCA tk En consecuencia n k=1 askCA tk = 0, an´alogamente se prueba que n k=1 aksCA kt = 0.
  • 64. Matrices y Sistemas de Ecuaciones Lineales 61 Teorema 1.35. Si E ∈ Mn×n(R) es una matriz elemental, entonces para cada A ∈ Mn×n(R) se tiene que det(EB) = det(E) det(B). Demostraci´on. Como E ∈ Mn×n(R) es una matriz elemental, existe una OEF f : Fn(R) → Fn(R) tal que E = f(In). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f(In)A = f(A). Debemos proceder por casos sobre el tipo de OEF. Caso 1. f es una OEF tipo 1. As que existen s ∈ {1, . . ., n} y α = 0 tales que E(s) = α(In)(s) (donde (In)(s) es la fila s de In) y para i = s se tiene que E(i) = (In)(i). Luego (f(A))(s) = αA(s) y para i = s tenemos (f(A))(i) = A(i). Por lo tanto, seg´un el teorema 1.28, det(E) = α det(In) = α · 1 = α y det(EA) = det(f(A)) = α det(A) = det(E) det(A). Caso 2. f es una OEF tipo 2. Luego existen s, t ∈ {1, . . . , n}, con s = t, y α ∈ R tales que E(s) = (In)(s) + α(In)(t) y E(i) = (In)(i) para i = s. As que (f(A))(s) = A(s) + αA(t) y (f(A))(i) = A(i) para i = s. Usando el teorema 1.33, tenemos que det(E) = det(In) = 1 y det(EA) = det(f(A)) = det(A) = 1 · det(A) = det(E) det(A) Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t ∈ {1, . . ., n} tales que E(s) = (In)(t), E(t) = (In)(s) y E(i) = (In)(i) para i = s e i = t. De donde (f(A))(s) = A(s) + αA(t) y (f(A))(i) = A(i) para i = s e i = t. Si s = t, entonces E = In y f(A) = A, as que det(E) = det(In) = 1
  • 65. Matrices y Sistemas de Ecuaciones Lineales 62 y det(EA) = det(f(A)) = det(A) = 1 · det(A) = det(E) det(A) Si s = t, podemos usar el teorema 1.30 y obtenemos det(E) = − det(In) = −1 y det(EA) = det(f(A)) = − det(A) = (−1) det(A) = det(E) det(A) Observaci´on 1.27. De la prueba del teorema 1.35, se tiene que si E ∈ Mn×n(R) es una matriz elemental, entonces det(E) = 0. Corolario 1.36. Sean E1, E2, . . . , Er ∈ Mn×n(R) matrices elementales. Entonces, para cada A ∈ Mn×n(R), se tiene que det(E1E2 · · · ErA) = det(E1) det(E2) · · ·det(Er) det(A). Demostraci´on. ¡Ejercicio! Teorema 1.37. Si A ∈ Mn×n(R) es una matriz ERF, entonces det(A) = 0 si y s´olo si A = In. Demostraci´on. Sea A = (aij)n×n. Como A es ERF, entonces A es triangular superior (ver ejercicio 1.5), as´ı que aij = 0 para i > j y det(A) = a11a22 · · · ann. Supongamos que det(A) = 0. Luego aii = 0 para cada i ∈ {1, . . . , n}. Como aij = 0 para i > j, entonces para cada i ∈ {1, . . . , n}, la primera componente no nula en la i-´esima fila es aii, y por ser A una matriz ERF, se tiene que aii = 1 para cada i ∈ {1, . . . , n}, es decir, aii es un pivote y por lo tanto aij = 0 para i = j (¿por qu´e?). En resumen aij = 1 si i = j 0 si i = j Es decir, A = In. Rec´ıprocamente, si A = In, entonces det(A) = 1 = 0. En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz cuadrada.
  • 66. Matrices y Sistemas de Ecuaciones Lineales 63 Teorema 1.38. Sea A ∈ Mn×n(R). Entonces A es invertible si y s´olo si det(A) = 0. Demostraci´on. Sea B ∈ Mn×n(R) la FERF A. Entonces existen matrices elementales E1, E2, . . ., Er ∈ Mn×n(R) tales que B = E1E2 · · · ErA. Como det(Ei) = 0 para cada i ∈ {1, . . . , r}, entonces det(A) = 0 si y s´olo si det(B) = 0; y usando el teorema 1.37 se tiene que B = In. Por lo tanto det(A) = 0 si y s´olo si la FERF de A es In, lo cual concluye la prueba. Teorema 1.39. Sean A, B ∈ Mn×n(R). Entonces det(AB) = det(A) det(B). Demostraci´on. Caso 1. det(A) = 0. As´ı que, en virtud del teorema 1.38, A no es invertible. Luego, usando el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se tiene que det(AB) = 0. Por lo tanto det(AB) = 0 = 0 det(B) = det(A) det(B) Caso 2. det(A) = 0. Luego A es invertible, en virtud del teorema 1.38. As´ı que, al usar el teorema 1.22, tenemos que existen matrices elementales E1, E2, . . . , Er ∈ Mn×n(R) tales que A = E1E2 · · · Er. Luego, por el corolario 1.36 det(A) = det(E1E2 · · · Er) = det(E1) det(E2) · · ·det(Er) y det(AB) = det(E1E2 · · · ErB) = det(E1) det(E2) · · ·det(Er) det(B) = det(A) det(B) 1.6. Matriz Adjunta. Regla de Cramer En esta secci´on definiremos la adjunta de una matriz y enunciaremos la regla de Cramer, que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante aplicaci´on de los determinantes. Definici´on 1.22. Sea A ∈ Mn×n(R). Se define la matriz adjunta de A como la matriz adj(A) ∈ Mn×n(R) cuya ij-´esima componente es el ji-´esimo cofactor de A para cada i, j ∈ {1, . . ., n}, es decir, si adj(A) = (bij)n×n, entonces bij = CA ji para cualesquiera i, j ∈ {1, . . . , n}.
  • 67. Matrices y Sistemas de Ecuaciones Lineales 64 Observaci´on 1.28. Si C = (CA ij )n×n, es decir, si C es la matriz real cuadrada cuya ij-´esima componente es el ij-´esimo cofactor de A para cada i, j ∈ {1, . . ., n}, entonces adj(A) = CT . Ejemplo 1.37. Hallar la adjunta de A =     2 −1 3 1 0 2 4 −1 7     Soluci´on. Necesitamos hallar cada uno de los cofactores de A. Veamos CA 11 = (−1)1+1 0 2 −1 7 = 2; CA 12 = (−1)1+2 1 2 4 7 = 1; CA 13 = (−1)1+3 1 0 4 −1 = −1; CA 21 = (−1)2+1 −1 3 −1 7 = 4; CA 22 = (−1)2+2 2 3 4 7 = 2; CA 23 = (−1)2+3 2 −1 4 −1 = −2; CA 31 = (−1)3+1 −1 3 0 2 = −2; CA 32 = (−1)3+2 2 3 1 2 = −1; CA 33 = (−1)3+3 2 −1 1 0 = 1; As que adj(A) =     CA 11 CA 21 CA 31 CA 12 CA 22 CA 32 CA 13 CA 23 CA 33     =     2 4 −2 1 2 −1 −1 −2 1     Teorema 1.40. Sea A ∈ Mn×n(R). Entonces A adj(A) = det(A)In = adj(A)A. Demostraci´on. Hagamos adj(A) = (bjk)n×n. As´ı que para cada j, k ∈ {1, . . . , n}, se tiene que bjk = CA kj. Si hacemos A adj(A) = D = (dik)n×n, entonces, para cada i, k ∈ {1, . . ., n}, tenemos que dik = n j=1 aijbjk = n j=1 aijCA kj. Pero n j=1 aijCA ij = det(A)
  • 68. Matrices y Sistemas de Ecuaciones Lineales 65 y seg´un el teorema 1.34, si i = k, entonces n j=1 aijCA kj = 0 Por lo tanto dik = det(A) si i = k 0 si i = k = det(A) 1 si i = k 0 si i = k = det(A)δik donde In = (δik)n×n. En consecuencia A adj(A) = det(A)In. De manera an´aloga se prueba que adj(A)A = det(A)In, lo cual concluye la prueba. Teorema 1.41. Si A ∈ Mn×n(R) es invertible, entonces det(A−1 ) = 1 det(A) y A−1 = 1 det(A) adj(A). Demostraci´on. Como A es invertible, entonces existe A−1 ∈ Mn×n(R) tal que AA−1 = In = A−1 A, y por el teorema 1.39 det(A) det(A−1 ) = det(AA−1 ) = det(In) = 1. Luego det(A−1 ) = 1 det(A) . Por otro lado, usando el teorema 1.40, se tiene que A 1 det(A) adj(A) = 1 det(A) A adj(A) = 1 det(A) det(A)In = In. De donde A−1 = 1 det(A) adj(A). Ejercicio 1.9. Sea A ∈ Mn×n(R) una matriz invertible. Pruebe que adj(A) tambi´en es invertible y adem´as (adj(A))−1 = adj(A−1 ).
  • 69. Matrices y Sistemas de Ecuaciones Lineales 66 Consideremos la ecuaci´on matricial Ax = b, donde A ∈ Mn×n(R). Si A es invertible, entonces la ´unica soluci´on de dicha ecuaci´on est´a dada por x = A−1 b, as´ı que, una forma de hallar la soluci´on de la ecuaci´on en cuesti´on, es calcular la inversa de A y multiplicarla por b, pero quiz´as esto es mucho m´as complicado y costoso (en t´erminos de c´alculos) que hallar la FERF de la matriz [A|b]. En el siguiente teorema presentaremos una herramienta que permite resolver la ecuaci´on an- terior usando determinantes, sin necesidad de hallar la inversa de A ni la FERF de [A|b], dicha herramienta se conoce con el nombre de la regla de Cramer. Teorema 1.42 (Regla de Cramer). Sea A ∈ Mn×n(R) una matriz invertible y b ∈ Mn×1(R). Si x =        x1 x2 ... xn        es la soluci´on de la ecuaci´on Ax = b, entonces, para cada j ∈ {1, . . ., n}, xj = det(Ab j) det(A) , donde Ab j es la matriz que se obtiene de A al reemplazar A(j) (la columna j) por b, esto es, Ab j = A(1) · · · A(j−1) b A(j+1) · · · A(n) Demostraci´on. Como A = (aij)n×n es invertible, entonces la ´unica soluci´on del sistema Ax = b es x = A−1 b, pero A−1 = 1 det(A) adj(A), as´ı que x = 1 det(A) adj(A)b, por lo tanto, si b =        b1 b2 ... bn        , entonces xj = 1 det(A) n i=1 CA ij bi para cada j ∈ {1, . . . , n}. Por otro lado, para cada j ∈ {1, . . ., n}, se tiene que Ab j =                a11 · · · a1(j−1) b1 a1(j+1) · · · a1n ... ... ... ... ... a(i−1)1 · · · a(i−1)(j−1) bi−1 a(i−1)(j+1) · · · a(i−1)n ai1 · · · ai(j−1) bi ai(j+1) · · · ain a(i+1)1 · · · a(i+1)(j−1) bi+1 a(i+1)(j+1) · · · a(i+1)n ... ... ... ... ... an1 · · · an(j−1) bn an(j+1) · · · ann                Por lo tanto, para cada i ∈ {1, . . ., n}, tenemos que M Ab j ij = MA ij y as´ı C Ab j ij = (−1)i+j det M Ab j ij = (−1)i+j det MA ij = CA ij
  • 70. Matrices y Sistemas de Ecuaciones Lineales 67 Luego, al desarrollar el determinante de Ab j por medio de la j-´esima columna, obtenemos det(Ab j) = n i=1 C Ab j ij bi = n i=1 CA ij bi En consecuencia, para cada j ∈ {1, . . . , n} tenemos que xj = det(Ab j) det(A) Ejemplo 1.38. Verificar que la matriz del sistema    x +2z −w = 3 x +y +2z +w = 2 4x +2y +2z −3w = 1 2y +z +4w = 1 es invertible y usar la regla de Cramer para hallar la soluci´on del sistema. Soluci´on. La matriz del sistema es A =        1 0 2 −1 1 1 2 1 4 2 2 −3 0 2 1 4        hallemos su determinante det(A) = 1 0 2 −1 1 1 2 1 4 2 2 −3 0 2 1 4 = 1 0 2 −1 0 1 0 2 0 2 −6 1 0 2 1 4 = 1 0 2 2 −6 1 2 1 4 = 1 0 0 2 −6 −3 2 1 0 = −6 −3 1 0 = 3 = 0. Por lo tanto la matriz del sistema es invertible, as´ı que podemos aplicar la regla de Cramer para resolverlo. En este caso la matriz de t´erminos independientes es b =        3 2 1 1       
  • 71. Matrices y Sistemas de Ecuaciones Lineales 68 Luego det Ab 1 = 3 0 2 −1 2 1 2 1 1 2 2 −3 1 2 1 4 = 0 −6 −1 −13 0 −3 0 −7 0 0 1 −7 1 2 1 4 = − −6 −1 −13 −3 0 −7 0 1 −7 = − −6 0 −20 −3 0 −7 0 1 −7 = −6 −20 −3 −7 = 42 − 60 = −18. det Ab 2 = 1 3 2 −1 1 2 2 1 4 1 2 −3 0 1 1 4 = 1 3 2 −1 0 −1 0 2 0 −11 −6 1 0 1 1 4 = −1 0 2 −11 −6 1 1 1 4 = −1 0 0 −11 −6 −21 1 1 6 = − −6 −21 1 6 = −(−36 + 21) = 15. det Ab 3 = 1 0 3 −1 1 1 2 1 4 2 1 −3 0 2 1 4 = 1 0 2 −1 0 1 −1 2 0 2 −11 1 0 2 1 4 = 1 −1 2 2 −11 1 2 1 4 = 1 −1 2 0 −9 −3 0 3 0 = −9 −3 3 0 = 9. det Ab 4 = 1 0 2 3 1 1 2 2 4 2 2 1 0 2 1 1 = 1 0 2 3 0 1 0 −1 0 2 −6 −11 0 2 1 1 = 1 0 −1 2 −6 −11 2 1 1 = 1 0 0 2 −6 −9 2 1 3 = −6 −9 1 3 = −18 + 9 = −9.