Este documento presenta un resumen de los conceptos fundamentales del álgebra. Introduce los sistemas de ecuaciones lineales y las matrices, y explica cómo resolver sistemas mediante el método de eliminación gaussiana. También define estructuras algebraicas como grupos, anillos y cuerpos. Finalmente, presenta los objetivos didácticos del documento, que son enseñar técnicas de álgebra lineal y aplicaciones a la informática.
2. 2 Álgebra
Introducción
En sus orígenes, el álgebra clásica era el arte de resolver ecuaciones (la
palabra álgebra proviene de un vocablo árabe que signica reducción). El
álgebra moderna está caracterizada por el estudio de ciertas estructuras abs-
tractas que tienen en común una gran variedad de objetos matemáticos. El
calicativo abstracto se reere al resultado de realizar el proceso de abstrac-
ción sobre las propiedades observables de ciertos objetos matemáticos, es
decir, el proceso consistente en separar la forma del contenido.
La estructura principal objeto de estudio en esta publicación es la de
espacio vectorial. Las aplicaciones de esta estructura incluyen virtualmen-
te todas las áreas de la ciencia. Se incluye una aplicación de los espacios
vectoriales relacionada estrechamente con el mundo de la informática y las
telecomunicaciones, en concreto a la teoría de códigos y se estudian varias
técnicas y herramientas de interés para otras aplicaciones.
Este volumen viene acompañado por un libro de Prácticas y Problemas
con el sistema Maple V, disponible en versión digital, que contiene una am-
pliación y completa la descripción de los conceptos teóricos. Las prácticas
permiten el desarrollo y la experimentación con los aspectos más numéri-
cos y están diseñada para potenciar el empleo de la notable capacidad de
visualización gráca que ofrece el programa Maple V.
A cada tema teórico y práctico hemos añadido ejercicios resueltos y ejer-
cicios propuestos.
Los principales objetivos didácticos que intentamos conseguir son que el
lector:
• aprenda y utilize correctamente técnicas y métodos propios del álgebra
lineal.
• vea la descripción de algunas aplicaciones a la Informática.
• comprenda y aplique algunos métodos numéricos de resolución de sis-
temas de ecuaciones lineales y de aproximación de autovalores y auto-
vectores.
• aprenda a utilizar el programa Maple V (como ejemplo de sistema de
computación simbólica) en sus aplicaciones al álgebra lineal.
Algunos apartados de esta publicación (sobre todo en la parte de ejerci-
cios) son una adaptación del material contenido (unas veces sin modicarlo,
otras proponiendo variaciones de ello) en la bibliografía incluida.
3. Álgebra 3
Agradecimientos
Queremos agradecer al profesor Luis E. Solá Conde por su participación
en la corrección de estas notas y la elaboración de los enunciados de varios
ejercicios propuestos en este libro.
Gracias también a los profesores Alejandro J. García del Amo Jiménez
y Begoña Jiménez Martín por la elaboración de los enunciados de varios
ejercicios propuestos y a los alumnos que han señalado erratas y errores en
versiones previas de esta publicación.
9. Capítulo 1
Sistemas de ecuaciones lineales,
matrices y estructuras algebraicas
Este primer capítulo comienza con el estudio de los sistemas de ecuaciones
lineales, de las matrices y de las operaciones con matrices.
Estos conceptos están en la base del álgebra lineal, y se asume que ya se
ha tenido un contacto previo con ellos en cursos anteriores.
Es conveniente señalar que en este nivel no sólo es importante entender
los métodos de cálculo de las soluciones de los problemas que se estudiarán,
sino también el porqué dichos métodos funcionan.
Hablaremos de sistemas de n ecuaciones con m variables, donde n y m
en general no son iguales, y de un algoritmo de cálculo, el método de elimi-
nación gaussiana, que nos permitirá resolver sistemas de ecuaciones lineales
generales.
En la segunda parte del capítulo, una vez establecidas las propiedades
que satisfacen las matrices respecto de la suma y producto, se introducen
las estructuras algebraicas de grupo, anillo y cuerpo con el objeto de reu-
nir, bajo una estructura algebraica abstracta, las propiedades que tienen en
común, por ejemplo, los números enteros, reales y complejos, las matrices y
los polinomios, y destacar aquellas propiedades que no comparten. En ese
sentido, la denición de una estructura algebraica (por ejemplo, la denición
de grupo) responderá a la abstracción de ciertas propiedades comunes a los
objetos anteriores, entendiendo por abstracción el proceso de separar la for-
ma del contenido. Como colofón del capítulo y aplicación de los conceptos
previamente introducidos veremos una introducción a los tipos abstractos de
datos.
9
10. 10 Álgebra
1.1 Sistemas de ecuaciones lineales, matrices y
eliminación gaussiana
Al aplicar la teoría de ecuaciones lineales, entre otras disciplinas, a la infor-
mática, aparecen ecuaciones lineales con coecientes enteros, binarios (0 ó
1), reales o incluso complejos. La denición de la estructura algebraica de
cuerpo se introducirá más tarde. Cómo en la mayor parte de los resultados
referentes a la teoría de ecuaciones lineales no hace falta hacer distinción
entre los casos en los que los coecientes son elementos del cuerpo R de los
números reales o del cuerpo C de los números complejos, a lo largo del ca-
pítulo se considerará que los coecientes de las ecuaciones pertenecen a un
cuerpo genérico K, donde K = R ó C, aunque en algunos casos en los que se
dirá explícitamente, se consideraran también coecientes binarios, es decir,
del cuerpo Z2 = {0, 1} de los números enteros módulo 2.
Se asume que el estudiante ha trabajado en cursos anteriores con elemen-
tos de R2 y R3 , a los que se denominan pares ordenados y ternas. Ambos
conceptos son casos particulares del concepto de n − tupla o elemento del
producto cartesiano de n copias de R, Rn , donde n es un número natural, o
en general de Kn . Así
Kn = {(x1 , ..., xn ) | ∀i ∈ {1, ..., n} xi ∈ K}
De este modo, un par ordenado es una 2 − tupla (un elemento de K2 ) y
una terna es una 3 − tupla (un elemento de K3 ).
1.1.1 Introducción a los sistemas de ecuaciones lineales
Denición 1.1.1 Una ecuación lineal en las variables (o incógnitas) x1 , ..., xn
es una expresión de la forma
a1 x1 + ... + an xn = b
A a1 , ..., an ∈ K se les denomina coecientes de la ecuación, y a b ∈ K
término independiente.
Observación 1 Habitualmente, los coecientes a1 , ..., an y el término inde-
pendiente b serán elementos de un cuerpo K (con K = R ó C). En tal caso
se dice que la ecuación anterior es una ecuación lineal con coecientes en K.
11. Álgebra 11
Observación 2 Cuando n ≤ 3 es usual utilizar las variables x, y y z en
lugar de x1 , x2 y x3
Ejemplo 1.1.2 Si n = 2 y a1 , a2 ∈ R, la ecuación lineal
a1 x + a2 y = b (I)
representa una recta en el plano R2 , es decir, el conjunto de pares (x, y) que
satisfacen la ecuación (I) constituyen una recta. Por ejemplo, la ecuación
y − 2x = 2 representa la recta
T
2
E
-1 0
Figura 1.1: La recta y=2x+2
Es importante observar que las operaciones que afectan a las variables
que intervienen en las ecuaciones lineales se reducen a multiplicarlas por los
coecientes y sumarlas. Así por ejemplo,
3x + 4y = 24
√
x1 − x2 + 5x3 − ( 2)x4 = 1
(e2 )x1 − 3x2 + x3 − x4 = 0
son ecuaciones lineales. Sin embargo NO son ecuaciones lineales
3x2 + 4y = 24
√
x1 − x2 + 5x3 − 2 x4 = 1
e2x1 − 3x2 + x3 − x4 = 0
12. 12 Álgebra
Denición 1.1.3 Se dice que (α1 , ..., αn ) ∈ Kn es solución de la ecuación
a1 x1 + ... + an xn = b
si
a1 α1 + ... + an αn = b.
Ejemplo 1.1.4 (x, y, z) = (3, 2, −1) es solución de x + y + z = 4. Por otra
parte (x, y, z) = (4, 0, 0) también es solución de dicha ecuación.
Un sistema de ecuaciones lineales es una sucesión nita de ecuaciones
lineales. Es usual representar los sistemas de ecuaciones lineales verticalmen-
te (i.e., colocando la sucesión de ecuaciones lineales en columna). Así, un
sistema de m ecuaciones lineales con n incógnitas se representaría por
a11 x1 + ... + a1n xn = b1
.
.
.
a x + ... + a x = b
m1 1 mn n m
Ejemplo 1.1.5 El sistema
x2 + x3 = 1
2x1 − x3 = 2
x2 + x3 = 4
es un sistema de 3 ecuaciones con 3 incógnitas.
Denición 1.1.6 Se dice que (α1 , ..., αn ) ∈ Kn es solución del sistema de
ecuaciones
a11 x1 + ... + a1n xn = b1
.
.
.
a x + ... + a x = b
m1 1 mn n m
si
∀i ∈ {1, ..., m} ai1 α1 + ... + ain αn = bi
o, lo que es lo mismo,
a11 α1 + ... + a1n αn = b1
.
.
.
a α + ... + a α = b
m1 1 mn n m
13. Álgebra 13
Es importante tener presente que los sistemas de ecuaciones lineales pue-
den no tener soluciones, o tener más de una. Por ejemplo, el sistema de
ecuaciones lineales con coecientes en R
x1 − x2 = 1
x1 − x2 = 4
no tiene solución, ya que contiene las ecuaciones de dos rectas distintas y
paralelas.
Los sistemas de ecuaciones lineales que no tienen solución, como el del
ejemplo anterior, se denominan sistemas incompatibles.
Los que tienen al menos una solución, esto es, los sistemas compati-
bles, pueden tener una única solución, en cuyo caso se denominan compati-
bles determinados, o más de una solución, en cuyo caso, si los coecientes
del sistema son números reales o complejos, el sistema tiene innitas solucio-
nes (como se verá por el teorema 1.2.14), y los sistemas correspondientes se
denominan compatibles indeterminados.
Ejercicio 1.1.1 Encontrar tres sistemas de dos ecuaciones lineales con coe-
cientes en R con dos incógnitas, uno compatible determinado, otro compatible
indeterminado y un tercero incompatible y representar el conjunto solución
de cada una de las dos ecuaciones lineales que lo forman en el plano R2 .
Extraer conclusiones.
1.1.2 Sistemas homogéneos
Denición 1.1.7 Se dice que un sistema de ecuaciones lineales es homogé-
neo si los términos independientes de todas las ecuaciones que lo constituyen
son iguales a 0.
Ejemplo 1.1.8
x1 + x3 = 0
2x1 − x2 + x3 = 0
es un sistema homogéneo de 2 ecuaciones con 3 incógnitas.
Observación 3 Cualquier sistema de ecuaciones lineales homogéneo
a11 x1 + ... + a1n xn = 0
.
.
.
a x + ... + a x = 0
m1 1 mn n
14. 14 Álgebra
es compatible, puesto que (0, ..., 0) ∈ Kn es siempre una solución de dicho
sistema. A esta solución se la conoce como solución trivial. Si un sistema
homogéneo tiene soluciones distintas de la trivial, a cualquiera de dichas
soluciones la denominaremos solución no trivial.
En el capítulo 2 demostraremos que un sistema homogéneo de ecuaciones
lineales con coecientes en R ó C satisface exactamente una de las siguientes
proposiciones:
• El sistema homogéneo sólo tiene la solución trivial.
• El sistema homogéneo tiene innitas soluciones además de la trivial.
En particular, demostraremos que todo sistema homogéneo con coe-
cientes en R ó C que tenga más incógnitas que ecuaciones tiene innitas
soluciones.
Se pueden comprender e interiorizar los resultados anteriores a través
de la resolución de los siguientes ejercicios:
Ejercicio 1.1.2 Comprobar que el sistema homogéneo
x1 + x3 = 0
2x1 − x2 + x3 = 0
tiene innitas soluciones en ∈ R3 , despejando las variables x1 y x2 en función
de x3 , y obtener una solución del sistema para cada valor de x3 considerado.
Ejercicio 1.1.3 Vericar que el sistema
x1 + x2 = 0
2x1 − x2 = 0
sólo tiene la solución trivial.
1.1.3 Transformaciones elementales por las.
Introducción al método de Gauss-Jordan
En esta sección haremos una primera descripción del método de Gauss-
Jordan para encontrar las soluciones (si es que existen) de un sistema de
ecuaciones lineales. La justicación del método y su descripción precisa se
15. Álgebra 15
realizará en las dos siguientes secciones. En esta sección también daremos
una primera justicación de la denición del producto de matrices (i.e., de
porqué el producto de matrices se dene tal y como se dene). Al proceso
de cálculo de las soluciones de un sistema de ecuaciones compatible se le
denomina resolución del sistema.
Si consideramos el sistema de ecuaciones lineales:
x1 − x2 + x3 = 1
2x1 + x2 − x3 = 2
x1 + 2x2 + x3 = 4
podemos resolverlo eliminando sucesívamente una de las incógnitas de dos
de las ecuaciones, después otra de las restantes y así sucesivamente hasta
conocer el valor de una incógnita, y a partir de ella el de las demás. En este
caso, multiplicando la primera ecuación por 2 y restándosela a la segunda, y
restando la primera ecuación a la tercera, obtenemos:
x1 − x2 + x3 = 1
3x2 − 3x3 = 0
3x2 = 3.
A partir de aquí, de la tercera ecuación se obtiene x2 = 1. Sustituyendo hacia
atrás vamos obteniendo sucesívamente el valor del resto de las incógnitas.
En este caso, de la segunda ecuación obtenemos que x3 = 1, y, conocidos los
valores de x2 y x3 , de la primera ecuación obtenemos que x1 = 1.
El método descrito, consistente en ir eliminando las incógnitas de las
ecuaciones una a una mediante el proceso de sumar a una ecuación otra
multiplicada por un número, para, una vez obtenido el valor de una de las
variables, ir sustituyendo hacia atrás, se conoce como eliminación gaussia-
na.
Si una vez obtenido el valor de una de las variables, en lugar de sustituir
hacia atrás, seguimos sumando a una ecuación otra multiplicada por un nú-
mero, multiplicando ambos miembros de la ecuación por números adecuados e
intercambiando ecuaciones con el objeto de obtener un sistema de ecuaciones
escalonado en el que en cada ecuación aparezca únicamente una incógnita,
estaremos aplicando el método conocido como método de Gauss-Jordan.
Una forma de representar sistemas de ecuaciones lineales consiste en uti-
lizar matrices, esto es, tablas de coecientes ordenadas según un número
determinado de las y columnas. De hecho, el método de Gauss-Jordan se
16. 16 Álgebra
aplica más fácilmente sobre la que se denomina matriz ampliada asociada al
sistema que sobre el propio sistema. La matriz asociada al sistema
x1 − x2 + x3 = 1
2x1 + x2 − x3 = 2
x1 + 2x2 + x3 = 4
es por denición la matriz
1 −1 1
2 1 −1
1 2 1
y la matriz ampliada asociada a dicho sistema es
1 −1 1 1
2 1 −1 2
1 2 1 4
La aplicación del método de Gauss-Jordan sobre dicha matriz para obte-
ner la solución del sistema de ecuaciones que representa nos daría sucesíva-
mente:
1 −1 1 1 1 −1 1 1
2 1 −1 2 F2 = F2 − 2F1 → 0 3 −3 0 F2 ↔ F3 →
F3 = F3 − F1
1 2 1 4 0 3 0 3
1 −1 1 1 1 −1 1 1
0 3 0 3 F2 = 1 F2 → 0 1 0 1 F3 = F3 − 3F2 →
3
0 3 −3 0 0 3 −3 0
1 −1 1 1 1 −1 1 1
0 1 0 1 F3 = − 3 F3 → 0 1 0 1 F1 = F1 − F3 →
1
0 0 −3 −3 0 0 1 1
1 −1 0 0 1 0 0 1
0 1 0 1 F1 = F1 + F2 → 0 1 0 1
0 0 1 1 0 0 1 1
17. Álgebra 17
La última matriz representa, obviamente, que x1 = 1, x2 = 1 y x3 = 1.
En la resolución del sistema anterior hemos aplicado sobre la matriz am-
pliada del sistema lo que se denominan transformaciones elementales por
las. Estas son las siguientes:
1. Sumar a una la otra multiplicada por un número: Fi = Fi + λFj
2. Multiplicar una la por un número distinto de cero: Fi = λFi
3. Intercambiar dos las: Fi ↔ Fj
En cualquier caso, no todos los sistemas de ecuaciones lineales tienen
solución. Por ejemplo, si consideramos el sistema
x1 − x2 = 1
2x1 − 2x2 = 4
la aplicación de las transformaciones elementales correspondientes sobre la
matriz ampliada asociada al sistema nos lleva a
1 −1 1 1 −1 1
F2 = F2 − 2F1 →
2 −2 4 0 0 2
es decir, 0x1 + 0x2 = 2.
Así pues, el sistema anterior es un sistema incompatible.
Un ejemplo de sistema compatible indeterminado sería el siguiente:
x1 − x2 + x3 = 1
2x1 + x2 − x3 = 2
2x1 − 2x2 + 2x3 = 2
Al resolverlo por el método de Gauss-Jordan obtenemos:
1 −1 1 1 1 −1 1 1
2 1 −1 2 F2 = F2 − 2F1 → 0 3 −3 0 F2 = 1 F2 →
F3 = F3 − 2F1 3
2 −2 2 2 0 0 0 0
1 −1 1 1 1 0 0 1
0 1 −1 0 F1 = F1 + F2 → 0 1 −1 0
0 0 0 0 0 0 0 0
es decir, x1 = 1 y x2 − x3 = 0, o lo que es lo mismo, x2 = x3 , con lo que,
si escribimos x3 = t, para cada valor de t tenemos una solución del sistema.
Sería solución del sistema (1, 1, 1), (1, 2, 2), ... en total tendríamos innitas
soluciones, tantas como posibles valores del parámetro t; esto ocurre porque
estamos trabajando sobre el cuerpo de los números reales, luego t toma
valores en R, que es innito.
18. 18 Álgebra
1.1.4 Sistemas equivalentes
La aplicación sucesiva de transformaciones elementales por las sobre un sis-
tema de ecuaciones lineales (o sobre su matriz ampliada) permite pasar de
un sistema de ecuaciones lineales a otro que, teniendo las mismas soluciones
que el planteado, es más sencillo de resolver. En esta sección demostraremos
con todo detalle que esto es efectivamente así. Por otra parte, las transforma-
ciones elementales son reversibles, es decir, si realizando transformaciones
elementales sobre un sistema de ecuaciones lineales S obtenemos un siste-
ma de ecuaciones lineales S , podemos recuperar S a partir de S realizando
las transformaciones elementales “inversas” en el orden adecuado (el orden
inverso del que se ha seguido para pasar de S a S ).
TRASFORMACIÓN TRANSFORMACIÓN INVERSA
Fi = Fi + λFj Fi = Fi − λFj
1
Fi = λFi (λ = 0) Fi = Fi
λ
Fi ↔ Fj Fi ↔ Fj
Ejercicio 1.1.4 Realizar las transformaciones F3 = F3 − F1 , F3 ↔ F1 ,
1
F2 = F2 sobre la matriz ampliada asociada al sistema.
2
x1 − x2 + x3 = 1
2x1 + 2x2 − 2x3 = 2
x1 + 2x2 + x3 = 4
para obtener la matriz A . Realizar sobre A las transformaciones inversas
de las anteriores en el orden adecuado y comprobar que se obtiene la matriz
ampliada asociada al sistema dado.
Denición 1.1.9 Se dice que dos sistemas de m ecuaciones lineales con n
incógnitas son equivalentes si uno de ellos puede obtenerse a partir del otro
realizando sobre el primero una sucesión nita de transformaciones elemen-
tales por las.
Observación 4 Como ya hemos señalado, habitualmente representaremos a
un sistema de ecuaciones lineales
α11 x1 + ... + α1n xn = β1
.
.
.
α x + ... + α x = β
m1 1 mn n m
19. Álgebra 19
por su matriz ampliada:
α11 ... α1n β1
Am = . . . ∈M
. . .
. . . m×(n+1) (K),
αm1 ... αmn βm
con lo que las transformaciones elementales se realizan sobre las las de esta
matriz.
A la vista de la observación anterior tiene sentido establecer la siguiente
denición:
Denición 1.1.10 Si una matriz A se obtiene realizando transformaciones
elementales por las sobre una matriz A, diremos que las matrices A y A
son equivalentes por las.
Observación 5 A las transformaciones elementales por las, realizadas, bien
directamente sobre las ecuaciones del sistema, bien sobre las las de su matriz
ampliada las denotaremos del mismo modo.
Ejercicio 1.1.5 Vericar que la relación de equivalencia de matrices en
Mm×n (K) es una relación binaria reexiva, simétrica y transitiva (es decir,
es una relación de equivalencia en el sentido general).
Teorema 1.1.11 Si dos sistemas de ecuaciones son equivalentes, entonces
tienen exactamente las mismas soluciones. En otras palabras, si S y S son
equivalentes,
(α1 , ..., αn ) es soluci´n de S ⇔ (α1 , ..., αn ) es soluci´n de S .
o o
Demostración Para demostrar el teorema, es suciente con estudiar el
caso en el que un sistema se obtiene a partir de otro mediante la aplicación
de una única transformación elemental por las. Supongamos que el sistema
considerado es
α11 x1 + ... + α1n xn = β1
α21 x1 + ... + α2n xn = β2
S≡ .
.
.
α x + ... + α x = β
m1 1 mn n m
20. 20 Álgebra
Es obvio que el intercambio de lugar entre dos ecuaciones del sistema no
altera el conjunto solución del mismo. Por consiguiente la aplicación de una
transformación del tipo Fi ↔ Fj no altera el conjunto solución. Además,
teniendo esto presente, podemos restringir el estudio al caso en el que las
transformaciones elementales se aplican únicamente sobre la primera y la
segunda ecuación, dejando el resto inalteradas. Sea λ = 0, y supongamos
que
λα11 x1 + ... + λα1n xn = λβ1
α21 x1 + ... + α2n xn = β2
S ≡ .
.
.
α x + ... + α x = β
m1 1 mn n m
Veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S .
o o
Si (s1 , ..., sn ) es solución de S, tendremos que
α11 s1 + ... + α1n sn = β1
α21 s1 + ... + α2n sn = β2
.
.
.
α s + ... + α s = β
m1 1 mn n m
con lo que, multiplicando ambos miembros de la primera igualdad por λ,
obtenemos que
λα11 s1 + ... + λα1n sn = λβ1
α21 s1 + ... + α2n sn = β2
.
.
.
α s + ... + α s = β
m1 1 mn n m
es decir, que (s1 , ..., sn ) es solución de S .
Veamos ahora el recíproco, i.e., que
(s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S.
o o
Si (s1 , ..., sn ) es solución de S , tendremos que
λα11 s1 + ... + λα1n sn = λβ1
α21 s1 + ... + α2n sn = β2
.
.
.
α s + ... + α s = β
m1 1 mn n m
21. Álgebra 21
1
con lo que, multiplicando ambos miembros de la primera igualdad por λ
,
obtenemos que
α11 s1 + ... + α1n sn = β1
α21 s1 + ... + α2n sn = β2
.
.
.
α s + ... + α s = β
m1 1 mn n m
es decir, que (s1 , ..., sn ) es solución de S.
Supongamos ahora que
α11 x1 + ... + α1n xn = β1
(α21 + µα11 )x1 + ... + (α2n + µα1n )xn = (β2 + µβ1 )
S ≡ .
.
.
α x + ... + α x = β
m1 1 mn n m
Veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S .
o o
Si (s1 , ..., sn ) es solución de S, tendremos que
α11 s1 + ... + α1n sn = β1
α21 s1 + ... + α2n sn = β2
.
.
.
α s + ... + α s = β
m1 1 mn n m
con lo que, multiplicando los dos miembros de la primera ecuación por µ, y
sumando miembro a miembro la primera ecuación a la segunda obtendremos
α11 s1 + ... + α1n sn = β1
(α21 + µα11 )s1 + ... + (α2n + µα1n )sn = (β2 + µβ1 )
.
.
.
α s + ... + α s = β
m1 1 mn n m
Recíprocamente, veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n
o o
de S.
Si (s1 , ..., sn ) es solución de S , tendremos que
α11 s1 + ... + α1n sn = β1
(α21 + µα11 )s1 + ... + (α2n + µα1n )sn = (β2 + µβ1 )
.
.
.
α s + ... + α s = β
m1 1 mn n m
22. 22 Álgebra
Multiplicando la primera igualdad por µ y restándosela a la segunda obtene-
mos que
α11 s1 + ... + α1n sn = β1
α21 s1 + ... + α2n sn = β2
.
.
.
α s + ... + α s = β
m1 1 mn n m
con lo que (s1 , ..., sn ) es solución de S. Esto completa la demostración del
teorema. 2
1.1.5 Estrategia para la aplicación del método
de eliminación gaussiana
1. Reordenar las ecuaciones para que en la primera ecuación la primera
variable x1 tenga un coeciente no nulo, y multiplicar ambos miembros de
dicha ecuación para que el coeciente de dicha variable sea 1.
2. Restar la primera ecuación multiplicada por un escalar adecuado a las
demás ecuaciones con el objeto de que la primera variable aparezca solamente
en la primera ecuación.
3. En el caso de que sea posible, reordenar las ecuaciones de la segunda
en adelante con el objeto de que la segunda variable x2 aparezca con un
coeciente no nulo y multiplicar ambos miembros de dicha ecuación para
que el coeciente de dicha variable sea 1. Si la variable x2 no aparece más
que en la primera ecuación, hacer la operación anterior con la variable x3 o
con la primera variable que aparezca con un coeciente no nulo en alguna de
las ecuaciones restantes (todas salvo la primera).
4. Restar la segunda ecuación multiplicada por un escalar adecuado a las
ecuaciones situadas bajo la misma con el objeto de que la segunda variable
(o la que corresponda) no aparezca en ninguna ecuación situada por debajo
de la segunda.
5. Operando análogamente con el resto de las ecuaciones, el sistema así
obtenido será un sistema escalonado, es decir, un sistema que se ajusta a la
siguiente denición.
Denición 1.1.12 Se dice que un sistema de ecuaciones es escalonado si
23. Álgebra 23
La primera variable de cada ecuación tiene 1 como
(E.1) coeciente (a esta variable la denominaremos variable
principal de dicha ecuación).
La variable principal de cualquier ecuación siempre
aparece situada a la derecha de las variables
(E.2)
principales de las ecuaciones previas, y todas las ecuaciones
sin variable principal aparecen colocadas al nal.
La última frase de (E.2) puede parecer algo misteriosa. Sin embargo,
al llevar a cabo la estrategia anterior sobre un sistema concreto, podríamos
obtener una ecuación de la forma
0x1 + ... + 0xn = k
con k = 0 o k = 0 (en este último caso el sistema es incompatible). Este tipo
de ecuaciones deberán aparecer siempre en las últimas las del sistema.
Ejemplo 1.1.13 Los siguientes sistemas de ecuaciones son escalonados:
x1 + x2 + 3x3 = 9
x2 + 6x3 = 24
x3 = −4
x1 + x2 + x3 − 5x4 = 4
x3 − 2x4 = 6.
Las matrices ampliadas asociadas a estos sistemas son
1 1 3 9
0 1 6 24
0 0 1 −4
y
1 1 1 −5 4
0 0 1 −2 6
El conjunto de soluciones de un sistema escalonado es razonablemente
sencillo de obtener. Un sistema de ecuaciones escalonado será compatible en
todos los casos en los que no aparezca una ecuación de la forma
0x1 + ... + 0xn = k, con k = 0.
24. 24 Álgebra
Suponiendo que el sistema es compatible, a cualquier variable que no sea
la variable principal de una ecuación la denominaremos variable libre. Si
una variable es variable principal de un sistema de ecuaciones escalonado,
diremos que dicha variable no es libre (o también que está determinada).
El siguiente proceso, conocido como sustitución hacia atrás o remonte,
obtiene todas las soluciones del sistema asignando parámetros a las variables
libres.
Sustitución hacia atrás en el método de eliminación gaussiana
Suponiendo que no aparece ninguna ecuación de la forma
0x1 + ... + 0xn = k
con k = 0 en el sistema escalonado obtenido, comenzamos con la última
ecuación del sistema asignado un parámetro diferente a cada variable libre
y expresando la variable determinada por la última ecuación en términos
de estos parámetros. Después, operaremos análogamente con la penúltima
ecuación, asignando diferentes parámetros a cada una de las nuevas variables
libres, y obteniendo el valor de la variable determinada por la penúltima
ecuación. Realizando las mismas operaciones con el resto de las ecuaciones
hasta llegar a la primera, al nal del proceso todas las variables libres tendrán
asignado un parámetro diferente, y todas las variables determinadas estarán
expresadas en términos de estos parámetros.
Ejercicio 1.1.6 Resolver los siguientes sistemas de ecuaciones lineales por
el método de eliminación gaussiana.:
2x1 + x2 + 3x3 = 9
5x1 + 4x2 + 6x3 = 24
x1 + 3x2 − 2x3 = 4
3x1 + x2 + x3 − 5x4 = 4
5x1 + 2x2 + 4x3 − 2x4 = 6
1.1.6 Método de Gauss-Jordan
El método de Gauss-Jordan es una extensión del método de eliminación gaus-
siana, que consiste en eliminar la variable principal de la ecuación correspon-
diente no solamente en las ecuaciones que aparecen situadas por debajo de
25. Álgebra 25
la misma, sino en todas las ecuaciones del sistema. Por ello, la estrategia es
la misma que la del método de eliminación de Gauss, con la adición de las
siguientes instrucciones en el lugar correspondiente:
4. Sustraer además la segunda ecuación multiplicada por un escalar ade-
cuado de la primera ecuación, con el objeto de eliminar la segunda variable
de la primera ecuación.
5. En cada paso sustraer la ecuación correspondiente multiplicada por
un escalar adecuado tanto de las ecuaciones situadas por debajo de la misma
como de las situadas por encima, con el objeto de que la variable principal
de cada ecuación aparezca únicamente en la ecuación de la que es variable
principal.
Los sistemas de ecuaciones que resultan de la aplicación del método de
Gauss-Jordan se dice que tienen forma escalonada reducida, es decir:
Denición 1.1.14 Se dice que un sistema de ecuaciones está en forma es-
calonada reducida si
La primera variable de cada ecuación tiene 1 como
(E.R.1) coeciente (a esta variable la denominaremos variable
principal de dicha ecuación).
La variable principal de cualquier ecuación siempre
aparece situada a la derecha de las variables
(E.R.2)
principales de las ecuaciones previas, y todas las ecuaciones
sin variable principal aparecen colocadas al nal.
La variable principal de cada ecuación aparece solamente
(E.R.3)
en la ecuación de la que es variable principal.
Ejemplo 1.1.15 Vamos a resolver el siguiente sistema de ecuaciones por el
método de Gauss Jordan, es decir, obteniendo una forma escalonada reducida
de dicho sistema
x1 − 4x2 + x3 = 2
−x1 + 3x2 − x3 = 1
x1 + 2x3 = 3
Para ello, trabajamos directamente sobre la matriz ampliada asociada al
sistema, teniendo presente en todo momento qué es lo que representan los
coecientes de dicha matriz:
1 −4 1 2
−1 3 −1 1 F2 = F2 + F1 →
F3 = F3 − F1
1 0 2 3
26. 26 Álgebra
1 −4 1 2 F2 = (−1)F2
0 −1 0 3 F1 = F1 + 4F2 →
0 4 1 1 F3 = F3 − 4F2
1 0 1 −10 1 0 0 −23
0 1 0 −3 F1 = F1 − F3 → 0 1 0 −3 .
0 0 1 13 0 0 1 13
La última matriz ampliada representa el sistema en forma escalonada
reducida. El sistema es, por tanto, compatible determinado y su solución es
(−23, −3, 13).
Ejercicio 1.1.7 Resolver los siguientes sistemas de ecuaciones lineales por
el método de Gauss-Jordan:
x1 − x2 − x3 + x4 = 5
x2 − x3 + 2x4 = 8
2x1 − x2 − 3x3 + 4x4 = 18
x1 + 5x2 − 2x3 = 0
x1 − 3x2 + x3 = 0
x1 + 5x2 − x3 = 0
1.2 Matrices y operaciones con matrices
Al realizar una primera lectura de los epígrafes siguientes, hasta completar la
totalidad del capítulo, se puede pensar que K = R ó C aunque los resultados
obtenidos serán válidos para cualquier cuerpo K.
Como hemos visto en la sección anterior, las matrices permiten represen-
tar sistemas de ecuaciones lineales. Veamos una denición precisa de lo que
es una matriz:
Denición 1.2.1 Una matriz de orden m × n con coecientes en un cuerpo
K (por ejemplo K = R ó C) es una función:
A : {1, ..., m} × {1, ..., n} −→ K
(i, j) ; A(i, j)
Se dice entonces que A es una matriz con m las y n columnas. Es
usual representar el coeciente A(i, j) de la matriz A por su correspondiente
27. Álgebra 27
minúscula con dos subíndices, en este caso aij , y a la matriz completa A por
una tabla en la que en la la `“i” y en la columna “j” aparece el elemento
aij :
a11 ··· a1n
A= . . .
. .
. aij .
am1 ··· anm
Así por ejemplo, la matriz A de dos las y dos columnas determinada por
A(1, 1) = 0, A(1, 2) = 1, A(2, 1) = −1, A(2, 2) = 4
0 1
se representará por .
−1 4
Al conjunto de matrices de m las y n columnas con coecientes en K lo
denotaremos por Mm×n (K).
Es obvio que de la denición anterior se sigue que dos matrices A, B son
iguales si son iguales como funciones, es decir, si son del mismo orden (i.e.,
si tienen el mismo número de las y de columnas, o lo que es lo mismo A, B ∈
Mm×n (K) para algún m y n) y ∀(i, j) ∈ {1, ..., m}×{1, ..., n} A(i, j) = B(i, j).
Ejemplo 1.2.2 Veamos algunos ejemplos de matrices denidas con notación
funcional:
1. A ∈ M3×3 (K) denida por (A(i, i) = 1, ∀i = 1, 2, 3) ∧ (A(i, j) =
0, ∀i, j ∈ {1, 2, 3}, i = j) es la matriz:
1 0 0
0 1 0
0 0 1
2. Podemos utilizar también congruencias módulo un número entero so-
bre i y j para denir la matriz; por ejemplo B ∈ M3×3 (R) dada por
(A(i, j) = 1 ⇔ i + j ≡ 1 mod 2) ∧ (A(i, j) = 0 ⇔ i + j ≡ 0 mod 2)
se representa por
0 1 0
1 0 1
0 1 0
28. 28 Álgebra
3. Otro ejemplo es la matriz C ∈ M3×3 (R) dada por (A(i, j) = 2i−1 3j−1 ),
que es
1 3 9
2 6 18
4 12 36
Recordemos ahora algunas deniciones y veamos otras nuevas:
• Si A ∈ Mm×n (K) se dice que A es una matriz de orden m×n. Si m = n,
en lugar de escribir Mn×n (K), escribiremos Mn (K), y si A ∈ Mn (K)
diremos que A es una matriz cuadrada de orden n.
• Si A ∈ Mm×n (K), utilizaremos indistintamente la notación usual aij o
la funcional A(i, j) para referirnos al elemento de la matriz A situado
en la la i − esima y en la columna j − esima. Por ello escribiremos en
´ ´
ocasiones A = (aij ) ∈ Mm×n (K) para referirnos a una matriz genérica
de orden m × n. (Obsérvese que a es la minúscula de A).
• Si A ∈ Mm×1 (K) se dice que A es una matriz columna (de m las).
• Si A ∈ M1×n (K) se dice que A es una matriz la (de n columnas).
• Si A ∈ Mm×n (K), ∀i ∈ {1, ..., m} llamaremos la i-ésima de A a la
matriz la de n columnas
Ai = (ai1 ... ain ).
Análogamente, llamaremos columna j-ésima de A a la matriz columna
de m las
a1j
.
Aj = . .
.
amj
• Una matriz de particular interés es la matriz identidad a la que
denotaremos por In (hay una para cada valor natural de n). Así por
ejemplo,
1 0 0 0
1 0 0
1 0 0 1 0 e I4 = 0 1 0 0 .
I2 = , I3 = 0 0 1 0
0 1
0 0 1
0 0 0 1
29. Álgebra 29
En general la matriz In = (aij ) ∈ Mn (K) se dene por la condición
∀i, j ∈ {1, ...n}, aii = 1 ∧ (i = j ⇒ aij = 0). Utilizando la notación
funcional, In ∈ Mn (K) quedaría determinada por las condiciones:
(∀i ∈ {1, ..., n} In (i, i) = 1) ∧ (∀i, j ∈ {1, ..., n} (i = j ⇒ In (i, j) = 0)).
• Si A ∈ Mm×n (K) se denomina matriz traspuesta de A a la matriz
t
A ∈ Mn×m (K) tal que ∀(i, j) ∈ {1, ..., n} × {1, ..., m}
t
A(i, j) = A(j, i)
(empleando la notación no funcional, si t A = (bij ), entonces
∀(i, j) ∈ {1, ..., n} × {1, ..., m} bij = aji ).
Así por ejemplo, si
1 2
A = 2 0 ∈ M3×2 (R),
3 −1
su traspuesta es
t 1 2 3
A= ∈ M2×3 (R).
2 0 −1
Un método sistemático para obtener la matriz traspuesta de una matriz
dada consiste en ir leyendo los coecientes por las para sistemática-
mente escribirlos por columnas.
1.2.1 Suma de matrices
La denición de suma de matrices es muy natural:
Denición 1.2.3 Si A, B ∈ Mm×n (K), la suma de A y B es la matriz
A + B ∈ Mm×n (K) denida por las condiciones
∀(i, j) ∈ {1, ..., m} × {1, ..., n} (A + B)(i, j) = A(i, j) + B(i, j)
1 −1 1 3 2 2
Ejemplo 1.2.4 3 0 + 2 0 = 5 0
1 2 0 −2 1 0
30. 30 Álgebra
Observación 6 De la denición anterior se sigue que para que dos matrices
se puedan sumar deben ser del mismo orden.
Se denomina matriz nula de orden m × n a la matriz (0) ∈ Mm×n (K)
denida por las condiciones
∀(i, j) ∈ {1, ..., m} × {1, ..., n} (0)(i, j) = 0
Así por ejemplo,
0 0 0
(0) ∈ M2×3 (C) es la matriz .
0 0 0
Observación 7 En lo sucesivo también escribiremos (0) ∈ Mm×n (K) para
representar a la matriz nula de orden m × n.
Denición 1.2.5 Si A ∈ Mm×n (K) se denomina matriz opuesta de A a la
matriz (−A) ∈ Mm×n (K) denida por las condiciones
∀(i, j) ∈ {1, ..., m} × {1, ..., n} (−A)(i, j) = −A(i, j) ∈ K
Así por ejemplo,
1 −1 −1 1
− 3 0 = −3 0
1 2 −1 −2
y
2 −1 0 −2 1 0
− = .
1 1 3 −1 −1 −3
Proposición 1.2.6 Si A, B, C ∈ Mm×n (K), se verica que:
1. A + B = B + A (propiedad conmutativa de la suma de matrices)
2. A + (B + C) = (A + B) + C (propiedad asociativa)
3. A + (0) = A, (0) + A = A ((0) es el elemento neutro para +)
4. A + (−A) = (0), (−A) + A = (0) ((−A) es la opuesta de A)
31. Álgebra 31
Demostración Se trata de comprobar, en cada caso, que las matrices si-
tuadas a ambos lados de la igualdad son efectivamente iguales. Demostrare-
mos la primera propiedad y el resto se propone como ejercicio.
Hay que comprobar que
∀(i, j) ∈ {1, ..., m} × {1, ..., n} (A + B)(i, j) = (B + A)(i, j)
Sea (i, j) ∈ {1, ..., m} × {1, ..., n}. (A + B)(i, j)= (por denición)=
=A(i, j) + B(i, j)=(puesto que la suma de números reales o complejos y,
en general, de los elementos de un cuerpo, satisface la propiedad conmutati-
va) =B(i, j) + A(i, j)= (por denición) =(B + A)(i, j). 2
Por satisfacer las 4 propiedades de la proposición anterior se dice que las
matrices de orden m × n con coecientes en K tienen estructura de grupo
abeliano respecto de la suma. De la matriz (0) se dice que es el elemento
neutro del grupo abeliano, y de la matriz (−A) se dice que es la matriz
opuesta de A.
1.2.2 Producto de matrices
En capítulos venideros veremos que la siguiente denición del producto de
matrices permitirá representar la actuación de una función lineal sobre un
elemento como un producto de matrices, hecho que a su vez tendrá como
consecuencia el que la composición de funciones lineales se exprese como un
producto de matrices.
Si consideramos una ecuación lineal, por ejemplo
2x1 + x2 + 6x3 = 3,
es posible considerar la parte izquierda de la igualdad como el producto de
la matriz de coecientes
(2 1 6)
por la matriz de incógnitas
x1
x2
x3
y escribir
x1
(2 1 6) · x2 = (3)
x3
32. 32 Álgebra
Si la ecuación anterior forma parte de un sistema, por ejemplo del sistema
2x1 + x2 + 6x3 = 3
5x1 + 4x2 + 6x3 = 24
x1 + 3x2 − 2x3 = 4
teniendo en cuenta que de la denición de matriz se sigue que dos matrices
son iguales si tienen el mismo número de las y de columnas y los mismos
coecientes en cada la y columna, resulta que, utilizando la denición de
producto de matrices anterior, podemos representar el sistema de ecuaciones
mediante un producto de matrices, esto es:
2 1 6 x1 3
5 4 6 · x2 = 24 .
1 3 −2 x3 4
En general, el sistema de ecuaciones
a11 x1 + ... + a1n xn = b1
.
.
.
a x + ... + a x = b
m1 1 mn n m
puede representarse mediante el producto denido por la expresión:
x1 b1
. .
A · . = . .
. .
xn bm
Claro está que podemos considerar sistemas de ecuaciones con la misma
matriz de coecientes y distinto término independiente. Por ejemplo:
2x1 + x2 + 6x3 = 3 2x1 + x2 + 6x3 = 1
5x1 + 4x2 + 6x3 = 24 y 5x1 + 4x2 + 6x3 = 1 .
x1 + 3x2 − 2x3 = 4 x1 + 3x2 − 2x3 = 1
En ese caso, teniendo en cuenta, por una parte, que las soluciones de uno
no tienen porqué coincidir con las del otro, por lo que denotamos por y1 , y2
e y3 a las incógnitas del segundo sistema, y por otra, cuando dos matri-
ces son iguales, podemos representarlos matricialmente de forma simultánea,
mediante la expresión:
2 1 6 x1 y 1 3 1
5 4 6 · x2 y2 = 24 1 .
1 3 −2 x3 y 3 4 1
33. Álgebra 33
Esto nos lleva a la denición de producto de dos matrices. Como observa-
ción previa a la denición, nótese que en los ejemplos anteriores, para poder
multiplicar la matriz de coecientes por la de incógnitas, era preciso que
el número de las de la matriz de coecientes coincidiese con el número de
columnas de la matriz de incógnitas.
Denición 1.2.7 Dadas las matrices A ∈ Mm×n (K) y B ∈ Mn×p (K) se
denomina matriz producto de A y B , y se denota por A · B a la matriz
A · B ∈ Mm×p (K) tal que
n
∀(i, j) ∈ {1, ..., m} × {1, ..., p} A · B(i, j) = A(i, k) · B(k, j)
k=1
1 2 0
1 2 1 −1
−1
Ejemplo 1.2.8 Dadas las matrices 1 1 ∈ M4×3 (R) y 3 0 ∈
0
1 2
0 4 3
M3×2 (R), su producto es la matriz
1 2 0 7 −1
1 2 −1 1 −1
· 3 0 = 6 −3
∈ M4×2 (R)
1 1 0 4 −1
1 2
0 4 3 15 6
1.2.3 Propiedades del producto de matrices
El producto de matrices no es conmutativo, pues por ejemplo
1 1 1 −1 2 −2
· =
1 1 1 −1 2 −2
y sin embargo
1 −1 1 1 0 0
· = .
1 −1 1 1 0 0
Proposición 1.2.9 El producto de matrices satisface las siguientes propie-
dades:
34. 34 Álgebra
1. Es asociativo: ∀A ∈ Mm×n (K), B ∈ Mn×p (K) y C ∈ Mp×q (K),
(A · B) · C = A · (B · C)
(y por tanto podemos omitir los paréntesis para denotar cualquiera de
estos productos y escribir A · B · C ).
2. Es distributivo respecto de la suma:
∀A ∈ Mm×n (K), ∀B, C ∈ Mn×p (K) A · (B + C) = A · B + A · C
∀A ∈ Mm×n (K), ∀B, C ∈ Mp×n (K) (B + C) · A = B · A + C · A
3.
∀A ∈ Mm×n (K), A · (0) = A y (0) · A = (0)
Demostración Antes de dar la demostración debemos señalar que es usual
n
emplear el símbolo sumatorio ai en lugar de la expresión a1 + ... + an , lo
i=1
que tiene sentido puesto que la suma considerada es asociativa.
1. Sean A ∈ Mm×n (K) ,B ∈ Mn×p (K) y C ∈ Mp×q (K). Las dos matrices
A·(B ·C) y (A·B)·C tienen el mismo orden, ya que ambas pertenecen a
Mm×q (K). Veamos que ∀(i, j) ∈ {1, ..., m}×{1, ..., q} (A·(B ·C))(i, j) =
((A · B) · C)(i, j) :
35. Álgebra 35
n
(A · (B · C))(i, j) = A(i, k) · (B · C) (k, j) =
k=1
n p
= A(i, k) · B(k, s) · C(s, j) =
k=1 s=1
n p
(prop. distributiva en K) = A(i, k) · (B(k, s) · C(s, j)) =
k=1 s=1
n p
(prop. asociativa en K) = (A(i, k) · B(k, s)) · C(s, j) =
k=1 s=1
p n
(prop. distributiva en K) = A(i, k) · B(k, s) · C(s, j) =
s=1 k=1
p
= (A · B) (i, s) · C(s, j) =
s=1
= ((A · B) · C)(i, j)
2. Se demuestra razonando de forma similar al apartado anterior.
3. Ejercicio. 2
Observación 8 Demostraciones como la anterior se incluyen para que
puedan ser consultadas por los alumnos interesados. En cualquier caso, es
conveniente conocer algunos hechos relativos a la notación, y a los resultados
derivados del uso de la misma. Por ejemplo, en la proposición anterior hemos
utilizado la igualdad
n p p n
A(i, k) · B(k, s) · C(s, j) = A(i, k) · B(k, s) · C(s, j)
k=1 s=1 s=1 k=1
que intuitivamente es evidente, puesto que tanto el producto de números
reales como el de números complejos es conmutativo y distributivo respecto
de la suma. La demostración de que esta igualdad es válida es consecuencia
de las siguientes propiedades relacionadas con el símbolo sumatorio, cuya
demostración también se puede hacer por inducción:
36. 36 Álgebra
• Si {ai }i∈{1,...,n} y {bj }j∈{1,...,p} son dos familias de números reales o com-
plejos, se verica que ∀n ∈ N, ∀p ∈ N,
n p n p
ai · bj = ai · bj
i=1 j=1 i=1 j=1
Es decir, que
n
(ai b1 + · · · + ai bp ) =
i=1
= (a1 b1 + · · · + a1 bp ) + · · · + (an b1 + · · · + an bp ) =
= a1 (b1 + · · · + bp ) + · · · + an (b1 + · · · + bp ) .
Para demostrar la identidad anterior, razonamos por inducción sobre
“n”.
Base de inducción: hay que probar que si n = 1,
1 p 1 p
∀p ∈ N ai · bj = ai · bj
i=1 j=1 i=1 j=1
o lo que es lo mismo, que
p p
∀p ∈ N a 1 · bj = a1 · bj .
j=1 j=1
Esta propiedad se demuestra razonando por inducción sobre “p” : si
p 1
p = 1 es obvio que a1 · bj = a1 · b1 = a1 · bj . Suponiendo
j=1 j=1
p p
entonces cierto que a1 · bj = a1 · bj , resulta que
j=1 j=1
p+1 p
a1 · bj = a 1 · bj + a1 · bp+1 =
j=1 j=1
= (por hip´tesis de inducci´n) =
o o
p
= a1 · bj + a1 · bp+1 =
j=1
p+1
= a1 · bj .
j=1
37. Álgebra 37
La demostración del paso de inducción sobre “n” se propone como
ejercicio para todo aquel alumno interesado en hacerla.
• Si {aik }(i,k)∈{1,...,n}×{1,...,p} es una familia de números reales o complejos,
n p p n
se verica que aik = aik o, lo que es lo mismo,
i=1 k=1 k=1 i=1
(a11 + · · · + a1p ) + · · · + (an1 + · · · + anp ) =
(a11 + · · · + a1n ) + · · · + (a1p + · · · + anp ) .
La demostración es similar a la del punto anterior.
Ejercicio 1.2.1 Demostrar que la trasposición de matrices satisface las si-
guientes propiedades:
1. ∀A ∈ Mm×n (K) t t
( A) = A
2. ∀A, B ∈ Mm×n (K) t
(A + B) =t A +t B
3. ∀A ∈ Mm×n (K), ∀B ∈ Mn×p (K), t
(A · B) =t B ·t A
Ejercicio 1.2.2 Demostrar que ∀A ∈ Mm×n (K) y ∀B ∈ Mn×m (K)
A · In = A ∧ In · B = B
(es decir, In deja invariante por el producto a cualquier matriz por la que se
pueda multiplicar, sea o no cuadrada).
1.2.4 El producto de una matriz por un escalar
Denición 1.2.10 Si α ∈ K y A ∈ Mm×n (K) se dene la matriz αA por las
siguientes condiciones
∀(i, j) ∈ {1, ..., m} × {1, ..., n} (αA)(i, j) = αA(i, j)
1 2 −3 −6
Ejemplo 1.2.11 (−3) 2 0 = −6 0
3 −1 −9 3
38. 38 Álgebra
Ejemplo 1.2.12 Siendo α ∈ K
α 0 0 ··· 0
0 α 0 ··· 0
0 0 α ··· 0
(αIn ) = ∈ Mn (K)
. . . ..
. . . .
. . . . .
.
0 0 0 ··· α
Proposición 1.2.13 ∀α, β ∈ K ∀A ∈ Mm×n (K) se verica que
1.∀B ∈ Mn×p (K) A · (αB) = (αA) · B = α(A · B)
2.∀B ∈ Mm×n (K) α(A + B) = αA + αB
3. (−α)(A) = (α)(−A) = −(αA)
4. (α + β)A = αA + βA
5. (αβ)A = α(βA)
Demostración Ejercicio. 2
Teorema 1.2.14 Todo sistema de ecuaciones lineales con coecientes reales
o complejos o bien no tiene soluciones, o bien tiene exactamente una solución
o bien tiene una innidad de soluciones.
Demostración Necesitamos comprobar que si un sistema tiene más que
una solución, entonces tiene innitas soluciones. Sea AX = B el sistema
dado y s1 , s2 dos soluciones distintas (s1 = s2 ). Entonces,
As1 = B = As2 y As1 − As2 = A(s1 − s2 ) = (0).
Se sigue que s1 − s2 es solución del sistema homogéneo AX = 0 y que para
todo λ ∈ K, s3 ≡ s1 + λ(s1 − s2 ) es solución de AX = B :
As3 = A(s1 + λ(s1 − s2 )) = As1 + A(λ(s1 − s2 )) =
= As1 + λA(s1 − s2 ) = As1 = B.
Hemos hallado tantas soluciones como elementos en K. Como K es, por hi-
pótesis, R o C (que son innitos), obtenemos innitas soluciones. 2
39. Álgebra 39
1.2.5 El anillo de matrices cuadradas Mn (K)
Según hemos visto, el conjunto Mm×n (K) de las matrices de m las y n
columnas sobre un cuerpo K tiene estructura de grupo abeliano respecto de
la suma habitual de matrices.
En este apartado vamos a estudiar la estructura algebraica que tiene el
conjunto de las matrices cuadradas, Mn×n (K), respecto de las operaciones
de suma y producto, ya que el producto de matrices es una operación en
Mn×n (K) (el producto de dos matrices cuadradas de dimensión n es una
matriz cuadrada de dimensión n).
Propiedades del producto en Mn (K)
Proposición 1.2.15 Si A, B, C ∈ Mn (K), se verica que:
1. A · (B · C) = (A · B) · C (propiedad asociativa del producto de matrices)
2. A · (B + C) = A · B + A · C (propiedad distributiva de + respecto de ·)
3. A · In = A, In · A = A (la matriz In es elemento neutro para ·).
Demostración La demostración de las propiedades 1 y 2 se ha hecho en un
caso más general. La demostración de la propiedad 3 se deja como ejercicio
(se trata de ver que las matrices A · In y A son iguales y lo mismo con la otra
igualdad). 2
Observación 9 Por tener Mn (K) estructura de grupo conmutativo respecto
de la suma de matrices y satisfacer las propiedades de la proposición ante-
rior se dice que el conjunto de matrices cuadradas de orden n, Mn (K), tiene
estructura de anillo unitario respecto de la suma y producto de matrices ha-
bituales y elemento unidad la matriz In .
La operación de producto en Mn (K) permite denir potencias enteras no
negativas de una matriz cuadrada:
Denición 1.2.16 Si A es una matriz cuadrada, A ∈ Mn (K), se dene
∀m ∈ N
Am = (Am−1 ) · A
donde, por convenio de notación, se asume que A0 = In .
40. 40 Álgebra
Observación 10 No es difícil comprobar que ∀m, r ∈ N ∀A ∈ Mn (K) se
satisfacen las siguientes propiedades:
1. Am+r = Am · Ar
2. (Am )r = Amr
Observación 11 Nótese que como consecuencia de la no conmutatividad del
producto de matrices, si A, B ∈ Mn (K) en general tendremos que
(A + B)2 = A2 + B 2 + A · B + B · A = A2 + B 2 + 2A · B
Sin embargo, si A y B conmutan para el producto, es decir, si A·B = B·A,
entonces es obvio que (A + B)2 = A2 + B 2 + 2A · B y, en general, asumiendo
por convenio de notación que A0 = B 0 = In , se verica que ∀m ∈ N
m m m
(A + B)m = Am · B 0 + Am−1 · B + ... + A0 · B m .
0 1 m
Teniendo ahora en cuenta que, siendo α ∈ K
α 0 0 ··· 0
0 α 0 ··· 0
α · · · 0 ∈ Mn (K)
(αIn ) = 0 0
. . . .. .
. .
. . .
. . .
.
0 0 0 ··· α
y que toda matriz conmuta con la identidad, podemos obtener la siguiente
fórmula, válida ∀A ∈ Mn (K), ∀m ∈ N :
m m m
(A + αIn )m = Am + (αIn ) Am−1 + ... + (αIn )m
0 1 m
1.2.6 Matrices invertibles
Denición 1.2.17 Se dice que A ∈ Mn (K) es invertible si ∃B ∈ Mn (K) tal
que
A · B = In ∧ B · A = In .
Obviamente, si B y B satisfacen las condiciones de la denición anterior,
es decir, si
A · B = In ∧ B · A = In
41. Álgebra 41
y
A · B = In ∧ B · A = In
resulta que
B = B · In = B · (A · B ) = (B · A) · B = In · B = B
por lo que dada A ∈ Mn (K) a lo sumo hay una matriz B que satisface las
condiciones de la denición anterior.
Denición 1.2.18 Si A ∈ Mn (K) es invertible, y
A · B = In ∧ B · A = In .
se dice que B es la matriz inversa de A y a dicha matriz la denotaremos
por A−1 .
Observación 12 En la denición de matriz invertible, imponemos que el
producto de A por un cierta matriz B , por ambos lados, sea el elemento neu-
tro. Hemos de hacerlo así porque el producto de matrices no es conmutativo.
Sin embargo, veremos en el teorema 1.2.22 que es suciente comprobarlo por
uno sólo de los dos lados.
2 1/2
Ejemplo 1.2.19 La matriz inversa de la matriz A = es la ma-
2 1
1 −1/2
triz A−1 = .
−2 2
Proposición 1.2.20 Sean A, B, A1 , · · · , Ap ∈ Mn (K). Se verica que :
1. si A, B ∈ Mn (K) son invertibles, entonces A · B es invertible y
(A · B)−1 = B −1 · A−1 ,
2. si A1 , · · · , Ap son invertibles, entonces el producto A1 · A2 · · · · Ap es
invertible y (A1 · A2 · · · · Ap )−1 = Ap −1 · · · A2 −1 A1 −1 ,
3. si A ∈ Mn (K) es invertible, entonces (−A) ∈ Mn (K) es invertible y
(−A)−1 = −(A−1 ),
42. 42 Álgebra
4. si A ∈ Mn (K) es invertible, entonces
t
(A) ∈ Mn (K)
−1
es invertible y t
(A−1 ) = (t A) .
Corolario 1.2.21 Si A ∈ Mn (K) es una matriz invertible, se verica que
−1
1. A−1 es invertible y (A−1 ) = A
2. ∀m ∈ N Am es invertible y (Am )−1 = (A−1 )m
3. ∀α ∈ K, α = 0 se verica que αA es invertible, y (αA)−1 = α−1 A−1
El siguiente teorema arma que si una matriz cuadrada tiene una matriz
inversa a la derecha o a la izquierda, entonces es invertible:
Teorema 1.2.22 Si A, B ∈ Mn (K) se verica que:
1. A · B = In ⇒ B = A−1 .
2. B · A = In ⇒ B = A−1 .
Demostración Probemos 2: suponemos que B · A = In , y debemos probar
que A · B = In .
Si B · A = In , todo sistema que tenga como matriz asociada A tiene una
única solución: dado un sistema A · X = C , donde C es una matriz columna,
multiplicando a ambos lados de la igualdad por B se obtiene:
B · (A · X) = B · C
Por la asociatividad del producto de matrices
(B · A) · X = B · C
Y usando nuestra hipótesis inicial
X = In · X = B · C
Es decir, que si X verica la ecuación A · X = C , necesariamente X = B · C .
j
En concreto, denotando con In la columna j -ésima de In , el sistema A ·
X = In tiene una única solución B · In , que es la columna j -esima de B ,
j j
que denotamos B j , para cada j ∈ {1, . . . , n}. Es decir, hemos obtenido que
A·B j = In para cada j ∈ {1, . . . , n}. Entonces también A·B = In y podemos
j
escribir B = A−1 .
Para probar 1 suponemos que A · B = In . Aplicamos 2 a la matriz B y
obtenemos que B · A = In . 2
43. Álgebra 43
1.2.7 Matrices elementales y un método para hallar A−1
Denición 1.2.23 Se dice que una matriz A ∈ Mn (K) es una matriz ele-
mental si es el resultado de realizar una única transformación elemental por
las sobre la matriz In .
1 0
Ejemplo 1.2.24 es una matriz elemental, pues
0 −2
1 0 F2 = (−2)F2 1 0
0 1 −→ 0 −2
1 0 0 0
0 0 0 1 1 0 5
Igualmente 0 0 1 0 y
0 1 0 son matrices elementales, pues
0 0 1
0 1 0 0
1 0 0 0 1 0 0 0
0 1 0 0 F2 ↔ F4 0 0 0 1
0 0 1 0 −→ 0 0 1 0
0 0 0 1 0 1 0 0
1 0 0 1 0 5
0 1 0 F1 = F1 + 5F3 0 1 0 .
−→
0 0 1 0 0 1
Es obvio que si A es una matriz elemental de orden n, la matriz In se puede
obtener realizando una única transformación elemental sobre la matriz A (la
transformación elemental inversa).
El siguiente resultado quedará sucientemente vericado tras la realización
de la práctica 2 en el aula informática:
Teorema 1.2.25 Si E es la matriz elemental de orden m que se obtiene al
realizar la transformación elemental t sobre las las de Im , y A ∈ Mm×n (K),
entonces la matriz resultante de realizar la transformación t sobre las las
de A es la matriz producto E · A.
Ejercicio 1.2.3 Vericar el resultado anterior realizando la transformación
elemental F3 = F3 + 3F1 sobre la matriz
−1 4 6
0 2 1 .
0 0 1
44. 44 Álgebra
Teniendo ahora en cuenta que, según hemos visto, cualquier transforma-
ción elemental es reversible, y que la inversa de una transformación elemental
es una transformación elemental, según el cuadro que ya establecimos en su
momento
TRANSFORMACIÓN TRANSFORMACIÓN INVERSA
Fi = Fi + λFj Fi = Fi − λFj
1
Fi = λFi (λ = 0) Fi = Fi
λ
Fi ↔ Fj Fi ↔ Fj
resulta que, si denotamos por Pi (λ) a la matriz elemental asociada a la trans-
formación Fi = λFi (λ = 0), por Sij (λ) a la matriz elemental asociada a la
transformación Fi = Fi + λFj y por Eij a la matriz elemental asociada a la
transformación Fi ↔ Fj , tenemos el siguiente corolario del teorema anterior:
Corolario 1.2.26 Toda matriz elemental es invertible, y su inversa también
es una matriz elemental. Concretamente,
(Sij (λ))−1 = Sij (−λ)
1
(Pi (λ))−1 = Pi ( )
λ
−1
(Eij ) = Eji
Ejercicio 1.2.4 Verifíquese el resultado recogido en el corolario anterior,
multiplicando las matrices
1 0
P2 (−5) =
0 −5
1 0 4
S13 (4) = 0 1 0
0 0 1
y
1 0 0 0
0 0 0 1
E24 =
0
0 1 0
0 1 0 0
por sus correspondientes inversas y observando que en cada caso el resultado
es la matriz identidad del orden correspondiente.
45. Álgebra 45
Teorema 1.2.27 Si A ∈ Mn (K) las siguientes proposiciones son equivalen-
tes:
1. A es invertible
2. La ecuación A · X = (0) sólo tiene la solución trivial
3. A es equivalente por las a la matriz In , es decir,
su forma escalonada reducida es la matriz identidad In
4. El sistema A · X = b es compatible determinado para toda matriz
columna b ∈ Mn×1 (K) y su única solución es X = A−1 · B.
Ejemplo 1.2.28 Si A ∈ Mn (K) y b ∈ Mn×1 (K), entonces el sistema A ·
X = b es compatible determinado para toda matriz columna si y solo si
A es invertible. Si A no es invertible o si A no es una matriz cuadrada,
podemos todavía determinar condiciones sobre la matriz b tales que el sistema
A·X = b sea consistente. Por ejemplo, aplicando el método de Gauss-Jordan
a lamatriz ampliada del sistema se obtiene que
x1 + x2 + 2x3 = b1
x1 + x3 = b2
2x1 + x2 + 3x3 = b3
1 1 2 b1 F2 = F2 − F1 1 1 2 b1
1 0 1 b2 F3 = F3 − F1 0 −1 −1 b2 − b1
2 1 3 b3 → 2 1 3 b3 − 2b1
F1 = F1 + F2
1 0 1 b2
F3 = F3 − F2
0 1 1 −b2 + b1 .
F2 = −F2
0 0 0 b3 − b2 − b1
→
Si b3 − b2 − b1 = 0 el sistema no es compatible y si b3 − b2 − b1 = 0 el
x1 = −x3 + b2
sistema es equivalente al sistema , que tiene innitas
x2 = −x3 − b2 + b1
soluciones de la forma {(−t + b2 , −t − b2 + b1 , t) : t ∈ R} .
Método para determinar la matriz inversa
El teorema anterior permite establecer un método para determinar la inversa
de una matriz invertible. Pues si A es invertible, A es equivalente por las a
la matriz In y existen m matrices elementales E1 , E2 , · · · , Em tales que
Em · Em−1 · ... · E1 · A = In .
Se sigue que, por el teorema 1.2.22,
46. 46 Álgebra
Em · Em−1 · · · · · E1 = A−1 .
es decir, recogiendo las dos igualdades anteriores,
In = Em · Em−1 · ... · E1 · A
−1
A = Em · Em−1 · ... · E1 · In
En otras palabras, la sucesión de transformaciones elementales que transfor-
ma la matriz A en la matriz In , también transforma la matriz In en la matriz
A−1 , con lo que, siendo t1 , ..., tm las transformaciones elementales por las
que permiten obtener In a partir de A, el esquema
A In → t1 , ..., tm → In A−1
nos da un método para la obtención de la inversa de una matriz invertible A
por transformaciones elementales .
−1 −1 0
Ejemplo 1.2.29 Para calcular la inversa de la matriz 2 1 0 pro-
2 1 1
cederíamos del siguiente modo
−1 −1 0 1 0 0
F2 = F2 + 2F1
2 1 0 0 1 0 → →
F3 = F3 + 2F1
2 1 1 0 0 1
F1 = F1 − F2
−1 −1 0 1 0 0
F = F3 − F2
0 −1 0 2 1 0 → 3 →
F1 = (−1)F1
0 −1 1 2 0 1
F2 = (−1)F2
1 0 0 1 1 0
0 1 0 −2 −1 0
0 0 1 0 −1 1
−1
−1 −1 0 1 1 0
obteniendo, por tanto que 2 1 0 = −2 −1 0 .
2 1 1 0 −1 1