SlideShare una empresa de Scribd logo
1 de 353
Descargar para leer sin conexión
Álgebra


R.Criado y A.Gallinari

        2003
2                                                                     Álgebra

    Introducción
    En sus orígenes, el álgebra clásica era el arte de resolver ecuaciones (la
palabra álgebra proviene de un vocablo árabe que signica reducción). El
álgebra moderna está caracterizada por el estudio de ciertas estructuras abs-
tractas que tienen en común una gran variedad de objetos matemáticos. El
calicativo abstracto se reere al resultado de realizar el proceso de abstrac-
ción sobre las propiedades observables de ciertos objetos matemáticos, es
decir, el proceso consistente en separar la forma del contenido.
    La estructura principal objeto de estudio en esta publicación es la de
espacio vectorial. Las aplicaciones de esta estructura incluyen virtualmen-
te todas las áreas de la ciencia. Se incluye una aplicación de los espacios
vectoriales relacionada estrechamente con el mundo de la informática y las
telecomunicaciones, en concreto a la teoría de códigos y se estudian varias
técnicas y herramientas de interés para otras aplicaciones.
    Este volumen viene acompañado por un libro de Prácticas y Problemas
con el sistema Maple V, disponible en versión digital, que contiene una am-
pliación y completa la descripción de los conceptos teóricos. Las prácticas
permiten el desarrollo y la experimentación con los aspectos más numéri-
cos y están diseñada para potenciar el empleo de la notable capacidad de
visualización gráca que ofrece el programa Maple V.
    A cada tema teórico y práctico hemos añadido ejercicios resueltos y ejer-
cicios propuestos.
    Los principales objetivos didácticos que intentamos conseguir son que el
lector:
    • aprenda y utilize correctamente técnicas y métodos propios del álgebra
      lineal.
    • vea la descripción de algunas aplicaciones a la Informática.
    • comprenda y aplique algunos métodos numéricos de resolución de sis-
      temas de ecuaciones lineales y de aproximación de autovalores y auto-
      vectores.
    • aprenda a utilizar el programa Maple V (como ejemplo de sistema de
      computación simbólica) en sus aplicaciones al álgebra lineal.
    Algunos apartados de esta publicación (sobre todo en la parte de ejerci-
cios) son una adaptación del material contenido (unas veces sin modicarlo,
otras proponiendo variaciones de ello) en la bibliografía incluida.
Álgebra                                                                   3

   Agradecimientos
    Queremos agradecer al profesor Luis E. Solá Conde por su participación
en la corrección de estas notas y la elaboración de los enunciados de varios
ejercicios propuestos en este libro.
    Gracias también a los profesores Alejandro J. García del Amo Jiménez
y Begoña Jiménez Martín por la elaboración de los enunciados de varios
ejercicios propuestos y a los alumnos que han señalado erratas y errores en
versiones previas de esta publicación.
4   Álgebra
Índice General

1 Sistemas de ecuaciones lineales, matrices y estructuras alge-
  braicas                                                       9
  1.1   Sistemas de ecuaciones lineales, matrices y eliminación gaussiana      10
        1.1.1 Introducción a los sistemas de ecuaciones lineales . . .         10
        1.1.2 Sistemas homogéneos . . . . . . . . . . . . . . . . . . .        13
        1.1.3 Transformaciones elementales por las.
                Introducción al método de Gauss-Jordan . . . . . . . .         14
        1.1.4 Sistemas equivalentes . . . . . . . . . . . . . . . . . . .      18
        1.1.5 Estrategia para la aplicación del método
                de eliminación gaussiana . . . . . . . . . . . . . . . . .     22
        1.1.6 Método de Gauss-Jordan . . . . . . . . . . . . . . . . .         24
  1.2   Matrices y operaciones con matrices . . . . . . . . . . . . . . .      26
        1.2.1 Suma de matrices . . . . . . . . . . . . . . . . . . . . .       29
        1.2.2 Producto de matrices . . . . . . . . . . . . . . . . . . .       31
        1.2.3 Propiedades del producto de matrices . . . . . . . . . .         33
        1.2.4 El producto de una matriz por un escalar . . . . . . . .         37
        1.2.5 El anillo de matrices cuadradas Mn (K) . . . . . . . . .         39
        1.2.6 Matrices invertibles . . . . . . . . . . . . . . . . . . . .     40
        1.2.7 Matrices elementales y un método para hallar A−1 . . .           43
  1.3   Estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . .    47
        1.3.1 El concepto de operación . . . . . . . . . . . . . . . . .       47
        1.3.2 Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . .     50
        1.3.3 Anillos y cuerpos . . . . . . . . . . . . . . . . . . . . .      52
        1.3.4 Introducción a los Tipos Abstractos de Datos . . . . .           57
  1.4   Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . .   60
        1.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . .     60
        1.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . .      64

                                      5
6                                                                        Álgebra

2 Espacios vectoriales                                                              71
    2.1  Vectores en el plano y en el espacio . . . . . . . . . . . . . . .         73
         2.1.1 Producto vectorial y producto mixto . . . . . . . . . .              81
         2.1.2 Rectas en le plano . . . . . . . . . . . . . . . . . . . .           83
         2.1.3 Planos en el espacio tridimensional . . . . . . . . . . .            85
         2.1.4 Rectas en el espacio tridimensional . . . . . . . . . . .            87
    2.2 Espacios vectoriales sobre un cuerpo K . . . . . . . . . . . . .            89
         2.2.1 Propiedades de vectores . . . . . . . . . . . . . . . . .            92
         2.2.2 Producto cartesiano de espacios vectoriales . . . . . . .            93
         2.2.3 Funciones con codominio en un espacio vectorial . . . .              96
    2.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . .        100
    2.4 Dependencia e independencia lineal . . . . . . . . . . . . . . .           104
    2.5 Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . .          112
         2.5.1 Sistemas generadores y bases . . . . . . . . . . . . . .            112
         2.5.2 Equipotencia de bases . . . . . . . . . . . . . . . . . .           116
    2.6 Subespacios vectoriales y dimensión . . . . . . . . . . . . . . .          120
    2.7 Rango de un sistema de vectores y de una matriz . . . . . . .              122
    2.8 El teorema de Rouché-Fröbenius . . . . . . . . . . . . . . . . .           123
    2.9 Método de Gauss y rango . . . . . . . . . . . . . . . . . . . .            130
         2.9.1 Transformaciones elementales por columnas y matrices
                 elementales . . . . . . . . . . . . . . . . . . . . . . . .       130
         2.9.2 Método de Gauss para calcular el rango de una matriz                132
         2.9.3 Algoritmo de extensión de una base . . . . . . . . . . .            138
         2.9.4 Rango y espacio la de una matriz . . . . . . . . . . .             139
    2.10 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . .      141
         2.10.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . .       141
         2.10.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . .        146

3 Funciones lineales                                                               153
    3.1   Funciones lineales . . . . . . . . . . . . . . . . . . . . . . . .   .   154
    3.2   Propiedades de funciones lineales . . . . . . . . . . . . . . .      .   158
    3.3   Núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . .    .   161
    3.4   Espacios vectoriales isomorfos . . . . . . . . . . . . . . . . .     .   165
    3.5   Funciones lineales en espacios vectoriales de dimensión nita        .   167
          3.5.1 Determinación de funciones lineales en espacios vecto-
                 riales de dimensión nita . . . . . . . . . . . . . . . .     . 167
          3.5.2 Dimensiones del núcleo y de la imagen . . . . . . . .          . 172
          3.5.3 Matriz asociada a una función lineal . . . . . . . . .         . 174
Álgebra                                                                                        7

          3.5.4   Algoritmo para hallar una base del núcleo y de la imagen178
          3.5.5   Matriz asociada a la composición de funciones lineales . 179
          3.5.6   Matrices semejantes y cambios de base . . . . . . . . . 183
          3.5.7   Ecuaciones paramétricas e implícitas de un subespacio
                  vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . 185
   3.6    Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
          3.6.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 190
          3.6.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 193

4 Espacios vectoriales euclídeos                                                             197
   4.1    Producto escalar . . . . . . . . . . . . . . . . . . .     .   .   .   .   .   .   197
   4.2    Longitud o norma euclídea de un vector . . . . . .         .   .   .   .   .   .   200
          4.2.1 Propiedades de la norma euclídea . . . . . .         .   .   .   .   .   .   200
   4.3    Método de ortogonalización de Gram-Schmidt . . .           .   .   .   .   .   .   204
          4.3.1 Descomposición QR de una matriz . . . . .            .   .   .   .   .   .   209
   4.4    Proyecciones ortogonales . . . . . . . . . . . . . . .     .   .   .   .   .   .   211
          4.4.1 Método para hallar una proyección ortogonal          .   .   .   .   .   .   214
          4.4.2 Aproximación óptima de un vector. . . . . .          .   .   .   .   .   .   215
   4.5    Ejercicios . . . . . . . . . . . . . . . . . . . . . . .   .   .   .   .   .   .   217
          4.5.1 Ejercicios resueltos . . . . . . . . . . . . . .     .   .   .   .   .   .   217
          4.5.2 Ejercicios propuestos . . . . . . . . . . . . .      .   .   .   .   .   .   217

5 Códigos lineales                                                                           219
   5.1    Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . .               219
   5.2    Distancia de Hamming, detección y corrección de errores . . .                      222
          5.2.1 Código de paridad: detección de errores simples . . . .                      223
          5.2.2 Código de repetición: corrección de errores simples . .                      224
   5.3    Códigos lineales . . . . . . . . . . . . . . . . . . . . . . . . . .               225
          5.3.1 Paso de una matriz de control a una matriz generadora                        228
          5.3.2 Paso de una matriz generadora a una matriz de control                        229
          5.3.3 Detección y corrección de errores . . . . . . . . . . . .                    232
   5.4    Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . .               235
          5.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . .                 235
          5.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . .                  236

6 Autovalores y autovectores                                                                 239
   6.1    Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
   6.2    Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . 241
8                                                                          Álgebra

    6.3   Funciones complejas de variable real . . . . . . . . . . . . .       .   243
          6.3.1 La exponencial compleja . . . . . . . . . . . . . . . .        .   244
    6.4   Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . .     .   246
          6.4.1 La ecuación de primer orden . . . . . . . . . . . . . .        .   246
          6.4.2 La ecuación de orden n . . . . . . . . . . . . . . . . .       .   249
          6.4.3 Sistemas de ecuaciones diferenciales . . . . . . . . . .       .   251
    6.5   La semejanza de matrices y los sistemas de ecuaciones . . . .        .   253
          6.5.1 Sistemas diagonales . . . . . . . . . . . . . . . . . . .      .   255
          6.5.2 Sistemas triangulares . . . . . . . . . . . . . . . . . .      .   256
    6.6   Diagonalización y triangulación de matrices . . . . . . . . .        .   259
          6.6.1 El polinomio característico de una matriz . . . . . . .        .   259
          6.6.2 Matrices diagonalizables . . . . . . . . . . . . . . . .       .   263
          6.6.3 Triangulación de matrices . . . . . . . . . . . . . . .        .   268
          6.6.4 Resolución de sistemas de ecuaciones diferenciales por
                  triangulación . . . . . . . . . . . . . . . . . . . . . .    .   271
    6.7   Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . .    .   279
          6.7.1 Relaciones de primer orden . . . . . . . . . . . . . . .       .   281
          6.7.2 Sistemas de relaciones de recurrencia . . . . . . . . .        .   286
    6.8   Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . .   .   290
          6.8.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . .     .   290
          6.8.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . .      .   291

7 Soluciones de los ejercicios                                                     293
    7.1   Soluciones de los ejercicios
          del capítulo 1 . . . . . . .   . . . . . . . . . . . . . . . . . . . . 293
    7.2   Soluciones de los ejercicios
          del capítulo 2 . . . . . . .   . . . . . . . . . . . . . . . . . . . . 307
    7.3   Soluciones de los ejercicios
          del capítulo 3 . . . . . . .   . . . . . . . . . . . . . . . . . . . . 321
    7.4   Soluciones de los ejercicios
          del capítulo 4 . . . . . . .   . . . . . . . . . . . . . . . . . . . . 331
    7.5   Soluciones de los ejercicios
          del capítulo 5 . . . . . . .   . . . . . . . . . . . . . . . . . . . . 332
    7.6   Soluciones de los ejercicios
          del capítulo 6 . . . . . . .   . . . . . . . . . . . . . . . . . . . . 335

A Nuevo método de triangulación por semejanza                                      343
Capítulo 1
Sistemas de ecuaciones lineales,
matrices y estructuras algebraicas

Este primer capítulo comienza con el estudio de los sistemas de ecuaciones
lineales, de las matrices y de las operaciones con matrices.
    Estos conceptos están en la base del álgebra lineal, y se asume que ya se
ha tenido un contacto previo con ellos en cursos anteriores.
    Es conveniente señalar que en este nivel no sólo es importante entender
los métodos de cálculo de las soluciones de los problemas que se estudiarán,
sino también el porqué dichos métodos funcionan.
    Hablaremos de sistemas de n ecuaciones con m variables, donde n y m
en general no son iguales, y de un algoritmo de cálculo, el método de elimi-
nación gaussiana, que nos permitirá resolver sistemas de ecuaciones lineales
generales.
    En la segunda parte del capítulo, una vez establecidas las propiedades
que satisfacen las matrices respecto de la suma y producto, se introducen
las estructuras algebraicas de grupo, anillo y cuerpo con el objeto de reu-
nir, bajo una estructura algebraica abstracta, las propiedades que tienen en
común, por ejemplo, los números enteros, reales y complejos, las matrices y
los polinomios, y destacar aquellas propiedades que no comparten. En ese
sentido, la denición de una estructura algebraica (por ejemplo, la denición
de grupo) responderá a la abstracción de ciertas propiedades comunes a los
objetos anteriores, entendiendo por abstracción el proceso de separar la for-
ma del contenido. Como colofón del capítulo y aplicación de los conceptos
previamente introducidos veremos una introducción a los tipos abstractos de
datos.

                                      9
10                                                                      Álgebra

1.1 Sistemas de ecuaciones lineales, matrices y
    eliminación gaussiana
Al aplicar la teoría de ecuaciones lineales, entre otras disciplinas, a la infor-
mática, aparecen ecuaciones lineales con coecientes enteros, binarios (0 ó
1), reales o incluso complejos. La denición de la estructura algebraica de
cuerpo se introducirá más tarde. Cómo en la mayor parte de los resultados
referentes a la teoría de ecuaciones lineales no hace falta hacer distinción
entre los casos en los que los coecientes son elementos del cuerpo R de los
números reales o del cuerpo C de los números complejos, a lo largo del ca-
pítulo se considerará que los coecientes de las ecuaciones pertenecen a un
cuerpo genérico K, donde K = R ó C, aunque en algunos casos en los que se
dirá explícitamente, se consideraran también coecientes binarios, es decir,
del cuerpo Z2 = {0, 1} de los números enteros módulo 2.
    Se asume que el estudiante ha trabajado en cursos anteriores con elemen-
tos de R2 y R3 , a los que se denominan pares ordenados y ternas. Ambos
conceptos son casos particulares del concepto de n − tupla o elemento del
producto cartesiano de n copias de R, Rn , donde n es un número natural, o
en general de Kn . Así

                Kn = {(x1 , ..., xn ) | ∀i ∈ {1, ..., n}   xi ∈ K}

   De este modo, un par ordenado es una 2 − tupla (un elemento de K2 ) y
una terna es una 3 − tupla (un elemento de K3 ).


1.1.1 Introducción a los sistemas de ecuaciones lineales
Denición 1.1.1 Una ecuación lineal en las variables (o incógnitas) x1 , ..., xn
es una expresión de la forma

                              a1 x1 + ... + an xn = b

A a1 , ..., an ∈ K se les denomina coecientes de la ecuación, y a b ∈ K
término independiente.

Observación 1 Habitualmente, los coecientes a1 , ..., an y el término inde-
pendiente b serán elementos de un cuerpo K (con K = R ó C). En tal caso
se dice que la ecuación anterior es una ecuación lineal con coecientes en K.
Álgebra                                                                     11

Observación 2 Cuando n ≤ 3 es usual utilizar las variables x, y y z en
lugar de x1 , x2 y x3

Ejemplo 1.1.2 Si n = 2 y a1 , a2 ∈ R, la ecuación lineal

                            a1 x + a2 y = b        (I)

representa una recta en el plano R2 , es decir, el conjunto de pares (x, y) que
satisfacen la ecuación (I) constituyen una recta. Por ejemplo, la ecuación
y − 2x = 2 representa la recta




                                      T        
                                              
                                           
                                     2 
                                      
                                              E
                                  -1 0
                              
                            


                        Figura 1.1: La recta y=2x+2

   Es importante observar que las operaciones que afectan a las variables
que intervienen en las ecuaciones lineales se reducen a multiplicarlas por los
coecientes y sumarlas. Así por ejemplo,

                                  3x + 4y = 24
                                          √
                         x1 − x2 + 5x3 − ( 2)x4 = 1

                         (e2 )x1 − 3x2 + x3 − x4 = 0
son ecuaciones lineales. Sin embargo NO son ecuaciones lineales

                                3x2 + 4y = 24
                                           √
                          x1 − x2 + 5x3 − 2 x4 = 1

                          e2x1 − 3x2 + x3 − x4 = 0
12                                                                     Álgebra

Denición 1.1.3 Se dice que (α1 , ..., αn ) ∈ Kn es solución de la ecuación
                             a1 x1 + ... + an xn = b

si
                            a1 α1 + ... + an αn = b.

Ejemplo 1.1.4 (x, y, z) = (3, 2, −1) es solución de x + y + z = 4. Por otra
parte (x, y, z) = (4, 0, 0) también es solución de dicha ecuación.

    Un sistema de ecuaciones lineales es una sucesión nita de ecuaciones
lineales. Es usual representar los sistemas de ecuaciones lineales verticalmen-
te (i.e., colocando la sucesión de ecuaciones lineales en columna). Así, un
sistema de m ecuaciones lineales con n incógnitas se representaría por
                         
                          a11 x1 + ... + a1n xn = b1
                         
                                         .
                                         .
                                        .
                          a x + ... + a x = b
                              m1 1         mn n      m

Ejemplo 1.1.5 El sistema
                               
                                x2 + x3 = 1
                                 2x1 − x3 = 2
                               
                                  x2 + x3 = 4
es un sistema de 3 ecuaciones con 3 incógnitas.

Denición 1.1.6 Se dice que (α1 , ..., αn ) ∈ Kn es solución del sistema de
ecuaciones               
                          a11 x1 + ... + a1n xn = b1
                         
                                        .
                                        .
                                       .
                          a x + ... + a x = b
                            m1 1           mn n     m

si
                 ∀i ∈ {1, ..., m}     ai1 α1 + ... + ain αn = bi
o, lo que es lo mismo,
                         
                          a11 α1 + ... + a1n αn = b1
                         
                                        .
                                        .
                                       .
                          a α + ... + a α = b
                            m1 1           mn n     m
Álgebra                                                                    13

   Es importante tener presente que los sistemas de ecuaciones lineales pue-
den no tener soluciones, o tener más de una. Por ejemplo, el sistema de
ecuaciones lineales con coecientes en R
                                 x1 − x2 = 1
                                 x1 − x2 = 4
no tiene solución, ya que contiene las ecuaciones de dos rectas distintas y
paralelas.
    Los sistemas de ecuaciones lineales que no tienen solución, como el del
ejemplo anterior, se denominan sistemas incompatibles.
    Los que tienen al menos una solución, esto es, los sistemas compati-
bles, pueden tener una única solución, en cuyo caso se denominan compati-
bles determinados, o más de una solución, en cuyo caso, si los coecientes
del sistema son números reales o complejos, el sistema tiene innitas solucio-
nes (como se verá por el teorema 1.2.14), y los sistemas correspondientes se
denominan compatibles indeterminados.

Ejercicio 1.1.1 Encontrar tres sistemas de dos ecuaciones lineales con coe-
cientes en R con dos incógnitas, uno compatible determinado, otro compatible
indeterminado y un tercero incompatible y representar el conjunto solución
de cada una de las dos ecuaciones lineales que lo forman en el plano R2 .
Extraer conclusiones.

1.1.2 Sistemas homogéneos
Denición 1.1.7 Se dice que un sistema de ecuaciones lineales es homogé-
neo si los términos independientes de todas las ecuaciones que lo constituyen
son iguales a 0.

Ejemplo 1.1.8
                                 x1 + x3 = 0
                              2x1 − x2 + x3 = 0
es un sistema homogéneo de 2 ecuaciones con 3 incógnitas.

Observación 3 Cualquier sistema de ecuaciones lineales homogéneo
                        
                         a11 x1 + ... + a1n xn = 0
                        
                                       .
                                       .
                                      .
                         a x + ... + a x = 0
                           m1 1           mn n
14                                                                    Álgebra

es compatible, puesto que (0, ..., 0) ∈ Kn es siempre una solución de dicho
sistema. A esta solución se la conoce como solución trivial. Si un sistema
homogéneo tiene soluciones distintas de la trivial, a cualquiera de dichas
soluciones la denominaremos solución no trivial.

    En el capítulo 2 demostraremos que un sistema homogéneo de ecuaciones
lineales con coecientes en R ó C satisface exactamente una de las siguientes
proposiciones:

     • El sistema homogéneo sólo tiene la solución trivial.

     • El sistema homogéneo tiene innitas soluciones además de la trivial.

    En particular, demostraremos que todo sistema homogéneo con coe-
cientes en R ó C que tenga más incógnitas que ecuaciones tiene innitas
soluciones.
    Se pueden comprender e interiorizar los resultados anteriores a través
de la resolución de los siguientes ejercicios:

Ejercicio 1.1.2 Comprobar que el sistema homogéneo
                                     x1 + x3 = 0
                                  2x1 − x2 + x3 = 0

tiene innitas soluciones en ∈ R3 , despejando las variables x1 y x2 en función
de x3 , y obtener una solución del sistema para cada valor de x3 considerado.

Ejercicio 1.1.3 Vericar que el sistema
                                     x1 + x2 = 0
                                    2x1 − x2 = 0

sólo tiene la solución trivial.

1.1.3 Transformaciones elementales por las.
      Introducción al método de Gauss-Jordan
En esta sección haremos una primera descripción del método de Gauss-
Jordan para encontrar las soluciones (si es que existen) de un sistema de
ecuaciones lineales. La justicación del método y su descripción precisa se
Álgebra                                                                     15

realizará en las dos siguientes secciones. En esta sección también daremos
una primera justicación de la denición del producto de matrices (i.e., de
porqué el producto de matrices se dene tal y como se dene). Al proceso
de cálculo de las soluciones de un sistema de ecuaciones compatible se le
denomina resolución del sistema.
    Si consideramos el sistema de ecuaciones lineales:
                            
                             x1 − x2 + x3 = 1
                               2x1 + x2 − x3 = 2
                            
                               x1 + 2x2 + x3 = 4

podemos resolverlo eliminando sucesívamente una de las incógnitas de dos
de las ecuaciones, después otra de las restantes y así sucesivamente hasta
conocer el valor de una incógnita, y a partir de ella el de las demás. En este
caso, multiplicando la primera ecuación por 2 y restándosela a la segunda, y
restando la primera ecuación a la tercera, obtenemos:
                            
                             x1 − x2 + x3 = 1
                                3x2 − 3x3 = 0
                            
                                   3x2 = 3.
A partir de aquí, de la tercera ecuación se obtiene x2 = 1. Sustituyendo hacia
atrás vamos obteniendo sucesívamente el valor del resto de las incógnitas.
En este caso, de la segunda ecuación obtenemos que x3 = 1, y, conocidos los
valores de x2 y x3 , de la primera ecuación obtenemos que x1 = 1.
    El método descrito, consistente en ir eliminando las incógnitas de las
ecuaciones una a una mediante el proceso de sumar a una ecuación otra
multiplicada por un número, para, una vez obtenido el valor de una de las
variables, ir sustituyendo hacia atrás, se conoce como eliminación gaussia-
na.
    Si una vez obtenido el valor de una de las variables, en lugar de sustituir
hacia atrás, seguimos sumando a una ecuación otra multiplicada por un nú-
mero, multiplicando ambos miembros de la ecuación por números adecuados e
intercambiando ecuaciones con el objeto de obtener un sistema de ecuaciones
escalonado en el que en cada ecuación aparezca únicamente una incógnita,
estaremos aplicando el método conocido como método de Gauss-Jordan.
    Una forma de representar sistemas de ecuaciones lineales consiste en uti-
lizar matrices, esto es, tablas de coecientes ordenadas según un número
determinado de las y columnas. De hecho, el método de Gauss-Jordan se
16                                                                  Álgebra

aplica más fácilmente sobre la que se denomina matriz ampliada asociada al
sistema que sobre el propio sistema. La matriz asociada al sistema
                           
                            x1 − x2 + x3 = 1
                               2x1 + x2 − x3 = 2
                           
                               x1 + 2x2 + x3 = 4

es por denición la matriz
                                     
                               1 −1 1
                              2 1 −1 
                               1 2  1

y la matriz ampliada asociada a dicho      sistema es
                                            
                           1 −1 1          1
                         2 1 −1           2 
                           1 2     1       4

   La aplicación del método de Gauss-Jordan sobre dicha matriz para obte-
ner la solución del sistema de ecuaciones que representa nos daría sucesíva-
mente:
                                                        
    1 −1 1 1                                1 −1 1 1
  2 1 −1 2  F2 = F2 − 2F1 →  0 3 −3 0  F2 ↔ F3 →
                        F3 = F3 − F1
    1 2       1 4                           0 3      0 3

                                 
  1 −1 1 1                 1 −1 1 1
 0 3  0 3  F2 = 1 F2 →  0 1  0 1  F3 = F3 − 3F2 →
                  3
  0 3 −3 0                 0 3 −3 0

                                   
  1 −1 1 1                   1 −1 1 1
 0 1  0 1  F3 = − 3 F3 →  0 1 0 1  F1 = F1 − F3 →
                    1

  0 0 −3 −3                  0 0 1 1
                                             
             1 −1 0 0                   1 0 0 1
            0 1 0 1  F1 = F1 + F2 →  0 1 0 1 
             0 0 1 1                    0 0 1 1
Álgebra                                                                       17

    La última matriz representa, obviamente, que x1 = 1, x2 = 1 y x3 = 1.
    En la resolución del sistema anterior hemos aplicado sobre la matriz am-
pliada del sistema lo que se denominan transformaciones elementales por
las. Estas son las siguientes:
    1. Sumar a una la otra multiplicada por un número: Fi = Fi + λFj
    2. Multiplicar una la por un número distinto de cero: Fi = λFi
    3. Intercambiar dos las: Fi ↔ Fj
    En cualquier caso, no todos los sistemas de ecuaciones lineales tienen
solución. Por ejemplo, si consideramos el sistema
                                 x1 − x2 = 1
                                 2x1 − 2x2 = 4
la aplicación de las transformaciones elementales correspondientes sobre la
matriz ampliada asociada al sistema nos lleva a
                 1 −1 1                               1 −1 1
                               F2 = F2 − 2F1 →
                 2 −2 4                               0 0  2
es decir, 0x1 + 0x2 = 2.
    Así pues, el sistema anterior es un sistema incompatible.
    Un ejemplo de sistema compatible indeterminado sería el siguiente:
                           
                            x1 − x2 + x3 = 1
                               2x1 + x2 − x3 = 2
                           
                              2x1 − 2x2 + 2x3 = 2
Al resolverlo por el método de Gauss-Jordan obtenemos:
                                                    
  1 −1 1 1                                   1 −1 1 1
 2 1 −1 2  F2 = F2 − 2F1               →  0 3 −3 0  F2 = 1 F2 →
              F3 = F3 − 2F1                                  3
  2 −2 2 2                                   0 0   0 0
                                                   
   1 −1 1 1                                  1 0 0 1
  0 1 −1 0  F1 = F1 + F2               →  0 1 −1 0 
   0 0  0 0                                  0 0 0 0
es decir, x1 = 1 y x2 − x3 = 0, o lo que es lo mismo, x2 = x3 , con lo que,
si escribimos x3 = t, para cada valor de t tenemos una solución del sistema.
Sería solución del sistema (1, 1, 1), (1, 2, 2), ... en total tendríamos innitas
soluciones, tantas como posibles valores del parámetro t; esto ocurre porque
estamos trabajando sobre el cuerpo de los números reales, luego t toma
valores en R, que es innito.
18                                                                    Álgebra

1.1.4 Sistemas equivalentes
La aplicación sucesiva de transformaciones elementales por las sobre un sis-
tema de ecuaciones lineales (o sobre su matriz ampliada) permite pasar de
un sistema de ecuaciones lineales a otro que, teniendo las mismas soluciones
que el planteado, es más sencillo de resolver. En esta sección demostraremos
con todo detalle que esto es efectivamente así. Por otra parte, las transforma-
ciones elementales son reversibles, es decir, si realizando transformaciones
elementales sobre un sistema de ecuaciones lineales S obtenemos un siste-
ma de ecuaciones lineales S , podemos recuperar S a partir de S realizando
las transformaciones elementales “inversas” en el orden adecuado (el orden
inverso del que se ha seguido para pasar de S a S ).

         TRASFORMACIÓN           TRANSFORMACIÓN INVERSA
           Fi = Fi + λFj               Fi = Fi − λFj
                                               1
           Fi = λFi (λ = 0)              Fi = Fi
                                               λ
                Fi ↔ Fj                   Fi ↔ Fj

Ejercicio 1.1.4 Realizar las transformaciones F3 = F3 − F1 , F3 ↔ F1 ,
    1
F2 = F2 sobre la matriz ampliada asociada al sistema.
    2
                        
                         x1 − x2 + x3 = 1
                          2x1 + 2x2 − 2x3 = 2
                        
                           x1 + 2x2 + x3 = 4
para obtener la matriz A . Realizar sobre A las transformaciones inversas
de las anteriores en el orden adecuado y comprobar que se obtiene la matriz
ampliada asociada al sistema dado.
Denición 1.1.9 Se dice que dos sistemas de m ecuaciones lineales con n
incógnitas son equivalentes si uno de ellos puede obtenerse a partir del otro
realizando sobre el primero una sucesión nita de transformaciones elemen-
tales por las.
Observación 4 Como ya hemos señalado, habitualmente representaremos a
un sistema de ecuaciones lineales
                      
                       α11 x1 + ... + α1n xn = β1
                      
                                      .
                                      .
                                     .
                       α x + ... + α x = β
                           m1 1         mn n     m
Álgebra                                                                        19

por su matriz ampliada:
                                   
                     α11 ... α1n β1
              Am =  .        .   . ∈M
                    .        .   . 
                      .       .   .     m×(n+1) (K),
                    αm1 ... αmn βm

con lo que las transformaciones elementales se realizan sobre las las de esta
matriz.

   A la vista de la observación anterior tiene sentido establecer la siguiente
denición:

Denición 1.1.10 Si una matriz A se obtiene realizando transformaciones
elementales por las sobre una matriz A, diremos que las matrices A y A
son equivalentes por las.

Observación 5 A las transformaciones elementales por las, realizadas, bien
directamente sobre las ecuaciones del sistema, bien sobre las las de su matriz
ampliada las denotaremos del mismo modo.

Ejercicio 1.1.5 Vericar que la relación de equivalencia de matrices en
Mm×n (K) es una relación binaria reexiva, simétrica y transitiva (es decir,
es una relación de equivalencia en el sentido general).

Teorema 1.1.11 Si dos sistemas de ecuaciones son equivalentes, entonces
tienen exactamente las mismas soluciones. En otras palabras, si S y S son
equivalentes,

       (α1 , ..., αn ) es soluci´n de S ⇔ (α1 , ..., αn ) es soluci´n de S .
                                o                                  o

Demostración Para demostrar el teorema, es suciente con estudiar el
caso en el que un sistema se obtiene a partir de otro mediante la aplicación
de una única transformación elemental por las. Supongamos que el sistema
considerado es           
                          α11 x1 + ... + α1n xn = β1
                         
                         
                          α21 x1 + ... + α2n xn = β2
                     S≡                  .
                                         .
                         
                                        .
                         
                          α x + ... + α x = β
                              m1 1         mn n      m
20                                                                           Álgebra

    Es obvio que el intercambio de lugar entre dos ecuaciones del sistema no
altera el conjunto solución del mismo. Por consiguiente la aplicación de una
transformación del tipo Fi ↔ Fj no altera el conjunto solución. Además,
teniendo esto presente, podemos restringir el estudio al caso en el que las
transformaciones elementales se aplican únicamente sobre la primera y la
segunda ecuación, dejando el resto inalteradas. Sea λ = 0, y supongamos
que
                         
                          λα11 x1 + ... + λα1n xn = λβ1
                         
                         
                          α21 x1 + ... + α2n xn = β2
                    S ≡                   .
                                          .
                         
                                         .
                         
                          α x + ... + α x = β
                                  m1 1            mn n       m


     Veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S .
                                        o                             o
     Si (s1 , ..., sn ) es solución de S, tendremos que
                          
                           α11 s1 + ... + α1n sn = β1
                          
                          
                           α21 s1 + ... + α2n sn = β2
                                          .
                                          .
                          
                                         .
                          
                           α s + ... + α s = β
                             m1 1           mn n     m


con lo que, multiplicando ambos miembros de la primera igualdad por λ,
obtenemos que
                      
                       λα11 s1 + ... + λα1n sn = λβ1
                      
                      
                       α21 s1 + ... + α2n sn = β2
                                       .
                                       .
                      
                                      .
                      
                       α s + ... + α s = β
                               m1 1            mn n      m

es decir, que (s1 , ..., sn ) es solución de S .
    Veamos ahora el recíproco, i.e., que
    (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S.
                           o                              o
    Si (s1 , ..., sn ) es solución de S , tendremos que
                         
                          λα11 s1 + ... + λα1n sn = λβ1
                         
                         
                          α21 s1 + ... + α2n sn = β2
                                          .
                                          .
                         
                                         .
                         
                          α s + ... + α s = β
                               m1 1            mn n      m
Álgebra                                                                         21

                                                                                1
con lo que, multiplicando ambos miembros de la primera igualdad por             λ
                                                                                  ,
obtenemos que          
                       
                        α11 s1 + ... + α1n sn = β1
                       
                        α21 s1 + ... + α2n sn = β2
                                       .
                                       .
                       
                                      .
                       
                        α s + ... + α s = β
                              m1 1          mn n       m

es decir, que (s1 , ..., sn ) es solución de S.
    Supongamos ahora que
              
              
                                   α11 x1 + ... + α1n xn = β1
              
               (α21 + µα11 )x1 + ... + (α2n + µα1n )xn = (β2 + µβ1 )
         S ≡                                      .
                                                  .
              
                                                 .
              
                                  α x + ... + α x = β
                                m1 1           mn n        m

   Veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S .
                                      o                             o
   Si (s1 , ..., sn ) es solución de S, tendremos que
                             
                              α11 s1 + ... + α1n sn = β1
                             
                             
                              α21 s1 + ... + α2n sn = β2
                                             .
                                             .
                             
                                            .
                             
                              α s + ... + α s = β
                              m1 1          mn n       m

con lo que, multiplicando los dos miembros de la primera ecuación por µ, y
sumando miembro a miembro la primera ecuación a la segunda obtendremos
           
           
                          α11 s1 + ... + α1n sn = β1
           
            (α21 + µα11 )s1 + ... + (α2n + µα1n )sn = (β2 + µβ1 )
                                         .
                                         .
           
                                        .
           
                         α s + ... + α s = β
                              m1 1          mn n       m

Recíprocamente, veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n
                                                      o                          o
de S.
   Si (s1 , ..., sn ) es solución de S , tendremos que
             
             
                                α11 s1 + ... + α1n sn = β1
             
              (α21 + µα11 )s1 + ... + (α2n + µα1n )sn = (β2 + µβ1 )
                                               .
                                               .
             
                                              .
             
                               α s + ... + α s = β
                              m1 1          mn n       m
22                                                                   Álgebra

Multiplicando la primera igualdad por µ y restándosela a la segunda obtene-
mos que
                      
                       α11 s1 + ... + α1n sn = β1
                      
                      
                       α21 s1 + ... + α2n sn = β2
                                      .
                                      .
                      
                                     .
                      
                       α s + ... + α s = β
                            m1 1          mn n     m

con lo que (s1 , ..., sn ) es solución de S. Esto completa la demostración del
teorema.                                                                    2



1.1.5 Estrategia para la aplicación del método
      de eliminación gaussiana
   1. Reordenar las ecuaciones para que en la primera ecuación la primera
variable x1 tenga un coeciente no nulo, y multiplicar ambos miembros de
dicha ecuación para que el coeciente de dicha variable sea 1.
    2. Restar la primera ecuación multiplicada por un escalar adecuado a las
demás ecuaciones con el objeto de que la primera variable aparezca solamente
en la primera ecuación.
    3. En el caso de que sea posible, reordenar las ecuaciones de la segunda
en adelante con el objeto de que la segunda variable x2 aparezca con un
coeciente no nulo y multiplicar ambos miembros de dicha ecuación para
que el coeciente de dicha variable sea 1. Si la variable x2 no aparece más
que en la primera ecuación, hacer la operación anterior con la variable x3 o
con la primera variable que aparezca con un coeciente no nulo en alguna de
las ecuaciones restantes (todas salvo la primera).
    4. Restar la segunda ecuación multiplicada por un escalar adecuado a las
ecuaciones situadas bajo la misma con el objeto de que la segunda variable
(o la que corresponda) no aparezca en ninguna ecuación situada por debajo
de la segunda.
    5. Operando análogamente con el resto de las ecuaciones, el sistema así
obtenido será un sistema escalonado, es decir, un sistema que se ajusta a la
siguiente denición.


Denición 1.1.12 Se dice que un sistema de ecuaciones es escalonado si
Álgebra                                                                      23

             La primera variable de cada ecuación tiene 1 como
    (E.1)    coeciente (a esta variable la denominaremos variable
             principal de dicha ecuación).
             La variable principal de cualquier ecuación siempre
             aparece situada a la derecha de las variables
    (E.2)
             principales de las ecuaciones previas, y todas las ecuaciones
             sin variable principal aparecen colocadas al nal.

    La última frase de (E.2) puede parecer algo misteriosa. Sin embargo,
al llevar a cabo la estrategia anterior sobre un sistema concreto, podríamos
obtener una ecuación de la forma

                            0x1 + ... + 0xn = k

con k = 0 o k = 0 (en este último caso el sistema es incompatible). Este tipo
de ecuaciones deberán aparecer siempre en las últimas las del sistema.

Ejemplo 1.1.13 Los siguientes sistemas de ecuaciones son escalonados:
                           
                            x1 + x2 + 3x3 = 9
                                 x2 + 6x3 = 24
                           
                                      x3 = −4

                           x1 + x2 + x3 − 5x4 = 4
                                    x3 − 2x4 = 6.
Las matrices ampliadas asociadas a estos    sistemas son
                                                
                                1 1 3       9
                              0 1 6        24 
                                0 0 1       −4
                        y
                               1 1 1        −5 4
                               0 0 1        −2 6

   El conjunto de soluciones de un sistema escalonado es razonablemente
sencillo de obtener. Un sistema de ecuaciones escalonado será compatible en
todos los casos en los que no aparezca una ecuación de la forma

                     0x1 + ... + 0xn = k,    con   k = 0.
24                                                                      Álgebra

Suponiendo que el sistema es compatible, a cualquier variable que no sea
la variable principal de una ecuación la denominaremos variable libre. Si
una variable es variable principal de un sistema de ecuaciones escalonado,
diremos que dicha variable no es libre (o también que está determinada).
El siguiente proceso, conocido como sustitución hacia atrás o remonte,
obtiene todas las soluciones del sistema asignando parámetros a las variables
libres.

Sustitución hacia atrás en el método de eliminación gaussiana
Suponiendo que no aparece ninguna ecuación de la forma

                              0x1 + ... + 0xn = k

con k = 0 en el sistema escalonado obtenido, comenzamos con la última
ecuación del sistema asignado un parámetro diferente a cada variable libre
y expresando la variable determinada por la última ecuación en términos
de estos parámetros. Después, operaremos análogamente con la penúltima
ecuación, asignando diferentes parámetros a cada una de las nuevas variables
libres, y obteniendo el valor de la variable determinada por la penúltima
ecuación. Realizando las mismas operaciones con el resto de las ecuaciones
hasta llegar a la primera, al nal del proceso todas las variables libres tendrán
asignado un parámetro diferente, y todas las variables determinadas estarán
expresadas en términos de estos parámetros.

Ejercicio 1.1.6 Resolver los siguientes sistemas de ecuaciones lineales por
el método de eliminación gaussiana.:
                        
                         2x1 + x2 + 3x3 = 9
                           5x1 + 4x2 + 6x3 = 24
                        
                            x1 + 3x2 − 2x3 = 4

                           3x1 + x2 + x3 − 5x4 = 4
                           5x1 + 2x2 + 4x3 − 2x4 = 6

1.1.6 Método de Gauss-Jordan
El método de Gauss-Jordan es una extensión del método de eliminación gaus-
siana, que consiste en eliminar la variable principal de la ecuación correspon-
diente no solamente en las ecuaciones que aparecen situadas por debajo de
Álgebra                                                                    25

la misma, sino en todas las ecuaciones del sistema. Por ello, la estrategia es
la misma que la del método de eliminación de Gauss, con la adición de las
siguientes instrucciones en el lugar correspondiente:
    4. Sustraer además la segunda ecuación multiplicada por un escalar ade-
cuado de la primera ecuación, con el objeto de eliminar la segunda variable
de la primera ecuación.
    5. En cada paso sustraer la ecuación correspondiente multiplicada por
un escalar adecuado tanto de las ecuaciones situadas por debajo de la misma
como de las situadas por encima, con el objeto de que la variable principal
de cada ecuación aparezca únicamente en la ecuación de la que es variable
principal.
    Los sistemas de ecuaciones que resultan de la aplicación del método de
Gauss-Jordan se dice que tienen forma escalonada reducida, es decir:
Denición 1.1.14 Se dice que un sistema de ecuaciones está en forma es-
calonada reducida si
               La primera variable de cada ecuación tiene 1 como
     (E.R.1)   coeciente (a esta variable la denominaremos variable
               principal de dicha ecuación).
               La variable principal de cualquier ecuación siempre
               aparece situada a la derecha de las variables
     (E.R.2)
               principales de las ecuaciones previas, y todas las ecuaciones
               sin variable principal aparecen colocadas al nal.
               La variable principal de cada ecuación aparece solamente
     (E.R.3)
               en la ecuación de la que es variable principal.
Ejemplo 1.1.15 Vamos a resolver el siguiente sistema de ecuaciones por el
método de Gauss Jordan, es decir, obteniendo una forma escalonada reducida
de dicho sistema         
                          x1 − 4x2 + x3 = 2
                            −x1 + 3x2 − x3 = 1
                         
                                x1 + 2x3 = 3

    Para ello, trabajamos directamente sobre la matriz ampliada asociada al
sistema, teniendo presente en todo momento qué es lo que representan los
coecientes de dicha matriz:
                                    
                      1 −4 1 2
                    −1 3 −1 1  F2 = F2 + F1 →
                                         F3 = F3 − F1
                      1    0    2 3
26                                                                    Álgebra
                         
                 1 −4 1 2     F2 = (−1)F2
                0 −1 0 3  F1 = F1 + 4F2 →
                 0 4 1 1      F3 = F3 − 4F2
                                                
          1 0 1 −10                      1 0 0 −23
         0 1 0 −3  F1 = F1 − F3 →  0 1 0 −3  .
          0 0 1 13                       0 0 1 13
   La última matriz ampliada representa el sistema en forma escalonada
reducida. El sistema es, por tanto, compatible determinado y su solución es
(−23, −3, 13).

Ejercicio 1.1.7 Resolver los siguientes sistemas de ecuaciones lineales por
el método de Gauss-Jordan:
                     
                             x1 − x2 − x3 + x4 = 5
                                  x2 − x3 + 2x4 = 8
                       
                         2x1 − x2 − 3x3 + 4x4 = 18
                          
                           x1 + 5x2 − 2x3 = 0
                             x1 − 3x2 + x3 = 0
                          
                             x1 + 5x2 − x3 = 0

1.2 Matrices y operaciones con matrices
Al realizar una primera lectura de los epígrafes siguientes, hasta completar la
totalidad del capítulo, se puede pensar que K = R ó C aunque los resultados
obtenidos serán válidos para cualquier cuerpo K.
    Como hemos visto en la sección anterior, las matrices permiten represen-
tar sistemas de ecuaciones lineales. Veamos una denición precisa de lo que
es una matriz:

Denición 1.2.1 Una matriz de orden m × n con coecientes en un cuerpo
K (por ejemplo K = R ó C) es una función:

                  A : {1, ..., m} × {1, ..., n} −→   K
                               (i, j)            ; A(i, j)

Se dice entonces que A es una matriz con m las y n columnas. Es
usual representar el coeciente A(i, j) de la matriz A por su correspondiente
Álgebra                                                                       27

minúscula con dos subíndices, en este caso aij , y a la matriz completa A por
una tabla en la que en la la `“i” y en la columna “j” aparece el elemento
aij :                                             
                                a11    ···     a1n
                                                  
                                                  
                       A= .                    . .
                             .                 . 
                             .         aij     . 
                                                  
                               am1     ···     anm
Así por ejemplo, la matriz A de dos las y dos columnas determinada por
              A(1, 1) = 0, A(1, 2) = 1, A(2, 1) = −1, A(2, 2) = 4
                      0 1
se representará por           .
                     −1 4
   Al conjunto de matrices de m las y n columnas con coecientes en K lo
denotaremos por Mm×n (K).

   Es obvio que de la denición anterior se sigue que dos matrices A, B son
iguales si son iguales como funciones, es decir, si son del mismo orden (i.e.,
si tienen el mismo número de las y de columnas, o lo que es lo mismo A, B ∈
Mm×n (K) para algún m y n) y ∀(i, j) ∈ {1, ..., m}×{1, ..., n} A(i, j) = B(i, j).

Ejemplo 1.2.2 Veamos algunos ejemplos de matrices denidas con notación
funcional:
  1. A ∈ M3×3 (K) denida por (A(i, i) = 1, ∀i = 1, 2, 3) ∧ (A(i, j) =
     0, ∀i, j ∈ {1, 2, 3}, i = j) es la matriz:
                                               
                                         1 0 0
                                       0 1 0 
                                         0 0 1

  2. Podemos utilizar también congruencias módulo un número entero so-
     bre i y j para denir la matriz; por ejemplo B ∈ M3×3 (R) dada por
     (A(i, j) = 1 ⇔ i + j ≡ 1 mod 2) ∧ (A(i, j) = 0 ⇔ i + j ≡ 0 mod 2)
     se representa por                     
                                    0 1 0
                                 1 0 1 
                                    0 1 0
28                                                                     Álgebra

     3. Otro ejemplo es la matriz C ∈ M3×3 (R) dada por (A(i, j) = 2i−1 3j−1 ),
        que es                                
                                     1 3 9
                                    2 6 18 
                                     4 12 36

     Recordemos ahora algunas deniciones y veamos otras nuevas:

     • Si A ∈ Mm×n (K) se dice que A es una matriz de orden m×n. Si m = n,
       en lugar de escribir Mn×n (K), escribiremos Mn (K), y si A ∈ Mn (K)
       diremos que A es una matriz cuadrada de orden n.

     • Si A ∈ Mm×n (K), utilizaremos indistintamente la notación usual aij o
       la funcional A(i, j) para referirnos al elemento de la matriz A situado
       en la la i − esima y en la columna j − esima. Por ello escribiremos en
                     ´                           ´
       ocasiones A = (aij ) ∈ Mm×n (K) para referirnos a una matriz genérica
       de orden m × n. (Obsérvese que a es la minúscula de A).

     • Si A ∈ Mm×1 (K) se dice que A es una matriz columna (de m las).
     • Si A ∈ M1×n (K) se dice que A es una matriz la (de n columnas).

     • Si A ∈ Mm×n (K), ∀i ∈ {1, ..., m} llamaremos la i-ésima de A a la
       matriz la de n columnas

                                   Ai = (ai1 ... ain ).

        Análogamente, llamaremos columna j-ésima de A a la matriz columna
        de m las                           
                                        a1j
                                       . 
                                Aj =  .  .
                                          .
                                        amj

     • Una matriz de particular interés es la matriz identidad a la que
       denotaremos por In (hay una para cada valor natural de n). Así por
       ejemplo,
                                                                
                                                    1 0 0 0
                                  1 0 0                         
                  1 0            0 1 0  e I4 =  0 1 0 0  .
            I2 =         , I3 =                     0 0 1 0 
                  0 1
                                  0 0 1
                                                      0 0 0 1
Álgebra                                                                             29

      En general la matriz In = (aij ) ∈ Mn (K) se dene por la condición
      ∀i, j ∈ {1, ...n}, aii = 1 ∧ (i = j ⇒ aij = 0). Utilizando la notación
      funcional, In ∈ Mn (K) quedaría determinada por las condiciones:
      (∀i ∈ {1, ..., n} In (i, i) = 1) ∧ (∀i, j ∈ {1, ..., n} (i = j ⇒ In (i, j) = 0)).

   • Si A ∈ Mm×n (K) se denomina matriz traspuesta de A a la matriz
     t
       A ∈ Mn×m (K) tal que ∀(i, j) ∈ {1, ..., n} × {1, ..., m}
                                     t
                                         A(i, j) = A(j, i)

      (empleando la notación no funcional, si t A = (bij ), entonces

                     ∀(i, j) ∈ {1, ..., n} × {1, ..., m}     bij = aji ).

      Así por ejemplo, si
                                          
                                      1 2
                                A =  2 0  ∈ M3×2 (R),
                                      3 −1
      su traspuesta es

                            t        1 2 3
                                A=                    ∈ M2×3 (R).
                                     2 0 −1

      Un método sistemático para obtener la matriz traspuesta de una matriz
      dada consiste en ir leyendo los coecientes por las para sistemática-
      mente escribirlos por columnas.

1.2.1 Suma de matrices
La denición de suma de matrices es muy natural:

Denición 1.2.3 Si A, B ∈ Mm×n (K), la suma de A y B es la matriz
A + B ∈ Mm×n (K) denida por las condiciones

    ∀(i, j) ∈ {1, ..., m} × {1, ..., n}   (A + B)(i, j) = A(i, j) + B(i, j)
                                                     
                       1 −1            1 3          2 2
Ejemplo 1.2.4  3 0  +  2 0  =  5 0 
                       1 2             0 −2         1 0
30                                                                        Álgebra

Observación 6 De la denición anterior se sigue que para que dos matrices
se puedan sumar deben ser del mismo orden.

   Se denomina matriz nula de orden m × n a la matriz (0) ∈ Mm×n (K)
denida por las condiciones

                  ∀(i, j) ∈ {1, ..., m} × {1, ..., n}   (0)(i, j) = 0

Así por ejemplo,

                                                        0 0 0
                    (0) ∈ M2×3 (C) es la matriz                     .
                                                        0 0 0

Observación 7 En lo sucesivo también escribiremos (0) ∈ Mm×n (K) para
representar a la matriz nula de orden m × n.

Denición 1.2.5 Si A ∈ Mm×n (K) se denomina matriz opuesta de A a la
matriz (−A) ∈ Mm×n (K) denida por las condiciones

          ∀(i, j) ∈ {1, ..., m} × {1, ..., n}     (−A)(i, j) = −A(i, j) ∈ K

     Así por ejemplo,
                                            
                               1 −1      −1 1
                           −  3 0  =  −3 0 
                               1 2       −1 −2

                                            y

                            2 −1 0              −2 1  0
                      −                   =                     .
                            1 1 3               −1 −1 −3

Proposición 1.2.6 Si A, B, C ∈ Mm×n (K), se verica que:

     1.   A + B = B + A (propiedad conmutativa de la suma de matrices)
     2.   A + (B + C) = (A + B) + C (propiedad asociativa)
     3.   A + (0) = A, (0) + A = A ((0) es el elemento neutro para +)
     4.   A + (−A) = (0), (−A) + A = (0) ((−A) es la opuesta de A)
Álgebra                                                                         31

Demostración Se trata de comprobar, en cada caso, que las matrices si-
tuadas a ambos lados de la igualdad son efectivamente iguales. Demostrare-
mos la primera propiedad y el resto se propone como ejercicio.
   Hay que comprobar que
      ∀(i, j) ∈ {1, ..., m} × {1, ..., n}       (A + B)(i, j) = (B + A)(i, j)
   Sea (i, j) ∈ {1, ..., m} × {1, ..., n}. (A + B)(i, j)= (por denición)=
   =A(i, j) + B(i, j)=(puesto que la suma de números reales o complejos y,
en general, de los elementos de un cuerpo, satisface la propiedad conmutati-
va) =B(i, j) + A(i, j)= (por denición) =(B + A)(i, j).                    2

   Por satisfacer las 4 propiedades de la proposición anterior se dice que las
matrices de orden m × n con coecientes en K tienen estructura de grupo
abeliano respecto de la suma. De la matriz (0) se dice que es el elemento
neutro del grupo abeliano, y de la matriz (−A) se dice que es la matriz
opuesta de A.

1.2.2 Producto de matrices
En capítulos venideros veremos que la siguiente denición del producto de
matrices permitirá representar la actuación de una función lineal sobre un
elemento como un producto de matrices, hecho que a su vez tendrá como
consecuencia el que la composición de funciones lineales se exprese como un
producto de matrices.
   Si consideramos una ecuación lineal, por ejemplo
                               2x1 + x2 + 6x3 = 3,
es posible considerar la parte izquierda de la igualdad como el producto de
la matriz de coecientes
                                   (2 1 6)
por la matriz de incógnitas               
                                        x1
                                       x2 
                                        x3
y escribir                                 
                                       x1
                           (2 1 6) ·  x2  = (3)
                                       x3
32                                                                   Álgebra

Si la ecuación anterior forma parte de un sistema, por ejemplo del sistema
                          
                           2x1 + x2 + 6x3 = 3
                             5x1 + 4x2 + 6x3 = 24
                          
                              x1 + 3x2 − 2x3 = 4
teniendo en cuenta que de la denición de matriz se sigue que dos matrices
son iguales si tienen el mismo número de las y de columnas y los mismos
coecientes en cada la y columna, resulta que, utilizando la denición de
producto de matrices anterior, podemos representar el sistema de ecuaciones
mediante un producto de matrices, esto es:
                                                
                       2 1 6          x1         3
                     5 4 6  ·  x2  =  24  .
                       1 3 −2         x3         4
     En general, el sistema de ecuaciones
                          
                           a11 x1 + ... + a1n xn = b1
                          
                                         .
                                         .
                                        .
                           a x + ... + a x = b
                             m1 1           mn n     m

puede representarse mediante el producto denido por la expresión:
                                          
                                x1        b1
                             .   . 
                        A ·  .  =  . .
                                 .         .
                               xn         bm
Claro está que podemos considerar sistemas de ecuaciones con la misma
matriz de coecientes y distinto término independiente. Por ejemplo:
                                       
            2x1 + x2 + 6x3 = 3          2x1 + x2 + 6x3 = 1
             5x1 + 4x2 + 6x3 = 24 y        5x1 + 4x2 + 6x3 = 1 .
                                       
              x1 + 3x2 − 2x3 = 4           x1 + 3x2 − 2x3 = 1
En ese caso, teniendo en cuenta, por una parte, que las soluciones de uno
no tienen porqué coincidir con las del otro, por lo que denotamos por y1 , y2
e y3 a las incógnitas del segundo sistema, y por otra, cuando dos matri-
ces son iguales, podemos representarlos matricialmente de forma simultánea,
mediante la expresión:
                                                     
                   2 1 6            x1 y 1          3 1
                  5 4 6  ·  x2 y2  =  24 1  .
                   1 3 −2           x3 y 3          4 1
Álgebra                                                                             33

Esto nos lleva a la denición de producto de dos matrices. Como observa-
ción previa a la denición, nótese que en los ejemplos anteriores, para poder
multiplicar la matriz de coecientes por la de incógnitas, era preciso que
el número de las de la matriz de coecientes coincidiese con el número de
columnas de la matriz de incógnitas.

Denición 1.2.7 Dadas las matrices A ∈ Mm×n (K) y B ∈ Mn×p (K) se
denomina matriz producto de A y B , y se denota por A · B a la matriz
   A · B ∈ Mm×p (K) tal que
                                                           n
      ∀(i, j) ∈ {1, ..., m} × {1, ..., p} A · B(i, j) =         A(i, k) · B(k, j)
                                                          k=1


                                                  
                                     1 2        0                       
                                    1 2                           1 −1
                                                −1 
Ejemplo 1.2.8 Dadas las matrices   1 1             ∈ M4×3 (R) y  3 0  ∈
                                                0 
                                                                    1 2
                                     0 4        3
M3×2 (R), su producto es la matriz
                                                    
            1 2 0                               7 −1
          1 2 −1           1 −1      
                     · 3 0 =                 6 −3 
                                                        ∈ M4×2 (R)
          1 1 0                                4 −1 
                             1 2
            0 4 3                                 15 6



1.2.3 Propiedades del producto de matrices
El producto de matrices no es conmutativo, pues por ejemplo

                       1 1             1 −1         2 −2
                               ·              =
                       1 1             1 −1         2 −2
y sin embargo
                        1 −1            1 1         0 0
                                   ·           =                .
                        1 −1            1 1         0 0

Proposición 1.2.9 El producto de matrices satisface las siguientes propie-
dades:
34                                                                            Álgebra

     1. Es asociativo: ∀A ∈ Mm×n (K), B ∈ Mn×p (K) y C ∈ Mp×q (K),


                                (A · B) · C = A · (B · C)


          (y por tanto podemos omitir los paréntesis para denotar cualquiera de
          estos productos y escribir A · B · C ).



     2. Es distributivo respecto de la suma:


           ∀A ∈ Mm×n (K), ∀B, C ∈ Mn×p (K)            A · (B + C) = A · B + A · C



           ∀A ∈ Mm×n (K), ∀B, C ∈ Mp×n (K)            (B + C) · A = B · A + C · A



     3.

                   ∀A ∈ Mm×n (K),          A · (0) = A y      (0) · A = (0)




Demostración Antes de dar la demostración debemos señalar que es usual
                                  n
emplear el símbolo sumatorio            ai en lugar de la expresión a1 + ... + an , lo
                                  i=1
que tiene sentido puesto que la suma considerada es asociativa.




     1. Sean A ∈ Mm×n (K) ,B ∈ Mn×p (K) y C ∈ Mp×q (K). Las dos matrices
        A·(B ·C) y (A·B)·C tienen el mismo orden, ya que ambas pertenecen a
        Mm×q (K). Veamos que ∀(i, j) ∈ {1, ..., m}×{1, ..., q} (A·(B ·C))(i, j) =
        ((A · B) · C)(i, j) :
Álgebra                                                                                                      35


                                                n
              (A · (B · C))(i, j) =                  A(i, k) · (B · C) (k, j) =
                                               k=1
                                                n                          p
                                           =         A(i, k) ·                  B(k, s) · C(s, j)    =
                                               k=1                     s=1
                                                n         p
               (prop. distributiva en K)   =                      A(i, k) · (B(k, s) · C(s, j))          =
                                               k=1     s=1
                                                n       p
                (prop. asociativa en K)    =                  (A(i, k) · B(k, s)) · C(s, j)            =
                                               k=1     s=1
                                                p       n
               (prop. distributiva en K)   =                      A(i, k) · B(k, s)       · C(s, j) =
                                               s=1     k=1
                                                p
                                           =         (A · B) (i, s) · C(s, j) =
                                               s=1
                                           = ((A · B) · C)(i, j)

  2. Se demuestra razonando de forma similar al apartado anterior.
  3. Ejercicio.                                                                                              2



Observación 8 Demostraciones como la anterior se incluyen para que
puedan ser consultadas por los alumnos interesados. En cualquier caso, es
conveniente conocer algunos hechos relativos a la notación, y a los resultados
derivados del uso de la misma. Por ejemplo, en la proposición anterior hemos
utilizado la igualdad
  n       p                                                   p        n
               A(i, k) · B(k, s) · C(s, j)            =                        A(i, k) · B(k, s)    · C(s, j)
 k=1   s=1                                                s=1         k=1

que intuitivamente es evidente, puesto que tanto el producto de números
reales como el de números complejos es conmutativo y distributivo respecto
de la suma. La demostración de que esta igualdad es válida es consecuencia
de las siguientes propiedades relacionadas con el símbolo sumatorio, cuya
demostración también se puede hacer por inducción:
36                                                                                                                  Álgebra

     • Si {ai }i∈{1,...,n} y {bj }j∈{1,...,p} son dos familias de números reales o com-
       plejos, se verica que ∀n ∈ N, ∀p ∈ N,
                            n            p                          n                        p
                                              ai · bj        =                 ai ·               bj
                           i=1       j=1                            i=1                  j=1

       Es decir, que
                                              n
                                                   (ai b1 + · · · + ai bp ) =
                                             i=1
                  = (a1 b1 + · · · + a1 bp ) + · · · + (an b1 + · · · + an bp ) =
                    = a1 (b1 + · · · + bp ) + · · · + an (b1 + · · · + bp ) .
       Para demostrar la identidad anterior, razonamos por inducción sobre
       “n”.
       Base de inducción: hay que probar que si n = 1,
                                     1             p                            1                      p
                   ∀p ∈ N                               ai · bj         =               ai ·               bj
                                 i=1              j=1                          i=1                 j=1

       o lo que es lo mismo, que
                                                    p                                        p
                           ∀p ∈ N                        a 1 · bj       = a1 ·                    bj       .
                                                   j=1                                   j=1

       Esta propiedad se demuestra razonando por inducción sobre “p” : si
                                         p                                                         1
       p = 1 es obvio que                     a1 · bj            = a1 · b1 = a1 ·                          bj   . Suponiendo
                                     j=1                                                          j=1
                                          p                                         p
       entonces cierto que                        a1 · bj        = a1 ·                 bj       , resulta que
                                         j=1                                    j=1

                    p+1                                      p
                           a1 · bj             =                  a 1 · bj          + a1 · bp+1 =
                     j=1                                    j=1
                                               = (por hip´tesis de inducci´n) =
                                                         o                o
                                                                    p
                                               = a1 ·                     bj        + a1 · bp+1 =
                                                                  j=1
                                                                  p+1
                                               = a1 ·                     bj        .
                                                                  j=1
Álgebra                                                                                         37

     La demostración del paso de inducción sobre “n” se propone como
     ejercicio para todo aquel alumno interesado en hacerla.

   • Si {aik }(i,k)∈{1,...,n}×{1,...,p} es una familia de números reales o complejos,
                        n         p               p         n
     se verica que                    aik   =                   aik   o, lo que es lo mismo,
                      i=1       k=1              k=1       i=1


                    (a11 + · · · + a1p ) + · · · + (an1 + · · · + anp ) =
                     (a11 + · · · + a1n ) + · · · + (a1p + · · · + anp ) .

     La demostración es similar a la del punto anterior.

Ejercicio 1.2.1 Demostrar que la trasposición de matrices satisface las si-
guientes propiedades:

  1. ∀A ∈ Mm×n (K)          t t
                            ( A) = A

  2. ∀A, B ∈ Mm×n (K)             t
                                      (A + B) =t A +t B

  3. ∀A ∈ Mm×n (K), ∀B ∈ Mn×p (K),                     t
                                                           (A · B) =t B ·t A

Ejercicio 1.2.2 Demostrar que ∀A ∈ Mm×n (K) y ∀B ∈ Mn×m (K)

                                A · In = A ∧ In · B = B

(es decir, In deja invariante por el producto a cualquier matriz por la que se
pueda multiplicar, sea o no cuadrada).


1.2.4 El producto de una matriz por un escalar
Denición 1.2.10 Si α ∈ K y A ∈ Mm×n (K) se dene la matriz αA por las
siguientes condiciones

          ∀(i, j) ∈ {1, ..., m} × {1, ..., n}                    (αA)(i, j) = αA(i, j)
                            
                                    
                      1 2       −3 −6
Ejemplo 1.2.11 (−3)  2 0  =  −6 0 
                      3 −1      −9 3
38                                                                   Álgebra

Ejemplo 1.2.12 Siendo α ∈ K
                                              
                              α 0 0 ··· 0
                             0 α 0 ··· 0      
                                              
                             0 0 α ··· 0      
                 (αIn ) =                      ∈ Mn (K)
                             . . . ..
                              . . .      .     
                             . . .    . .
                                         .     
                              0 0 0 ··· α

Proposición 1.2.13 ∀α, β ∈ K ∀A ∈ Mm×n (K) se verica que
             1.∀B ∈ Mn×p (K) A · (αB) = (αA) · B = α(A · B)
             2.∀B ∈ Mm×n (K) α(A + B) = αA + αB
             3. (−α)(A) = (α)(−A) = −(αA)
             4. (α + β)A = αA + βA
             5. (αβ)A = α(βA)

Demostración Ejercicio.                                                    2


Teorema 1.2.14 Todo sistema de ecuaciones lineales con coecientes reales
o complejos o bien no tiene soluciones, o bien tiene exactamente una solución
o bien tiene una innidad de soluciones.

Demostración Necesitamos comprobar que si un sistema tiene más que
una solución, entonces tiene innitas soluciones. Sea AX = B el sistema
dado y s1 , s2 dos soluciones distintas (s1 = s2 ). Entonces,

            As1 = B = As2     y As1 − As2 = A(s1 − s2 ) = (0).

Se sigue que s1 − s2 es solución del sistema homogéneo AX = 0 y que para
todo λ ∈ K, s3 ≡ s1 + λ(s1 − s2 ) es solución de AX = B :

            As3 = A(s1 + λ(s1 − s2 )) = As1 + A(λ(s1 − s2 )) =

                     = As1 + λA(s1 − s2 ) = As1 = B.
Hemos hallado tantas soluciones como elementos en K. Como K es, por hi-
pótesis, R o C (que son innitos), obtenemos innitas soluciones.    2
Álgebra                                                                     39

1.2.5 El anillo de matrices cuadradas Mn (K)
Según hemos visto, el conjunto Mm×n (K) de las matrices de m las y n
columnas sobre un cuerpo K tiene estructura de grupo abeliano respecto de
la suma habitual de matrices.
    En este apartado vamos a estudiar la estructura algebraica que tiene el
conjunto de las matrices cuadradas, Mn×n (K), respecto de las operaciones
de suma y producto, ya que el producto de matrices es una operación en
Mn×n (K) (el producto de dos matrices cuadradas de dimensión n es una
matriz cuadrada de dimensión n).

Propiedades del producto en Mn (K)
Proposición 1.2.15 Si A, B, C ∈ Mn (K), se verica que:
 1. A · (B · C) = (A · B) · C (propiedad asociativa del producto de matrices)
 2. A · (B + C) = A · B + A · C (propiedad distributiva de + respecto de ·)
 3. A · In = A, In · A = A (la matriz In es elemento neutro para ·).

Demostración La demostración de las propiedades 1 y 2 se ha hecho en un
caso más general. La demostración de la propiedad 3 se deja como ejercicio
(se trata de ver que las matrices A · In y A son iguales y lo mismo con la otra
igualdad).                                                                   2


Observación 9 Por tener Mn (K) estructura de grupo conmutativo respecto
de la suma de matrices y satisfacer las propiedades de la proposición ante-
rior se dice que el conjunto de matrices cuadradas de orden n, Mn (K), tiene
estructura de anillo unitario respecto de la suma y producto de matrices ha-
bituales y elemento unidad la matriz In .

   La operación de producto en Mn (K) permite denir potencias enteras no
negativas de una matriz cuadrada:

Denición 1.2.16 Si A es una matriz cuadrada, A ∈ Mn (K), se dene
   ∀m ∈ N
                              Am = (Am−1 ) · A
donde, por convenio de notación, se asume que A0 = In .
40                                                                         Álgebra

Observación 10 No es difícil comprobar que ∀m, r ∈ N ∀A ∈ Mn (K) se
satisfacen las siguientes propiedades:
                                  1. Am+r = Am · Ar
                                  2. (Am )r = Amr

Observación 11 Nótese que como consecuencia de la no conmutatividad del
producto de matrices, si A, B ∈ Mn (K) en general tendremos que

           (A + B)2 = A2 + B 2 + A · B + B · A = A2 + B 2 + 2A · B

   Sin embargo, si A y B conmutan para el producto, es decir, si A·B = B·A,
entonces es obvio que (A + B)2 = A2 + B 2 + 2A · B y, en general, asumiendo
por convenio de notación que A0 = B 0 = In , se verica que ∀m ∈ N
                     m                    m                         m
  (A + B)m =                 Am · B 0 +        Am−1 · B + ... +         A0 · B m .
                     0                    1                         m
      Teniendo ahora en cuenta que,       siendo α ∈ K
                                                    
                              α 0          0 ··· 0
                             0 α          0 ··· 0 
                                                    
                                          α · · · 0  ∈ Mn (K)
                   (αIn ) =  0 0                    
                             . .          . ..    . 
                             . .
                              . .          .
                                           .     . . 
                                                   .
                              0 0          0 ··· α

y que toda matriz conmuta con la identidad, podemos obtener la siguiente
fórmula, válida ∀A ∈ Mn (K), ∀m ∈ N :

                         m                m                         m
     (A + αIn )m =             Am +           (αIn ) Am−1 + ... +       (αIn )m
                         0                1                         m

1.2.6 Matrices invertibles
Denición 1.2.17 Se dice que A ∈ Mn (K) es invertible si ∃B ∈ Mn (K) tal
que
                               A · B = In ∧ B · A = In .

    Obviamente, si B y B satisfacen las condiciones de la denición anterior,
es decir, si
                        A · B = In ∧ B · A = In
Álgebra                                                                           41

y
                            A · B = In ∧ B · A = In
resulta que

              B = B · In = B · (A · B ) = (B · A) · B = In · B = B

por lo que dada A ∈ Mn (K) a lo sumo hay una matriz B que satisface las
condiciones de la denición anterior.

Denición 1.2.18 Si A ∈ Mn (K) es invertible, y

                            A · B = In ∧ B · A = In .

se dice que B es la matriz inversa de A y a dicha matriz la denotaremos
por A−1 .

Observación 12 En la denición de matriz invertible, imponemos que el
producto de A por un cierta matriz B , por ambos lados, sea el elemento neu-
tro. Hemos de hacerlo así porque el producto de matrices no es conmutativo.
Sin embargo, veremos en el teorema 1.2.22 que es suciente comprobarlo por
uno sólo de los dos lados.

                                                               2 1/2
Ejemplo 1.2.19 La matriz inversa de la matriz A =                         es la ma-
                                                               2 1
                 1 −1/2
triz A−1 =                    .
                −2  2

Proposición 1.2.20 Sean A, B, A1 , · · · , Ap ∈ Mn (K). Se verica que :

    1. si A, B ∈ Mn (K) son invertibles, entonces A · B es invertible y

                                  (A · B)−1 = B −1 · A−1 ,

    2. si A1 , · · · , Ap son invertibles, entonces el producto A1 · A2 · · · · Ap es
       invertible y (A1 · A2 · · · · Ap )−1 = Ap −1 · · · A2 −1 A1 −1 ,

    3. si A ∈ Mn (K) es invertible, entonces (−A) ∈ Mn (K) es invertible y
       (−A)−1 = −(A−1 ),
42                                                                   Álgebra

     4. si A ∈ Mn (K) es invertible, entonces
                                           t
                                               (A) ∈ Mn (K)
                                                −1
        es invertible y   t
                              (A−1 ) = (t A)         .
Corolario 1.2.21 Si A ∈ Mn (K) es una matriz invertible, se verica que
                                      −1
     1. A−1 es invertible y (A−1 ) = A
     2. ∀m ∈ N Am es invertible y (Am )−1 = (A−1 )m
     3. ∀α ∈ K, α = 0 se verica que αA es invertible, y (αA)−1 = α−1 A−1
   El siguiente teorema arma que si una matriz cuadrada tiene una matriz
inversa a la derecha o a la izquierda, entonces es invertible:
Teorema 1.2.22 Si A, B ∈ Mn (K) se verica que:
     1. A · B = In ⇒ B = A−1 .
     2. B · A = In ⇒ B = A−1 .

Demostración Probemos 2: suponemos que B · A = In , y debemos probar
que A · B = In .
   Si B · A = In , todo sistema que tenga como matriz asociada A tiene una
única solución: dado un sistema A · X = C , donde C es una matriz columna,
multiplicando a ambos lados de la igualdad por B se obtiene:
                                    B · (A · X) = B · C
Por la asociatividad del producto de matrices
                                    (B · A) · X = B · C
Y usando nuestra hipótesis inicial

                                   X = In · X = B · C
Es decir, que si X verica la ecuación A · X = C , necesariamente X = B · C .
                                      j
    En concreto, denotando con In la columna j -ésima de In , el sistema A ·
X = In tiene una única solución B · In , que es la columna j -esima de B ,
        j                                  j

que denotamos B j , para cada j ∈ {1, . . . , n}. Es decir, hemos obtenido que
A·B j = In para cada j ∈ {1, . . . , n}. Entonces también A·B = In y podemos
          j

escribir B = A−1 .
    Para probar 1 suponemos que A · B = In . Aplicamos 2 a la matriz B y
obtenemos que B · A = In .                                                  2
Álgebra                                                                     43

1.2.7 Matrices elementales y un método para hallar A−1
Denición 1.2.23 Se dice que una matriz A ∈ Mn (K) es una matriz ele-
mental si es el resultado de realizar una única transformación elemental por
las sobre la matriz In .
                     1 0
Ejemplo 1.2.24                 es una matriz elemental, pues
                     0 −2
                      1 0      F2 = (−2)F2     1 0
                      0 1          −→          0 −2
                         
               1 0 0 0                  
             0 0 0 1            1 0 5
Igualmente  0 0 1 0 y
                            0 1 0  son matrices elementales, pues
                                  0 0 1
               0 1 0 0
                                                      
                   1 0 0 0                    1 0 0 0
                 0 1 0 0  F2 ↔ F4  0 0 0 1 
                                                      
                 0 0 1 0          −→      0 0 1 0 
                   0 0 0 1                    0 1 0 0
                                                      
                   1 0 0                        1 0 5
                 0 1 0  F1 = F1 + 5F3  0 1 0  .
                                    −→
                   0 0 1                        0 0 1
Es obvio que si A es una matriz elemental de orden n, la matriz In se puede
obtener realizando una única transformación elemental sobre la matriz A (la
transformación elemental inversa).
    El siguiente resultado quedará sucientemente vericado tras la realización
de la práctica 2 en el aula informática:
Teorema 1.2.25 Si E es la matriz elemental de orden m que se obtiene al
realizar la transformación elemental t sobre las las de Im , y A ∈ Mm×n (K),
entonces la matriz resultante de realizar la transformación t sobre las las
de A es la matriz producto E · A.
Ejercicio 1.2.3 Vericar el resultado anterior realizando la transformación
elemental F3 = F3 + 3F1 sobre la matriz
                                       
                                −1 4 6
                              0    2 1 .
                                0   0 1
44                                                                    Álgebra

    Teniendo ahora en cuenta que, según hemos visto, cualquier transforma-
ción elemental es reversible, y que la inversa de una transformación elemental
es una transformación elemental, según el cuadro que ya establecimos en su
momento
        TRANSFORMACIÓN              TRANSFORMACIÓN INVERSA
           Fi = Fi + λFj                  Fi = Fi − λFj
                                                  1
           Fi = λFi (λ = 0)                 Fi = Fi
                                                  λ
                Fi ↔ Fj                      Fi ↔ Fj

resulta que, si denotamos por Pi (λ) a la matriz elemental asociada a la trans-
formación Fi = λFi (λ = 0), por Sij (λ) a la matriz elemental asociada a la
transformación Fi = Fi + λFj y por Eij a la matriz elemental asociada a la
transformación Fi ↔ Fj , tenemos el siguiente corolario del teorema anterior:

Corolario 1.2.26 Toda matriz elemental es invertible, y su inversa también
es una matriz elemental. Concretamente,

                             (Sij (λ))−1 = Sij (−λ)
                                                1
                              (Pi (λ))−1 = Pi ( )
                                               λ
                                      −1
                                (Eij )   = Eji

Ejercicio 1.2.4 Verifíquese el resultado recogido en el corolario anterior,
multiplicando las matrices
                                              1 0
                          P2 (−5) =
                                              0 −5
                                           
                                      1 0 4
                          S13 (4) =  0 1 0 
                                      0 0 1
y                                                   
                                      1   0    0   0
                                     0   0    0   1 
                             E24   =
                                     0
                                                     
                                          0    1   0 
                                      0   1    0   0
por sus correspondientes inversas y observando que en cada caso el resultado
es la matriz identidad del orden correspondiente.
Álgebra                                                                       45

Teorema 1.2.27 Si A ∈ Mn (K) las siguientes proposiciones son equivalen-
tes:
       1. A es invertible
       2. La ecuación A · X = (0) sólo tiene la solución trivial
       3. A es equivalente por las a la matriz In , es decir,
       su forma escalonada reducida es la matriz identidad In
       4. El sistema A · X = b es compatible determinado para toda matriz
       columna b ∈ Mn×1 (K) y su única solución es X = A−1 · B.

Ejemplo 1.2.28 Si A ∈ Mn (K) y b ∈ Mn×1 (K), entonces el sistema A ·
X = b es compatible determinado para toda matriz columna si y solo si
A es invertible. Si A no es invertible o si A no es una matriz cuadrada,
podemos todavía determinar condiciones sobre la matriz b tales que el sistema
A·X = b sea consistente. Por ejemplo, aplicando el método de Gauss-Jordan
a lamatriz ampliada del sistema se obtiene que
     x1 + x2 + 2x3 = b1
           x1 + x3 = b2
    
       2x1 + x2 + 3x3 = b3
                                                               
       1 1 2 b1        F2 = F2 − F1      1 1        2       b1
     1 0 1 b2  F3 = F3 − F1  0 −1 −1 b2 − b1 
       2 1 3 b3              →           2 1        3 b3 − 2b1
     F1 = F1 + F2                           
                        1 0 1        b2
     F3 = F3 − F2 
                        0 1 1 −b2 + b1  .
       F2 = −F2
                        0 0 0 b3 − b2 − b1
           →
    Si b3 − b2 − b1 = 0 el sistema no es compatible y si b3 − b2 − b1 = 0 el
                                        x1 = −x3 + b2
sistema es equivalente al sistema                            , que tiene innitas
                                     x2 = −x3 − b2 + b1
soluciones de la forma {(−t + b2 , −t − b2 + b1 , t) : t ∈ R} .

Método para determinar la matriz inversa
El teorema anterior permite establecer un método para determinar la inversa
de una matriz invertible. Pues si A es invertible, A es equivalente por las a
la matriz In y existen m matrices elementales E1 , E2 , · · · , Em tales que

                          Em · Em−1 · ... · E1 · A = In .

Se sigue que, por el teorema 1.2.22,
46                                                                    Álgebra



                           Em · Em−1 · · · · · E1 = A−1 .
es decir, recogiendo las dos igualdades anteriores,

                        In    = Em · Em−1 · ... · E1 · A
                        −1
                       A      = Em · Em−1 · ... · E1 · In

En otras palabras, la sucesión de transformaciones elementales que transfor-
ma la matriz A en la matriz In , también transforma la matriz In en la matriz
A−1 , con lo que, siendo t1 , ..., tm las transformaciones elementales por las
que permiten obtener In a partir de A, el esquema

                      A In → t1 , ..., tm → In         A−1
nos da un método para la obtención de la inversa de una matriz invertible A
por transformaciones elementales .
                                                              
                                                       −1 −1 0
Ejemplo 1.2.29 Para calcular la inversa de la matriz  2 1 0  pro-
                                                        2 1 1
cederíamos del siguiente modo

               −1 −1 0           1 0 0
                                                 F2 = F2 + 2F1
               2  1 0            0 1 0      →                  →
                                                 F3 = F3 + 2F1
               2  1 1            0 0 1

                                               F1    = F1 − F2
                −1 −1 0           1 0 0
                                               F     = F3 − F2
                0 −1 0            2 1 0      → 3               →
                                               F1    = (−1)F1
                0 −1 1            2 0 1
                                               F2    = (−1)F2

                          1 0 0            1   1 0
                          0 1 0           −2 −1 0
                          0 0 1            0 −1 1
                                            −1         
                            −1 −1         0        1 1 0
obteniendo, por tanto que  2   1         0  =  −2 −1 0  .
                             2  1         1        0 −1 1
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Introducción al Álgebra Lineal

Más contenido relacionado

La actualidad más candente

Algebra lineal bernardo acevedo frias
Algebra lineal bernardo acevedo friasAlgebra lineal bernardo acevedo frias
Algebra lineal bernardo acevedo friasHarold Contreras
 
Elipticas
ElipticasElipticas
ElipticasTino Lc
 
Calculo vectorial
Calculo vectorialCalculo vectorial
Calculo vectorialmasterkits
 
Calculo diferencial integral_func_una_var (1)
Calculo diferencial integral_func_una_var (1)Calculo diferencial integral_func_una_var (1)
Calculo diferencial integral_func_una_var (1)Roberto Soto
 
43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables
43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables
43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variablesmarcopazo
 
Metodos de la fisica matematica
Metodos de la fisica matematicaMetodos de la fisica matematica
Metodos de la fisica matematicaFabian Romero
 

La actualidad más candente (15)

22
2222
22
 
Ed
EdEd
Ed
 
Algebra lineal bernardo acevedo frias
Algebra lineal bernardo acevedo friasAlgebra lineal bernardo acevedo frias
Algebra lineal bernardo acevedo frias
 
Elipticas
ElipticasElipticas
Elipticas
 
R manual
R manualR manual
R manual
 
Calculo vectorial
Calculo vectorialCalculo vectorial
Calculo vectorial
 
Librotmed
LibrotmedLibrotmed
Librotmed
 
Calculo diferencial integral_func_una_var (1)
Calculo diferencial integral_func_una_var (1)Calculo diferencial integral_func_una_var (1)
Calculo diferencial integral_func_una_var (1)
 
43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables
43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables
43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables
 
Teoriapto
TeoriaptoTeoriapto
Teoriapto
 
Calculo diferencial integral_func_una_var.pdf 03
Calculo diferencial integral_func_una_var.pdf   03Calculo diferencial integral_func_una_var.pdf   03
Calculo diferencial integral_func_una_var.pdf 03
 
Calculo tensorial bueno
Calculo tensorial buenoCalculo tensorial bueno
Calculo tensorial bueno
 
Metodos de la fisica matematica
Metodos de la fisica matematicaMetodos de la fisica matematica
Metodos de la fisica matematica
 
VXC: Computer Vision
VXC: Computer VisionVXC: Computer Vision
VXC: Computer Vision
 
Mecanica00
Mecanica00Mecanica00
Mecanica00
 

Similar a Introducción al Álgebra Lineal

Similar a Introducción al Álgebra Lineal (20)

Libro algebra-lineal
Libro algebra-linealLibro algebra-lineal
Libro algebra-lineal
 
algebra lineal
algebra linealalgebra lineal
algebra lineal
 
Algebra_Lineal (3) GABRIELA GERONIMO.pdf
Algebra_Lineal (3) GABRIELA GERONIMO.pdfAlgebra_Lineal (3) GABRIELA GERONIMO.pdf
Algebra_Lineal (3) GABRIELA GERONIMO.pdf
 
Algebra_lineal (2) HECTOR MARTINEZ.pdf
Algebra_lineal (2) HECTOR MARTINEZ.pdfAlgebra_lineal (2) HECTOR MARTINEZ.pdf
Algebra_lineal (2) HECTOR MARTINEZ.pdf
 
Álgebra lineal y geometría ( PDFDrive ).pdf
Álgebra lineal y geometría ( PDFDrive ).pdfÁlgebra lineal y geometría ( PDFDrive ).pdf
Álgebra lineal y geometría ( PDFDrive ).pdf
 
Notas de algebra lineal
Notas de algebra linealNotas de algebra lineal
Notas de algebra lineal
 
Algebra lineal
Algebra linealAlgebra lineal
Algebra lineal
 
Documento completo _---matematica basica para agronomia
Documento completo _---matematica basica para agronomiaDocumento completo _---matematica basica para agronomia
Documento completo _---matematica basica para agronomia
 
Edteor
EdteorEdteor
Edteor
 
Edteor
EdteorEdteor
Edteor
 
Geometría vectorial y analítica. abraham asmar
Geometría vectorial y analítica. abraham asmarGeometría vectorial y analítica. abraham asmar
Geometría vectorial y analítica. abraham asmar
 
HUGO_ALBERTO_RINCON_MEJIA_ALGEBRA_LINEAL.pdf
HUGO_ALBERTO_RINCON_MEJIA_ALGEBRA_LINEAL.pdfHUGO_ALBERTO_RINCON_MEJIA_ALGEBRA_LINEAL.pdf
HUGO_ALBERTO_RINCON_MEJIA_ALGEBRA_LINEAL.pdf
 
Algebra lineal 08_09
Algebra lineal 08_09Algebra lineal 08_09
Algebra lineal 08_09
 
Algebra lineal 08_09
Algebra lineal 08_09Algebra lineal 08_09
Algebra lineal 08_09
 
Algebra lineal 08_09
Algebra lineal 08_09Algebra lineal 08_09
Algebra lineal 08_09
 
Apuntes lineal
Apuntes linealApuntes lineal
Apuntes lineal
 
Algebra lineal 08_09
Algebra lineal 08_09Algebra lineal 08_09
Algebra lineal 08_09
 
Algebra lineal para estudiantes de Ingenieria y Ciencias.pdf
Algebra lineal para estudiantes de Ingenieria y Ciencias.pdfAlgebra lineal para estudiantes de Ingenieria y Ciencias.pdf
Algebra lineal para estudiantes de Ingenieria y Ciencias.pdf
 
Fundamentos de-calculo
Fundamentos de-calculoFundamentos de-calculo
Fundamentos de-calculo
 
Fundamentos de-calculo
Fundamentos de-calculoFundamentos de-calculo
Fundamentos de-calculo
 

Último

Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdfResolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.José Luis Palma
 
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxPRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxinformacionasapespu
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticosisabeltrejoros
 
30-de-abril-plebiscito-1902_240420_104511.pdf
30-de-abril-plebiscito-1902_240420_104511.pdf30-de-abril-plebiscito-1902_240420_104511.pdf
30-de-abril-plebiscito-1902_240420_104511.pdfgimenanahuel
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFAROJosé Luis Palma
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PCCesarFernandez937857
 
Manual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdfManual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdfMaryRotonda1
 
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxTIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxlclcarmen
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSjlorentemartos
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para eventoDiegoMtsS
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptxJunkotantik
 
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxEXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxPryhaSalam
 

Último (20)

La Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdfLa Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdf
 
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdfResolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
 
Repaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia GeneralRepaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia General
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.
 
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxPRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticos
 
30-de-abril-plebiscito-1902_240420_104511.pdf
30-de-abril-plebiscito-1902_240420_104511.pdf30-de-abril-plebiscito-1902_240420_104511.pdf
30-de-abril-plebiscito-1902_240420_104511.pdf
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PC
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
Sesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdfSesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdf
 
Manual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdfManual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdf
 
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxTIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para evento
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
Presentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza MultigradoPresentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza Multigrado
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptx
 
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxEXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
 

Introducción al Álgebra Lineal

  • 2. 2 Álgebra Introducción En sus orígenes, el álgebra clásica era el arte de resolver ecuaciones (la palabra álgebra proviene de un vocablo árabe que signica reducción). El álgebra moderna está caracterizada por el estudio de ciertas estructuras abs- tractas que tienen en común una gran variedad de objetos matemáticos. El calicativo abstracto se reere al resultado de realizar el proceso de abstrac- ción sobre las propiedades observables de ciertos objetos matemáticos, es decir, el proceso consistente en separar la forma del contenido. La estructura principal objeto de estudio en esta publicación es la de espacio vectorial. Las aplicaciones de esta estructura incluyen virtualmen- te todas las áreas de la ciencia. Se incluye una aplicación de los espacios vectoriales relacionada estrechamente con el mundo de la informática y las telecomunicaciones, en concreto a la teoría de códigos y se estudian varias técnicas y herramientas de interés para otras aplicaciones. Este volumen viene acompañado por un libro de Prácticas y Problemas con el sistema Maple V, disponible en versión digital, que contiene una am- pliación y completa la descripción de los conceptos teóricos. Las prácticas permiten el desarrollo y la experimentación con los aspectos más numéri- cos y están diseñada para potenciar el empleo de la notable capacidad de visualización gráca que ofrece el programa Maple V. A cada tema teórico y práctico hemos añadido ejercicios resueltos y ejer- cicios propuestos. Los principales objetivos didácticos que intentamos conseguir son que el lector: • aprenda y utilize correctamente técnicas y métodos propios del álgebra lineal. • vea la descripción de algunas aplicaciones a la Informática. • comprenda y aplique algunos métodos numéricos de resolución de sis- temas de ecuaciones lineales y de aproximación de autovalores y auto- vectores. • aprenda a utilizar el programa Maple V (como ejemplo de sistema de computación simbólica) en sus aplicaciones al álgebra lineal. Algunos apartados de esta publicación (sobre todo en la parte de ejerci- cios) son una adaptación del material contenido (unas veces sin modicarlo, otras proponiendo variaciones de ello) en la bibliografía incluida.
  • 3. Álgebra 3 Agradecimientos Queremos agradecer al profesor Luis E. Solá Conde por su participación en la corrección de estas notas y la elaboración de los enunciados de varios ejercicios propuestos en este libro. Gracias también a los profesores Alejandro J. García del Amo Jiménez y Begoña Jiménez Martín por la elaboración de los enunciados de varios ejercicios propuestos y a los alumnos que han señalado erratas y errores en versiones previas de esta publicación.
  • 4. 4 Álgebra
  • 5. Índice General 1 Sistemas de ecuaciones lineales, matrices y estructuras alge- braicas 9 1.1 Sistemas de ecuaciones lineales, matrices y eliminación gaussiana 10 1.1.1 Introducción a los sistemas de ecuaciones lineales . . . 10 1.1.2 Sistemas homogéneos . . . . . . . . . . . . . . . . . . . 13 1.1.3 Transformaciones elementales por las. Introducción al método de Gauss-Jordan . . . . . . . . 14 1.1.4 Sistemas equivalentes . . . . . . . . . . . . . . . . . . . 18 1.1.5 Estrategia para la aplicación del método de eliminación gaussiana . . . . . . . . . . . . . . . . . 22 1.1.6 Método de Gauss-Jordan . . . . . . . . . . . . . . . . . 24 1.2 Matrices y operaciones con matrices . . . . . . . . . . . . . . . 26 1.2.1 Suma de matrices . . . . . . . . . . . . . . . . . . . . . 29 1.2.2 Producto de matrices . . . . . . . . . . . . . . . . . . . 31 1.2.3 Propiedades del producto de matrices . . . . . . . . . . 33 1.2.4 El producto de una matriz por un escalar . . . . . . . . 37 1.2.5 El anillo de matrices cuadradas Mn (K) . . . . . . . . . 39 1.2.6 Matrices invertibles . . . . . . . . . . . . . . . . . . . . 40 1.2.7 Matrices elementales y un método para hallar A−1 . . . 43 1.3 Estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . 47 1.3.1 El concepto de operación . . . . . . . . . . . . . . . . . 47 1.3.2 Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 1.3.3 Anillos y cuerpos . . . . . . . . . . . . . . . . . . . . . 52 1.3.4 Introducción a los Tipos Abstractos de Datos . . . . . 57 1.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 1.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 60 1.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 64 5
  • 6. 6 Álgebra 2 Espacios vectoriales 71 2.1 Vectores en el plano y en el espacio . . . . . . . . . . . . . . . 73 2.1.1 Producto vectorial y producto mixto . . . . . . . . . . 81 2.1.2 Rectas en le plano . . . . . . . . . . . . . . . . . . . . 83 2.1.3 Planos en el espacio tridimensional . . . . . . . . . . . 85 2.1.4 Rectas en el espacio tridimensional . . . . . . . . . . . 87 2.2 Espacios vectoriales sobre un cuerpo K . . . . . . . . . . . . . 89 2.2.1 Propiedades de vectores . . . . . . . . . . . . . . . . . 92 2.2.2 Producto cartesiano de espacios vectoriales . . . . . . . 93 2.2.3 Funciones con codominio en un espacio vectorial . . . . 96 2.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . 100 2.4 Dependencia e independencia lineal . . . . . . . . . . . . . . . 104 2.5 Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . 112 2.5.1 Sistemas generadores y bases . . . . . . . . . . . . . . 112 2.5.2 Equipotencia de bases . . . . . . . . . . . . . . . . . . 116 2.6 Subespacios vectoriales y dimensión . . . . . . . . . . . . . . . 120 2.7 Rango de un sistema de vectores y de una matriz . . . . . . . 122 2.8 El teorema de Rouché-Fröbenius . . . . . . . . . . . . . . . . . 123 2.9 Método de Gauss y rango . . . . . . . . . . . . . . . . . . . . 130 2.9.1 Transformaciones elementales por columnas y matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . 130 2.9.2 Método de Gauss para calcular el rango de una matriz 132 2.9.3 Algoritmo de extensión de una base . . . . . . . . . . . 138 2.9.4 Rango y espacio la de una matriz . . . . . . . . . . . 139 2.10 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 2.10.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 141 2.10.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 146 3 Funciones lineales 153 3.1 Funciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 154 3.2 Propiedades de funciones lineales . . . . . . . . . . . . . . . . 158 3.3 Núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . 161 3.4 Espacios vectoriales isomorfos . . . . . . . . . . . . . . . . . . 165 3.5 Funciones lineales en espacios vectoriales de dimensión nita . 167 3.5.1 Determinación de funciones lineales en espacios vecto- riales de dimensión nita . . . . . . . . . . . . . . . . . 167 3.5.2 Dimensiones del núcleo y de la imagen . . . . . . . . . 172 3.5.3 Matriz asociada a una función lineal . . . . . . . . . . 174
  • 7. Álgebra 7 3.5.4 Algoritmo para hallar una base del núcleo y de la imagen178 3.5.5 Matriz asociada a la composición de funciones lineales . 179 3.5.6 Matrices semejantes y cambios de base . . . . . . . . . 183 3.5.7 Ecuaciones paramétricas e implícitas de un subespacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . 185 3.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 3.6.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 190 3.6.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 193 4 Espacios vectoriales euclídeos 197 4.1 Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . 197 4.2 Longitud o norma euclídea de un vector . . . . . . . . . . . . 200 4.2.1 Propiedades de la norma euclídea . . . . . . . . . . . . 200 4.3 Método de ortogonalización de Gram-Schmidt . . . . . . . . . 204 4.3.1 Descomposición QR de una matriz . . . . . . . . . . . 209 4.4 Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . . 211 4.4.1 Método para hallar una proyección ortogonal . . . . . . 214 4.4.2 Aproximación óptima de un vector. . . . . . . . . . . . 215 4.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 4.5.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 217 4.5.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 217 5 Códigos lineales 219 5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 5.2 Distancia de Hamming, detección y corrección de errores . . . 222 5.2.1 Código de paridad: detección de errores simples . . . . 223 5.2.2 Código de repetición: corrección de errores simples . . 224 5.3 Códigos lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 225 5.3.1 Paso de una matriz de control a una matriz generadora 228 5.3.2 Paso de una matriz generadora a una matriz de control 229 5.3.3 Detección y corrección de errores . . . . . . . . . . . . 232 5.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 5.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 235 5.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 236 6 Autovalores y autovectores 239 6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 6.2 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . 241
  • 8. 8 Álgebra 6.3 Funciones complejas de variable real . . . . . . . . . . . . . . 243 6.3.1 La exponencial compleja . . . . . . . . . . . . . . . . . 244 6.4 Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . 246 6.4.1 La ecuación de primer orden . . . . . . . . . . . . . . . 246 6.4.2 La ecuación de orden n . . . . . . . . . . . . . . . . . . 249 6.4.3 Sistemas de ecuaciones diferenciales . . . . . . . . . . . 251 6.5 La semejanza de matrices y los sistemas de ecuaciones . . . . . 253 6.5.1 Sistemas diagonales . . . . . . . . . . . . . . . . . . . . 255 6.5.2 Sistemas triangulares . . . . . . . . . . . . . . . . . . . 256 6.6 Diagonalización y triangulación de matrices . . . . . . . . . . 259 6.6.1 El polinomio característico de una matriz . . . . . . . . 259 6.6.2 Matrices diagonalizables . . . . . . . . . . . . . . . . . 263 6.6.3 Triangulación de matrices . . . . . . . . . . . . . . . . 268 6.6.4 Resolución de sistemas de ecuaciones diferenciales por triangulación . . . . . . . . . . . . . . . . . . . . . . . 271 6.7 Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . . 279 6.7.1 Relaciones de primer orden . . . . . . . . . . . . . . . . 281 6.7.2 Sistemas de relaciones de recurrencia . . . . . . . . . . 286 6.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290 6.8.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 290 6.8.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 291 7 Soluciones de los ejercicios 293 7.1 Soluciones de los ejercicios del capítulo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 293 7.2 Soluciones de los ejercicios del capítulo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 307 7.3 Soluciones de los ejercicios del capítulo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 7.4 Soluciones de los ejercicios del capítulo 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . 331 7.5 Soluciones de los ejercicios del capítulo 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 332 7.6 Soluciones de los ejercicios del capítulo 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 A Nuevo método de triangulación por semejanza 343
  • 9. Capítulo 1 Sistemas de ecuaciones lineales, matrices y estructuras algebraicas Este primer capítulo comienza con el estudio de los sistemas de ecuaciones lineales, de las matrices y de las operaciones con matrices. Estos conceptos están en la base del álgebra lineal, y se asume que ya se ha tenido un contacto previo con ellos en cursos anteriores. Es conveniente señalar que en este nivel no sólo es importante entender los métodos de cálculo de las soluciones de los problemas que se estudiarán, sino también el porqué dichos métodos funcionan. Hablaremos de sistemas de n ecuaciones con m variables, donde n y m en general no son iguales, y de un algoritmo de cálculo, el método de elimi- nación gaussiana, que nos permitirá resolver sistemas de ecuaciones lineales generales. En la segunda parte del capítulo, una vez establecidas las propiedades que satisfacen las matrices respecto de la suma y producto, se introducen las estructuras algebraicas de grupo, anillo y cuerpo con el objeto de reu- nir, bajo una estructura algebraica abstracta, las propiedades que tienen en común, por ejemplo, los números enteros, reales y complejos, las matrices y los polinomios, y destacar aquellas propiedades que no comparten. En ese sentido, la denición de una estructura algebraica (por ejemplo, la denición de grupo) responderá a la abstracción de ciertas propiedades comunes a los objetos anteriores, entendiendo por abstracción el proceso de separar la for- ma del contenido. Como colofón del capítulo y aplicación de los conceptos previamente introducidos veremos una introducción a los tipos abstractos de datos. 9
  • 10. 10 Álgebra 1.1 Sistemas de ecuaciones lineales, matrices y eliminación gaussiana Al aplicar la teoría de ecuaciones lineales, entre otras disciplinas, a la infor- mática, aparecen ecuaciones lineales con coecientes enteros, binarios (0 ó 1), reales o incluso complejos. La denición de la estructura algebraica de cuerpo se introducirá más tarde. Cómo en la mayor parte de los resultados referentes a la teoría de ecuaciones lineales no hace falta hacer distinción entre los casos en los que los coecientes son elementos del cuerpo R de los números reales o del cuerpo C de los números complejos, a lo largo del ca- pítulo se considerará que los coecientes de las ecuaciones pertenecen a un cuerpo genérico K, donde K = R ó C, aunque en algunos casos en los que se dirá explícitamente, se consideraran también coecientes binarios, es decir, del cuerpo Z2 = {0, 1} de los números enteros módulo 2. Se asume que el estudiante ha trabajado en cursos anteriores con elemen- tos de R2 y R3 , a los que se denominan pares ordenados y ternas. Ambos conceptos son casos particulares del concepto de n − tupla o elemento del producto cartesiano de n copias de R, Rn , donde n es un número natural, o en general de Kn . Así Kn = {(x1 , ..., xn ) | ∀i ∈ {1, ..., n} xi ∈ K} De este modo, un par ordenado es una 2 − tupla (un elemento de K2 ) y una terna es una 3 − tupla (un elemento de K3 ). 1.1.1 Introducción a los sistemas de ecuaciones lineales Denición 1.1.1 Una ecuación lineal en las variables (o incógnitas) x1 , ..., xn es una expresión de la forma a1 x1 + ... + an xn = b A a1 , ..., an ∈ K se les denomina coecientes de la ecuación, y a b ∈ K término independiente. Observación 1 Habitualmente, los coecientes a1 , ..., an y el término inde- pendiente b serán elementos de un cuerpo K (con K = R ó C). En tal caso se dice que la ecuación anterior es una ecuación lineal con coecientes en K.
  • 11. Álgebra 11 Observación 2 Cuando n ≤ 3 es usual utilizar las variables x, y y z en lugar de x1 , x2 y x3 Ejemplo 1.1.2 Si n = 2 y a1 , a2 ∈ R, la ecuación lineal a1 x + a2 y = b (I) representa una recta en el plano R2 , es decir, el conjunto de pares (x, y) que satisfacen la ecuación (I) constituyen una recta. Por ejemplo, la ecuación y − 2x = 2 representa la recta T 2 E -1 0 Figura 1.1: La recta y=2x+2 Es importante observar que las operaciones que afectan a las variables que intervienen en las ecuaciones lineales se reducen a multiplicarlas por los coecientes y sumarlas. Así por ejemplo, 3x + 4y = 24 √ x1 − x2 + 5x3 − ( 2)x4 = 1 (e2 )x1 − 3x2 + x3 − x4 = 0 son ecuaciones lineales. Sin embargo NO son ecuaciones lineales 3x2 + 4y = 24 √ x1 − x2 + 5x3 − 2 x4 = 1 e2x1 − 3x2 + x3 − x4 = 0
  • 12. 12 Álgebra Denición 1.1.3 Se dice que (α1 , ..., αn ) ∈ Kn es solución de la ecuación a1 x1 + ... + an xn = b si a1 α1 + ... + an αn = b. Ejemplo 1.1.4 (x, y, z) = (3, 2, −1) es solución de x + y + z = 4. Por otra parte (x, y, z) = (4, 0, 0) también es solución de dicha ecuación. Un sistema de ecuaciones lineales es una sucesión nita de ecuaciones lineales. Es usual representar los sistemas de ecuaciones lineales verticalmen- te (i.e., colocando la sucesión de ecuaciones lineales en columna). Así, un sistema de m ecuaciones lineales con n incógnitas se representaría por   a11 x1 + ... + a1n xn = b1  . .  .  a x + ... + a x = b m1 1 mn n m Ejemplo 1.1.5 El sistema   x2 + x3 = 1 2x1 − x3 = 2  x2 + x3 = 4 es un sistema de 3 ecuaciones con 3 incógnitas. Denición 1.1.6 Se dice que (α1 , ..., αn ) ∈ Kn es solución del sistema de ecuaciones   a11 x1 + ... + a1n xn = b1  . .  .  a x + ... + a x = b m1 1 mn n m si ∀i ∈ {1, ..., m} ai1 α1 + ... + ain αn = bi o, lo que es lo mismo,   a11 α1 + ... + a1n αn = b1  . .  .  a α + ... + a α = b m1 1 mn n m
  • 13. Álgebra 13 Es importante tener presente que los sistemas de ecuaciones lineales pue- den no tener soluciones, o tener más de una. Por ejemplo, el sistema de ecuaciones lineales con coecientes en R x1 − x2 = 1 x1 − x2 = 4 no tiene solución, ya que contiene las ecuaciones de dos rectas distintas y paralelas. Los sistemas de ecuaciones lineales que no tienen solución, como el del ejemplo anterior, se denominan sistemas incompatibles. Los que tienen al menos una solución, esto es, los sistemas compati- bles, pueden tener una única solución, en cuyo caso se denominan compati- bles determinados, o más de una solución, en cuyo caso, si los coecientes del sistema son números reales o complejos, el sistema tiene innitas solucio- nes (como se verá por el teorema 1.2.14), y los sistemas correspondientes se denominan compatibles indeterminados. Ejercicio 1.1.1 Encontrar tres sistemas de dos ecuaciones lineales con coe- cientes en R con dos incógnitas, uno compatible determinado, otro compatible indeterminado y un tercero incompatible y representar el conjunto solución de cada una de las dos ecuaciones lineales que lo forman en el plano R2 . Extraer conclusiones. 1.1.2 Sistemas homogéneos Denición 1.1.7 Se dice que un sistema de ecuaciones lineales es homogé- neo si los términos independientes de todas las ecuaciones que lo constituyen son iguales a 0. Ejemplo 1.1.8 x1 + x3 = 0 2x1 − x2 + x3 = 0 es un sistema homogéneo de 2 ecuaciones con 3 incógnitas. Observación 3 Cualquier sistema de ecuaciones lineales homogéneo   a11 x1 + ... + a1n xn = 0  . .  .  a x + ... + a x = 0 m1 1 mn n
  • 14. 14 Álgebra es compatible, puesto que (0, ..., 0) ∈ Kn es siempre una solución de dicho sistema. A esta solución se la conoce como solución trivial. Si un sistema homogéneo tiene soluciones distintas de la trivial, a cualquiera de dichas soluciones la denominaremos solución no trivial. En el capítulo 2 demostraremos que un sistema homogéneo de ecuaciones lineales con coecientes en R ó C satisface exactamente una de las siguientes proposiciones: • El sistema homogéneo sólo tiene la solución trivial. • El sistema homogéneo tiene innitas soluciones además de la trivial. En particular, demostraremos que todo sistema homogéneo con coe- cientes en R ó C que tenga más incógnitas que ecuaciones tiene innitas soluciones. Se pueden comprender e interiorizar los resultados anteriores a través de la resolución de los siguientes ejercicios: Ejercicio 1.1.2 Comprobar que el sistema homogéneo x1 + x3 = 0 2x1 − x2 + x3 = 0 tiene innitas soluciones en ∈ R3 , despejando las variables x1 y x2 en función de x3 , y obtener una solución del sistema para cada valor de x3 considerado. Ejercicio 1.1.3 Vericar que el sistema x1 + x2 = 0 2x1 − x2 = 0 sólo tiene la solución trivial. 1.1.3 Transformaciones elementales por las. Introducción al método de Gauss-Jordan En esta sección haremos una primera descripción del método de Gauss- Jordan para encontrar las soluciones (si es que existen) de un sistema de ecuaciones lineales. La justicación del método y su descripción precisa se
  • 15. Álgebra 15 realizará en las dos siguientes secciones. En esta sección también daremos una primera justicación de la denición del producto de matrices (i.e., de porqué el producto de matrices se dene tal y como se dene). Al proceso de cálculo de las soluciones de un sistema de ecuaciones compatible se le denomina resolución del sistema. Si consideramos el sistema de ecuaciones lineales:   x1 − x2 + x3 = 1 2x1 + x2 − x3 = 2  x1 + 2x2 + x3 = 4 podemos resolverlo eliminando sucesívamente una de las incógnitas de dos de las ecuaciones, después otra de las restantes y así sucesivamente hasta conocer el valor de una incógnita, y a partir de ella el de las demás. En este caso, multiplicando la primera ecuación por 2 y restándosela a la segunda, y restando la primera ecuación a la tercera, obtenemos:   x1 − x2 + x3 = 1 3x2 − 3x3 = 0  3x2 = 3. A partir de aquí, de la tercera ecuación se obtiene x2 = 1. Sustituyendo hacia atrás vamos obteniendo sucesívamente el valor del resto de las incógnitas. En este caso, de la segunda ecuación obtenemos que x3 = 1, y, conocidos los valores de x2 y x3 , de la primera ecuación obtenemos que x1 = 1. El método descrito, consistente en ir eliminando las incógnitas de las ecuaciones una a una mediante el proceso de sumar a una ecuación otra multiplicada por un número, para, una vez obtenido el valor de una de las variables, ir sustituyendo hacia atrás, se conoce como eliminación gaussia- na. Si una vez obtenido el valor de una de las variables, en lugar de sustituir hacia atrás, seguimos sumando a una ecuación otra multiplicada por un nú- mero, multiplicando ambos miembros de la ecuación por números adecuados e intercambiando ecuaciones con el objeto de obtener un sistema de ecuaciones escalonado en el que en cada ecuación aparezca únicamente una incógnita, estaremos aplicando el método conocido como método de Gauss-Jordan. Una forma de representar sistemas de ecuaciones lineales consiste en uti- lizar matrices, esto es, tablas de coecientes ordenadas según un número determinado de las y columnas. De hecho, el método de Gauss-Jordan se
  • 16. 16 Álgebra aplica más fácilmente sobre la que se denomina matriz ampliada asociada al sistema que sobre el propio sistema. La matriz asociada al sistema   x1 − x2 + x3 = 1 2x1 + x2 − x3 = 2  x1 + 2x2 + x3 = 4 es por denición la matriz   1 −1 1  2 1 −1  1 2 1 y la matriz ampliada asociada a dicho sistema es   1 −1 1 1  2 1 −1 2  1 2 1 4 La aplicación del método de Gauss-Jordan sobre dicha matriz para obte- ner la solución del sistema de ecuaciones que representa nos daría sucesíva- mente:     1 −1 1 1 1 −1 1 1  2 1 −1 2  F2 = F2 − 2F1 →  0 3 −3 0  F2 ↔ F3 → F3 = F3 − F1 1 2 1 4 0 3 0 3     1 −1 1 1 1 −1 1 1  0 3 0 3  F2 = 1 F2 →  0 1 0 1  F3 = F3 − 3F2 → 3 0 3 −3 0 0 3 −3 0     1 −1 1 1 1 −1 1 1  0 1 0 1  F3 = − 3 F3 →  0 1 0 1  F1 = F1 − F3 → 1 0 0 −3 −3 0 0 1 1     1 −1 0 0 1 0 0 1  0 1 0 1  F1 = F1 + F2 →  0 1 0 1  0 0 1 1 0 0 1 1
  • 17. Álgebra 17 La última matriz representa, obviamente, que x1 = 1, x2 = 1 y x3 = 1. En la resolución del sistema anterior hemos aplicado sobre la matriz am- pliada del sistema lo que se denominan transformaciones elementales por las. Estas son las siguientes: 1. Sumar a una la otra multiplicada por un número: Fi = Fi + λFj 2. Multiplicar una la por un número distinto de cero: Fi = λFi 3. Intercambiar dos las: Fi ↔ Fj En cualquier caso, no todos los sistemas de ecuaciones lineales tienen solución. Por ejemplo, si consideramos el sistema x1 − x2 = 1 2x1 − 2x2 = 4 la aplicación de las transformaciones elementales correspondientes sobre la matriz ampliada asociada al sistema nos lleva a 1 −1 1 1 −1 1 F2 = F2 − 2F1 → 2 −2 4 0 0 2 es decir, 0x1 + 0x2 = 2. Así pues, el sistema anterior es un sistema incompatible. Un ejemplo de sistema compatible indeterminado sería el siguiente:   x1 − x2 + x3 = 1 2x1 + x2 − x3 = 2  2x1 − 2x2 + 2x3 = 2 Al resolverlo por el método de Gauss-Jordan obtenemos:     1 −1 1 1 1 −1 1 1  2 1 −1 2  F2 = F2 − 2F1 →  0 3 −3 0  F2 = 1 F2 → F3 = F3 − 2F1 3 2 −2 2 2 0 0 0 0     1 −1 1 1 1 0 0 1  0 1 −1 0  F1 = F1 + F2 →  0 1 −1 0  0 0 0 0 0 0 0 0 es decir, x1 = 1 y x2 − x3 = 0, o lo que es lo mismo, x2 = x3 , con lo que, si escribimos x3 = t, para cada valor de t tenemos una solución del sistema. Sería solución del sistema (1, 1, 1), (1, 2, 2), ... en total tendríamos innitas soluciones, tantas como posibles valores del parámetro t; esto ocurre porque estamos trabajando sobre el cuerpo de los números reales, luego t toma valores en R, que es innito.
  • 18. 18 Álgebra 1.1.4 Sistemas equivalentes La aplicación sucesiva de transformaciones elementales por las sobre un sis- tema de ecuaciones lineales (o sobre su matriz ampliada) permite pasar de un sistema de ecuaciones lineales a otro que, teniendo las mismas soluciones que el planteado, es más sencillo de resolver. En esta sección demostraremos con todo detalle que esto es efectivamente así. Por otra parte, las transforma- ciones elementales son reversibles, es decir, si realizando transformaciones elementales sobre un sistema de ecuaciones lineales S obtenemos un siste- ma de ecuaciones lineales S , podemos recuperar S a partir de S realizando las transformaciones elementales “inversas” en el orden adecuado (el orden inverso del que se ha seguido para pasar de S a S ). TRASFORMACIÓN TRANSFORMACIÓN INVERSA Fi = Fi + λFj Fi = Fi − λFj 1 Fi = λFi (λ = 0) Fi = Fi λ Fi ↔ Fj Fi ↔ Fj Ejercicio 1.1.4 Realizar las transformaciones F3 = F3 − F1 , F3 ↔ F1 , 1 F2 = F2 sobre la matriz ampliada asociada al sistema. 2   x1 − x2 + x3 = 1 2x1 + 2x2 − 2x3 = 2  x1 + 2x2 + x3 = 4 para obtener la matriz A . Realizar sobre A las transformaciones inversas de las anteriores en el orden adecuado y comprobar que se obtiene la matriz ampliada asociada al sistema dado. Denición 1.1.9 Se dice que dos sistemas de m ecuaciones lineales con n incógnitas son equivalentes si uno de ellos puede obtenerse a partir del otro realizando sobre el primero una sucesión nita de transformaciones elemen- tales por las. Observación 4 Como ya hemos señalado, habitualmente representaremos a un sistema de ecuaciones lineales   α11 x1 + ... + α1n xn = β1  . .  .  α x + ... + α x = β m1 1 mn n m
  • 19. Álgebra 19 por su matriz ampliada:   α11 ... α1n β1 Am =  . . . ∈M  . . .  . . . m×(n+1) (K), αm1 ... αmn βm con lo que las transformaciones elementales se realizan sobre las las de esta matriz. A la vista de la observación anterior tiene sentido establecer la siguiente denición: Denición 1.1.10 Si una matriz A se obtiene realizando transformaciones elementales por las sobre una matriz A, diremos que las matrices A y A son equivalentes por las. Observación 5 A las transformaciones elementales por las, realizadas, bien directamente sobre las ecuaciones del sistema, bien sobre las las de su matriz ampliada las denotaremos del mismo modo. Ejercicio 1.1.5 Vericar que la relación de equivalencia de matrices en Mm×n (K) es una relación binaria reexiva, simétrica y transitiva (es decir, es una relación de equivalencia en el sentido general). Teorema 1.1.11 Si dos sistemas de ecuaciones son equivalentes, entonces tienen exactamente las mismas soluciones. En otras palabras, si S y S son equivalentes, (α1 , ..., αn ) es soluci´n de S ⇔ (α1 , ..., αn ) es soluci´n de S . o o Demostración Para demostrar el teorema, es suciente con estudiar el caso en el que un sistema se obtiene a partir de otro mediante la aplicación de una única transformación elemental por las. Supongamos que el sistema considerado es   α11 x1 + ... + α1n xn = β1    α21 x1 + ... + α2n xn = β2 S≡ . .   .   α x + ... + α x = β m1 1 mn n m
  • 20. 20 Álgebra Es obvio que el intercambio de lugar entre dos ecuaciones del sistema no altera el conjunto solución del mismo. Por consiguiente la aplicación de una transformación del tipo Fi ↔ Fj no altera el conjunto solución. Además, teniendo esto presente, podemos restringir el estudio al caso en el que las transformaciones elementales se aplican únicamente sobre la primera y la segunda ecuación, dejando el resto inalteradas. Sea λ = 0, y supongamos que   λα11 x1 + ... + λα1n xn = λβ1    α21 x1 + ... + α2n xn = β2 S ≡ . .   .   α x + ... + α x = β m1 1 mn n m Veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S . o o Si (s1 , ..., sn ) es solución de S, tendremos que   α11 s1 + ... + α1n sn = β1    α21 s1 + ... + α2n sn = β2 . .   .   α s + ... + α s = β m1 1 mn n m con lo que, multiplicando ambos miembros de la primera igualdad por λ, obtenemos que   λα11 s1 + ... + λα1n sn = λβ1    α21 s1 + ... + α2n sn = β2 . .   .   α s + ... + α s = β m1 1 mn n m es decir, que (s1 , ..., sn ) es solución de S . Veamos ahora el recíproco, i.e., que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S. o o Si (s1 , ..., sn ) es solución de S , tendremos que   λα11 s1 + ... + λα1n sn = λβ1    α21 s1 + ... + α2n sn = β2 . .   .   α s + ... + α s = β m1 1 mn n m
  • 21. Álgebra 21 1 con lo que, multiplicando ambos miembros de la primera igualdad por λ , obtenemos que    α11 s1 + ... + α1n sn = β1   α21 s1 + ... + α2n sn = β2 . .   .   α s + ... + α s = β m1 1 mn n m es decir, que (s1 , ..., sn ) es solución de S. Supongamos ahora que    α11 x1 + ... + α1n xn = β1   (α21 + µα11 )x1 + ... + (α2n + µα1n )xn = (β2 + µβ1 ) S ≡ . .   .   α x + ... + α x = β m1 1 mn n m Veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S . o o Si (s1 , ..., sn ) es solución de S, tendremos que   α11 s1 + ... + α1n sn = β1    α21 s1 + ... + α2n sn = β2 . .   .   α s + ... + α s = β m1 1 mn n m con lo que, multiplicando los dos miembros de la primera ecuación por µ, y sumando miembro a miembro la primera ecuación a la segunda obtendremos    α11 s1 + ... + α1n sn = β1   (α21 + µα11 )s1 + ... + (α2n + µα1n )sn = (β2 + µβ1 ) . .   .   α s + ... + α s = β m1 1 mn n m Recíprocamente, veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n o o de S. Si (s1 , ..., sn ) es solución de S , tendremos que    α11 s1 + ... + α1n sn = β1   (α21 + µα11 )s1 + ... + (α2n + µα1n )sn = (β2 + µβ1 ) . .   .   α s + ... + α s = β m1 1 mn n m
  • 22. 22 Álgebra Multiplicando la primera igualdad por µ y restándosela a la segunda obtene- mos que   α11 s1 + ... + α1n sn = β1    α21 s1 + ... + α2n sn = β2 . .   .   α s + ... + α s = β m1 1 mn n m con lo que (s1 , ..., sn ) es solución de S. Esto completa la demostración del teorema. 2 1.1.5 Estrategia para la aplicación del método de eliminación gaussiana 1. Reordenar las ecuaciones para que en la primera ecuación la primera variable x1 tenga un coeciente no nulo, y multiplicar ambos miembros de dicha ecuación para que el coeciente de dicha variable sea 1. 2. Restar la primera ecuación multiplicada por un escalar adecuado a las demás ecuaciones con el objeto de que la primera variable aparezca solamente en la primera ecuación. 3. En el caso de que sea posible, reordenar las ecuaciones de la segunda en adelante con el objeto de que la segunda variable x2 aparezca con un coeciente no nulo y multiplicar ambos miembros de dicha ecuación para que el coeciente de dicha variable sea 1. Si la variable x2 no aparece más que en la primera ecuación, hacer la operación anterior con la variable x3 o con la primera variable que aparezca con un coeciente no nulo en alguna de las ecuaciones restantes (todas salvo la primera). 4. Restar la segunda ecuación multiplicada por un escalar adecuado a las ecuaciones situadas bajo la misma con el objeto de que la segunda variable (o la que corresponda) no aparezca en ninguna ecuación situada por debajo de la segunda. 5. Operando análogamente con el resto de las ecuaciones, el sistema así obtenido será un sistema escalonado, es decir, un sistema que se ajusta a la siguiente denición. Denición 1.1.12 Se dice que un sistema de ecuaciones es escalonado si
  • 23. Álgebra 23 La primera variable de cada ecuación tiene 1 como (E.1) coeciente (a esta variable la denominaremos variable principal de dicha ecuación). La variable principal de cualquier ecuación siempre aparece situada a la derecha de las variables (E.2) principales de las ecuaciones previas, y todas las ecuaciones sin variable principal aparecen colocadas al nal. La última frase de (E.2) puede parecer algo misteriosa. Sin embargo, al llevar a cabo la estrategia anterior sobre un sistema concreto, podríamos obtener una ecuación de la forma 0x1 + ... + 0xn = k con k = 0 o k = 0 (en este último caso el sistema es incompatible). Este tipo de ecuaciones deberán aparecer siempre en las últimas las del sistema. Ejemplo 1.1.13 Los siguientes sistemas de ecuaciones son escalonados:   x1 + x2 + 3x3 = 9 x2 + 6x3 = 24  x3 = −4 x1 + x2 + x3 − 5x4 = 4 x3 − 2x4 = 6. Las matrices ampliadas asociadas a estos sistemas son   1 1 3 9  0 1 6 24  0 0 1 −4 y 1 1 1 −5 4 0 0 1 −2 6 El conjunto de soluciones de un sistema escalonado es razonablemente sencillo de obtener. Un sistema de ecuaciones escalonado será compatible en todos los casos en los que no aparezca una ecuación de la forma 0x1 + ... + 0xn = k, con k = 0.
  • 24. 24 Álgebra Suponiendo que el sistema es compatible, a cualquier variable que no sea la variable principal de una ecuación la denominaremos variable libre. Si una variable es variable principal de un sistema de ecuaciones escalonado, diremos que dicha variable no es libre (o también que está determinada). El siguiente proceso, conocido como sustitución hacia atrás o remonte, obtiene todas las soluciones del sistema asignando parámetros a las variables libres. Sustitución hacia atrás en el método de eliminación gaussiana Suponiendo que no aparece ninguna ecuación de la forma 0x1 + ... + 0xn = k con k = 0 en el sistema escalonado obtenido, comenzamos con la última ecuación del sistema asignado un parámetro diferente a cada variable libre y expresando la variable determinada por la última ecuación en términos de estos parámetros. Después, operaremos análogamente con la penúltima ecuación, asignando diferentes parámetros a cada una de las nuevas variables libres, y obteniendo el valor de la variable determinada por la penúltima ecuación. Realizando las mismas operaciones con el resto de las ecuaciones hasta llegar a la primera, al nal del proceso todas las variables libres tendrán asignado un parámetro diferente, y todas las variables determinadas estarán expresadas en términos de estos parámetros. Ejercicio 1.1.6 Resolver los siguientes sistemas de ecuaciones lineales por el método de eliminación gaussiana.:   2x1 + x2 + 3x3 = 9 5x1 + 4x2 + 6x3 = 24  x1 + 3x2 − 2x3 = 4 3x1 + x2 + x3 − 5x4 = 4 5x1 + 2x2 + 4x3 − 2x4 = 6 1.1.6 Método de Gauss-Jordan El método de Gauss-Jordan es una extensión del método de eliminación gaus- siana, que consiste en eliminar la variable principal de la ecuación correspon- diente no solamente en las ecuaciones que aparecen situadas por debajo de
  • 25. Álgebra 25 la misma, sino en todas las ecuaciones del sistema. Por ello, la estrategia es la misma que la del método de eliminación de Gauss, con la adición de las siguientes instrucciones en el lugar correspondiente: 4. Sustraer además la segunda ecuación multiplicada por un escalar ade- cuado de la primera ecuación, con el objeto de eliminar la segunda variable de la primera ecuación. 5. En cada paso sustraer la ecuación correspondiente multiplicada por un escalar adecuado tanto de las ecuaciones situadas por debajo de la misma como de las situadas por encima, con el objeto de que la variable principal de cada ecuación aparezca únicamente en la ecuación de la que es variable principal. Los sistemas de ecuaciones que resultan de la aplicación del método de Gauss-Jordan se dice que tienen forma escalonada reducida, es decir: Denición 1.1.14 Se dice que un sistema de ecuaciones está en forma es- calonada reducida si La primera variable de cada ecuación tiene 1 como (E.R.1) coeciente (a esta variable la denominaremos variable principal de dicha ecuación). La variable principal de cualquier ecuación siempre aparece situada a la derecha de las variables (E.R.2) principales de las ecuaciones previas, y todas las ecuaciones sin variable principal aparecen colocadas al nal. La variable principal de cada ecuación aparece solamente (E.R.3) en la ecuación de la que es variable principal. Ejemplo 1.1.15 Vamos a resolver el siguiente sistema de ecuaciones por el método de Gauss Jordan, es decir, obteniendo una forma escalonada reducida de dicho sistema   x1 − 4x2 + x3 = 2 −x1 + 3x2 − x3 = 1  x1 + 2x3 = 3 Para ello, trabajamos directamente sobre la matriz ampliada asociada al sistema, teniendo presente en todo momento qué es lo que representan los coecientes de dicha matriz:   1 −4 1 2  −1 3 −1 1  F2 = F2 + F1 → F3 = F3 − F1 1 0 2 3
  • 26. 26 Álgebra   1 −4 1 2 F2 = (−1)F2  0 −1 0 3  F1 = F1 + 4F2 → 0 4 1 1 F3 = F3 − 4F2     1 0 1 −10 1 0 0 −23  0 1 0 −3  F1 = F1 − F3 →  0 1 0 −3  . 0 0 1 13 0 0 1 13 La última matriz ampliada representa el sistema en forma escalonada reducida. El sistema es, por tanto, compatible determinado y su solución es (−23, −3, 13). Ejercicio 1.1.7 Resolver los siguientes sistemas de ecuaciones lineales por el método de Gauss-Jordan:   x1 − x2 − x3 + x4 = 5 x2 − x3 + 2x4 = 8  2x1 − x2 − 3x3 + 4x4 = 18   x1 + 5x2 − 2x3 = 0 x1 − 3x2 + x3 = 0  x1 + 5x2 − x3 = 0 1.2 Matrices y operaciones con matrices Al realizar una primera lectura de los epígrafes siguientes, hasta completar la totalidad del capítulo, se puede pensar que K = R ó C aunque los resultados obtenidos serán válidos para cualquier cuerpo K. Como hemos visto en la sección anterior, las matrices permiten represen- tar sistemas de ecuaciones lineales. Veamos una denición precisa de lo que es una matriz: Denición 1.2.1 Una matriz de orden m × n con coecientes en un cuerpo K (por ejemplo K = R ó C) es una función: A : {1, ..., m} × {1, ..., n} −→ K (i, j) ; A(i, j) Se dice entonces que A es una matriz con m las y n columnas. Es usual representar el coeciente A(i, j) de la matriz A por su correspondiente
  • 27. Álgebra 27 minúscula con dos subíndices, en este caso aij , y a la matriz completa A por una tabla en la que en la la `“i” y en la columna “j” aparece el elemento aij :   a11 ··· a1n     A= . . .  . .   . aij .    am1 ··· anm Así por ejemplo, la matriz A de dos las y dos columnas determinada por A(1, 1) = 0, A(1, 2) = 1, A(2, 1) = −1, A(2, 2) = 4 0 1 se representará por . −1 4 Al conjunto de matrices de m las y n columnas con coecientes en K lo denotaremos por Mm×n (K). Es obvio que de la denición anterior se sigue que dos matrices A, B son iguales si son iguales como funciones, es decir, si son del mismo orden (i.e., si tienen el mismo número de las y de columnas, o lo que es lo mismo A, B ∈ Mm×n (K) para algún m y n) y ∀(i, j) ∈ {1, ..., m}×{1, ..., n} A(i, j) = B(i, j). Ejemplo 1.2.2 Veamos algunos ejemplos de matrices denidas con notación funcional: 1. A ∈ M3×3 (K) denida por (A(i, i) = 1, ∀i = 1, 2, 3) ∧ (A(i, j) = 0, ∀i, j ∈ {1, 2, 3}, i = j) es la matriz:   1 0 0  0 1 0  0 0 1 2. Podemos utilizar también congruencias módulo un número entero so- bre i y j para denir la matriz; por ejemplo B ∈ M3×3 (R) dada por (A(i, j) = 1 ⇔ i + j ≡ 1 mod 2) ∧ (A(i, j) = 0 ⇔ i + j ≡ 0 mod 2) se representa por   0 1 0  1 0 1  0 1 0
  • 28. 28 Álgebra 3. Otro ejemplo es la matriz C ∈ M3×3 (R) dada por (A(i, j) = 2i−1 3j−1 ), que es   1 3 9  2 6 18  4 12 36 Recordemos ahora algunas deniciones y veamos otras nuevas: • Si A ∈ Mm×n (K) se dice que A es una matriz de orden m×n. Si m = n, en lugar de escribir Mn×n (K), escribiremos Mn (K), y si A ∈ Mn (K) diremos que A es una matriz cuadrada de orden n. • Si A ∈ Mm×n (K), utilizaremos indistintamente la notación usual aij o la funcional A(i, j) para referirnos al elemento de la matriz A situado en la la i − esima y en la columna j − esima. Por ello escribiremos en ´ ´ ocasiones A = (aij ) ∈ Mm×n (K) para referirnos a una matriz genérica de orden m × n. (Obsérvese que a es la minúscula de A). • Si A ∈ Mm×1 (K) se dice que A es una matriz columna (de m las). • Si A ∈ M1×n (K) se dice que A es una matriz la (de n columnas). • Si A ∈ Mm×n (K), ∀i ∈ {1, ..., m} llamaremos la i-ésima de A a la matriz la de n columnas Ai = (ai1 ... ain ). Análogamente, llamaremos columna j-ésima de A a la matriz columna de m las   a1j  .  Aj =  .  . . amj • Una matriz de particular interés es la matriz identidad a la que denotaremos por In (hay una para cada valor natural de n). Así por ejemplo,     1 0 0 0 1 0 0   1 0  0 1 0  e I4 =  0 1 0 0  . I2 = , I3 =  0 0 1 0  0 1 0 0 1 0 0 0 1
  • 29. Álgebra 29 En general la matriz In = (aij ) ∈ Mn (K) se dene por la condición ∀i, j ∈ {1, ...n}, aii = 1 ∧ (i = j ⇒ aij = 0). Utilizando la notación funcional, In ∈ Mn (K) quedaría determinada por las condiciones: (∀i ∈ {1, ..., n} In (i, i) = 1) ∧ (∀i, j ∈ {1, ..., n} (i = j ⇒ In (i, j) = 0)). • Si A ∈ Mm×n (K) se denomina matriz traspuesta de A a la matriz t A ∈ Mn×m (K) tal que ∀(i, j) ∈ {1, ..., n} × {1, ..., m} t A(i, j) = A(j, i) (empleando la notación no funcional, si t A = (bij ), entonces ∀(i, j) ∈ {1, ..., n} × {1, ..., m} bij = aji ). Así por ejemplo, si   1 2 A =  2 0  ∈ M3×2 (R), 3 −1 su traspuesta es t 1 2 3 A= ∈ M2×3 (R). 2 0 −1 Un método sistemático para obtener la matriz traspuesta de una matriz dada consiste en ir leyendo los coecientes por las para sistemática- mente escribirlos por columnas. 1.2.1 Suma de matrices La denición de suma de matrices es muy natural: Denición 1.2.3 Si A, B ∈ Mm×n (K), la suma de A y B es la matriz A + B ∈ Mm×n (K) denida por las condiciones ∀(i, j) ∈ {1, ..., m} × {1, ..., n} (A + B)(i, j) = A(i, j) + B(i, j)       1 −1 1 3 2 2 Ejemplo 1.2.4  3 0  +  2 0  =  5 0  1 2 0 −2 1 0
  • 30. 30 Álgebra Observación 6 De la denición anterior se sigue que para que dos matrices se puedan sumar deben ser del mismo orden. Se denomina matriz nula de orden m × n a la matriz (0) ∈ Mm×n (K) denida por las condiciones ∀(i, j) ∈ {1, ..., m} × {1, ..., n} (0)(i, j) = 0 Así por ejemplo, 0 0 0 (0) ∈ M2×3 (C) es la matriz . 0 0 0 Observación 7 En lo sucesivo también escribiremos (0) ∈ Mm×n (K) para representar a la matriz nula de orden m × n. Denición 1.2.5 Si A ∈ Mm×n (K) se denomina matriz opuesta de A a la matriz (−A) ∈ Mm×n (K) denida por las condiciones ∀(i, j) ∈ {1, ..., m} × {1, ..., n} (−A)(i, j) = −A(i, j) ∈ K Así por ejemplo,     1 −1 −1 1 −  3 0  =  −3 0  1 2 −1 −2 y 2 −1 0 −2 1 0 − = . 1 1 3 −1 −1 −3 Proposición 1.2.6 Si A, B, C ∈ Mm×n (K), se verica que: 1. A + B = B + A (propiedad conmutativa de la suma de matrices) 2. A + (B + C) = (A + B) + C (propiedad asociativa) 3. A + (0) = A, (0) + A = A ((0) es el elemento neutro para +) 4. A + (−A) = (0), (−A) + A = (0) ((−A) es la opuesta de A)
  • 31. Álgebra 31 Demostración Se trata de comprobar, en cada caso, que las matrices si- tuadas a ambos lados de la igualdad son efectivamente iguales. Demostrare- mos la primera propiedad y el resto se propone como ejercicio. Hay que comprobar que ∀(i, j) ∈ {1, ..., m} × {1, ..., n} (A + B)(i, j) = (B + A)(i, j) Sea (i, j) ∈ {1, ..., m} × {1, ..., n}. (A + B)(i, j)= (por denición)= =A(i, j) + B(i, j)=(puesto que la suma de números reales o complejos y, en general, de los elementos de un cuerpo, satisface la propiedad conmutati- va) =B(i, j) + A(i, j)= (por denición) =(B + A)(i, j). 2 Por satisfacer las 4 propiedades de la proposición anterior se dice que las matrices de orden m × n con coecientes en K tienen estructura de grupo abeliano respecto de la suma. De la matriz (0) se dice que es el elemento neutro del grupo abeliano, y de la matriz (−A) se dice que es la matriz opuesta de A. 1.2.2 Producto de matrices En capítulos venideros veremos que la siguiente denición del producto de matrices permitirá representar la actuación de una función lineal sobre un elemento como un producto de matrices, hecho que a su vez tendrá como consecuencia el que la composición de funciones lineales se exprese como un producto de matrices. Si consideramos una ecuación lineal, por ejemplo 2x1 + x2 + 6x3 = 3, es posible considerar la parte izquierda de la igualdad como el producto de la matriz de coecientes (2 1 6) por la matriz de incógnitas   x1  x2  x3 y escribir   x1 (2 1 6) ·  x2  = (3) x3
  • 32. 32 Álgebra Si la ecuación anterior forma parte de un sistema, por ejemplo del sistema   2x1 + x2 + 6x3 = 3 5x1 + 4x2 + 6x3 = 24  x1 + 3x2 − 2x3 = 4 teniendo en cuenta que de la denición de matriz se sigue que dos matrices son iguales si tienen el mismo número de las y de columnas y los mismos coecientes en cada la y columna, resulta que, utilizando la denición de producto de matrices anterior, podemos representar el sistema de ecuaciones mediante un producto de matrices, esto es:       2 1 6 x1 3  5 4 6  ·  x2  =  24  . 1 3 −2 x3 4 En general, el sistema de ecuaciones   a11 x1 + ... + a1n xn = b1  . .  .  a x + ... + a x = b m1 1 mn n m puede representarse mediante el producto denido por la expresión:     x1 b1  .   .  A ·  .  =  . . . . xn bm Claro está que podemos considerar sistemas de ecuaciones con la misma matriz de coecientes y distinto término independiente. Por ejemplo:    2x1 + x2 + 6x3 = 3  2x1 + x2 + 6x3 = 1 5x1 + 4x2 + 6x3 = 24 y 5x1 + 4x2 + 6x3 = 1 .   x1 + 3x2 − 2x3 = 4 x1 + 3x2 − 2x3 = 1 En ese caso, teniendo en cuenta, por una parte, que las soluciones de uno no tienen porqué coincidir con las del otro, por lo que denotamos por y1 , y2 e y3 a las incógnitas del segundo sistema, y por otra, cuando dos matri- ces son iguales, podemos representarlos matricialmente de forma simultánea, mediante la expresión:       2 1 6 x1 y 1 3 1  5 4 6  ·  x2 y2  =  24 1  . 1 3 −2 x3 y 3 4 1
  • 33. Álgebra 33 Esto nos lleva a la denición de producto de dos matrices. Como observa- ción previa a la denición, nótese que en los ejemplos anteriores, para poder multiplicar la matriz de coecientes por la de incógnitas, era preciso que el número de las de la matriz de coecientes coincidiese con el número de columnas de la matriz de incógnitas. Denición 1.2.7 Dadas las matrices A ∈ Mm×n (K) y B ∈ Mn×p (K) se denomina matriz producto de A y B , y se denota por A · B a la matriz A · B ∈ Mm×p (K) tal que n ∀(i, j) ∈ {1, ..., m} × {1, ..., p} A · B(i, j) = A(i, k) · B(k, j) k=1   1 2 0    1 2  1 −1 −1  Ejemplo 1.2.8 Dadas las matrices  1 1 ∈ M4×3 (R) y  3 0  ∈ 0  1 2 0 4 3 M3×2 (R), su producto es la matriz     1 2 0   7 −1  1 2 −1  1 −1   · 3 0 = 6 −3   ∈ M4×2 (R)  1 1 0   4 −1  1 2 0 4 3 15 6 1.2.3 Propiedades del producto de matrices El producto de matrices no es conmutativo, pues por ejemplo 1 1 1 −1 2 −2 · = 1 1 1 −1 2 −2 y sin embargo 1 −1 1 1 0 0 · = . 1 −1 1 1 0 0 Proposición 1.2.9 El producto de matrices satisface las siguientes propie- dades:
  • 34. 34 Álgebra 1. Es asociativo: ∀A ∈ Mm×n (K), B ∈ Mn×p (K) y C ∈ Mp×q (K), (A · B) · C = A · (B · C) (y por tanto podemos omitir los paréntesis para denotar cualquiera de estos productos y escribir A · B · C ). 2. Es distributivo respecto de la suma: ∀A ∈ Mm×n (K), ∀B, C ∈ Mn×p (K) A · (B + C) = A · B + A · C ∀A ∈ Mm×n (K), ∀B, C ∈ Mp×n (K) (B + C) · A = B · A + C · A 3. ∀A ∈ Mm×n (K), A · (0) = A y (0) · A = (0) Demostración Antes de dar la demostración debemos señalar que es usual n emplear el símbolo sumatorio ai en lugar de la expresión a1 + ... + an , lo i=1 que tiene sentido puesto que la suma considerada es asociativa. 1. Sean A ∈ Mm×n (K) ,B ∈ Mn×p (K) y C ∈ Mp×q (K). Las dos matrices A·(B ·C) y (A·B)·C tienen el mismo orden, ya que ambas pertenecen a Mm×q (K). Veamos que ∀(i, j) ∈ {1, ..., m}×{1, ..., q} (A·(B ·C))(i, j) = ((A · B) · C)(i, j) :
  • 35. Álgebra 35 n (A · (B · C))(i, j) = A(i, k) · (B · C) (k, j) = k=1 n p = A(i, k) · B(k, s) · C(s, j) = k=1 s=1 n p (prop. distributiva en K) = A(i, k) · (B(k, s) · C(s, j)) = k=1 s=1 n p (prop. asociativa en K) = (A(i, k) · B(k, s)) · C(s, j) = k=1 s=1 p n (prop. distributiva en K) = A(i, k) · B(k, s) · C(s, j) = s=1 k=1 p = (A · B) (i, s) · C(s, j) = s=1 = ((A · B) · C)(i, j) 2. Se demuestra razonando de forma similar al apartado anterior. 3. Ejercicio. 2 Observación 8 Demostraciones como la anterior se incluyen para que puedan ser consultadas por los alumnos interesados. En cualquier caso, es conveniente conocer algunos hechos relativos a la notación, y a los resultados derivados del uso de la misma. Por ejemplo, en la proposición anterior hemos utilizado la igualdad n p p n A(i, k) · B(k, s) · C(s, j) = A(i, k) · B(k, s) · C(s, j) k=1 s=1 s=1 k=1 que intuitivamente es evidente, puesto que tanto el producto de números reales como el de números complejos es conmutativo y distributivo respecto de la suma. La demostración de que esta igualdad es válida es consecuencia de las siguientes propiedades relacionadas con el símbolo sumatorio, cuya demostración también se puede hacer por inducción:
  • 36. 36 Álgebra • Si {ai }i∈{1,...,n} y {bj }j∈{1,...,p} son dos familias de números reales o com- plejos, se verica que ∀n ∈ N, ∀p ∈ N, n p n p ai · bj = ai · bj i=1 j=1 i=1 j=1 Es decir, que n (ai b1 + · · · + ai bp ) = i=1 = (a1 b1 + · · · + a1 bp ) + · · · + (an b1 + · · · + an bp ) = = a1 (b1 + · · · + bp ) + · · · + an (b1 + · · · + bp ) . Para demostrar la identidad anterior, razonamos por inducción sobre “n”. Base de inducción: hay que probar que si n = 1, 1 p 1 p ∀p ∈ N ai · bj = ai · bj i=1 j=1 i=1 j=1 o lo que es lo mismo, que p p ∀p ∈ N a 1 · bj = a1 · bj . j=1 j=1 Esta propiedad se demuestra razonando por inducción sobre “p” : si p 1 p = 1 es obvio que a1 · bj = a1 · b1 = a1 · bj . Suponiendo j=1 j=1 p p entonces cierto que a1 · bj = a1 · bj , resulta que j=1 j=1 p+1 p a1 · bj = a 1 · bj + a1 · bp+1 = j=1 j=1 = (por hip´tesis de inducci´n) = o o p = a1 · bj + a1 · bp+1 = j=1 p+1 = a1 · bj . j=1
  • 37. Álgebra 37 La demostración del paso de inducción sobre “n” se propone como ejercicio para todo aquel alumno interesado en hacerla. • Si {aik }(i,k)∈{1,...,n}×{1,...,p} es una familia de números reales o complejos, n p p n se verica que aik = aik o, lo que es lo mismo, i=1 k=1 k=1 i=1 (a11 + · · · + a1p ) + · · · + (an1 + · · · + anp ) = (a11 + · · · + a1n ) + · · · + (a1p + · · · + anp ) . La demostración es similar a la del punto anterior. Ejercicio 1.2.1 Demostrar que la trasposición de matrices satisface las si- guientes propiedades: 1. ∀A ∈ Mm×n (K) t t ( A) = A 2. ∀A, B ∈ Mm×n (K) t (A + B) =t A +t B 3. ∀A ∈ Mm×n (K), ∀B ∈ Mn×p (K), t (A · B) =t B ·t A Ejercicio 1.2.2 Demostrar que ∀A ∈ Mm×n (K) y ∀B ∈ Mn×m (K) A · In = A ∧ In · B = B (es decir, In deja invariante por el producto a cualquier matriz por la que se pueda multiplicar, sea o no cuadrada). 1.2.4 El producto de una matriz por un escalar Denición 1.2.10 Si α ∈ K y A ∈ Mm×n (K) se dene la matriz αA por las siguientes condiciones ∀(i, j) ∈ {1, ..., m} × {1, ..., n} (αA)(i, j) = αA(i, j)     1 2 −3 −6 Ejemplo 1.2.11 (−3)  2 0  =  −6 0  3 −1 −9 3
  • 38. 38 Álgebra Ejemplo 1.2.12 Siendo α ∈ K   α 0 0 ··· 0  0 α 0 ··· 0     0 0 α ··· 0  (αIn ) =   ∈ Mn (K)  . . . .. . . . .   . . . . . .  0 0 0 ··· α Proposición 1.2.13 ∀α, β ∈ K ∀A ∈ Mm×n (K) se verica que 1.∀B ∈ Mn×p (K) A · (αB) = (αA) · B = α(A · B) 2.∀B ∈ Mm×n (K) α(A + B) = αA + αB 3. (−α)(A) = (α)(−A) = −(αA) 4. (α + β)A = αA + βA 5. (αβ)A = α(βA) Demostración Ejercicio. 2 Teorema 1.2.14 Todo sistema de ecuaciones lineales con coecientes reales o complejos o bien no tiene soluciones, o bien tiene exactamente una solución o bien tiene una innidad de soluciones. Demostración Necesitamos comprobar que si un sistema tiene más que una solución, entonces tiene innitas soluciones. Sea AX = B el sistema dado y s1 , s2 dos soluciones distintas (s1 = s2 ). Entonces, As1 = B = As2 y As1 − As2 = A(s1 − s2 ) = (0). Se sigue que s1 − s2 es solución del sistema homogéneo AX = 0 y que para todo λ ∈ K, s3 ≡ s1 + λ(s1 − s2 ) es solución de AX = B : As3 = A(s1 + λ(s1 − s2 )) = As1 + A(λ(s1 − s2 )) = = As1 + λA(s1 − s2 ) = As1 = B. Hemos hallado tantas soluciones como elementos en K. Como K es, por hi- pótesis, R o C (que son innitos), obtenemos innitas soluciones. 2
  • 39. Álgebra 39 1.2.5 El anillo de matrices cuadradas Mn (K) Según hemos visto, el conjunto Mm×n (K) de las matrices de m las y n columnas sobre un cuerpo K tiene estructura de grupo abeliano respecto de la suma habitual de matrices. En este apartado vamos a estudiar la estructura algebraica que tiene el conjunto de las matrices cuadradas, Mn×n (K), respecto de las operaciones de suma y producto, ya que el producto de matrices es una operación en Mn×n (K) (el producto de dos matrices cuadradas de dimensión n es una matriz cuadrada de dimensión n). Propiedades del producto en Mn (K) Proposición 1.2.15 Si A, B, C ∈ Mn (K), se verica que: 1. A · (B · C) = (A · B) · C (propiedad asociativa del producto de matrices) 2. A · (B + C) = A · B + A · C (propiedad distributiva de + respecto de ·) 3. A · In = A, In · A = A (la matriz In es elemento neutro para ·). Demostración La demostración de las propiedades 1 y 2 se ha hecho en un caso más general. La demostración de la propiedad 3 se deja como ejercicio (se trata de ver que las matrices A · In y A son iguales y lo mismo con la otra igualdad). 2 Observación 9 Por tener Mn (K) estructura de grupo conmutativo respecto de la suma de matrices y satisfacer las propiedades de la proposición ante- rior se dice que el conjunto de matrices cuadradas de orden n, Mn (K), tiene estructura de anillo unitario respecto de la suma y producto de matrices ha- bituales y elemento unidad la matriz In . La operación de producto en Mn (K) permite denir potencias enteras no negativas de una matriz cuadrada: Denición 1.2.16 Si A es una matriz cuadrada, A ∈ Mn (K), se dene ∀m ∈ N Am = (Am−1 ) · A donde, por convenio de notación, se asume que A0 = In .
  • 40. 40 Álgebra Observación 10 No es difícil comprobar que ∀m, r ∈ N ∀A ∈ Mn (K) se satisfacen las siguientes propiedades: 1. Am+r = Am · Ar 2. (Am )r = Amr Observación 11 Nótese que como consecuencia de la no conmutatividad del producto de matrices, si A, B ∈ Mn (K) en general tendremos que (A + B)2 = A2 + B 2 + A · B + B · A = A2 + B 2 + 2A · B Sin embargo, si A y B conmutan para el producto, es decir, si A·B = B·A, entonces es obvio que (A + B)2 = A2 + B 2 + 2A · B y, en general, asumiendo por convenio de notación que A0 = B 0 = In , se verica que ∀m ∈ N m m m (A + B)m = Am · B 0 + Am−1 · B + ... + A0 · B m . 0 1 m Teniendo ahora en cuenta que, siendo α ∈ K   α 0 0 ··· 0  0 α 0 ··· 0     α · · · 0  ∈ Mn (K) (αIn ) =  0 0   . . . .. .   . . . . . . . .  . 0 0 0 ··· α y que toda matriz conmuta con la identidad, podemos obtener la siguiente fórmula, válida ∀A ∈ Mn (K), ∀m ∈ N : m m m (A + αIn )m = Am + (αIn ) Am−1 + ... + (αIn )m 0 1 m 1.2.6 Matrices invertibles Denición 1.2.17 Se dice que A ∈ Mn (K) es invertible si ∃B ∈ Mn (K) tal que A · B = In ∧ B · A = In . Obviamente, si B y B satisfacen las condiciones de la denición anterior, es decir, si A · B = In ∧ B · A = In
  • 41. Álgebra 41 y A · B = In ∧ B · A = In resulta que B = B · In = B · (A · B ) = (B · A) · B = In · B = B por lo que dada A ∈ Mn (K) a lo sumo hay una matriz B que satisface las condiciones de la denición anterior. Denición 1.2.18 Si A ∈ Mn (K) es invertible, y A · B = In ∧ B · A = In . se dice que B es la matriz inversa de A y a dicha matriz la denotaremos por A−1 . Observación 12 En la denición de matriz invertible, imponemos que el producto de A por un cierta matriz B , por ambos lados, sea el elemento neu- tro. Hemos de hacerlo así porque el producto de matrices no es conmutativo. Sin embargo, veremos en el teorema 1.2.22 que es suciente comprobarlo por uno sólo de los dos lados. 2 1/2 Ejemplo 1.2.19 La matriz inversa de la matriz A = es la ma- 2 1 1 −1/2 triz A−1 = . −2 2 Proposición 1.2.20 Sean A, B, A1 , · · · , Ap ∈ Mn (K). Se verica que : 1. si A, B ∈ Mn (K) son invertibles, entonces A · B es invertible y (A · B)−1 = B −1 · A−1 , 2. si A1 , · · · , Ap son invertibles, entonces el producto A1 · A2 · · · · Ap es invertible y (A1 · A2 · · · · Ap )−1 = Ap −1 · · · A2 −1 A1 −1 , 3. si A ∈ Mn (K) es invertible, entonces (−A) ∈ Mn (K) es invertible y (−A)−1 = −(A−1 ),
  • 42. 42 Álgebra 4. si A ∈ Mn (K) es invertible, entonces t (A) ∈ Mn (K) −1 es invertible y t (A−1 ) = (t A) . Corolario 1.2.21 Si A ∈ Mn (K) es una matriz invertible, se verica que −1 1. A−1 es invertible y (A−1 ) = A 2. ∀m ∈ N Am es invertible y (Am )−1 = (A−1 )m 3. ∀α ∈ K, α = 0 se verica que αA es invertible, y (αA)−1 = α−1 A−1 El siguiente teorema arma que si una matriz cuadrada tiene una matriz inversa a la derecha o a la izquierda, entonces es invertible: Teorema 1.2.22 Si A, B ∈ Mn (K) se verica que: 1. A · B = In ⇒ B = A−1 . 2. B · A = In ⇒ B = A−1 . Demostración Probemos 2: suponemos que B · A = In , y debemos probar que A · B = In . Si B · A = In , todo sistema que tenga como matriz asociada A tiene una única solución: dado un sistema A · X = C , donde C es una matriz columna, multiplicando a ambos lados de la igualdad por B se obtiene: B · (A · X) = B · C Por la asociatividad del producto de matrices (B · A) · X = B · C Y usando nuestra hipótesis inicial X = In · X = B · C Es decir, que si X verica la ecuación A · X = C , necesariamente X = B · C . j En concreto, denotando con In la columna j -ésima de In , el sistema A · X = In tiene una única solución B · In , que es la columna j -esima de B , j j que denotamos B j , para cada j ∈ {1, . . . , n}. Es decir, hemos obtenido que A·B j = In para cada j ∈ {1, . . . , n}. Entonces también A·B = In y podemos j escribir B = A−1 . Para probar 1 suponemos que A · B = In . Aplicamos 2 a la matriz B y obtenemos que B · A = In . 2
  • 43. Álgebra 43 1.2.7 Matrices elementales y un método para hallar A−1 Denición 1.2.23 Se dice que una matriz A ∈ Mn (K) es una matriz ele- mental si es el resultado de realizar una única transformación elemental por las sobre la matriz In . 1 0 Ejemplo 1.2.24 es una matriz elemental, pues 0 −2 1 0 F2 = (−2)F2 1 0 0 1 −→ 0 −2   1 0 0 0    0 0 0 1  1 0 5 Igualmente  0 0 1 0 y   0 1 0  son matrices elementales, pues 0 0 1 0 1 0 0     1 0 0 0 1 0 0 0  0 1 0 0  F2 ↔ F4  0 0 0 1       0 0 1 0  −→  0 0 1 0  0 0 0 1 0 1 0 0     1 0 0 1 0 5  0 1 0  F1 = F1 + 5F3  0 1 0  . −→ 0 0 1 0 0 1 Es obvio que si A es una matriz elemental de orden n, la matriz In se puede obtener realizando una única transformación elemental sobre la matriz A (la transformación elemental inversa). El siguiente resultado quedará sucientemente vericado tras la realización de la práctica 2 en el aula informática: Teorema 1.2.25 Si E es la matriz elemental de orden m que se obtiene al realizar la transformación elemental t sobre las las de Im , y A ∈ Mm×n (K), entonces la matriz resultante de realizar la transformación t sobre las las de A es la matriz producto E · A. Ejercicio 1.2.3 Vericar el resultado anterior realizando la transformación elemental F3 = F3 + 3F1 sobre la matriz   −1 4 6  0 2 1 . 0 0 1
  • 44. 44 Álgebra Teniendo ahora en cuenta que, según hemos visto, cualquier transforma- ción elemental es reversible, y que la inversa de una transformación elemental es una transformación elemental, según el cuadro que ya establecimos en su momento TRANSFORMACIÓN TRANSFORMACIÓN INVERSA Fi = Fi + λFj Fi = Fi − λFj 1 Fi = λFi (λ = 0) Fi = Fi λ Fi ↔ Fj Fi ↔ Fj resulta que, si denotamos por Pi (λ) a la matriz elemental asociada a la trans- formación Fi = λFi (λ = 0), por Sij (λ) a la matriz elemental asociada a la transformación Fi = Fi + λFj y por Eij a la matriz elemental asociada a la transformación Fi ↔ Fj , tenemos el siguiente corolario del teorema anterior: Corolario 1.2.26 Toda matriz elemental es invertible, y su inversa también es una matriz elemental. Concretamente, (Sij (λ))−1 = Sij (−λ) 1 (Pi (λ))−1 = Pi ( ) λ −1 (Eij ) = Eji Ejercicio 1.2.4 Verifíquese el resultado recogido en el corolario anterior, multiplicando las matrices 1 0 P2 (−5) = 0 −5   1 0 4 S13 (4) =  0 1 0  0 0 1 y   1 0 0 0  0 0 0 1  E24 =  0  0 1 0  0 1 0 0 por sus correspondientes inversas y observando que en cada caso el resultado es la matriz identidad del orden correspondiente.
  • 45. Álgebra 45 Teorema 1.2.27 Si A ∈ Mn (K) las siguientes proposiciones son equivalen- tes: 1. A es invertible 2. La ecuación A · X = (0) sólo tiene la solución trivial 3. A es equivalente por las a la matriz In , es decir, su forma escalonada reducida es la matriz identidad In 4. El sistema A · X = b es compatible determinado para toda matriz columna b ∈ Mn×1 (K) y su única solución es X = A−1 · B. Ejemplo 1.2.28 Si A ∈ Mn (K) y b ∈ Mn×1 (K), entonces el sistema A · X = b es compatible determinado para toda matriz columna si y solo si A es invertible. Si A no es invertible o si A no es una matriz cuadrada, podemos todavía determinar condiciones sobre la matriz b tales que el sistema A·X = b sea consistente. Por ejemplo, aplicando el método de Gauss-Jordan a lamatriz ampliada del sistema se obtiene que  x1 + x2 + 2x3 = b1 x1 + x3 = b2  2x1 + x2 + 3x3 = b3     1 1 2 b1 F2 = F2 − F1 1 1 2 b1  1 0 1 b2  F3 = F3 − F1  0 −1 −1 b2 − b1  2 1 3 b3 → 2 1 3 b3 − 2b1 F1 = F1 + F2   1 0 1 b2 F3 = F3 − F2  0 1 1 −b2 + b1  . F2 = −F2 0 0 0 b3 − b2 − b1 → Si b3 − b2 − b1 = 0 el sistema no es compatible y si b3 − b2 − b1 = 0 el x1 = −x3 + b2 sistema es equivalente al sistema , que tiene innitas x2 = −x3 − b2 + b1 soluciones de la forma {(−t + b2 , −t − b2 + b1 , t) : t ∈ R} . Método para determinar la matriz inversa El teorema anterior permite establecer un método para determinar la inversa de una matriz invertible. Pues si A es invertible, A es equivalente por las a la matriz In y existen m matrices elementales E1 , E2 , · · · , Em tales que Em · Em−1 · ... · E1 · A = In . Se sigue que, por el teorema 1.2.22,
  • 46. 46 Álgebra Em · Em−1 · · · · · E1 = A−1 . es decir, recogiendo las dos igualdades anteriores, In = Em · Em−1 · ... · E1 · A −1 A = Em · Em−1 · ... · E1 · In En otras palabras, la sucesión de transformaciones elementales que transfor- ma la matriz A en la matriz In , también transforma la matriz In en la matriz A−1 , con lo que, siendo t1 , ..., tm las transformaciones elementales por las que permiten obtener In a partir de A, el esquema A In → t1 , ..., tm → In A−1 nos da un método para la obtención de la inversa de una matriz invertible A por transformaciones elementales .   −1 −1 0 Ejemplo 1.2.29 Para calcular la inversa de la matriz  2 1 0  pro- 2 1 1 cederíamos del siguiente modo −1 −1 0 1 0 0 F2 = F2 + 2F1 2 1 0 0 1 0 → → F3 = F3 + 2F1 2 1 1 0 0 1 F1 = F1 − F2 −1 −1 0 1 0 0 F = F3 − F2 0 −1 0 2 1 0 → 3 → F1 = (−1)F1 0 −1 1 2 0 1 F2 = (−1)F2 1 0 0 1 1 0 0 1 0 −2 −1 0 0 0 1 0 −1 1  −1   −1 −1 0 1 1 0 obteniendo, por tanto que  2 1 0  =  −2 −1 0  . 2 1 1 0 −1 1