Se ha denunciado esta presentación.
Utilizamos tu perfil de LinkedIn y tus datos de actividad para personalizar los anuncios y mostrarte publicidad más relevante. Puedes cambiar tus preferencias de publicidad en cualquier momento.
ÁlgebraR.Criado y A.Gallinari        2003
2                                                                     Álgebra    Introducción    En sus orígenes, el álgeb...
Álgebra                                                                   3   Agradecimientos    Queremos agradecer al pro...
4   Álgebra
Índice General1 Sistemas de ecuaciones lineales, matrices y estructuras alge-  braicas                                    ...
6                                                                        Álgebra2 Espacios vectoriales                    ...
Álgebra                                                                                        7          3.5.4   Algoritm...
8                                                                          Álgebra    6.3   Funciones complejas de variabl...
Capítulo 1Sistemas de ecuaciones lineales,matrices y estructuras algebraicasEste primer capítulo comienza con el estudio d...
10                                                                      Álgebra1.1 Sistemas de ecuaciones lineales, matric...
Álgebra                                                                     11Observación 2 Cuando n ≤ 3 es usual utilizar...
12                                                                     ÁlgebraDenición 1.1.3 Se dice que (α1 , ..., αn ) ∈...
Álgebra                                                                    13   Es importante tener presente que los siste...
14                                                                    Álgebraes compatible, puesto que (0, ..., 0) ∈ Kn es...
Álgebra                                                                     15realizará en las dos siguientes secciones. E...
16                                                                  Álgebraaplica más fácilmente sobre la que se denomina ...
Álgebra                                                                       17    La última matriz representa, obviament...
18                                                                    Álgebra1.1.4 Sistemas equivalentesLa aplicación suce...
Álgebra                                                                        19por su matriz ampliada:                  ...
20                                                                           Álgebra    Es obvio que el intercambio de lug...
Álgebra                                                                         21                                        ...
22                                                                   ÁlgebraMultiplicando la primera igualdad por µ y rest...
Álgebra                                                                      23             La primera variable de cada ec...
24                                                                      ÁlgebraSuponiendo que el sistema es compatible, a ...
Álgebra                                                                    25la misma, sino en todas las ecuaciones del si...
26                                                                    Álgebra                                          1...
Álgebra                                                                       27minúscula con dos subíndices, en este caso...
28                                                                     Álgebra     3. Otro ejemplo es la matriz C ∈ M3×3 (...
Álgebra                                                                             29      En general la matriz In = (aij...
30                                                                        ÁlgebraObservación 6 De la denición anterior se ...
Álgebra                                                                         31Demostración Se trata de comprobar, en c...
32                                                                   ÁlgebraSi la ecuación anterior forma parte de un sist...
Álgebra                                                                             33Esto nos lleva a la denición de prod...
34                                                                            Álgebra     1. Es asociativo: ∀A ∈ Mm×n (K),...
Álgebra                                                                                                      35           ...
36                                                                                                                  Álgebr...
Álgebra                                                                                         37     La demostración del...
38                                                                   ÁlgebraEjemplo 1.2.12 Siendo α ∈ K                   ...
Álgebra                                                                     391.2.5 El anillo de matrices cuadradas Mn (K)...
40                                                                         ÁlgebraObservación 10 No es difícil comprobar q...
Álgebra                                                                           41y                            A · B = I...
42                                                                   Álgebra     4. si A ∈ Mn (K) es invertible, entonces ...
Álgebra                                                                     431.2.7 Matrices elementales y un método para ...
44                                                                    Álgebra    Teniendo ahora en cuenta que, según hemos...
Álgebra                                                                       45Teorema 1.2.27 Si A ∈ Mn (K) las siguiente...
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Alg03
Próxima SlideShare
Cargando en…5
×

Alg03

  • Inicia sesión para ver los comentarios

  • Sé el primero en recomendar esto

Alg03

  1. 1. ÁlgebraR.Criado y A.Gallinari 2003
  2. 2. 2 Álgebra Introducción En sus orígenes, el álgebra clásica era el arte de resolver ecuaciones (lapalabra álgebra proviene de un vocablo árabe que signica reducción). Elálgebra moderna está caracterizada por el estudio de ciertas estructuras abs-tractas que tienen en común una gran variedad de objetos matemáticos. Elcalicativo abstracto se reere al resultado de realizar el proceso de abstrac-ción sobre las propiedades observables de ciertos objetos matemáticos, esdecir, el proceso consistente en separar la forma del contenido. La estructura principal objeto de estudio en esta publicación es la deespacio vectorial. Las aplicaciones de esta estructura incluyen virtualmen-te todas las áreas de la ciencia. Se incluye una aplicación de los espaciosvectoriales relacionada estrechamente con el mundo de la informática y lastelecomunicaciones, en concreto a la teoría de códigos y se estudian variastécnicas y herramientas de interés para otras aplicaciones. Este volumen viene acompañado por un libro de Prácticas y Problemascon el sistema Maple V, disponible en versión digital, que contiene una am-pliación y completa la descripción de los conceptos teóricos. Las prácticaspermiten el desarrollo y la experimentación con los aspectos más numéri-cos y están diseñada para potenciar el empleo de la notable capacidad devisualización gráca que ofrece el programa Maple V. A cada tema teórico y práctico hemos añadido ejercicios resueltos y ejer-cicios propuestos. Los principales objetivos didácticos que intentamos conseguir son que ellector: • aprenda y utilize correctamente técnicas y métodos propios del álgebra lineal. • vea la descripción de algunas aplicaciones a la Informática. • comprenda y aplique algunos métodos numéricos de resolución de sis- temas de ecuaciones lineales y de aproximación de autovalores y auto- vectores. • aprenda a utilizar el programa Maple V (como ejemplo de sistema de computación simbólica) en sus aplicaciones al álgebra lineal. Algunos apartados de esta publicación (sobre todo en la parte de ejerci-cios) son una adaptación del material contenido (unas veces sin modicarlo,otras proponiendo variaciones de ello) en la bibliografía incluida.
  3. 3. Álgebra 3 Agradecimientos Queremos agradecer al profesor Luis E. Solá Conde por su participaciónen la corrección de estas notas y la elaboración de los enunciados de variosejercicios propuestos en este libro. Gracias también a los profesores Alejandro J. García del Amo Jiménezy Begoña Jiménez Martín por la elaboración de los enunciados de variosejercicios propuestos y a los alumnos que han señalado erratas y errores enversiones previas de esta publicación.
  4. 4. 4 Álgebra
  5. 5. Índice General1 Sistemas de ecuaciones lineales, matrices y estructuras alge- braicas 9 1.1 Sistemas de ecuaciones lineales, matrices y eliminación gaussiana 10 1.1.1 Introducción a los sistemas de ecuaciones lineales . . . 10 1.1.2 Sistemas homogéneos . . . . . . . . . . . . . . . . . . . 13 1.1.3 Transformaciones elementales por las. Introducción al método de Gauss-Jordan . . . . . . . . 14 1.1.4 Sistemas equivalentes . . . . . . . . . . . . . . . . . . . 18 1.1.5 Estrategia para la aplicación del método de eliminación gaussiana . . . . . . . . . . . . . . . . . 22 1.1.6 Método de Gauss-Jordan . . . . . . . . . . . . . . . . . 24 1.2 Matrices y operaciones con matrices . . . . . . . . . . . . . . . 26 1.2.1 Suma de matrices . . . . . . . . . . . . . . . . . . . . . 29 1.2.2 Producto de matrices . . . . . . . . . . . . . . . . . . . 31 1.2.3 Propiedades del producto de matrices . . . . . . . . . . 33 1.2.4 El producto de una matriz por un escalar . . . . . . . . 37 1.2.5 El anillo de matrices cuadradas Mn (K) . . . . . . . . . 39 1.2.6 Matrices invertibles . . . . . . . . . . . . . . . . . . . . 40 1.2.7 Matrices elementales y un método para hallar A−1 . . . 43 1.3 Estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . 47 1.3.1 El concepto de operación . . . . . . . . . . . . . . . . . 47 1.3.2 Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 1.3.3 Anillos y cuerpos . . . . . . . . . . . . . . . . . . . . . 52 1.3.4 Introducción a los Tipos Abstractos de Datos . . . . . 57 1.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 1.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 60 1.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 64 5
  6. 6. 6 Álgebra2 Espacios vectoriales 71 2.1 Vectores en el plano y en el espacio . . . . . . . . . . . . . . . 73 2.1.1 Producto vectorial y producto mixto . . . . . . . . . . 81 2.1.2 Rectas en le plano . . . . . . . . . . . . . . . . . . . . 83 2.1.3 Planos en el espacio tridimensional . . . . . . . . . . . 85 2.1.4 Rectas en el espacio tridimensional . . . . . . . . . . . 87 2.2 Espacios vectoriales sobre un cuerpo K . . . . . . . . . . . . . 89 2.2.1 Propiedades de vectores . . . . . . . . . . . . . . . . . 92 2.2.2 Producto cartesiano de espacios vectoriales . . . . . . . 93 2.2.3 Funciones con codominio en un espacio vectorial . . . . 96 2.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . 100 2.4 Dependencia e independencia lineal . . . . . . . . . . . . . . . 104 2.5 Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . 112 2.5.1 Sistemas generadores y bases . . . . . . . . . . . . . . 112 2.5.2 Equipotencia de bases . . . . . . . . . . . . . . . . . . 116 2.6 Subespacios vectoriales y dimensión . . . . . . . . . . . . . . . 120 2.7 Rango de un sistema de vectores y de una matriz . . . . . . . 122 2.8 El teorema de Rouché-Fröbenius . . . . . . . . . . . . . . . . . 123 2.9 Método de Gauss y rango . . . . . . . . . . . . . . . . . . . . 130 2.9.1 Transformaciones elementales por columnas y matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . 130 2.9.2 Método de Gauss para calcular el rango de una matriz 132 2.9.3 Algoritmo de extensión de una base . . . . . . . . . . . 138 2.9.4 Rango y espacio la de una matriz . . . . . . . . . . . 139 2.10 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 2.10.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 141 2.10.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 1463 Funciones lineales 153 3.1 Funciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 154 3.2 Propiedades de funciones lineales . . . . . . . . . . . . . . . . 158 3.3 Núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . 161 3.4 Espacios vectoriales isomorfos . . . . . . . . . . . . . . . . . . 165 3.5 Funciones lineales en espacios vectoriales de dimensión nita . 167 3.5.1 Determinación de funciones lineales en espacios vecto- riales de dimensión nita . . . . . . . . . . . . . . . . . 167 3.5.2 Dimensiones del núcleo y de la imagen . . . . . . . . . 172 3.5.3 Matriz asociada a una función lineal . . . . . . . . . . 174
  7. 7. Álgebra 7 3.5.4 Algoritmo para hallar una base del núcleo y de la imagen178 3.5.5 Matriz asociada a la composición de funciones lineales . 179 3.5.6 Matrices semejantes y cambios de base . . . . . . . . . 183 3.5.7 Ecuaciones paramétricas e implícitas de un subespacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . 185 3.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 3.6.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 190 3.6.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 1934 Espacios vectoriales euclídeos 197 4.1 Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . 197 4.2 Longitud o norma euclídea de un vector . . . . . . . . . . . . 200 4.2.1 Propiedades de la norma euclídea . . . . . . . . . . . . 200 4.3 Método de ortogonalización de Gram-Schmidt . . . . . . . . . 204 4.3.1 Descomposición QR de una matriz . . . . . . . . . . . 209 4.4 Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . . 211 4.4.1 Método para hallar una proyección ortogonal . . . . . . 214 4.4.2 Aproximación óptima de un vector. . . . . . . . . . . . 215 4.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 4.5.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 217 4.5.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 2175 Códigos lineales 219 5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 5.2 Distancia de Hamming, detección y corrección de errores . . . 222 5.2.1 Código de paridad: detección de errores simples . . . . 223 5.2.2 Código de repetición: corrección de errores simples . . 224 5.3 Códigos lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 225 5.3.1 Paso de una matriz de control a una matriz generadora 228 5.3.2 Paso de una matriz generadora a una matriz de control 229 5.3.3 Detección y corrección de errores . . . . . . . . . . . . 232 5.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 5.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 235 5.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 2366 Autovalores y autovectores 239 6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 6.2 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . 241
  8. 8. 8 Álgebra 6.3 Funciones complejas de variable real . . . . . . . . . . . . . . 243 6.3.1 La exponencial compleja . . . . . . . . . . . . . . . . . 244 6.4 Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . 246 6.4.1 La ecuación de primer orden . . . . . . . . . . . . . . . 246 6.4.2 La ecuación de orden n . . . . . . . . . . . . . . . . . . 249 6.4.3 Sistemas de ecuaciones diferenciales . . . . . . . . . . . 251 6.5 La semejanza de matrices y los sistemas de ecuaciones . . . . . 253 6.5.1 Sistemas diagonales . . . . . . . . . . . . . . . . . . . . 255 6.5.2 Sistemas triangulares . . . . . . . . . . . . . . . . . . . 256 6.6 Diagonalización y triangulación de matrices . . . . . . . . . . 259 6.6.1 El polinomio característico de una matriz . . . . . . . . 259 6.6.2 Matrices diagonalizables . . . . . . . . . . . . . . . . . 263 6.6.3 Triangulación de matrices . . . . . . . . . . . . . . . . 268 6.6.4 Resolución de sistemas de ecuaciones diferenciales por triangulación . . . . . . . . . . . . . . . . . . . . . . . 271 6.7 Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . . 279 6.7.1 Relaciones de primer orden . . . . . . . . . . . . . . . . 281 6.7.2 Sistemas de relaciones de recurrencia . . . . . . . . . . 286 6.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290 6.8.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 290 6.8.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 2917 Soluciones de los ejercicios 293 7.1 Soluciones de los ejercicios del capítulo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 293 7.2 Soluciones de los ejercicios del capítulo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 307 7.3 Soluciones de los ejercicios del capítulo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 7.4 Soluciones de los ejercicios del capítulo 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . 331 7.5 Soluciones de los ejercicios del capítulo 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 332 7.6 Soluciones de los ejercicios del capítulo 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . 335A Nuevo método de triangulación por semejanza 343
  9. 9. Capítulo 1Sistemas de ecuaciones lineales,matrices y estructuras algebraicasEste primer capítulo comienza con el estudio de los sistemas de ecuacioneslineales, de las matrices y de las operaciones con matrices. Estos conceptos están en la base del álgebra lineal, y se asume que ya seha tenido un contacto previo con ellos en cursos anteriores. Es conveniente señalar que en este nivel no sólo es importante entenderlos métodos de cálculo de las soluciones de los problemas que se estudiarán,sino también el porqué dichos métodos funcionan. Hablaremos de sistemas de n ecuaciones con m variables, donde n y men general no son iguales, y de un algoritmo de cálculo, el método de elimi-nación gaussiana, que nos permitirá resolver sistemas de ecuaciones linealesgenerales. En la segunda parte del capítulo, una vez establecidas las propiedadesque satisfacen las matrices respecto de la suma y producto, se introducenlas estructuras algebraicas de grupo, anillo y cuerpo con el objeto de reu-nir, bajo una estructura algebraica abstracta, las propiedades que tienen encomún, por ejemplo, los números enteros, reales y complejos, las matrices ylos polinomios, y destacar aquellas propiedades que no comparten. En esesentido, la denición de una estructura algebraica (por ejemplo, la deniciónde grupo) responderá a la abstracción de ciertas propiedades comunes a losobjetos anteriores, entendiendo por abstracción el proceso de separar la for-ma del contenido. Como colofón del capítulo y aplicación de los conceptospreviamente introducidos veremos una introducción a los tipos abstractos dedatos. 9
  10. 10. 10 Álgebra1.1 Sistemas de ecuaciones lineales, matrices y eliminación gaussianaAl aplicar la teoría de ecuaciones lineales, entre otras disciplinas, a la infor-mática, aparecen ecuaciones lineales con coecientes enteros, binarios (0 ó1), reales o incluso complejos. La denición de la estructura algebraica decuerpo se introducirá más tarde. Cómo en la mayor parte de los resultadosreferentes a la teoría de ecuaciones lineales no hace falta hacer distinciónentre los casos en los que los coecientes son elementos del cuerpo R de losnúmeros reales o del cuerpo C de los números complejos, a lo largo del ca-pítulo se considerará que los coecientes de las ecuaciones pertenecen a uncuerpo genérico K, donde K = R ó C, aunque en algunos casos en los que sedirá explícitamente, se consideraran también coecientes binarios, es decir,del cuerpo Z2 = {0, 1} de los números enteros módulo 2. Se asume que el estudiante ha trabajado en cursos anteriores con elemen-tos de R2 y R3 , a los que se denominan pares ordenados y ternas. Ambosconceptos son casos particulares del concepto de n − tupla o elemento delproducto cartesiano de n copias de R, Rn , donde n es un número natural, oen general de Kn . Así Kn = {(x1 , ..., xn ) | ∀i ∈ {1, ..., n} xi ∈ K} De este modo, un par ordenado es una 2 − tupla (un elemento de K2 ) yuna terna es una 3 − tupla (un elemento de K3 ).1.1.1 Introducción a los sistemas de ecuaciones linealesDenición 1.1.1 Una ecuación lineal en las variables (o incógnitas) x1 , ..., xnes una expresión de la forma a1 x1 + ... + an xn = bA a1 , ..., an ∈ K se les denomina coecientes de la ecuación, y a b ∈ Ktérmino independiente.Observación 1 Habitualmente, los coecientes a1 , ..., an y el término inde-pendiente b serán elementos de un cuerpo K (con K = R ó C). En tal casose dice que la ecuación anterior es una ecuación lineal con coecientes en K.
  11. 11. Álgebra 11Observación 2 Cuando n ≤ 3 es usual utilizar las variables x, y y z enlugar de x1 , x2 y x3Ejemplo 1.1.2 Si n = 2 y a1 , a2 ∈ R, la ecuación lineal a1 x + a2 y = b (I)representa una recta en el plano R2 , es decir, el conjunto de pares (x, y) quesatisfacen la ecuación (I) constituyen una recta. Por ejemplo, la ecuacióny − 2x = 2 representa la recta T 2 E -1 0 Figura 1.1: La recta y=2x+2 Es importante observar que las operaciones que afectan a las variablesque intervienen en las ecuaciones lineales se reducen a multiplicarlas por loscoecientes y sumarlas. Así por ejemplo, 3x + 4y = 24 √ x1 − x2 + 5x3 − ( 2)x4 = 1 (e2 )x1 − 3x2 + x3 − x4 = 0son ecuaciones lineales. Sin embargo NO son ecuaciones lineales 3x2 + 4y = 24 √ x1 − x2 + 5x3 − 2 x4 = 1 e2x1 − 3x2 + x3 − x4 = 0
  12. 12. 12 ÁlgebraDenición 1.1.3 Se dice que (α1 , ..., αn ) ∈ Kn es solución de la ecuación a1 x1 + ... + an xn = bsi a1 α1 + ... + an αn = b.Ejemplo 1.1.4 (x, y, z) = (3, 2, −1) es solución de x + y + z = 4. Por otraparte (x, y, z) = (4, 0, 0) también es solución de dicha ecuación. Un sistema de ecuaciones lineales es una sucesión nita de ecuacioneslineales. Es usual representar los sistemas de ecuaciones lineales verticalmen-te (i.e., colocando la sucesión de ecuaciones lineales en columna). Así, unsistema de m ecuaciones lineales con n incógnitas se representaría por   a11 x1 + ... + a1n xn = b1  . .  .  a x + ... + a x = b m1 1 mn n mEjemplo 1.1.5 El sistema   x2 + x3 = 1 2x1 − x3 = 2  x2 + x3 = 4es un sistema de 3 ecuaciones con 3 incógnitas.Denición 1.1.6 Se dice que (α1 , ..., αn ) ∈ Kn es solución del sistema deecuaciones   a11 x1 + ... + a1n xn = b1  . .  .  a x + ... + a x = b m1 1 mn n msi ∀i ∈ {1, ..., m} ai1 α1 + ... + ain αn = bio, lo que es lo mismo,   a11 α1 + ... + a1n αn = b1  . .  .  a α + ... + a α = b m1 1 mn n m
  13. 13. Álgebra 13 Es importante tener presente que los sistemas de ecuaciones lineales pue-den no tener soluciones, o tener más de una. Por ejemplo, el sistema deecuaciones lineales con coecientes en R x1 − x2 = 1 x1 − x2 = 4no tiene solución, ya que contiene las ecuaciones de dos rectas distintas yparalelas. Los sistemas de ecuaciones lineales que no tienen solución, como el delejemplo anterior, se denominan sistemas incompatibles. Los que tienen al menos una solución, esto es, los sistemas compati-bles, pueden tener una única solución, en cuyo caso se denominan compati-bles determinados, o más de una solución, en cuyo caso, si los coecientesdel sistema son números reales o complejos, el sistema tiene innitas solucio-nes (como se verá por el teorema 1.2.14), y los sistemas correspondientes sedenominan compatibles indeterminados.Ejercicio 1.1.1 Encontrar tres sistemas de dos ecuaciones lineales con coe-cientes en R con dos incógnitas, uno compatible determinado, otro compatibleindeterminado y un tercero incompatible y representar el conjunto soluciónde cada una de las dos ecuaciones lineales que lo forman en el plano R2 .Extraer conclusiones.1.1.2 Sistemas homogéneosDenición 1.1.7 Se dice que un sistema de ecuaciones lineales es homogé-neo si los términos independientes de todas las ecuaciones que lo constituyenson iguales a 0.Ejemplo 1.1.8 x1 + x3 = 0 2x1 − x2 + x3 = 0es un sistema homogéneo de 2 ecuaciones con 3 incógnitas.Observación 3 Cualquier sistema de ecuaciones lineales homogéneo   a11 x1 + ... + a1n xn = 0  . .  .  a x + ... + a x = 0 m1 1 mn n
  14. 14. 14 Álgebraes compatible, puesto que (0, ..., 0) ∈ Kn es siempre una solución de dichosistema. A esta solución se la conoce como solución trivial. Si un sistemahomogéneo tiene soluciones distintas de la trivial, a cualquiera de dichassoluciones la denominaremos solución no trivial. En el capítulo 2 demostraremos que un sistema homogéneo de ecuacioneslineales con coecientes en R ó C satisface exactamente una de las siguientesproposiciones: • El sistema homogéneo sólo tiene la solución trivial. • El sistema homogéneo tiene innitas soluciones además de la trivial. En particular, demostraremos que todo sistema homogéneo con coe-cientes en R ó C que tenga más incógnitas que ecuaciones tiene innitassoluciones. Se pueden comprender e interiorizar los resultados anteriores a travésde la resolución de los siguientes ejercicios:Ejercicio 1.1.2 Comprobar que el sistema homogéneo x1 + x3 = 0 2x1 − x2 + x3 = 0tiene innitas soluciones en ∈ R3 , despejando las variables x1 y x2 en funciónde x3 , y obtener una solución del sistema para cada valor de x3 considerado.Ejercicio 1.1.3 Vericar que el sistema x1 + x2 = 0 2x1 − x2 = 0sólo tiene la solución trivial.1.1.3 Transformaciones elementales por las. Introducción al método de Gauss-JordanEn esta sección haremos una primera descripción del método de Gauss-Jordan para encontrar las soluciones (si es que existen) de un sistema deecuaciones lineales. La justicación del método y su descripción precisa se
  15. 15. Álgebra 15realizará en las dos siguientes secciones. En esta sección también daremosuna primera justicación de la denición del producto de matrices (i.e., deporqué el producto de matrices se dene tal y como se dene). Al procesode cálculo de las soluciones de un sistema de ecuaciones compatible se ledenomina resolución del sistema. Si consideramos el sistema de ecuaciones lineales:   x1 − x2 + x3 = 1 2x1 + x2 − x3 = 2  x1 + 2x2 + x3 = 4podemos resolverlo eliminando sucesívamente una de las incógnitas de dosde las ecuaciones, después otra de las restantes y así sucesivamente hastaconocer el valor de una incógnita, y a partir de ella el de las demás. En estecaso, multiplicando la primera ecuación por 2 y restándosela a la segunda, yrestando la primera ecuación a la tercera, obtenemos:   x1 − x2 + x3 = 1 3x2 − 3x3 = 0  3x2 = 3.A partir de aquí, de la tercera ecuación se obtiene x2 = 1. Sustituyendo haciaatrás vamos obteniendo sucesívamente el valor del resto de las incógnitas.En este caso, de la segunda ecuación obtenemos que x3 = 1, y, conocidos losvalores de x2 y x3 , de la primera ecuación obtenemos que x1 = 1. El método descrito, consistente en ir eliminando las incógnitas de lasecuaciones una a una mediante el proceso de sumar a una ecuación otramultiplicada por un número, para, una vez obtenido el valor de una de lasvariables, ir sustituyendo hacia atrás, se conoce como eliminación gaussia-na. Si una vez obtenido el valor de una de las variables, en lugar de sustituirhacia atrás, seguimos sumando a una ecuación otra multiplicada por un nú-mero, multiplicando ambos miembros de la ecuación por números adecuados eintercambiando ecuaciones con el objeto de obtener un sistema de ecuacionesescalonado en el que en cada ecuación aparezca únicamente una incógnita,estaremos aplicando el método conocido como método de Gauss-Jordan. Una forma de representar sistemas de ecuaciones lineales consiste en uti-lizar matrices, esto es, tablas de coecientes ordenadas según un númerodeterminado de las y columnas. De hecho, el método de Gauss-Jordan se
  16. 16. 16 Álgebraaplica más fácilmente sobre la que se denomina matriz ampliada asociada alsistema que sobre el propio sistema. La matriz asociada al sistema   x1 − x2 + x3 = 1 2x1 + x2 − x3 = 2  x1 + 2x2 + x3 = 4es por denición la matriz   1 −1 1  2 1 −1  1 2 1y la matriz ampliada asociada a dicho sistema es   1 −1 1 1  2 1 −1 2  1 2 1 4 La aplicación del método de Gauss-Jordan sobre dicha matriz para obte-ner la solución del sistema de ecuaciones que representa nos daría sucesíva-mente:     1 −1 1 1 1 −1 1 1  2 1 −1 2  F2 = F2 − 2F1 →  0 3 −3 0  F2 ↔ F3 → F3 = F3 − F1 1 2 1 4 0 3 0 3    1 −1 1 1 1 −1 1 1 0 3 0 3  F2 = 1 F2 →  0 1 0 1  F3 = F3 − 3F2 → 3 0 3 −3 0 0 3 −3 0    1 −1 1 1 1 −1 1 1 0 1 0 1  F3 = − 3 F3 →  0 1 0 1  F1 = F1 − F3 → 1 0 0 −3 −3 0 0 1 1     1 −1 0 0 1 0 0 1  0 1 0 1  F1 = F1 + F2 →  0 1 0 1  0 0 1 1 0 0 1 1
  17. 17. Álgebra 17 La última matriz representa, obviamente, que x1 = 1, x2 = 1 y x3 = 1. En la resolución del sistema anterior hemos aplicado sobre la matriz am-pliada del sistema lo que se denominan transformaciones elementales porlas. Estas son las siguientes: 1. Sumar a una la otra multiplicada por un número: Fi = Fi + λFj 2. Multiplicar una la por un número distinto de cero: Fi = λFi 3. Intercambiar dos las: Fi ↔ Fj En cualquier caso, no todos los sistemas de ecuaciones lineales tienensolución. Por ejemplo, si consideramos el sistema x1 − x2 = 1 2x1 − 2x2 = 4la aplicación de las transformaciones elementales correspondientes sobre lamatriz ampliada asociada al sistema nos lleva a 1 −1 1 1 −1 1 F2 = F2 − 2F1 → 2 −2 4 0 0 2es decir, 0x1 + 0x2 = 2. Así pues, el sistema anterior es un sistema incompatible. Un ejemplo de sistema compatible indeterminado sería el siguiente:   x1 − x2 + x3 = 1 2x1 + x2 − x3 = 2  2x1 − 2x2 + 2x3 = 2Al resolverlo por el método de Gauss-Jordan obtenemos:    1 −1 1 1 1 −1 1 1 2 1 −1 2  F2 = F2 − 2F1 →  0 3 −3 0  F2 = 1 F2 → F3 = F3 − 2F1 3 2 −2 2 2 0 0 0 0     1 −1 1 1 1 0 0 1  0 1 −1 0  F1 = F1 + F2 →  0 1 −1 0  0 0 0 0 0 0 0 0es decir, x1 = 1 y x2 − x3 = 0, o lo que es lo mismo, x2 = x3 , con lo que,si escribimos x3 = t, para cada valor de t tenemos una solución del sistema.Sería solución del sistema (1, 1, 1), (1, 2, 2), ... en total tendríamos innitassoluciones, tantas como posibles valores del parámetro t; esto ocurre porqueestamos trabajando sobre el cuerpo de los números reales, luego t tomavalores en R, que es innito.
  18. 18. 18 Álgebra1.1.4 Sistemas equivalentesLa aplicación sucesiva de transformaciones elementales por las sobre un sis-tema de ecuaciones lineales (o sobre su matriz ampliada) permite pasar deun sistema de ecuaciones lineales a otro que, teniendo las mismas solucionesque el planteado, es más sencillo de resolver. En esta sección demostraremoscon todo detalle que esto es efectivamente así. Por otra parte, las transforma-ciones elementales son reversibles, es decir, si realizando transformacioneselementales sobre un sistema de ecuaciones lineales S obtenemos un siste-ma de ecuaciones lineales S , podemos recuperar S a partir de S realizandolas transformaciones elementales “inversas” en el orden adecuado (el ordeninverso del que se ha seguido para pasar de S a S ). TRASFORMACIÓN TRANSFORMACIÓN INVERSA Fi = Fi + λFj Fi = Fi − λFj 1 Fi = λFi (λ = 0) Fi = Fi λ Fi ↔ Fj Fi ↔ FjEjercicio 1.1.4 Realizar las transformaciones F3 = F3 − F1 , F3 ↔ F1 , 1F2 = F2 sobre la matriz ampliada asociada al sistema. 2   x1 − x2 + x3 = 1 2x1 + 2x2 − 2x3 = 2  x1 + 2x2 + x3 = 4para obtener la matriz A . Realizar sobre A las transformaciones inversasde las anteriores en el orden adecuado y comprobar que se obtiene la matrizampliada asociada al sistema dado.Denición 1.1.9 Se dice que dos sistemas de m ecuaciones lineales con nincógnitas son equivalentes si uno de ellos puede obtenerse a partir del otrorealizando sobre el primero una sucesión nita de transformaciones elemen-tales por las.Observación 4 Como ya hemos señalado, habitualmente representaremos aun sistema de ecuaciones lineales   α11 x1 + ... + α1n xn = β1  . .  .  α x + ... + α x = β m1 1 mn n m
  19. 19. Álgebra 19por su matriz ampliada:   α11 ... α1n β1 Am =  . . . ∈M  . . .  . . . m×(n+1) (K), αm1 ... αmn βmcon lo que las transformaciones elementales se realizan sobre las las de estamatriz. A la vista de la observación anterior tiene sentido establecer la siguientedenición:Denición 1.1.10 Si una matriz A se obtiene realizando transformacioneselementales por las sobre una matriz A, diremos que las matrices A y Ason equivalentes por las.Observación 5 A las transformaciones elementales por las, realizadas, biendirectamente sobre las ecuaciones del sistema, bien sobre las las de su matrizampliada las denotaremos del mismo modo.Ejercicio 1.1.5 Vericar que la relación de equivalencia de matrices enMm×n (K) es una relación binaria reexiva, simétrica y transitiva (es decir,es una relación de equivalencia en el sentido general).Teorema 1.1.11 Si dos sistemas de ecuaciones son equivalentes, entoncestienen exactamente las mismas soluciones. En otras palabras, si S y S sonequivalentes, (α1 , ..., αn ) es soluci´n de S ⇔ (α1 , ..., αn ) es soluci´n de S . o oDemostración Para demostrar el teorema, es suciente con estudiar elcaso en el que un sistema se obtiene a partir de otro mediante la aplicaciónde una única transformación elemental por las. Supongamos que el sistemaconsiderado es   α11 x1 + ... + α1n xn = β1    α21 x1 + ... + α2n xn = β2 S≡ . .   .   α x + ... + α x = β m1 1 mn n m
  20. 20. 20 Álgebra Es obvio que el intercambio de lugar entre dos ecuaciones del sistema noaltera el conjunto solución del mismo. Por consiguiente la aplicación de unatransformación del tipo Fi ↔ Fj no altera el conjunto solución. Además,teniendo esto presente, podemos restringir el estudio al caso en el que lastransformaciones elementales se aplican únicamente sobre la primera y lasegunda ecuación, dejando el resto inalteradas. Sea λ = 0, y supongamosque   λα11 x1 + ... + λα1n xn = λβ1    α21 x1 + ... + α2n xn = β2 S ≡ . .   .   α x + ... + α x = β m1 1 mn n m Veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S . o o Si (s1 , ..., sn ) es solución de S, tendremos que   α11 s1 + ... + α1n sn = β1    α21 s1 + ... + α2n sn = β2 . .   .   α s + ... + α s = β m1 1 mn n mcon lo que, multiplicando ambos miembros de la primera igualdad por λ,obtenemos que   λα11 s1 + ... + λα1n sn = λβ1    α21 s1 + ... + α2n sn = β2 . .   .   α s + ... + α s = β m1 1 mn n mes decir, que (s1 , ..., sn ) es solución de S . Veamos ahora el recíproco, i.e., que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S. o o Si (s1 , ..., sn ) es solución de S , tendremos que   λα11 s1 + ... + λα1n sn = λβ1    α21 s1 + ... + α2n sn = β2 . .   .   α s + ... + α s = β m1 1 mn n m
  21. 21. Álgebra 21 1con lo que, multiplicando ambos miembros de la primera igualdad por λ ,obtenemos que    α11 s1 + ... + α1n sn = β1   α21 s1 + ... + α2n sn = β2 . .   .   α s + ... + α s = β m1 1 mn n mes decir, que (s1 , ..., sn ) es solución de S. Supongamos ahora que    α11 x1 + ... + α1n xn = β1   (α21 + µα11 )x1 + ... + (α2n + µα1n )xn = (β2 + µβ1 ) S ≡ . .   .   α x + ... + α x = β m1 1 mn n m Veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S . o o Si (s1 , ..., sn ) es solución de S, tendremos que   α11 s1 + ... + α1n sn = β1    α21 s1 + ... + α2n sn = β2 . .   .   α s + ... + α s = β m1 1 mn n mcon lo que, multiplicando los dos miembros de la primera ecuación por µ, ysumando miembro a miembro la primera ecuación a la segunda obtendremos    α11 s1 + ... + α1n sn = β1   (α21 + µα11 )s1 + ... + (α2n + µα1n )sn = (β2 + µβ1 ) . .   .   α s + ... + α s = β m1 1 mn n mRecíprocamente, veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n o ode S. Si (s1 , ..., sn ) es solución de S , tendremos que    α11 s1 + ... + α1n sn = β1   (α21 + µα11 )s1 + ... + (α2n + µα1n )sn = (β2 + µβ1 ) . .   .   α s + ... + α s = β m1 1 mn n m
  22. 22. 22 ÁlgebraMultiplicando la primera igualdad por µ y restándosela a la segunda obtene-mos que   α11 s1 + ... + α1n sn = β1    α21 s1 + ... + α2n sn = β2 . .   .   α s + ... + α s = β m1 1 mn n mcon lo que (s1 , ..., sn ) es solución de S. Esto completa la demostración delteorema. 21.1.5 Estrategia para la aplicación del método de eliminación gaussiana 1. Reordenar las ecuaciones para que en la primera ecuación la primeravariable x1 tenga un coeciente no nulo, y multiplicar ambos miembros dedicha ecuación para que el coeciente de dicha variable sea 1. 2. Restar la primera ecuación multiplicada por un escalar adecuado a lasdemás ecuaciones con el objeto de que la primera variable aparezca solamenteen la primera ecuación. 3. En el caso de que sea posible, reordenar las ecuaciones de la segundaen adelante con el objeto de que la segunda variable x2 aparezca con uncoeciente no nulo y multiplicar ambos miembros de dicha ecuación paraque el coeciente de dicha variable sea 1. Si la variable x2 no aparece másque en la primera ecuación, hacer la operación anterior con la variable x3 ocon la primera variable que aparezca con un coeciente no nulo en alguna delas ecuaciones restantes (todas salvo la primera). 4. Restar la segunda ecuación multiplicada por un escalar adecuado a lasecuaciones situadas bajo la misma con el objeto de que la segunda variable(o la que corresponda) no aparezca en ninguna ecuación situada por debajode la segunda. 5. Operando análogamente con el resto de las ecuaciones, el sistema asíobtenido será un sistema escalonado, es decir, un sistema que se ajusta a lasiguiente denición.Denición 1.1.12 Se dice que un sistema de ecuaciones es escalonado si
  23. 23. Álgebra 23 La primera variable de cada ecuación tiene 1 como (E.1) coeciente (a esta variable la denominaremos variable principal de dicha ecuación). La variable principal de cualquier ecuación siempre aparece situada a la derecha de las variables (E.2) principales de las ecuaciones previas, y todas las ecuaciones sin variable principal aparecen colocadas al nal. La última frase de (E.2) puede parecer algo misteriosa. Sin embargo,al llevar a cabo la estrategia anterior sobre un sistema concreto, podríamosobtener una ecuación de la forma 0x1 + ... + 0xn = kcon k = 0 o k = 0 (en este último caso el sistema es incompatible). Este tipode ecuaciones deberán aparecer siempre en las últimas las del sistema.Ejemplo 1.1.13 Los siguientes sistemas de ecuaciones son escalonados:   x1 + x2 + 3x3 = 9 x2 + 6x3 = 24  x3 = −4 x1 + x2 + x3 − 5x4 = 4 x3 − 2x4 = 6.Las matrices ampliadas asociadas a estos sistemas son   1 1 3 9  0 1 6 24  0 0 1 −4 y 1 1 1 −5 4 0 0 1 −2 6 El conjunto de soluciones de un sistema escalonado es razonablementesencillo de obtener. Un sistema de ecuaciones escalonado será compatible entodos los casos en los que no aparezca una ecuación de la forma 0x1 + ... + 0xn = k, con k = 0.
  24. 24. 24 ÁlgebraSuponiendo que el sistema es compatible, a cualquier variable que no seala variable principal de una ecuación la denominaremos variable libre. Siuna variable es variable principal de un sistema de ecuaciones escalonado,diremos que dicha variable no es libre (o también que está determinada).El siguiente proceso, conocido como sustitución hacia atrás o remonte,obtiene todas las soluciones del sistema asignando parámetros a las variableslibres.Sustitución hacia atrás en el método de eliminación gaussianaSuponiendo que no aparece ninguna ecuación de la forma 0x1 + ... + 0xn = kcon k = 0 en el sistema escalonado obtenido, comenzamos con la últimaecuación del sistema asignado un parámetro diferente a cada variable librey expresando la variable determinada por la última ecuación en términosde estos parámetros. Después, operaremos análogamente con la penúltimaecuación, asignando diferentes parámetros a cada una de las nuevas variableslibres, y obteniendo el valor de la variable determinada por la penúltimaecuación. Realizando las mismas operaciones con el resto de las ecuacioneshasta llegar a la primera, al nal del proceso todas las variables libres tendránasignado un parámetro diferente, y todas las variables determinadas estaránexpresadas en términos de estos parámetros.Ejercicio 1.1.6 Resolver los siguientes sistemas de ecuaciones lineales porel método de eliminación gaussiana.:   2x1 + x2 + 3x3 = 9 5x1 + 4x2 + 6x3 = 24  x1 + 3x2 − 2x3 = 4 3x1 + x2 + x3 − 5x4 = 4 5x1 + 2x2 + 4x3 − 2x4 = 61.1.6 Método de Gauss-JordanEl método de Gauss-Jordan es una extensión del método de eliminación gaus-siana, que consiste en eliminar la variable principal de la ecuación correspon-diente no solamente en las ecuaciones que aparecen situadas por debajo de
  25. 25. Álgebra 25la misma, sino en todas las ecuaciones del sistema. Por ello, la estrategia esla misma que la del método de eliminación de Gauss, con la adición de lassiguientes instrucciones en el lugar correspondiente: 4. Sustraer además la segunda ecuación multiplicada por un escalar ade-cuado de la primera ecuación, con el objeto de eliminar la segunda variablede la primera ecuación. 5. En cada paso sustraer la ecuación correspondiente multiplicada porun escalar adecuado tanto de las ecuaciones situadas por debajo de la mismacomo de las situadas por encima, con el objeto de que la variable principalde cada ecuación aparezca únicamente en la ecuación de la que es variableprincipal. Los sistemas de ecuaciones que resultan de la aplicación del método deGauss-Jordan se dice que tienen forma escalonada reducida, es decir:Denición 1.1.14 Se dice que un sistema de ecuaciones está en forma es-calonada reducida si La primera variable de cada ecuación tiene 1 como (E.R.1) coeciente (a esta variable la denominaremos variable principal de dicha ecuación). La variable principal de cualquier ecuación siempre aparece situada a la derecha de las variables (E.R.2) principales de las ecuaciones previas, y todas las ecuaciones sin variable principal aparecen colocadas al nal. La variable principal de cada ecuación aparece solamente (E.R.3) en la ecuación de la que es variable principal.Ejemplo 1.1.15 Vamos a resolver el siguiente sistema de ecuaciones por elmétodo de Gauss Jordan, es decir, obteniendo una forma escalonada reducidade dicho sistema   x1 − 4x2 + x3 = 2 −x1 + 3x2 − x3 = 1  x1 + 2x3 = 3 Para ello, trabajamos directamente sobre la matriz ampliada asociada alsistema, teniendo presente en todo momento qué es lo que representan loscoecientes de dicha matriz:   1 −4 1 2  −1 3 −1 1  F2 = F2 + F1 → F3 = F3 − F1 1 0 2 3
  26. 26. 26 Álgebra   1 −4 1 2 F2 = (−1)F2  0 −1 0 3  F1 = F1 + 4F2 → 0 4 1 1 F3 = F3 − 4F2     1 0 1 −10 1 0 0 −23  0 1 0 −3  F1 = F1 − F3 →  0 1 0 −3  . 0 0 1 13 0 0 1 13 La última matriz ampliada representa el sistema en forma escalonadareducida. El sistema es, por tanto, compatible determinado y su solución es(−23, −3, 13).Ejercicio 1.1.7 Resolver los siguientes sistemas de ecuaciones lineales porel método de Gauss-Jordan:   x1 − x2 − x3 + x4 = 5 x2 − x3 + 2x4 = 8  2x1 − x2 − 3x3 + 4x4 = 18   x1 + 5x2 − 2x3 = 0 x1 − 3x2 + x3 = 0  x1 + 5x2 − x3 = 01.2 Matrices y operaciones con matricesAl realizar una primera lectura de los epígrafes siguientes, hasta completar latotalidad del capítulo, se puede pensar que K = R ó C aunque los resultadosobtenidos serán válidos para cualquier cuerpo K. Como hemos visto en la sección anterior, las matrices permiten represen-tar sistemas de ecuaciones lineales. Veamos una denición precisa de lo quees una matriz:Denición 1.2.1 Una matriz de orden m × n con coecientes en un cuerpoK (por ejemplo K = R ó C) es una función: A : {1, ..., m} × {1, ..., n} −→ K (i, j) ; A(i, j)Se dice entonces que A es una matriz con m las y n columnas. Esusual representar el coeciente A(i, j) de la matriz A por su correspondiente
  27. 27. Álgebra 27minúscula con dos subíndices, en este caso aij , y a la matriz completa A poruna tabla en la que en la la `“i” y en la columna “j” aparece el elementoaij :   a11 ··· a1n     A= . . .  . .   . aij .    am1 ··· anmAsí por ejemplo, la matriz A de dos las y dos columnas determinada por A(1, 1) = 0, A(1, 2) = 1, A(2, 1) = −1, A(2, 2) = 4 0 1se representará por . −1 4 Al conjunto de matrices de m las y n columnas con coecientes en K lodenotaremos por Mm×n (K). Es obvio que de la denición anterior se sigue que dos matrices A, B soniguales si son iguales como funciones, es decir, si son del mismo orden (i.e.,si tienen el mismo número de las y de columnas, o lo que es lo mismo A, B ∈Mm×n (K) para algún m y n) y ∀(i, j) ∈ {1, ..., m}×{1, ..., n} A(i, j) = B(i, j).Ejemplo 1.2.2 Veamos algunos ejemplos de matrices denidas con notaciónfuncional: 1. A ∈ M3×3 (K) denida por (A(i, i) = 1, ∀i = 1, 2, 3) ∧ (A(i, j) = 0, ∀i, j ∈ {1, 2, 3}, i = j) es la matriz:   1 0 0  0 1 0  0 0 1 2. Podemos utilizar también congruencias módulo un número entero so- bre i y j para denir la matriz; por ejemplo B ∈ M3×3 (R) dada por (A(i, j) = 1 ⇔ i + j ≡ 1 mod 2) ∧ (A(i, j) = 0 ⇔ i + j ≡ 0 mod 2) se representa por   0 1 0  1 0 1  0 1 0
  28. 28. 28 Álgebra 3. Otro ejemplo es la matriz C ∈ M3×3 (R) dada por (A(i, j) = 2i−1 3j−1 ), que es   1 3 9  2 6 18  4 12 36 Recordemos ahora algunas deniciones y veamos otras nuevas: • Si A ∈ Mm×n (K) se dice que A es una matriz de orden m×n. Si m = n, en lugar de escribir Mn×n (K), escribiremos Mn (K), y si A ∈ Mn (K) diremos que A es una matriz cuadrada de orden n. • Si A ∈ Mm×n (K), utilizaremos indistintamente la notación usual aij o la funcional A(i, j) para referirnos al elemento de la matriz A situado en la la i − esima y en la columna j − esima. Por ello escribiremos en ´ ´ ocasiones A = (aij ) ∈ Mm×n (K) para referirnos a una matriz genérica de orden m × n. (Obsérvese que a es la minúscula de A). • Si A ∈ Mm×1 (K) se dice que A es una matriz columna (de m las). • Si A ∈ M1×n (K) se dice que A es una matriz la (de n columnas). • Si A ∈ Mm×n (K), ∀i ∈ {1, ..., m} llamaremos la i-ésima de A a la matriz la de n columnas Ai = (ai1 ... ain ). Análogamente, llamaremos columna j-ésima de A a la matriz columna de m las   a1j  .  Aj =  .  . . amj • Una matriz de particular interés es la matriz identidad a la que denotaremos por In (hay una para cada valor natural de n). Así por ejemplo,     1 0 0 0 1 0 0   1 0  0 1 0  e I4 =  0 1 0 0  . I2 = , I3 =  0 0 1 0  0 1 0 0 1 0 0 0 1
  29. 29. Álgebra 29 En general la matriz In = (aij ) ∈ Mn (K) se dene por la condición ∀i, j ∈ {1, ...n}, aii = 1 ∧ (i = j ⇒ aij = 0). Utilizando la notación funcional, In ∈ Mn (K) quedaría determinada por las condiciones: (∀i ∈ {1, ..., n} In (i, i) = 1) ∧ (∀i, j ∈ {1, ..., n} (i = j ⇒ In (i, j) = 0)). • Si A ∈ Mm×n (K) se denomina matriz traspuesta de A a la matriz t A ∈ Mn×m (K) tal que ∀(i, j) ∈ {1, ..., n} × {1, ..., m} t A(i, j) = A(j, i) (empleando la notación no funcional, si t A = (bij ), entonces ∀(i, j) ∈ {1, ..., n} × {1, ..., m} bij = aji ). Así por ejemplo, si   1 2 A =  2 0  ∈ M3×2 (R), 3 −1 su traspuesta es t 1 2 3 A= ∈ M2×3 (R). 2 0 −1 Un método sistemático para obtener la matriz traspuesta de una matriz dada consiste en ir leyendo los coecientes por las para sistemática- mente escribirlos por columnas.1.2.1 Suma de matricesLa denición de suma de matrices es muy natural:Denición 1.2.3 Si A, B ∈ Mm×n (K), la suma de A y B es la matrizA + B ∈ Mm×n (K) denida por las condiciones ∀(i, j) ∈ {1, ..., m} × {1, ..., n} (A + B)(i, j) = A(i, j) + B(i, j)       1 −1 1 3 2 2Ejemplo 1.2.4  3 0  +  2 0  =  5 0  1 2 0 −2 1 0
  30. 30. 30 ÁlgebraObservación 6 De la denición anterior se sigue que para que dos matricesse puedan sumar deben ser del mismo orden. Se denomina matriz nula de orden m × n a la matriz (0) ∈ Mm×n (K)denida por las condiciones ∀(i, j) ∈ {1, ..., m} × {1, ..., n} (0)(i, j) = 0Así por ejemplo, 0 0 0 (0) ∈ M2×3 (C) es la matriz . 0 0 0Observación 7 En lo sucesivo también escribiremos (0) ∈ Mm×n (K) pararepresentar a la matriz nula de orden m × n.Denición 1.2.5 Si A ∈ Mm×n (K) se denomina matriz opuesta de A a lamatriz (−A) ∈ Mm×n (K) denida por las condiciones ∀(i, j) ∈ {1, ..., m} × {1, ..., n} (−A)(i, j) = −A(i, j) ∈ K Así por ejemplo,     1 −1 −1 1 −  3 0  =  −3 0  1 2 −1 −2 y 2 −1 0 −2 1 0 − = . 1 1 3 −1 −1 −3Proposición 1.2.6 Si A, B, C ∈ Mm×n (K), se verica que: 1. A + B = B + A (propiedad conmutativa de la suma de matrices) 2. A + (B + C) = (A + B) + C (propiedad asociativa) 3. A + (0) = A, (0) + A = A ((0) es el elemento neutro para +) 4. A + (−A) = (0), (−A) + A = (0) ((−A) es la opuesta de A)
  31. 31. Álgebra 31Demostración Se trata de comprobar, en cada caso, que las matrices si-tuadas a ambos lados de la igualdad son efectivamente iguales. Demostrare-mos la primera propiedad y el resto se propone como ejercicio. Hay que comprobar que ∀(i, j) ∈ {1, ..., m} × {1, ..., n} (A + B)(i, j) = (B + A)(i, j) Sea (i, j) ∈ {1, ..., m} × {1, ..., n}. (A + B)(i, j)= (por denición)= =A(i, j) + B(i, j)=(puesto que la suma de números reales o complejos y,en general, de los elementos de un cuerpo, satisface la propiedad conmutati-va) =B(i, j) + A(i, j)= (por denición) =(B + A)(i, j). 2 Por satisfacer las 4 propiedades de la proposición anterior se dice que lasmatrices de orden m × n con coecientes en K tienen estructura de grupoabeliano respecto de la suma. De la matriz (0) se dice que es el elementoneutro del grupo abeliano, y de la matriz (−A) se dice que es la matrizopuesta de A.1.2.2 Producto de matricesEn capítulos venideros veremos que la siguiente denición del producto dematrices permitirá representar la actuación de una función lineal sobre unelemento como un producto de matrices, hecho que a su vez tendrá comoconsecuencia el que la composición de funciones lineales se exprese como unproducto de matrices. Si consideramos una ecuación lineal, por ejemplo 2x1 + x2 + 6x3 = 3,es posible considerar la parte izquierda de la igualdad como el producto dela matriz de coecientes (2 1 6)por la matriz de incógnitas   x1  x2  x3y escribir   x1 (2 1 6) ·  x2  = (3) x3
  32. 32. 32 ÁlgebraSi la ecuación anterior forma parte de un sistema, por ejemplo del sistema   2x1 + x2 + 6x3 = 3 5x1 + 4x2 + 6x3 = 24  x1 + 3x2 − 2x3 = 4teniendo en cuenta que de la denición de matriz se sigue que dos matricesson iguales si tienen el mismo número de las y de columnas y los mismoscoecientes en cada la y columna, resulta que, utilizando la denición deproducto de matrices anterior, podemos representar el sistema de ecuacionesmediante un producto de matrices, esto es:       2 1 6 x1 3  5 4 6  ·  x2  =  24  . 1 3 −2 x3 4 En general, el sistema de ecuaciones   a11 x1 + ... + a1n xn = b1  . .  .  a x + ... + a x = b m1 1 mn n mpuede representarse mediante el producto denido por la expresión:     x1 b1  .   .  A ·  .  =  . . . . xn bmClaro está que podemos considerar sistemas de ecuaciones con la mismamatriz de coecientes y distinto término independiente. Por ejemplo:    2x1 + x2 + 6x3 = 3  2x1 + x2 + 6x3 = 1 5x1 + 4x2 + 6x3 = 24 y 5x1 + 4x2 + 6x3 = 1 .   x1 + 3x2 − 2x3 = 4 x1 + 3x2 − 2x3 = 1En ese caso, teniendo en cuenta, por una parte, que las soluciones de unono tienen porqué coincidir con las del otro, por lo que denotamos por y1 , y2e y3 a las incógnitas del segundo sistema, y por otra, cuando dos matri-ces son iguales, podemos representarlos matricialmente de forma simultánea,mediante la expresión:       2 1 6 x1 y 1 3 1  5 4 6  ·  x2 y2  =  24 1  . 1 3 −2 x3 y 3 4 1
  33. 33. Álgebra 33Esto nos lleva a la denición de producto de dos matrices. Como observa-ción previa a la denición, nótese que en los ejemplos anteriores, para podermultiplicar la matriz de coecientes por la de incógnitas, era preciso queel número de las de la matriz de coecientes coincidiese con el número decolumnas de la matriz de incógnitas.Denición 1.2.7 Dadas las matrices A ∈ Mm×n (K) y B ∈ Mn×p (K) sedenomina matriz producto de A y B , y se denota por A · B a la matriz A · B ∈ Mm×p (K) tal que n ∀(i, j) ∈ {1, ..., m} × {1, ..., p} A · B(i, j) = A(i, k) · B(k, j) k=1   1 2 0    1 2  1 −1 −1 Ejemplo 1.2.8 Dadas las matrices  1 1 ∈ M4×3 (R) y  3 0  ∈ 0  1 2 0 4 3M3×2 (R), su producto es la matriz     1 2 0   7 −1  1 2 −1  1 −1   · 3 0 = 6 −3   ∈ M4×2 (R)  1 1 0   4 −1  1 2 0 4 3 15 61.2.3 Propiedades del producto de matricesEl producto de matrices no es conmutativo, pues por ejemplo 1 1 1 −1 2 −2 · = 1 1 1 −1 2 −2y sin embargo 1 −1 1 1 0 0 · = . 1 −1 1 1 0 0Proposición 1.2.9 El producto de matrices satisface las siguientes propie-dades:
  34. 34. 34 Álgebra 1. Es asociativo: ∀A ∈ Mm×n (K), B ∈ Mn×p (K) y C ∈ Mp×q (K), (A · B) · C = A · (B · C) (y por tanto podemos omitir los paréntesis para denotar cualquiera de estos productos y escribir A · B · C ). 2. Es distributivo respecto de la suma: ∀A ∈ Mm×n (K), ∀B, C ∈ Mn×p (K) A · (B + C) = A · B + A · C ∀A ∈ Mm×n (K), ∀B, C ∈ Mp×n (K) (B + C) · A = B · A + C · A 3. ∀A ∈ Mm×n (K), A · (0) = A y (0) · A = (0)Demostración Antes de dar la demostración debemos señalar que es usual nemplear el símbolo sumatorio ai en lugar de la expresión a1 + ... + an , lo i=1que tiene sentido puesto que la suma considerada es asociativa. 1. Sean A ∈ Mm×n (K) ,B ∈ Mn×p (K) y C ∈ Mp×q (K). Las dos matrices A·(B ·C) y (A·B)·C tienen el mismo orden, ya que ambas pertenecen a Mm×q (K). Veamos que ∀(i, j) ∈ {1, ..., m}×{1, ..., q} (A·(B ·C))(i, j) = ((A · B) · C)(i, j) :
  35. 35. Álgebra 35 n (A · (B · C))(i, j) = A(i, k) · (B · C) (k, j) = k=1 n p = A(i, k) · B(k, s) · C(s, j) = k=1 s=1 n p (prop. distributiva en K) = A(i, k) · (B(k, s) · C(s, j)) = k=1 s=1 n p (prop. asociativa en K) = (A(i, k) · B(k, s)) · C(s, j) = k=1 s=1 p n (prop. distributiva en K) = A(i, k) · B(k, s) · C(s, j) = s=1 k=1 p = (A · B) (i, s) · C(s, j) = s=1 = ((A · B) · C)(i, j) 2. Se demuestra razonando de forma similar al apartado anterior. 3. Ejercicio. 2Observación 8 Demostraciones como la anterior se incluyen para quepuedan ser consultadas por los alumnos interesados. En cualquier caso, esconveniente conocer algunos hechos relativos a la notación, y a los resultadosderivados del uso de la misma. Por ejemplo, en la proposición anterior hemosutilizado la igualdad n p p n A(i, k) · B(k, s) · C(s, j) = A(i, k) · B(k, s) · C(s, j) k=1 s=1 s=1 k=1que intuitivamente es evidente, puesto que tanto el producto de númerosreales como el de números complejos es conmutativo y distributivo respectode la suma. La demostración de que esta igualdad es válida es consecuenciade las siguientes propiedades relacionadas con el símbolo sumatorio, cuyademostración también se puede hacer por inducción:
  36. 36. 36 Álgebra • Si {ai }i∈{1,...,n} y {bj }j∈{1,...,p} son dos familias de números reales o com- plejos, se verica que ∀n ∈ N, ∀p ∈ N, n p n p ai · bj = ai · bj i=1 j=1 i=1 j=1 Es decir, que n (ai b1 + · · · + ai bp ) = i=1 = (a1 b1 + · · · + a1 bp ) + · · · + (an b1 + · · · + an bp ) = = a1 (b1 + · · · + bp ) + · · · + an (b1 + · · · + bp ) . Para demostrar la identidad anterior, razonamos por inducción sobre “n”. Base de inducción: hay que probar que si n = 1, 1 p 1 p ∀p ∈ N ai · bj = ai · bj i=1 j=1 i=1 j=1 o lo que es lo mismo, que p p ∀p ∈ N a 1 · bj = a1 · bj . j=1 j=1 Esta propiedad se demuestra razonando por inducción sobre “p” : si p 1 p = 1 es obvio que a1 · bj = a1 · b1 = a1 · bj . Suponiendo j=1 j=1 p p entonces cierto que a1 · bj = a1 · bj , resulta que j=1 j=1 p+1 p a1 · bj = a 1 · bj + a1 · bp+1 = j=1 j=1 = (por hip´tesis de inducci´n) = o o p = a1 · bj + a1 · bp+1 = j=1 p+1 = a1 · bj . j=1
  37. 37. Álgebra 37 La demostración del paso de inducción sobre “n” se propone como ejercicio para todo aquel alumno interesado en hacerla. • Si {aik }(i,k)∈{1,...,n}×{1,...,p} es una familia de números reales o complejos, n p p n se verica que aik = aik o, lo que es lo mismo, i=1 k=1 k=1 i=1 (a11 + · · · + a1p ) + · · · + (an1 + · · · + anp ) = (a11 + · · · + a1n ) + · · · + (a1p + · · · + anp ) . La demostración es similar a la del punto anterior.Ejercicio 1.2.1 Demostrar que la trasposición de matrices satisface las si-guientes propiedades: 1. ∀A ∈ Mm×n (K) t t ( A) = A 2. ∀A, B ∈ Mm×n (K) t (A + B) =t A +t B 3. ∀A ∈ Mm×n (K), ∀B ∈ Mn×p (K), t (A · B) =t B ·t AEjercicio 1.2.2 Demostrar que ∀A ∈ Mm×n (K) y ∀B ∈ Mn×m (K) A · In = A ∧ In · B = B(es decir, In deja invariante por el producto a cualquier matriz por la que sepueda multiplicar, sea o no cuadrada).1.2.4 El producto de una matriz por un escalarDenición 1.2.10 Si α ∈ K y A ∈ Mm×n (K) se dene la matriz αA por lassiguientes condiciones ∀(i, j) ∈ {1, ..., m} × {1, ..., n} (αA)(i, j) = αA(i, j)     1 2 −3 −6Ejemplo 1.2.11 (−3)  2 0  =  −6 0  3 −1 −9 3
  38. 38. 38 ÁlgebraEjemplo 1.2.12 Siendo α ∈ K   α 0 0 ··· 0  0 α 0 ··· 0     0 0 α ··· 0  (αIn ) =   ∈ Mn (K)  . . . .. . . . .   . . . . . .  0 0 0 ··· αProposición 1.2.13 ∀α, β ∈ K ∀A ∈ Mm×n (K) se verica que 1.∀B ∈ Mn×p (K) A · (αB) = (αA) · B = α(A · B) 2.∀B ∈ Mm×n (K) α(A + B) = αA + αB 3. (−α)(A) = (α)(−A) = −(αA) 4. (α + β)A = αA + βA 5. (αβ)A = α(βA)Demostración Ejercicio. 2Teorema 1.2.14 Todo sistema de ecuaciones lineales con coecientes realeso complejos o bien no tiene soluciones, o bien tiene exactamente una solucióno bien tiene una innidad de soluciones.Demostración Necesitamos comprobar que si un sistema tiene más queuna solución, entonces tiene innitas soluciones. Sea AX = B el sistemadado y s1 , s2 dos soluciones distintas (s1 = s2 ). Entonces, As1 = B = As2 y As1 − As2 = A(s1 − s2 ) = (0).Se sigue que s1 − s2 es solución del sistema homogéneo AX = 0 y que paratodo λ ∈ K, s3 ≡ s1 + λ(s1 − s2 ) es solución de AX = B : As3 = A(s1 + λ(s1 − s2 )) = As1 + A(λ(s1 − s2 )) = = As1 + λA(s1 − s2 ) = As1 = B.Hemos hallado tantas soluciones como elementos en K. Como K es, por hi-pótesis, R o C (que son innitos), obtenemos innitas soluciones. 2
  39. 39. Álgebra 391.2.5 El anillo de matrices cuadradas Mn (K)Según hemos visto, el conjunto Mm×n (K) de las matrices de m las y ncolumnas sobre un cuerpo K tiene estructura de grupo abeliano respecto dela suma habitual de matrices. En este apartado vamos a estudiar la estructura algebraica que tiene elconjunto de las matrices cuadradas, Mn×n (K), respecto de las operacionesde suma y producto, ya que el producto de matrices es una operación enMn×n (K) (el producto de dos matrices cuadradas de dimensión n es unamatriz cuadrada de dimensión n).Propiedades del producto en Mn (K)Proposición 1.2.15 Si A, B, C ∈ Mn (K), se verica que: 1. A · (B · C) = (A · B) · C (propiedad asociativa del producto de matrices) 2. A · (B + C) = A · B + A · C (propiedad distributiva de + respecto de ·) 3. A · In = A, In · A = A (la matriz In es elemento neutro para ·).Demostración La demostración de las propiedades 1 y 2 se ha hecho en uncaso más general. La demostración de la propiedad 3 se deja como ejercicio(se trata de ver que las matrices A · In y A son iguales y lo mismo con la otraigualdad). 2Observación 9 Por tener Mn (K) estructura de grupo conmutativo respectode la suma de matrices y satisfacer las propiedades de la proposición ante-rior se dice que el conjunto de matrices cuadradas de orden n, Mn (K), tieneestructura de anillo unitario respecto de la suma y producto de matrices ha-bituales y elemento unidad la matriz In . La operación de producto en Mn (K) permite denir potencias enteras nonegativas de una matriz cuadrada:Denición 1.2.16 Si A es una matriz cuadrada, A ∈ Mn (K), se dene ∀m ∈ N Am = (Am−1 ) · Adonde, por convenio de notación, se asume que A0 = In .
  40. 40. 40 ÁlgebraObservación 10 No es difícil comprobar que ∀m, r ∈ N ∀A ∈ Mn (K) sesatisfacen las siguientes propiedades: 1. Am+r = Am · Ar 2. (Am )r = AmrObservación 11 Nótese que como consecuencia de la no conmutatividad delproducto de matrices, si A, B ∈ Mn (K) en general tendremos que (A + B)2 = A2 + B 2 + A · B + B · A = A2 + B 2 + 2A · B Sin embargo, si A y B conmutan para el producto, es decir, si A·B = B·A,entonces es obvio que (A + B)2 = A2 + B 2 + 2A · B y, en general, asumiendopor convenio de notación que A0 = B 0 = In , se verica que ∀m ∈ N m m m (A + B)m = Am · B 0 + Am−1 · B + ... + A0 · B m . 0 1 m Teniendo ahora en cuenta que, siendo α ∈ K   α 0 0 ··· 0  0 α 0 ··· 0     α · · · 0  ∈ Mn (K) (αIn ) =  0 0   . . . .. .   . . . . . . . .  . 0 0 0 ··· αy que toda matriz conmuta con la identidad, podemos obtener la siguientefórmula, válida ∀A ∈ Mn (K), ∀m ∈ N : m m m (A + αIn )m = Am + (αIn ) Am−1 + ... + (αIn )m 0 1 m1.2.6 Matrices invertiblesDenición 1.2.17 Se dice que A ∈ Mn (K) es invertible si ∃B ∈ Mn (K) talque A · B = In ∧ B · A = In . Obviamente, si B y B satisfacen las condiciones de la denición anterior,es decir, si A · B = In ∧ B · A = In
  41. 41. Álgebra 41y A · B = In ∧ B · A = Inresulta que B = B · In = B · (A · B ) = (B · A) · B = In · B = Bpor lo que dada A ∈ Mn (K) a lo sumo hay una matriz B que satisface lascondiciones de la denición anterior.Denición 1.2.18 Si A ∈ Mn (K) es invertible, y A · B = In ∧ B · A = In .se dice que B es la matriz inversa de A y a dicha matriz la denotaremospor A−1 .Observación 12 En la denición de matriz invertible, imponemos que elproducto de A por un cierta matriz B , por ambos lados, sea el elemento neu-tro. Hemos de hacerlo así porque el producto de matrices no es conmutativo.Sin embargo, veremos en el teorema 1.2.22 que es suciente comprobarlo poruno sólo de los dos lados. 2 1/2Ejemplo 1.2.19 La matriz inversa de la matriz A = es la ma- 2 1 1 −1/2triz A−1 = . −2 2Proposición 1.2.20 Sean A, B, A1 , · · · , Ap ∈ Mn (K). Se verica que : 1. si A, B ∈ Mn (K) son invertibles, entonces A · B es invertible y (A · B)−1 = B −1 · A−1 , 2. si A1 , · · · , Ap son invertibles, entonces el producto A1 · A2 · · · · Ap es invertible y (A1 · A2 · · · · Ap )−1 = Ap −1 · · · A2 −1 A1 −1 , 3. si A ∈ Mn (K) es invertible, entonces (−A) ∈ Mn (K) es invertible y (−A)−1 = −(A−1 ),
  42. 42. 42 Álgebra 4. si A ∈ Mn (K) es invertible, entonces t (A) ∈ Mn (K) −1 es invertible y t (A−1 ) = (t A) .Corolario 1.2.21 Si A ∈ Mn (K) es una matriz invertible, se verica que −1 1. A−1 es invertible y (A−1 ) = A 2. ∀m ∈ N Am es invertible y (Am )−1 = (A−1 )m 3. ∀α ∈ K, α = 0 se verica que αA es invertible, y (αA)−1 = α−1 A−1 El siguiente teorema arma que si una matriz cuadrada tiene una matrizinversa a la derecha o a la izquierda, entonces es invertible:Teorema 1.2.22 Si A, B ∈ Mn (K) se verica que: 1. A · B = In ⇒ B = A−1 . 2. B · A = In ⇒ B = A−1 .Demostración Probemos 2: suponemos que B · A = In , y debemos probarque A · B = In . Si B · A = In , todo sistema que tenga como matriz asociada A tiene unaúnica solución: dado un sistema A · X = C , donde C es una matriz columna,multiplicando a ambos lados de la igualdad por B se obtiene: B · (A · X) = B · CPor la asociatividad del producto de matrices (B · A) · X = B · CY usando nuestra hipótesis inicial X = In · X = B · CEs decir, que si X verica la ecuación A · X = C , necesariamente X = B · C . j En concreto, denotando con In la columna j -ésima de In , el sistema A ·X = In tiene una única solución B · In , que es la columna j -esima de B , j jque denotamos B j , para cada j ∈ {1, . . . , n}. Es decir, hemos obtenido queA·B j = In para cada j ∈ {1, . . . , n}. Entonces también A·B = In y podemos jescribir B = A−1 . Para probar 1 suponemos que A · B = In . Aplicamos 2 a la matriz B yobtenemos que B · A = In . 2
  43. 43. Álgebra 431.2.7 Matrices elementales y un método para hallar A−1Denición 1.2.23 Se dice que una matriz A ∈ Mn (K) es una matriz ele-mental si es el resultado de realizar una única transformación elemental porlas sobre la matriz In . 1 0Ejemplo 1.2.24 es una matriz elemental, pues 0 −2 1 0 F2 = (−2)F2 1 0 0 1 −→ 0 −2   1 0 0 0    0 0 0 1  1 0 5Igualmente  0 0 1 0 y   0 1 0  son matrices elementales, pues 0 0 1 0 1 0 0     1 0 0 0 1 0 0 0  0 1 0 0  F2 ↔ F4  0 0 0 1       0 0 1 0  −→  0 0 1 0  0 0 0 1 0 1 0 0     1 0 0 1 0 5  0 1 0  F1 = F1 + 5F3  0 1 0  . −→ 0 0 1 0 0 1Es obvio que si A es una matriz elemental de orden n, la matriz In se puedeobtener realizando una única transformación elemental sobre la matriz A (latransformación elemental inversa). El siguiente resultado quedará sucientemente vericado tras la realizaciónde la práctica 2 en el aula informática:Teorema 1.2.25 Si E es la matriz elemental de orden m que se obtiene alrealizar la transformación elemental t sobre las las de Im , y A ∈ Mm×n (K),entonces la matriz resultante de realizar la transformación t sobre las lasde A es la matriz producto E · A.Ejercicio 1.2.3 Vericar el resultado anterior realizando la transformaciónelemental F3 = F3 + 3F1 sobre la matriz   −1 4 6  0 2 1 . 0 0 1
  44. 44. 44 Álgebra Teniendo ahora en cuenta que, según hemos visto, cualquier transforma-ción elemental es reversible, y que la inversa de una transformación elementales una transformación elemental, según el cuadro que ya establecimos en sumomento TRANSFORMACIÓN TRANSFORMACIÓN INVERSA Fi = Fi + λFj Fi = Fi − λFj 1 Fi = λFi (λ = 0) Fi = Fi λ Fi ↔ Fj Fi ↔ Fjresulta que, si denotamos por Pi (λ) a la matriz elemental asociada a la trans-formación Fi = λFi (λ = 0), por Sij (λ) a la matriz elemental asociada a latransformación Fi = Fi + λFj y por Eij a la matriz elemental asociada a latransformación Fi ↔ Fj , tenemos el siguiente corolario del teorema anterior:Corolario 1.2.26 Toda matriz elemental es invertible, y su inversa tambiénes una matriz elemental. Concretamente, (Sij (λ))−1 = Sij (−λ) 1 (Pi (λ))−1 = Pi ( ) λ −1 (Eij ) = EjiEjercicio 1.2.4 Verifíquese el resultado recogido en el corolario anterior,multiplicando las matrices 1 0 P2 (−5) = 0 −5   1 0 4 S13 (4) =  0 1 0  0 0 1y   1 0 0 0  0 0 0 1  E24 =  0  0 1 0  0 1 0 0por sus correspondientes inversas y observando que en cada caso el resultadoes la matriz identidad del orden correspondiente.
  45. 45. Álgebra 45Teorema 1.2.27 Si A ∈ Mn (K) las siguientes proposiciones son equivalen-tes: 1. A es invertible 2. La ecuación A · X = (0) sólo tiene la solución trivial 3. A es equivalente por las a la matriz In , es decir, su forma escalonada reducida es la matriz identidad In 4. El sistema A · X = b es compatible determinado para toda matriz columna b ∈ Mn×1 (K) y su única solución es X = A−1 · B.Ejemplo 1.2.28 Si A ∈ Mn (K) y b ∈ Mn×1 (K), entonces el sistema A ·X = b es compatible determinado para toda matriz columna si y solo siA es invertible. Si A no es invertible o si A no es una matriz cuadrada,podemos todavía determinar condiciones sobre la matriz b tales que el sistemaA·X = b sea consistente. Por ejemplo, aplicando el método de Gauss-Jordana lamatriz ampliada del sistema se obtiene que  x1 + x2 + 2x3 = b1 x1 + x3 = b2  2x1 + x2 + 3x3 = b3     1 1 2 b1 F2 = F2 − F1 1 1 2 b1  1 0 1 b2  F3 = F3 − F1  0 −1 −1 b2 − b1  2 1 3 b3 → 2 1 3 b3 − 2b1 F1 = F1 + F2   1 0 1 b2 F3 = F3 − F2  0 1 1 −b2 + b1  . F2 = −F2 0 0 0 b3 − b2 − b1 → Si b3 − b2 − b1 = 0 el sistema no es compatible y si b3 − b2 − b1 = 0 el x1 = −x3 + b2sistema es equivalente al sistema , que tiene innitas x2 = −x3 − b2 + b1soluciones de la forma {(−t + b2 , −t − b2 + b1 , t) : t ∈ R} .Método para determinar la matriz inversaEl teorema anterior permite establecer un método para determinar la inversade una matriz invertible. Pues si A es invertible, A es equivalente por las ala matriz In y existen m matrices elementales E1 , E2 , · · · , Em tales que Em · Em−1 · ... · E1 · A = In .Se sigue que, por el teorema 1.2.22,

×