Se está descargando su SlideShare. ×
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Libro Curso De Algebra Lineal
Próxima SlideShare
Cargando en...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×
Saving this for later? Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime – even offline.
Text the download link to your phone
Standard text messaging rates apply

Libro Curso De Algebra Lineal

3,447

Published on

Curso de Algebra Lineal (septima version, 2012). ...

Curso de Algebra Lineal (septima version, 2012).

Luca Contreras Caballero.
Depto. Matematicas. Fac. Ciencias.
Universidad Autonoma de Madrid.

Published in: Educación
1 Comment
1 Me gusta
Estadísticas
Notas
Sin descargas
reproducciones
reproducciones totales
3,447
En SlideShare
0
De insertados
0
Número de insertados
2
Acciones
Compartido
0
Descargas
153
Comentarios
1
Me gusta
1
Insertados 0
No embeds

Denunciar contenido
Marcada como inapropiada Marcar como inapropiada
Marcar como inapropiada

Seleccione la razón para marcar esta presentación como inapropiada.

Cancelar
No notes for slide

Transcript

  • 1. Curso de Algebra Lineal (s´ptima versi´n, 2012). e o Luc´ Contreras Caballero. ıa Depto. Matem´ticas. Fac. Ciencias. a Universidad Aut´noma de Madrid. o 1
  • 2. 2
  • 3. ´ PROLOGO. He escrito este curso tratando de expresar de la forma m´s sencilla posible los conceptos de algebra a ´lineal, requiriendo solamente los conceptos previos de Bachillerato. Corresponde a los programas delos dos semestres de primer curso de algebra lineal de C.C. F´ ´ ısicas en la Universidad Aut´noma de oMadrid. Despu´s ha sido ampliado para cubrir tambi´n los programas de los semestres de Algebra e eLineal y Algebra Lineal y Geometr´ de CC. Matem´ticas. ıa a Aqu´ se encontraban en la tercera versi´n, algunos trabajos originales de la autora: Una intro- ı oducci´n geom´trica a los determinantes, una demostraci´n sencilla de la regla de Cramer, demostra- o e ociones elementales del teorema de Jordan en dimensi´n 2, 3 y 4, la obtenci´n de la base de Jordan o oen dimensi´n 2 y 3 y una aplicaci´n del espacio dual a la obtenci´n de condiciones necesarias y o o osuficientes para la diagonalizaci´n simult´nea de formas cuadr´ticas. o a a Tambi´n se encontraba una aplicaci´n del concepto de dimensi´n al c´lculo del rango de una e o o amatriz y aplicaciones de la diagonalizaci´n de formas cuadr´ticas, y entre los ejercicios, aplicaciones de o ala diagonalizaci´n de matrices y de su forma de Jordan a problemas de poblaciones. Y se explicitaban oel m´todo de Gauss, el teorema de Rouch´-Frobenius y el criterio de Sylvester. Otra aplicaci´n e e ointeresante es la de la t´cnica de las proyecciones al m´todo de m´ e e ınimos cuadrados. En la cuarta versi´n he a˜adido otros trabajos tambi´n originales: condiciones necesarias y sufi- o n ecientes para detectar el car´cter de las formas cuadr´ticas degeneradas, una demostraci´n elemental a a odel teorema de Jordan general para endomorfismos, un m´todo f´cil para hallar la forma de Jordan y e auna demostraci´n de que el sentido f´ o ısico de la regla del sacacorchos del producto vectorial coincidecon el sentido matem´tico de dicho producto vectorial. a En la quinta versi´n he a˜adido la din´mica de poblaciones. En la sexta versi´n he a˜adido un o n a o ncap´ıtulo de c´nicas y otro de cu´dricas. En la s´ptima version he a˜adido una ap´ndice sobre el o a e n eespacio cociente. El curso es autocontenido, con todas las demostraciones de los resultados y teoremas expuestosde forma l´gica y rigurosa. o Intentando que los alumnos estudien los conceptos, se introducen motivaciones de los mismos yse intercalan muchos grupos de ejercicios con dificultad progresiva. Algunos ejercicios se plantean deforma que se puedan resolver de distintas maneras, lo cual permite al alumno la comprobaci´n de osus resultados. Tambi´n he intercalado dibujos que facilitan la comprensi´n de los conceptos y de los razonamien- e otos y ejemplos resueltos en los ultimos cap´ ´ ıtulos. Luc´ Contreras Caballero. ıa 3
  • 4. ´ INDICE. ´NUMEROS COMPLEJOS.Introducci´n. o 9Regla de Ruffini para soluciones fraccionarias. 12N´meros Complejos. u 14Inverso de un n´mero complejo. u 15Propiedades de las soluciones de las ecuaciones. 19Forma trigonom´trica y forma polar de un n´mero complejo. e u 22Radicaci´n. o 26MATRICES. SUS OPERACIONES.Introducci´n. o 31Operaciones en las matrices. 32Tipos de matrices. 38 ´ ´METODO DE GAUSS Y REDUCCION DE GAUSS-JORDAN.Introducci´n. o 47M´todo de Gauss. e 50Operaciones elementales en una matriz. 57Reducci´n de Gauss-Jordan. o 63Matrices Invertibles. 68Caracterizaci´n de las matrices invertibles. o 69M´todo de Gauss para obtener la inversa de una matriz invertible. e 77DETERMINANTES y SISTEMAS de ECUACIONES.Introducci´n. o 81Propiedades de los determinantes y operaciones elementales. 85Definici´n de los determinantes. o 90Comprobaci´n de las propiedades. o 91Regla de Cramer sin utilizar la matriz inversa. 98Caracterizaci´n de las matrices invertibles por su determinante. o 100Determinante del producto. 101Desarrollo del determinante por una fila cualquiera y por una columna cualquiera. 104F´rmula para la inversa. o 106Regla de Cramer. 110Teorema de Rouch´-Frobenius. e 111Producto Vectorial. 116ESPACIOS VECTORIALES.Introducci´n. o 125 4
  • 5. Cuerpo. Propiedades. 127 Espacio Vectorial. 129 Subespacios Vectoriales. 131 Bases. 141 Teorema de la Base. 147 Cambio de base. 153 Aplicaciones del concepto de dimensi´n a procesos concretos. o 155 Independencia del n´mero de escalones obtenidos escalonando una matriz. u 155 Extracci´n de la base a partir de un sistema generador. o 156 Aplicaci´n del rango a la obtenci´n de las ecuaciones cartesianas de un subespacio dado por sus o ogeneradores. 158 C´lculo del rango de la matriz A y b´squeda del menor distinto de cero de orden igual al rango. a u160 Aplicaci´n al m´todo de Gauss. o e 163 Suma e intersecci´n de subespacios vectoriales. o 164 APLICACIONES LINEALES. Introducci´n. o 171 Expresi´n matricial de una aplicaci´n lineal. o o 174 Cambio de base en la expresi´n matricial de una aplicaci´n lineal. o o 177 N´cleo de una aplicaci´n lineal. u o 183 Imagen de una aplicaci´n lineal. o 186 F´rmula de las dimensiones para una aplicaci´n lineal. o o 190 Isomorfismos. 192 Espacio dual. 195 ESPACIO EUCLIDEO. ´ Introducci´n. o 201 Ortogonalidad. 202 Bases Ortogonales. 205 Ortogonalidad entre subespacios. 207 Complemento Ortogonal. 207 Teorema de Tellegen. 209 Proyecciones en general. 211 Proyecciones Ortogonales. 212 Proyecci´n ortogonal de un vector sobre un subespacio. o 213 Teorema de la aproximaci´n optima. o ´ 215 M´todo de Aproximaci´n de M´ e o ınimos Cuadrados. 216 Aplicaci´n del m´todo de m´ o e ınimos cuadrados a la regresi´n lineal. o 218 5
  • 6. Aplicaci´n del m´todo de m´ o e ınimos cuadrados a la obtenci´n de la matriz de la aplicaci´n proyecci´n o o oortogonal sobre un subespacio. 221 ESPACIO EUCL´ IDEO GENERAL. Una generalizaci´n m´s del Producto Escalar. o a 222 Expresi´n polinomial de una forma bilineal en un espacio vectorial de dimensi´n finita. o o 226 Expresi´n matricial de una forma bilineal en un espacio vectorial de dimensi´n finita. o o 226 Complementario Ortogonal en el espacio eucl´ ıdeo general. 229 Proyecciones ortogonales en un espacio eucl´ ıdeo general. 230 M´todo para encontrar una base ortonormal en un espacio vectorial de dimensi´n finita. e o 232 M´todo de ortogonalizaci´n de Gram-Schmidt. e o 233 Ortogonalidad en un espacio eucl´ ıdeo general. 238 Desigualdad de Schwarz. 239 Cambio de base. 241 Condiciones Necesarias y Suficientes para que una matriz corresponda a un Producto Escalar.(Criterio de Sylvester). 243 DIAGONALIZACION ´ DE ENDOMORFISMOS. Aplicaciones autoadjuntas en espacios eucl´ ıdeosy herm´ ıticos, y aplicaciones unitarias en espacios herm´ıticos. Introducci´n.o 249 Vectores propios y valores propios. 250 Primera condici´n necesaria y suficiente para que el endomorfismo sea diagonalizable. o 251 Segunda condici´n necesaria y suficiente para que el endomorfismo sea diagonalizable. o 257 Din´mica de poblaciones. a 259 Multiplicidad de los valores propios. 260 Tercera condici´n necesaria y suficiente para que el endomorfismo sea diagonalizable. o 262 Aplicaciones autoadjuntas en un espacio eucl´ ıdeo. 264 Diagonalizaci´n de las Aplicaciones Autoadjuntas, (de las matrices sim´tricas). o e 268 Espacios Herm´ ıticos. 275 FORMAS CUADRATICAS. ´ Introducci´n.o 281 Expresi´n matricial de una forma cuadr´tica. o a 281 Cambio de base en formas cuadr´ticas. a 285 Diagonalizaci´n de formas cuadr´ticas. o a 287 Diagonalizaci´n de una forma cuadr´tica en una base ortonormal. o a 287 Estudio de C´nicas. o 291 M´ximos y m´ a ınimos de funciones. 292 M´ximos y m´ a ınimos en la esfera unidad. 293 Energ´ de rotaci´n de un s´lido. ıa o o 294 Diagonalizaci´n de formas cuadr´ticas completando cuadrados. o a 295 6
  • 7. Ley de inercia de Sylvester. 302 Criterio de Sylvester para formas cuadr´ticas definidas positivas. a 306 Criterios para formas cuadr´ticas degeneradas. a 311 Diagonalizaci´n simult´nea de formas cuadr´ticas. o a a 319 Condiciones necesarias y suficientes para la diagonalizaci´n simult´nea de formas cuadr´ticas.325 o a a FORMAS DE JORDAN EN DIMENSION 2, 3 y 4. ´ Introducci´n. o 333 Consideraciones previas. 334 Forma de Jordan de Matrices 2 × 2 de n´meros reales. u 335 Forma de Jordan de Matrices 3 × 3 de n´meros reales. u 339 3 Resumen de la forma de Jordan en R . 354 Forma de Jordan compleja de Matrices 4 × 4 de n´meros complejos. u 355 Resumen de la forma de Jordan en R4 . 360 ´ DEMOSTRACION DEL TEOREMA DE JORDAN PARA ENDOMORFISMOS. Teorema de Jordan. 363 Ejemplos para un m´todo f´cil para hallar la base de Jordan. e a 367 M´todo general. e 378 APLICACIONES ORTOGONALES. ESPACIO AF´ Y MOVIMIENTOS. IN Introducci´n. o 383 Definici´n y propiedades. o 383 Estudio de las transformaciones ortogonales de R2 . 389 Estudio de las transformaciones ortogonales de R3 . 395 Espacio Af´ ın. 405 Aplicaciones afines con puntos fijos. 414 Movimentos en el plano. 420 Movimentos en el espacio tridimensional. 425 Sentido del producto vectorial. 438 ´ CONICAS. Introducci´n. o 441 Ecuaciones de las c´nicas en posici´n can´nica. o o o 443 Ecuaciones de algunas c´nicas en posici´n no can´nica. o o o 446 Algunos ejemplos de reducci´n de curvas de segundo grado a su ecuaci´n can´nica. o o o 449 Reducci´n de la ecuaci´n general de la expresi´n de una curva de segundo grado a su expresi´n o o o ocan´nica. o 453 Invariantes de las c´nicas. o 455 Clasificaci´n de las c´nicas. o o 457 Ejes de simetr´ y centro de las c´nicas no degeneradas. ıa o 458 C´lculos en la elipse del ejemplo 5. a 460 7
  • 8. C´lculos en la hip´rbola del ejemplo 6. a e 461C´lculos en la par´bola del ejemplo 7. a a 462Unificaci´n de las c´nicas en una definici´n de lugar geom´trico. o o o e 465 ´CUADRICAS.Introducci´n. o 469Estudio general de la superficie de segundo grado. 472Invariantes de las cu´dricas. a 476Clasificaci´n de las cu´dricas. o a 478Resumen de la clasificaci´n de las cu´dricas. o a 479Ejes de simetr´ y centro de las cu´dricas no degeneradas. ıa a 479Otros invariantes de las cu´dricas degeneradas. a 482Ley de los signos de Descartes. 484 ´APENDICE: ESPACIO VECTORIAL COCIENTE. 487 8
  • 9. ´ NUMEROS COMPLEJOS. Introducci´n. o Los distintos tipos de n´meros han ido apareciendo en la historia del hombre progresivamente, useg´n las necesidades de las actividades que realizaba y son estudiados hoy tambi´n progresivamente u edesde la escuela primaria a la Universidad. Debido a la necesidad de contar las cabezas de ganado surgieron los n´meros naturales, (que uson todos positivos) con los que se puede sumar; los n´meros enteros, (que pueden ser positivos o unegativos e incluyen al cero) sirven para indicar los intercambios de mercanc´ y dinero; con ellos se ıaspuede sumar y restar. La multiplicaci´n es una forma m´s r´pida de hacer una suma de sumandos o a aiguales y entonces se plantea el problema de hacer la operaci´n inversa a la multiplicaci´n que es la o odivisi´n, pero esta operaci´n no siempre tiene soluci´n con n´meros enteros, por lo que se crearon o o o uotros n´meros llamados fraccionarios o racionales. u Los n´meros enteros se caracterizan por el hecho de que cualquier ecuaci´n de la forma x + a = b u otiene soluci´n cuando los n´meros que aparecen en ella son enteros. o u Los n´meros fraccionarios se caracterizan por el hecho de que cualquier ecuaci´n de la forma u oa1 x + a = b tiene soluci´n cuando los n´meros que aparecen en ella son fraccionarios y a1 = 0. o u Hay otro conjunto de n´meros en los que tambi´n la ecuaci´n a1 x + a = b tiene soluci´n si a1 = 0, u e o oson los n´meros reales que se construyen como l´ u ımites de sucesiones de n´meros fraccionarios. Los un´meros reales incluyen a los fraccionarios. La ecuaci´n anterior es una ecuaci´n de primer grado con u o ouna inc´gnita, que tambi´n se puede escribir a1 x + a0 = 0. Nos podemos plantear el problema sobre o esi una ecuaci´n m´s general: an xn + an−1 xn−1 + · · · + a1 x + a0 = 0 tiene siempre soluci´n cuando los o a on´meros que aparecen en ella son reales. La respuesta es que no y para obtener respuesta positiva utenemos que construir otro conjunto de n´meros que se llama n´meros complejos y se designa por C. u u Hay ejemplos de ecuaciones de segundo grado que no tienen soluci´n real. La ecuaci´n m´s o o asimple que no tiene soluci´n real es x2 + √ = 0. La ecuaci´n general de segundo grado, de la forma o 1 o b2ax2 + bx + c = 0 tiene la soluci´n x = −b± 2a −4ac pero si b2 − 4ac < 0 no encontramos ning´n n´mero o u ureal para x. Lo asombroso es que escribiendo por i un n´mero imaginario que satisfaga i2 +1 = 0, encontramos un´meros, llamados complejos, que son soluciones de todas las ecuaciones de segundo grado planteadas. u √ √Ya que si b2 −4ac < 0, tenemos b2 − 4ac = i 4ac − b2 que tiene un sentido imaginario. Entonces, elconjunto de los n´meros soluciones de todas las ecuaciones de segundo grado que se pueden plantear u √ 2 −4aces el conjunto de los binomios de la forma −b ± b 2a 2a donde el segundo sumando puede ser real ´o imaginario. Este es el conjunto de los n´meros complejos en el que i2 = −1 por ser i soluci´n u ode la ecuaci´n x2 + 1 = 0. Los representaremos, en general, como a + bi, donde a y b son ahora on´meros reales cualesquiera. El conocimiento de las propiedades de las operaciones de los n´meros u ucomplejos ampl´ la cantidad de ecuaciones que podemos resolver. Es muy importante y sorprendente ıa 9
  • 10. el teorema fundamental del ´lgebra que afirma que cualquier ecuaci´n de grado n con coeficientes a ocomplejos tiene siempre al menos un n´mero complejo como soluci´n. u o Haciendo ingeniosas combinaciones con los coeficientes de la ecuaci´n de tercer grado, del Ferro oy Tartaglia encontraron la forma general de sus soluciones, que ha pasado a la historia como f´rmula ode Cardano. La resoluci´n de la ecuaci´n de cuarto grado fu´ reducida a la soluci´n de la ecuaci´n de o o e o otercer grado por Ferrari. Pero el problema es mucho m´s dif´ si el grado de la ecuaci´n es mayor, a ıcil ono estando claro ni siquiera que la ecuaci´n tenga soluci´n. En este sentido, la importancia de los o on´meros complejos, de los que hemos hablado en la introduci´n, y del Teorema Fundamental del u oAlgebra demostrado por Gauss estriba en que afirma que cualquier ecuaci´n de grado n con ocoeficientes complejos tiene siempre al menos un n´ mero complejo como soluci´n. Este u oteorema afirma la existencia de la soluci´n pero sigue quedando el problema de c´mo encontrarla o oefectivamente. Durante mucho tiempo, los matem´ticos estuvieron buscando una f´rmula general a opara todas las ecuaciones de un cierto grado expresada por raices de expresiones racionales de suscoeficientes, hasta que un matem´tico llamado Abel demostr´ que esta forma general expresada por a oradicales com´n para todas las ecuaciones de un cierto grado no exist´ a partir de grado 5. M´s u ıa atarde, otro matem´tico llamado Galois encontr´ las condiciones necesarias y suficientes que han de a overificar los coeficientes de la ecuaci´n para que sus soluciones se puedan expresar por radicales. A´n o uhoy no todas las ecuaciones est´n resueltas y en eso trabajan los algebristas. a Sin embargo, se puede demostrar y lo demostraremos m´s adelante que, debido a las propiedades ade los n´meros complejos, si los coeficientes de la ecuaci´n son reales las soluciones complejas aparecen u opor parejas conjugadas de la misma multiplicidad. Y de aqu´ que toda ecuaci´n de grado impar con ı, ocoeficientes reales tiene al menos una soluci´n real. o El Algebra es el estudio de la resolubilidad de las ecuaciones; en cuanto que las ecuaciones seresuelven haciendo operaciones con los coeficientes que aparecen en ellas, el algebra es tambi´n el ´ eestudio de las propiedades de las operaciones que podemos hacer con esos n´meros. u En este cap´ıtulo repasaremos algunos resultados de bachillerato, los generalizaremos y adem´saestudiaremos ciertas propiedades de los n´meros complejos que nos servir´n para ampliar la cantidad u ade ecuaciones que sabemos resolver. 10
  • 11. Recordemos conocimientos de Bachillerato sobre las ecuaciones de grado n. Las soluciones enteras de una ecuaci´n de grado n con coeficientes enteros deben ser divisores del ot´rmino independiente. e Veamos por qu´: Sea an xn + an−1 xn−1 + · · · + a1 x + a0 = 0 una ecuaci´n de grado n donde todos e olos ai son enteros y sea a una soluci´n entera de la ecuaci´n. Entonces, o o an an + an−1 an−1 + · · · + a1 a + a0 = 0 =⇒ an an + an−1 an−1 + · · · + a1 a = −a0 ,de donde (an an−1 + an−1 an−2 + · · · + a1 )a = −a0 ;como todos los n´meros del par´ntesis son enteros, la ultima expresi´n indica que la soluci´n a divide u e ´ o oa a0 . Esta regla nos permite muchas veces encontrar las soluciones enteras de una ecuaci´n de grado on por tanteo, ya que el n´mero de divisores de un n´mero fijado es finito. Y se puede utilizar para u uecuaciones con coeficientes fraccionarios, una vez que hemos quitado los denominadores. En Bachillerato se estudia tambi´n la regla de Ruffini, que es un algoritmo para hallar Pn (a) y elos coeficientes del polinomio cociente Qn−1 (x). Este algoritmo es un m´todo para obtener el resto Pn (a) = an an + an−1 an−1 + · · · + a1 a + a0 eresultante de dividir Pn (x) por x − a, consistente en lo siguiente: Se colocan en una fila los coeficientes an , an−1 , an−2 , · · · a1 , a0 y debajo de ´sta, a la izquierda eel n´mero a y se hace una l´ u ınea horizontal: an an−1 an−2 ··· a1 a0 2 n a) 0 an a an a + an−1 a ··· ··· an a + · · · + a1 a −− −− − − − − − −−−−− −−− −−−−− −−−−−−− an an a + an−1 an a2 + an−1 a + an−2 ··· an an−1 + · · · + a1 an an + · · · + a1 a + a0 Se suma 0 a an y se pone debajo de la l´ ınea horizontal a la altura de an ; se multiplica por a,se pone an a debajo de an−1 al que se suma, obteni´ndose debajo de la l´ e ınea horizontal an a + an−1 ;de nuevo, se multiplica este n´mero por a, se coloca debajo de an−2 y se suman los dos n´meros, u uobteni´ndose an a2 + an−1 a + an−2 debajo de la l´ e ınea horizontal; se va repitiendo el mismo proceso conlas sumas que se van obteniendo debajo de la l´ ınea horizontal, teni´ndose a la altura de a1 la suma ean an−1 + an−1 an−2 + · · · + a2 a + a1 , que multiplicada por a y sumada a a0 da: an an + an−1 an−1 +· · · + a2 a2 + a1 a + a0 = Pn (a). Seg´n lo demostrado anteriormente, este n´mero es cero si y s´lo si u u oel polinomio considerado es divisible por x − a. 11
  • 12. Adem´s, los n´meros obtenidos debajo de la l´ a u ınea horizontal son los coeficientes de los t´rminos ede mayor grado de los restos sucesivos obtenidos al hacer la divisi´n del polinomio Pn (x) por x − a; opor ello son los coeficientes de las potencias de x en el polinomio cociente Qn−1 (x). Por ejemplo, la ecuaci´n x4 − 10x3 + 35x2 − 50x + 24 = 0 puede admitir como soluciones los odivisores de 24, entre ellos est´ el 3; para ver si el 3 es efectivamente una soluci´n aplicamos la regla a ode Ruffini para hallar el resto de la divisi´n del polinomio dado por x − 3: o 1 −10 35 −50 24 3) 0 3 −21 42 −24 −− −− −− −− −− −− 1 −7 14 −8 0 Habiendo salido cero el ultimo n´mero de abajo a la derecha, el resto de dividir el polinomio por ´ ux − 3 es cero y el cociente es x3 − 7x2 + 14x − 8. Efectivamente, una soluci´n de la ecuaci´n es 3. o o Recordemos estos conocimientos en los Ejercicios: 1.1.1. Resolver utilizando la regla de Ruffini las ecuaciones: 1−λ 1 3 4 3 2 x − 2x − 13x + 14x + 24 = 0. 1 2 − λ −2 = 0. 0 1 3−λ 1.1.2. Resolver las ecuaciones siguientes: x4 − 13x2 + 36 = 0. x6 − 14x4 + 49x2 − 36 = 0. La regla de Ruffini se puede generalizar a soluciones fraccionarias: Regla de Ruffini para soluciones fraccionarias. Se puede generalizar a las soluciones fraccionarias el resultado 1) demostrado para las solucionesenteras de una ecuaci´n de grado n con coeficientes enteros, encontr´ndose que 3) si un n´ mero o a uracional M/N irreducible es soluci´n de la ecuaci´n de grado n con coeficientes enteros, o oM debe ser divisor del t´rmino independiente y N debe ser divisor del coeficiente del et´rmino de mayor grado. e Demostraci´n: Sustituyendo la soluci´n M/N en la ecuaci´n dada tenemos: o o o M n M M Mn M n−1 M an ( ) + an−1 ( )n−1 + · · · + a1 + a0 = 0 =⇒ an n + an−1 n−1 + · · · + a1 + a0 = 0 N N N N N N 12
  • 13. de donde quitando denominadores y sacando factor com´n tenemos uan M n +an−1 M n−1 N +· · ·+a1 M N n−1 = −a0 N n ≡ M (an M n−1 +an−1 M n−2 N +· · ·+a1 N n−1 ) = −a0 N ndonde, debido a que todos los n´meros son enteros y a que M no tiene factor com´n con N, se tiene u uque M divide a a0 . Tambi´n tenemos: e−an M n = an−1 M n−1 N +· · ·+a1 M N n−1 +a0 N n ≡ −an M n = N (an−1 M n−1 +· · ·+a1 M N n−2 +a0 N n−1 )donde, debido a que todos los n´meros son enteros y a que N no tiene ning´n factor c´m´n con M, u u o use tiene que N divide a an . La regla de Ruffini tambi´n se puede aplicar con las raices fraccionarias. e Conviene practicar esta generalizaci´n en los Ejercicios: o 1.2.1. Resolver las ecuaciones: a) 6x2 − 5x + 1 = 0. b) 12x3 − 40x2 + 27x − 5 = 0. c) 24x3 − 26x2 + 9x − 1 = 0. d) 12x3 − 32x2 + 25x − 6 = 0. e) 6x4 + 7x3 − 3x2 − 3x + 1 = 0. 13
  • 14. N´ meros Complejos. u Veremos ahora los N´meros Complejos, cuyo conocimiento nos permitir´ la resoluci´n de m´s u a o aecuaciones: Se llama expresi´n bin´mica de un n´mero complejo a la forma a + ib, donde a y b son n´meros o o u ureales, en la cual a es la parte real y b es la parte imaginaria. El conjugado de un n´mero complejo uz = a + ib es z = a − ib. Los n´meros complejos se pueden sumar como binomios: u (a + ib) + (c + id) = (a + c) + i(b + d)y pueden comprobarse f´cilmente, utilizando las propiedades de los n´meros reales, (lo cual se re- a ucomienda como ejercicio), las propiedades de la suma: a) Asociativa. b) Tiene elemento neutro: 0+i0 (un elemento que sumado a cualquier otro lo deja igual). c) Todo n´mero complejo tiene elemento opuesto respecto a la suma: (el elemento opuesto de uuno dado es el elemento que sumado con ´l da el elemento neutro). e d) Conmutativa. La existencia de la suma con las propiedades antes enumeradas se resume en una frase: Losn´meros complejos son un grupo aditivo conmutativo. u Los n´meros complejos tambi´n se pueden multiplicar como binomios donde i2 = −1. u e (a + ib)(c + id) = (ac − bd) + i(ad + bc)y puede comprobarse, tambi´n utilizando las propiedades de los n´meros reales, que el producto es: e u a) Asociativo. b) Tiene elemento neutro (1). c) Todo elemento distinto del cero tiene elemento inverso. d) Es conmutativo. La existencia del producto con las propiedades antes enumeradas se resume en la frase: Losn´meros complejos distintos de cero son un grupo multiplicativo conmutativo. u De las propiedades anteriores, s´lo voy a comprobar aqu´ que todo n´mero complejo distinto de o ı ucero tiene inverso. 14
  • 15. Inverso de un n´ mero complejo. u Si buscamos el inverso x + iy de un n´mero complejo a + ib, buscamos un n´mero tal que u u (a + ib)(x + iy) = 1 es decir, un n´mero tal que (ax − by) + i(ay + bx) = 1. u Si el n´mero fuera real: z = a, de a−1 a = 1 tenemos que z −1 = a−1 . Si el n´mero fuera imaginario u upuro: z = ib, de −ib−1 ib = 1 tenemos que z −1 = −ib−1 . Podemos suponer en lo que sigue que el n´mero no es real ni imaginario puro, es decir, que ua = 0 = b. Como dos n´meros complejos son iguales cuando tienen la misma parte real y la misma parte uimaginaria, ha de ser: ax − by = 1 a2 x − aby = a ≡ (si a = 0, b = 0) bx + ay = 0 b2 x + aby = 0de donde (a2 + b2 )x = a. Aqu´ podemos despejar x por ser a2 + b2 = 0, ya que estamos suponiendo ıa = 0, b = 0. Entonces x = a/(a2 + b2 ). Tambi´n, ha de ser: e abx − b2 y = b abx + a2 y = 0de donde (a2 + b2 )y = −b, donde tambi´n podemos despejar y = −b/(a2 + b2 ). e 1 Hemos obtenido que el inverso de a + ib, es (a2 +b2 ) (a − ib), siempre que a + bi sea distinto de cero.Compru´bese que esta f´rmula es v´lida para los casos particulares hallados al principio, en los que e o ael n´mero era real o era imaginario puro. u Para dividir z1 por z2 (si z2 = 0) multiplicamos z1 por el inverso de z2 . Por un procedimiento similar de igualar partes real e imaginaria podemos hallar, dado un n´mero complejo c + di uotro n´mero complejo a + bi que elevado al cuadrado d´ c + di. As´ podemos resolver todas las ecuaciones bicuadradas u e ıen el conjunto de los n´meros complejos. u e) Adem´s el producto es distributivo respecto a la suma (debe comprobarse). a La existencia de la suma y del producto con las propiedades antes enumeradas se expresa en otrafrase: Los n´meros complejos son un cuerpo conmutativo. u Otros cuerpos ya conocidos son los conjuntos de los n´meros racionales y de los n´meros reales. u u Ahora se puede comprobar como Ejercicios: 15
  • 16. 1.3.1. Comprobar que, en el cuerpo de los n´meros complejos, tienen tantas soluciones como su ugrado, las ecuaciones siguientes: x2 − x + 1 = 0. √ x2 − 3x + 1 = 0. 2x3 + 4x2 − 3x + 9 = 0. x4 − x3 − 3x2 + 4x − 4 = 0. 2 λ 1 1 2 −λ = 0. 2λ 1 1 x6 + 4x4 + 5x2 + 2 = 0. x4 − x3 − x2 − x − 2 = 0. x4 + x3 − x − 1 = 0. 6x4 + x3 + 2x2 − 4x + 1 = 0. 6x5 + 5x4 + 4x3 + 4x2 − 2x − 1 = 0. x5 + x4 − x − 1 = 0. 6x4 + x3 + 11x2 + 2x − 2 = 0 12x4 + x3 + 11x2 + x − 1 = 0 6x4 − 11x3 + 10x2 − 11x + 4 = 0 4x4 + 4x3 − 11x2 + 4x − 15 = 0 4x4 + 16x3 + 31x2 + 64x + 60 = 0 1.3.2. Factorizar los polinomios igualados a cero en las ecuaciones anteriores y en las siguientes: x5 − 2x4 + 2x3 − 4x2 + x − 2 = 0. 6x4 + 7x3 − 3x2 − 3x + 1 = 0. 16
  • 17. x5 + x4 + 2x3 + 2x2 + x + 1 = 0. x7 + x6 + 6x5 + 6x4 + 9x3 + 9x2 + 4x + 4 = 0. Observar que algunas no son totalmente factorizables en binomios de grado 1 con coeficientesreales. Cuando se admiten los coeficientes complejos, o bien hay tantos factores como el grado de laecuaci´n, o bien llamando al n´mero de veces que se repite un factor, multiplicidad de ese factor, la o usuma de las multiplicidades de los factores de primer grado es igual al grado de la ecuaci´n. o 1.3.3. Demostrar que en un cuerpo, se tiene b · 0 = 0, cualquiera que sea b. 1.3.4. Demostrar que en un cuerpo, si a = 0, ax = 0 ⇒ x = 0. 1.3.5. Probar que en un conjunto de n´meros que sea un cuerpo, la ecuaci´n a1 x + a = 0 tiene u osoluci´n unica si a1 = 0. No tiene soluci´n si a1 = 0 y a = 0. Tiene infinitas soluciones si a1 = 0 = a. o ´ o Recordemos que se llama conjugado del n´mero complejo z = a + ib al n´mero a − ib que se u urepresenta por z = a − ib. Utilizando la notaci´n de conjugado de un n´mero complejo, hemos o uobtenido anteriormente respecto a su inverso que: z −1 = (a2 +b2 ) z. 1 Se puede representar el n´mero complejo a + ib como el punto del plano que tiene coordenadas ucartesiamas (a, b). Entonces, el punto correspondiente al conjugado de un n´mero complejo es el upunto sim´trico respecto al eje OX. e a+ib U b ƒ a ƒ ƒ ƒ ƒ w ƒ a-ib 17
  • 18. Por el teorema de Pit´goras, el n´mero a2 + b2 es el cuadrado de la longitud del vector con origen a uen el origen de coordenadas y extremo en el punto. Esta longitud se llama m´dulo del n´mero o ucomplejo y se representa por |z|. Entonces, podemos escribir: z −1 = |z|2 z. De donde se deduce 1tambi´n |z|2 = zz. e Para hacer operaciones con los n´meros complejos se proponen los Ejercicios: u 1.4.1. Hallar los siguientes n´meros complejos en forma bin´mica: u o 1 + 2i 1 + 2i 2 (1 + 2i)3 (1 + 2i)3 (1 + 2i)(1 − 2i), , ( ), , . 1 − 2i 1 − 2i (2 − i)3 (2 − 2i)3 1.4.2. Hallar un n´mero complejo en forma bin´mica: a + bi tal que (a + bi)2 = 1 + i. u o 1.4.3. Resolver la ecuaci´n x4 − 2x2 + 10 = 0 en el cuerpo de los n´meros complejos. o u 2 1.4.4. Resolver la ecuaci´n z − (1 + i)z + i = 0 en el cuerpo de los n´meros complejos. o u 1.4.5. Demostrar a) z1 + z2 = z1 + z2 b) z1 · z2 = z1 · z2 1.4.6. Demostrar: a) |z| = |z| b) |z1 · z2 | = |z1 ||z2 | c) |z1 + z2 | ≤ |z1 | + |z2 | 18
  • 19. Propiedades de las soluciones de las ecuaciones. A) Utilizando el ejercicio 1.4.5. anterior se obtiene que las soluciones complejas de una ecuaci´n ocon coeficientes reales aparecen por parejas conjugadas: Sea an xn + an−1 xn−1 + · · · + a1 x + a0 = 0 una ecuaci´n de grado n donde todos los ai son reales oy sea z una soluci´n compleja de la ecuaci´n. Entonces, o o an z n + an−1 z n−1 + · · · + a1 z + a0 = 0 =⇒ an z n + an−1 z n−1 + · · · + a1 z + a0 = 0 =⇒ an z n + an−1 z n−1 + · · · + a1 z + a0 = 0 =⇒ an z n + an−1 z n−1 + · · · + a1 z + a0 = 0donde se ve que tambi´n z es soluci´n de la ecuaci´n. e o o B) El n´mero a es soluci´n de la ecuaci´n: an xn + an−1 xn−1 + · · · + a1 x + a0 = 0, si y s´lo si el u o o o n n−1binomio x − a divide al polinomio an x + an−1 x + · · · + a1 x + a0 . En efecto, llamando Pn (x) aeste polinomio y divid´ndolo por x − a obtendr´ e ıamos: Pn (x) = Qn−1 (x)(x − a) + R(x)pero R(x) = R es un n´mero por ser el grado del resto menor que el grado del divisor. Sustituyendo uahora el valor a en la expresi´n de la divisi´n, tenemos: o o Pn (a) = Qn−1 (a)(a − a) + R = Rlo que nos dice que el resto de esta divisi´n es cero si y s´lo si a es soluci´n de la ecuaci´n dada, o o o oteni´ndose as´ que el polimomio Pn (x) es divisible por x − a si y s´lo si a es soluci´n de la ecuaci´n e ı o o oPn (x) = 0. Con lo que conocida una soluci´n de una ecuaci´n, esta queda reducida a otra de grado o omenor, presumiblemente m´s f´cil (Qn−1 (x) = 0). a a No podemos demostrar ahora con los conocimientos que tenemos el teorema fundamental delalgebra, pero s´ podemos ver consecuencias suyas:´ ı C) Todo polinomio con coeficientes complejos puede factorizarse en binomios de primer grado concoeficientes complejos. En efecto, dado un polinomio Pn (x), con coeficientes complejos, al tener la ecuaci´n Pn (x) = 0 osiempre soluci´n en los n´meros complejos por el teorema fundamental del algebra, existe z1 , tal o u ´ 19
  • 20. que Pn (x) = (x − z1 )Qn−1 (x), donde el grado del cociente Qn−1 (x) es n − 1. Este nuevo polinomiocociente puede factorizarse igualmente por el teorema fundamental del ´lgebra, obteni´ndose Pn (x) = a e(x − z1 )(x − z2 )Qn−2 (x). El grado del polinomio cociente puede seguir siendo rebajado hasta 1, encuyo momento, habremos factorizado el polinomio dado en n binomios de primer grado, algunos delos cuales se pueden repetir. Observando que los binomios de primer grado que factorizan un polinomio se pueden repetir yllamando multiplicidad de cada raiz zi al exponente de x − zi en la factorizaci´n de Pn (x), ahora ovemos que la suma de las multiplicidades de las soluciones reales y complejas de una ecuaci´n de grado n con ocoeficientes complejos es igual al grado de la ecuaci´n. o Tambi´n se define la multiplicidad de una raiz zi de un polinomio Pn (x) como el n´mero ni tal e u nique Pn (x) = (x − zi ) Qi (x) donde Qi (zi ) = 0. D) Si la ecuaci´n es de grado impar con coeficientes reales, alguna de sus soluciones ha de ser real. o Veamos primero que las raices complejas no reales de un polinomio con coeficientes reales, apare-cen con la misma multiplicidad que sus conjugadas: Si Pn (x) = 0 es una ecuaci´n con coeficientes reales y z1 y z 1 son dos soluciones conjugadas, osiendo z1 = a + ib; al ser Pn (x) = (x − z1 )Qn−1 (x) se tiene: 0 = Pn (z1 ) = (z1 − z1 )Qn−1 (z1 ) = −2biQn−1 (z1 )donde b = 0, por lo que Qn−1 (z1 ) = 0, siendo Qn−1 (x) divisible por x − z1 ; entonces, Pn (x) = (x − z1 )(x − z1 )Qn−2 (x) = (x − (a + bi))(x − (a − bi))Qn−2 (x) = [(x − a)2 + b2 ]Qn−2 (x) El polinomio Qn−2 (x) debe tener todos sus coeficientes reales, porque Pn (x) y (x − a)2 + b2 lostienen reales, por ello, si Qn−2 (x) tiene una raiz compleja no real tambi´n tiene a su conjugada. Lo emismo ocurrre con los sucesivos cocientes de Qn−2k (x)por (x − z1 )(x − z 1 ), de ser divisibles por x − z1 ,por ello la raiz z 1 aparece tantas veces como la raiz z1 . Entonces, si todas las raices del polinomio, de grado impar, fueran complejas no reales, la sumade sus multiplicidades ser´ par, no coincidiendo con su grado, por tanto, tiene que haber al menos ıauna soluci´n real. o E) Si un polinomio de grado n se anula para m´s de n valores distintos de la variable x, el polinomio aes el polinomio nulo, (todos los ai son nulos). (De donde si el polinomio no es nulo y es de grado n,no se puede anular para m´s de n valores de la variable). a 20
  • 21. En efecto, cogiendo n valores distintos {xi }i∈{1...n} que anulen al polinomio, por ser Pn (x1 ) = 0,Pn (x) es divisible por x − x1 , es decir, Pn (x) = Qn−1 (x)(x − x1 ). Si x2 = x1 anula al polinomio,Pn (x2 ) = 0 implica que Qn−1 (x2 )(x2 − x1 ) = 0, lo cual a su vez implica que Qn−1 (x2 ) = 0, por lo queQn−1 (x) = Qn−2 (x)(x − x2 ), y Pn (x) = Qn−2 (x)(x − x2 )(x − x1 ). Repitiendo el mismo procedimientocon n raices distintas, llegamos a que podemos expresar: Pn (x) = Q0 (x − xn )(x − xn−1 ) · · · (x − x2 )(x − x1 )donde Q0 es un n´mero, que debe ser igual a an . Cogiendo un valor m´s: (xn+1 ), que anule al u apolinomio, suponiendo que existe, tenemos: 0 = Pn (xn+1 ) = an (xn+1 − xn )(xn+1 − xn−1 ) · · · (xn+1 − x1 )donde por estar en un cuerpo y ser todos los par´ntesis distintos de cero, ha de ser an = 0. Por la emisma raz´n, an−1 = 0 y as´ sucesivamente hasta el a0 . (Un polinomio igual a una constante se anula o ıpara alg´n valor de x s´lo si esta constante es cero). u o F) Con un razonamiento an´logo se puede demostrar que encontradas k raices de un polinomio, cuya asuma de multiplicidades es igual al grado del polinomio, no puede haber otra raiz m´s. a En efecto, una vez escrito: Pn (x) = (x − z1 )n1 (x − z2 )n2 · · · (x − zk )nk an donde Σni = n, y an = 0si hubiera otra soluci´n m´s: zn+1 , se tendr´ o a ıa: 0 = Pn (zn+1 ) = (zn+1 − z1 )n1 (zn+1 − z2 )n2 · · · (zn+1 − zk )nk an Por ser los n´meros complejos un cuerpo, el producto de una serie de factores es cero si y s´lo si u oalguno de los factores es cero, por lo que zn+1 debe coincidir con alguno de los zi anteriores. 21
  • 22. Forma trigonom´trica y forma polar de un n´ mero complejo. e u La forma bin´mica de los n´meros complejos es adecuada para la suma, pero para la multiplicaci´n o u ohay otra forma m´s adecuada que es la forma polar. a Adem´s, para expresar de formas an´logas entre s´ las soluciones de la ecuaci´n xn − 1 = 0 ≡ a a ı o nx = 1 vamos a utilizar la forma trigonom´trica y la forma polar de un n´mero complejo. e u Ya hemos dicho que los n´meros complejos se pueden poner en correspondencia con los puntos del uplano. Para ello, trazamos en el plano dos rectas perpendiculares, una horizontal y la otra vertical,llamamos O (origen) al punto intersecci´n de las dos rectas e introducimos una unidad de medida. oEntonces al n´mero complejo a + ib puede asociarse el punto P que est´ a distancia ”a” unidades u ade medida del eje vertical y ”b” unidades de medida del eje horizontal. Al mismo tiempo podemosdibujar un vector con origen O y extremo P. Por el teorema de Pit´goras la longitud de este vector acoincide con el m´dulo del n´mero complejo. El vector est´ perfectamente determinado tambi´n por o u a esu longitud y por el ´ngulo que hace con la direcci´n positiva de uno de los ejes; vamos a escoger el eje a ohorizontal y al angulo que forma el vector con este eje le llamamos argumento del m´dulo complejo. ´ oHemos llegado a otra determinaci´n de un n´mero complejo por su m´dulo y su argumento que da o u olugar a la forma trigonom´trica y a la forma polar. e a+ib U b r 6 φ a La forma polar del n´mero complejo a + ib es el s´ u ımbolo reiφ donde r es el m´dulo y φ es el oargumento del n´mero complejo. (El m´dulo r es siempre positivo). u o Es de observar que cuando r = 0, cualquiera que sea φ, el n´mero es el cero. Y que reiφ = rei(φ+2π) , ues decir, todos los n´meros complejos con el mismo r y argumentos diferenci´ndose en un m´ltiplo u a ude 2π coinciden. 22
  • 23. Dado que a = rcosφ y b = rsenφ, el n´mero complejo es tambi´n a + ib = r(cosφ + isenφ), siendo u e´sta la forma trigonom´trica del n´mero complejo. Se ve que tanφ = b/a. La forma trigonom´tricae e u e iφy la forma polar dan la relaci´n e = (cosφ + isenφ). o Otros ejercicios para la familiarizaci´n con estas formas son: o 1.5.1. De los n´meros complejos enunciados a continuaci´n calcular su m´dulo y su argumento y u o oescribirlos en forma trigonom´trica y en forma polar. e √ √ 1 3 3 1 1 + i, 1 − i, −1 − i, +i , +i 2 2 2 2 1.5.2. Comprobar que cualquier n´mero complejo tiene el mismo m´dulo que su conjugado y que u osu opuesto. ¿C´al es la relaci´n entre los argumentos de un n´mero complejo, su conjugado y su u o uopuesto? 1.5.3. Suponiendo conocidos el m´dulo y el argumento de un n´mero complejo, hallar el m´dulo o u oy el argumento de su inverso. Las formas trigonom´trica y polar nos pasan de la naturaleza puramente algebraica de los en´meros complejos a su representaci´n geom´trica, lo cual va a revertir en el descubrimiento de u o em´s propiedades de dichos n´meros. a u Por ejemplo, la expresi´n de la multiplicaci´n de n´meros complejos se simplifica: o o u iφ1 iφ2 Sean z1 = r1 e = r1 (cosφ1 + isenφ1 ) y z2 = r2 e = r2 (cosφ2 + isenφ2 ) y multipliqu´moslos eseg´n la regla que tenemos para multiplicarlos en forma bin´mica: u o r1 eiφ1 r2 eiφ2 = z1 z2 = r1 (cosφ1 + isenφ1 ) · r2 (cosφ2 + isenφ2 ) = (r1 cosφ1 r2 cosφ2 − r1 senφ1 r2 senφ2 ) + i(r1 cosφ1 r2 senφ2 + r1 senφ1 r2 cosφ2 ) = r1 r2 (cosφ1 cosφ2 − senφ1 senφ2 ) + ir1 r2 (cosφ1 senφ2 + senφ1 cosφ2 ) = = r1 r2 (cos(φ1 + φ2 ) + isen(φ1 + φ2 ) = r1 r2 ei(φ1 +φ2 ) Donde vemos que la multiplicaci´n de n´meros complejos dados en forma polar o trigonom´trica o u ese hace multiplicando sus m´dulos y sumando sus argumentos. Debido a ello, la asociatividad del oproducto se demuestra mucho m´s f´cilmente utilizando la forma polar. a a Otros ejercicios son: 1.6.1. Demostrar utilizando la forma bin´mica y la forma polar de los n´meros complejos que: o u a) El producto de un n´mero por su conjugado es un n´mero real. u u 23
  • 24. b) El cociente de un n´mero por su conjugado es de m´dulo 1. u o Observar que la demostraci´n usando la forma polar es m´s corta. o a c) Comprobar los resultados anteriores en los c´lculos siguientes: a 3 + 4i (1 + 2i)(1 − 2i), , 3 − 4i d) Utilizar los resultados anteriores para calcular: √ √ √ √ √ 2 √ 2 2 2 2 2 2 +i 2 ( +i )( −i ), √ √ 2 2 2 2 2 − i 22 2 1.6.2. Probar la asociatividad de la multiplicaci´n de n´meros complejos usando su expresi´n en o u oforma polar y comparar la simplicidad del c´lculo respecto del que hay que hacer para demostrarla aen forma bin´mica. o 24
  • 25. La potenciaci´n sale tambi´n beneficiada de esta forma simple de multiplicar en forma polar. o eSeg´n lo visto: u z n = (reiφ )n = rn einφ = rn (cos(nφ) + isen(nφ))de donde se obtiene la f´rmula de Moivre: o cos(nφ) + isen(nφ) = (cosφ + isenφ)nen la que desarrollando el ssegundo miembro por el binomio de Newton y separando partes reales eimaginarias tenemos expresiones para cos(nφ) y sen(nφ) en funci´n de cosφ y senφ. o Otra repercusi´n geom´trica de la forma polar de un n´mero complejo se pone de manifiesto si o e uobservamos lo que ocurre al multiplicar n´mero de m´dulo 1 por otro n´mero complejo dado: u o u eiφ · reiα = rei(φ+α)Vemos que el resultado es un n´mero complejo del mismo m´dulo resultante de girar el n´mero u o ucomplejo dado un angulo φ. ´ Por tanto, la operaci´n geom´trica giro se expresa algebraicamente como una multiplicaci´n. o e o i(2+i) u e e e e e ¨2+i B e ¨¨ e ¨ e¨¨e ¨ ¨¨ e ¨¨e e¨ 25
  • 26. Radicaci´n. o La extracci´n de raices tambi´n se hace mucho m´s f´cilmente cuando los n´meros vienen o e a a udados en forma polar. Extraer las raices n-´simas de un n´mero complejo z es hallar los n´meros x tales que xn = z, e u u nes decir, resolver la ecuaci´n x − z = 0. Si z es real, esta ecuaci´n, por ser de coeficientes reales, o otiene las raices complejas por parejas conjugadas, es decir, las raices complejas de un n´mero real uaparecen por parejas conjugadas. Las soluciones de la ecuaci´n xn − z = 0 (si z = 0) tienen multiplicidad 1: vamos a ver que no opueden tener multilicidad mayor o igual que 2: Si una soluci´n z1 la tuviera, se podr´ escribir xn − z = (x − z1 )2 Qn−2 (x), entonces, derivando o ıa n−1en los dos miembros tendr´ ıamos nx = 2(x − z1 )Qn−2 (x) + (x − z1 )2 Qn−2 (x), que al sustituir x por n−1 nz1 , da nz1 = 0, imposible si z1 = 0. Al ser cada raiz de multiplicidad 1, debe haber n raices distintas. Veamos c´mo se obtienen: o Dado z = |z|eiα , un n´mero complejo x es raiz n-´sima de z si xn = z, es decir, escribiendo u ex = reiφ en forma polar, si rn einφ = |z|eiα , pero tambi´n si rn einφ = |z|ei(α+2π) o rn einφ = |z|ei(α+k2π) , e ´ ncualquiera que sea k, para lo cu´l es suficiente que r = |z| y nφ = α + k2π, cualquiera que sea k. a n La condici´n r = |z| siempre tiene soluci´n porque |z| es positivo pero puede tener dos soluciones o oreales para r si n es par, de las cuales s´lo cogemos la positiva porque el m´dulo es siempre positivo. o oPero lo m´s importante es que debido a la no unicidad de la expresi´n polar de un n´mero complejo, a o ucuando k var´ tenemos distintas posibilidades para φ de la condici´n nφ = α + k2π. Lo que nos da ıa, opara φ las soluciones:   φ0 = α  n  φ1 = α + 2π    n n φ2 = α + 2 2π  n n  φ3 = α + 3 2π  n n ··· ···     φn−1 = α + (n − 1) 2π  n n α 2π α φn = +n ≡ n n n Para el valor de r = + n |z| hay n posibles argumentos, (ya que φn es equivalente a φ0 ), por loque hay n raices complejas de cada n´mero complejo dado. u 26
  • 27. Las raices n-´simas del n´mero complejo 1 tienen m´dulo 1 y argumentos k2π/n, donde k var´ e u o ıade cero a n − 1. El conjunto de estos n n´meros con la operaci´n multiplicaci´n es un ejemplo de u o ogrupo multiplicativo finito. Sus puntos correspondientes determinan un pol´ ıgono regular de n ladoscon un v´rtice en el punto (1,0). Cada raiz determina tambi´n un giro del plano de ´ngulo k2π/n e e aEstos giros del plano dejan invariante cualquier pol´ ıgono regular de n lados con centro en el origen.Dos de estos giros se pueden realizar sucesivamente, lo cual da un giro que se llama composici´n ode los dos giros. La operaci´n composici´n de giros corresponde a la multiplicaci´n de los n´meros o o o ucomplejos que los representan. Por ello, el conjunto de los giros que dejan invariante un pol´ ıgonoregular con centro en el origen es un grupo multiplicativo finito. Se proponen los siguientes Ejercicios: donde se pide hacer los c´lculos en forma polar. a 1.7.1. Calcular en forma polar y en forma bin´mica los siguientes n´meros complejos: o u √ √ √ −4, i, −i, . Comprobar que los resultados son los mismos. 1.7.2. Calcular en forma bin´mica y en forma trigonom´trica los siguientes n´meros complejos: o e u √ √ 1 + i, −2 + 2iComparando las expresiones determinar el valor de cos(π/8) y cos(3π/8). Comprobar que cos2 (π/8)+cos2 (3π/8) = 1. ¿Por qu´?e 1.7.3. Expresar las siguientes raices en forma bin´mica utilizando la forma trigonom´trica corres- o epondiente y el ejercicio anterior. √ √ √ √ 4 4 −16, 3 −8, 3 −27i, 16i. 1.7.4. Hallar las raices cuartas de −i y representarlas gr´ficamente. a 1.7.5. Hallar las raices quintas de la unidad. Se˜alar cu´les son las raices que son conjugadas n aentre s´ ı. 1.7.6. Hallar las siguientes raices: √ √ 3 3 1 6 1 3 +i , +i 2 2 2 2¿C´mo est´n relacionadas entre s´ o a ı? 1.7.7. Resolver en el cuerpo de los n´meros complejos las ecuaciones: u x6 + 1 = 0, 27
  • 28. x6 + 2x3 + 1 = 0, x6 + x3 + 1 = 0, x6 + 2x4 + 2x2 + 1 = 0, 3x7 + x6 + 6x4 + 2x3 + 6x + 2 = 0. 2x7 − x6 + 4x4 + 2x3 + 2x − 1 = 0 2x7 + x6 + 4x4 + 2x3 + 2x + 1 = 0 4x8 − x6 − 8x5 + 2x3 + 4x2 − 1 = 0 2x5 + x4 − 2x3 − x2 + 2x + 1 = 0 Comprobar que la suma de las multiplicidades de las soluciones complejas (entre ellas las reales)de cada ecuaci´n es igual a su grado. o 1.7.8. Habiendo comprobado que (xn−1 + xn−2 + xn−3 + · · · + x + 1)(x − 1) = xn − 1, demostrarque a) La ecuaci´n x4 + x3 + x2 + x + 1 = 0 no tiene ninguna soluci´n real. o o b) La ecuaci´n xn + xn−1 + xn−2 + · · · + x + 1 = 0 no tiene ninguna soluci´n real si n es par y o otiene exactamente una soluci´n real si n es impar. ¿Cu´l es la soluci´n real si n es impar? o a o c) Las raices (n + 1) − esimas de la unidad que no coinciden con 1, son soluciones de la ecuaci´n ´ oxn + xn−1 + xn−2 + · · · + x + 1 = 0. 1.7.9. Resolver en el cuerpo de los n´meros complejos las ecuaciones: u x6 + x5 − x − 1 = 0, x7 + x6 − x − 1 = 0, 2x5 + x4 + x3 + x2 + x − 1 = 0, 6x6 + 5x5 + 4x4 + 4x3 + 4x2 − 2x − 1 = 0. Comprobar que la suma de las multiplicidades de las soluciones complejas (entre ellas las reales)de cada ecuaci´n es igual a su grado. o 1.7.10. Deducir de la f´mula de Moivre o a) Las f´rmulas del coseno del ´ngulo triple y del seno del ´ngulo triple. o a a b) Las f´rmulas an´logas para el angulo qu´ o a ´ ıntuple. 1.7.11. Hallar cos(π/12) calculando la raiz de eiπ/6 utilizando las formas bin´mica, trigonom´trica o ey polar de los n´meros complejos y comparando los resultados. u 28
  • 29. 1.7.12. Comprobar que las raices de orden n de la unidad y por ello los giros que dejan invarianteun pol´ ıgono regular de n lados con centro en el origen y un v´rtice en 1, son un grupo multiplicativo econmutativo. Otros ejemplos y problemas se pueden encontrar en el cap´ ıtulo 1 del libro [A], en el cap´ ıtulo 4 de[B], en el ap´ndice A2 de [G] en el cap´ e ıtulo 20 de [S] y en el cap´ıtulo 4 del libro [H] de la bibliograf´ ıa. Soluciones de 1.2.1: a) 1/2,1/3, b) 1/2,1/3,5/2, c) 1/2,1/3,1/4, d) 1/2,√ √ 2/3,3/2. e) 1/2,1/3,−1(doble). Soluciones de las cinco ultimas ecuaciones de 1.3.1: −1/2, 1/3, i 2, −i 2; −1/3, 1/4, i, −i; 1/2, 4/3, i, −i; ´3/2, −5/2, i, −i; −3/2, −5/2, 2i, −2i. 29
  • 30. Bibliograf´ ıa. [A1]. Algebra Lineal y aplicaciones. Jorge Arves´ Carballo, Renato Alvarez Nodarse, Francisco uMarcell´n Espa˜ol. Ed. S´ a n ıntesis 1999. [A2] La Matem´tica: su contenido, m´todos y significado. A. D. Alexandrov, A. N. Kolmogorov, a eM. A. Laurentief y otros. Ed. Alianza Universidad. 1981. [B] N´meros y Convergencia. B. Rubio. Ed. B. Rubio. 2006. u [D]. El Universo de las Matem´ticas. Willian Dunham. Ed. Pir´mide. 1994. a a [G1] Matem´ticas 1 Bachillerato. Carlos Gonzalez Garc´ Jes´s Llorente Medrano. Maria Jos´ a ıa. u eRuiz Jim´nez. Ed. Editex. 2008. e [G]. Algebra Lineal con aplicaciones. Stanley I. Grossman. Ed. McGraw-Hill. 1992. [H]. Algebra y Geometr´ E. Hern´ndez. Ed. Addison-Wesley-U.A.M. 1994. ıa. a [S]. Algebra Superior. M. R. Spiegel. Ed. Mc Graw Hill 2000. 30
  • 31. MATRICES. SUS OPERACIONES. Introducci´n. o Definici´n: Una matriz es una disposici´n rectangular y entre par´ntesis de n´meros; Es por o o e utanto, una tabla de n´meros entre par´ntesis y tiene un determinado n´mero de filas, que llamamos u e um y un determinado n´mero de columnas que llamamos n. Entonces se dice que la matriz es m × n. u Puede ser de n´meros positivos, de n´meros enteros, de n´meros racionales, de n´meros reales o u u u ude n´meros complejos. u Las tablas aparecen bastante en la vida cotidiana. P. ej. la tabla de valores de compra y venta de distintasmonedas con una fija (sea ´sta el euro), es una tabla de tantas filas como monedas consignemos y de dos columnas. eOtro ejemplo es la tabla de porcentaje de composici´n de unos alimentos determinados seg´n los hidratos de carbono, o ugrasas y prote´ ınas; ´sta es una tabla de tantas filas como alimentos hayamos listado y tres columnas. Las presiones ey temperaturas de un conjunto de n gases forman una tabla de dos filas y n columnas. Las tablas se transforman enmatrices cuando sus datos son utilizados para c´lculos. a Una matriz de una fila y una columna es un n´mero entre par´ntesis. u e La derivada de una funci´n real de variable real es un n´mero, y se generaliza a la derivada de una funci´n real o u ode varias variables por una matriz de una fila y varias columnas, cada una de las cuales es una derivada parcial. Deespecial inter´s en f´ e ısica son las derivadas de una funci´n real de tres variables, que se llaman gradientes y son tres on´meros entre par´ntesis. u e Un punto de R3 se representa por tres coordenadas entre par´ntesis, lo cual es una matriz 1 × 3. e 3Algunas veces, para comodidad de c´lculo, un vector de R se representa por los n´meros en columna; a uentonces es una matriz 3 × 1. En ´lgebra lineal aparecen las matrices m×n al expresar de forma global los sistemas de ecuaciones alineales de m ecuaciones con n inc´gnitas. Para ello se define el producto de matrices. o Tambi´n se utilizan para expresar las aplicaciones llamadas lineales y los productos escalares. Y epara relacionar distintos sistemas de coordenadas en el mismo espacio vectorial. Ciertas operaciones del conjunto de n´meros que aparecen en la matriz se trasfieren a operaciones ucon las matrices pero no siempre con las mismas propiedades que las operaciones de los n´meros de ulos que est´n formadas. Nuestro objetivo en este cap´ a ıtulo es definir y estudiar dichas operaciones. 31
  • 32. Operaciones en las matrices. Si representamos por K un conjunto de n´meros, se representa por Mm×n (K) el conjunto de las umatrices de m filas y n columnas que tienen n´meros de ese conjunto. Cada sitio de la matriz se ullama entrada. Introducimos la notaci´n general de una matriz: se escribe o A = (aij )i∈{1,2,...m},j∈{1,2,...n}donde aij es el n´mero que ocupa el lugar de la fila i y la columna j. Cuando est´n claras en el u acontexto, las variaciones de i y de j, no se especifican por sencillez de escritura. Si K tiene un producto, cualquier matriz puede multiplicarse por un n´mero del conjunto del que uest´ formada. Si A = (aij ) ∈ Mm×n (K) y s ∈ K, se define s · A = (saij ). a Este producto verifica: Si K tiene unidad (1): 1 · A = A Es distributivo si el producto de K es distributivo respecto a una suma: (s + t) · A = s · A + t · A Hay asociatividad mixta si K es asociativo: (st) · A = s · (t · A) Si en el conjunto K hay una suma, tambi´n ciertas matrices se pueden sumar, pero para eso etienen que tener el mismo n´mero de filas y de columnas. La suma no es una operaci´n en el u oconjunto de todas las matrices sino en Mm×n (K) cuando se han fijado m y n. Entonces, se define: si A = (aij )i∈{1...m}j∈{1...n} ∈ Mm×n (K) y B = (bij )i∈{1...m}j∈{1...n} ∈ Mm×n (K),A + B = (aij + bij )i∈{1...m}j∈{1...n} ∈ Mm×n (K), Se propone comprobar como ejercicios que 2.1.1. La suma es asociativa si la suma en K lo es. 2.1.2. La matriz cero (que tiene cero en todos los sitios), es elemento neutro para la suma si ceroes el elemento neutro de K respecto a su suma. 2.1.3. Si cada elemento de K tiene elemento opuesto respecto a la suma, cada matriz tieneelemento opuesto. Recordando la definici´n de grupo, los ejercicios 2.1.1., 2.1.2., y 2.1.3. se expresan conjuntamente oafirmando que si K es un grupo aditivo, Mm×n (K) lo es. Se puede comprobar tambi´n como ejercicio que si K es un grupo aditivo conmutativo, Mm×n (K) etambi´n lo es. e Adem´s la suma es distributiva respecto al producto por los elementos de K si lo es en K. aCompru´bese como ejercicio que s · (A + B) = s · A + s · B. e Estas operaciones con todas las propiedades enumeradas se dan p. ej. en M1×3 (R) que coincidecon el espacio de los vectores y por analog´ la estructura de Mm×n (K) con estas dos operaciones ıa,con las propiedades enumeradas se llama espacio vectorial. 32
  • 33. Para pasar a otra operaci´n entre matrices llamada producto, observemos que una matriz fila o1 × n y una matriz columna n × 1 se pueden multiplicar n´mero a n´mero: u u n (a1j )j∈{1...n} · (bi1 )i∈{1...n} = a1k · bk1 k=1dando otro n´mero. u Esto es lo que se hace para calcular el producto escalar de dos vectores de R3 : se coloca uno delos vectores en fila y el otro en columna y se multiplican n´mero a n´mero. u u Es tambi´n lo que se hace para calcular lo que tenemos que pagar en una compra multiplicando la matriz fila de elos precios de los art´ ıculos que hemos comprado por la matriz columna de las cantidades que hemos comprado de cadauno de ellos. Observemos tambi´n que una matriz A ∈ Mm×n (K) puede escribirse como superposici´n de filas: e o   F1  F2  A= .     . .  Fmo como yuxtaposici´n de columnas: o B = (C1 , C2 , · · · , Cn ) Si las filas de A tienen el mismo n´mero de elementos que las columnas de B, A y B se pueden umultiplicar multiplicando las filas de A por las columnas de B, siendo n n (AB)ij = Fi · Cj = aik bkj que escribiremos Aik Bkj k=1 k=1 Este producto es una operaci´n que va de Mm×n (K)× Mn×u (K) en Mm×u (K). Para que sea ooperaci´n en Mm×n (K), ha de ser m = n. o Podemos decir, por tanto, que las matrices cuadradas tienen otra operaci´n, el producto, con las osiguientes propiedades: a) El producto es asociativo si el producto en K lo es: A(BC) = (AB)C. En efecto, vamos a ver que el n´mero de la entrada (i,j) de A(BC) es el mismo que el n´mero de u ula entrada (i,j) de (AB)C: Suponiendo que A ∈ Mm×n (K), B ∈ Mn×u (K), C ∈ Mu×s (K). 33
  • 34. n n u n u (A(BC))i,j = Aik (BC)kj = Aik ( Bkl Clj ) = Aik (Bkl Clj ) k=1 k=1 l=1 k=1 l=1 u u n u n ((AB)C)i,j = (AB)il Clj = ( Aik Bkl )Clj = (Aik Bkl )Clj l=1 l=1 k=1 l=1 k=1Comparando las dos expresiones finales se puede ver que contienen los mismos sumandos debido ala propiedad asociativa del producto en K. La diferencia est´ solamente en la forma de agruparlos: a En el primer sumatorio agrupamos primero los del mismo k, sumamos los Aik (Bkl Clj ), para todoslos valores posibles de ‘l y luego volvemos a sumar estas sumas para todos los valores posibles de ‘k En el segundo sumatorio agrupamos primero los del mismo l, sumamos los (Aik Bkl )Clj , para todoslos valores posibles de ‘k y luego volvemos a sumar estas sumas para todos los valores posibles de‘l ; Pero la forma de agruparlos para la suma no importa debido a su propiedad conmutativa. Representaremos las matrices cuadradas n × n con elementos de K por Mn (K). Se indica como ejercicios la demostraci´n de o 2.2.1. b) El producto es distributivo respecto a la suma de matrices si el producto de K lo esrespecto a la suma. Como todav´ no hemos comprobado que el producto sea conmutativo y de hecho no lo es, la ıadistributividad tiene dos facetas, a la derecha y a la izquierda: A(B + C) = AB + AC, (A + B)C = AC + BC 2.2.2. c) El producto es asociativo respecto al producto por los elementos de K si el producto enK lo es. s(AB) = (sA)B, (AB)s = A(Bs) Pero existen matrices distintas de cero que no tienen inverso respecto a la multiplicaci´n. Para oello v´ase como ejercicio: e 2.2.3. Dada la matriz 1 0 A= 1 0Comprobar que no existe una matriz B tal que AB = I = BA. 34
  • 35. El conjunto de las matrices cuadradas de orden n con elementos de un cuerpo es un grupo aditivoconmutativo respecto a su suma. Respecto al producto no constituyen un grupo multiplicativo nia´n prescindiendo de la matriz cero, porque existen matrices no nulas que no poseen inversa seg´n el u uejercicio 2.2.3; por esto no son un cuerpo; la estructura de grupo aditivo con un producto asociativo ydistributivo se denomina anillo. Adem´s, el elemento unidad del cuerpo permite construir el elemento aunidad del conjunto de las matrices cuadradas de orden n respecto a la multiplicaci´n que es la matriz oque tiene 1 en todos los elementos de la diagonal y ceros en el resto. Por eso, se dice que Mn (K) esun anillo unitario. Nos podemos dar cuenta de que el producto en general no es conmutativo viendo que una matrizfila y una matriz columna del mismo n´mero de elementos son multiplicables en los dos sentidos udistintos pero en un sentido el producto es un n´mero y en otro sentido el producto es una matriz ucuadrada de orden igual al n´mero de elementos de las matrices dadas. u Se puede comprobar como ejercicios la no conmutatividad de matrices cuadradas y otras propiedadespeculiares: 2.2.4. Siendo A y B las matrices dadas a continuaci´n calcular los productos AB y BA cuando osea posible y comparar los resultados. 1 1 3 4 2 3 1 3 a) A = B= b) A = B= −1 1 5 6 0 1 0 0       2 4 0 5 50 1 2 2 3 4 c) A =  5 0 3  B =  1 60  d) A = B= 1 0  4 3 2 0 1 0 1 86 4 4 ¿Ser´ cierta para las matrices cuadradas la relaci´n (A + B)2 = A2 + 2AB + B 2 ? a o 2.2.5. Comprobar que el producto de dos matrices puede ser nulo sin que lo sean ninguno de losfactores, hallando los productos AB siendo A y B las matrices dadas a continuaci´n: o 1 1 1 3 6 −2 a) A = B= b) A = B= 1 1 −1 1 2 1 −6 1 0 0 0 c) A = 5 6 B= d) A = B= 5 1 0 1 1 ¿Es cierto que AB = 0 ⇒ BA = 0? Comprobarlo. 35
  • 36. 2.2.6. Hallar la forma general de las matrices 3 × 3 de n´meros reales o complejos que conmutan ucon   1 1 0  0 1 1 . 0 0 1 2.2.7. Hallar matrices 2 × 2 de n´meros reales, tales que su cuadrado es −I. u 2.2.8. Hallar matrices A ∈ M2×2 de n´meros reales, tales que A = I y A2 = A. u 2.2.9. Siendo   1 1 2 −4 F1 A =  0 1  = (C1 , C2 ), B = = 4 5 F2 1 1Comprobar que AB = C1 F1 + C2 F2 Generalizar este resultado para matrices de dimensiones multiplicables. 2.2.10. ¿Qu´ transformaci´n tiene lugar en la matriz C dada a continuaci´n cuando la multipli- e o ocamos a la derecha o a la izquierda por la matriz D diagonal dada tambi´n a continuaci´n: e o     6 −2 0 2 0 0 C= 2 0 1  D= 0 4 0  1 1 0 0 0 6 ¿C´ales son las matrices diagonales que conmutan con todas las dem´s? u a 2.2.11. Demostrar que si una matriz no es diagonal, no conmuta con todas las dem´s. Deducir ade este ejercicio y del anterior la forma de las matrices que conmutan con todas las dem´s. a 2.2.12. Multiplicando las dos matrices A y B dadas a continuaci´n, o     2 4 0 6 −2 0 A= 5 0 3  B= 2 0 1  0 1 0 1 1 0 Comprobar que: a) La primera fila del producto AB es la suma de las filas de B multiplicadas por los n´meros de ula primera fila de A considerados como coeficientes. b) La primera columna de AB es la suma de las columnas de A multiplicados por los n´meros de ula primera columna de B considerados como coeficientes. ¿Qu´ ocurre an´logamente con las dem´s filas y las dem´s columnas del producto? e a a a 36
  • 37. 2.2.13. Se llaman matrices elementales las obtenidas de la matriz identidad, haciendo una de lassiguientes transformaciones: a) Permutaci´n de filas. o b) Suma a una fila de otra fila multiplicada por un n´mero. u c) Multiplicaci´n de una fila por un n´mero distinto de cero. o u Escribir todas las matrices elementales de tama˜o 3 × 3. n Escoger una matriz cualquiera de n´meros y comprobar que al multiplicar esta matriz por otra uelemental colocando a la izquierda la matriz elemental, se realiza en la matriz escogida, la trans-formaci´n que hab´ tenido lugar en la identidad para obtener la matriz elemental. Generalizar el o ıaresultado. 37
  • 38. La trasposici´n es otra aplicaci´n definida en el conjunto de las matrices con imagen en este o omismo conjunto que hace corresponder a una matriz A = (aij )i∈{1,2,...m},j∈{1,2,...n} , la matriz represen-tada por t A: t A = (bij )i∈{1,2,...n},j∈{1,2,...m} donde bij = aji . Lo que hacemos es modificar la disposici´n ode los n´meros cambiando filas por columnas. u La trasposici´n no es siempre una operaci´n en Mm×n (R), ya que asocia a elementos de Mm×n (R), o oelementos de Mn×m (R). Para que una aplicaci´n sea operaci´n en un conjunto, tiene que quedarse o oen ese conjunto, para lo cual ha de ser Mm×n (R) = Mn×m (R), es decir, m = n. La traspuesta de la matriz suma de otras dos matrices es la suma de las traspuestas de las matricesdadas. En cuanto a la relaci´n del producto con la trasposici´n tenemos la siguiente igualdad: o o t (AB) = t Bt A ya que (t (AB))ji = (AB)ij = Aik Bkj = Bkj Aik = (t B)jk (t A)ki = (t B · t A)ji k k k Tipos de matrices. Entre las matrices cuadradas de n´meros reales se definen Las matrices sim´tricas son las que u ecoinciden con su traspuesta, para lo cual han de ser cuadradas (m=n): la matriz A = (aij ) essim´trica si y s´lo si aij = aji ∀i, j; tambi´n se escribe si y s´lo si A = t A. e o e o Las matrices antisim´tricas son las que coinciden con la opuesta de su traspuesta, para lo cual etambi´n han de ser cuadradas: la matriz A = (aij ) es antisim´trica si y s´lo si aij = −aji , ∀i, j; e e otambi´n se escribe A = −t A. e Compru´bese como ejercicios que e 2.3.1. Una matriz antisim´trica tiene nulos todos los elementos de su diagonal principal. e 2.3.2. Una matriz a la vez sim´trica y antisim´trica es una matriz nula (que tiene 0 en todos los e esitios). 2.3.3. Comprobar que: a) Dada una matriz cuadrada A, la matriz 1 (A + t A) es una matriz sim´trica. 2 e b) Dada una matriz cuadrada A, la matriz 1 (A − t A) es una matriz antisim´trica. 2 e c) Toda matriz cuadrada se puede escribir como suma de una matriz sim´trica y otra antisim´trica. e e 38
  • 39. Entre las matrices cuadradas de n´meros complejos se definen las matrices herm´ticas como las u ımatrices que verifican aij = aji , ∀i, j (A = t A) Y las matrices antiherm´ ıticas como las matrices queverifican aij = −aji ∀i, j (A = −t A) Compru´bese como ejercicios que e 2.4.1. Una matriz herm´ ıtica tiene todos los elementos de su diagonal principal reales. 2.4.2. En una matriz antiherm´ ıtica son imaginarios puros todos los elementos de la diagonalprincipal. 2.4.3. Una matriz a la vez herm´ ıtica y antiherm´ ıtica es una matriz nula. 2.4.4. Toda matriz cuadrada compleja se puede escribir como suma de una matriz herm´ ıtica yotra antiherm´ıtica. 2.4.5. Comprobar que el producto de matrices sim´tricas no siempre es una matriz sim´trica e erealizando el producto AB en el caso a):     1 0 1 1 0 0 a) A =  0 1 0 , B =  0 2 0  1 0 1 0 0 3 Sin embargo, s´ es sim´trico en el caso: ı e     1 4 1 0 0 1 b) A =  4 3 4  , B =  0 1 0  1 4 1 1 0 0 Comprobar que en el caso a) BA = t (AB) y en el caso b) BA = AB. 2.4.6. Demostrar que dadas A y B, dos matrices sim´tricas, A y B conmutan si y s´lo si su e oproducto es una matriz sim´trica. Encontrar matrices sim´tricas que conmuten y matrices sim´tricas e e eque no conmuten distintas de las del ejercicio anterior. 2.4.7. Si A es una matriz sim´trica y B es una matriz antisim´trica, A y B conmutan si y s´lo si e e osu producto es una matriz antisim´trica. e 2.4.8. Demostrar que toda matriz sim´trica 2 × 2 de n´meros reales o complejos que conmute con e u 1 1 0 1es un m´ltiplo de la identidad. u 2.4.9. Demostrar que toda matriz sim´trica 3 × 3 de n´meros reales o complejos que conmute con e u 39
  • 40.   1 1 0  0 1 1  0 0 1es un m´ltiplo de la identidad. u 40
  • 41. Otros subconjuntos importantes de las matrices cuadradas son: Las matrices diagonales: Son aquellas en las que aij = 0 siempre que i = j. Son en ellas nulostodos los elementos situados fuera de la diagonal del cuadrado que va del ´ngulo superior izquierdo aal ´ngulo inferior derecho (que se llama diagonal principal). a De las matrices diagonales la m´s importante es la identidad que tiene 1 en todos los elementos ade la diagonal. Tambi´n son importantes entre las matrices cuadradas las matrices triangulares superiores: Son een ellas nulos todos los elementos que se encuentran debajo de la diagonal principal. Por tanto,aquellas en las que aij = 0 siempre que i j. An´logas a ´stas son las matrices triangulares inferiores: Son en ellas nulos todos los elementos a eque se encuentran encima de la diagonal principal. Por tanto, aquellas en las que aij = 0 siempreque i j. Obs´rvese que una matriz a la vez triangular superior y triangular inferior es una matriz diagonal. e 2.5.1. Comprobar que la traspuesta de una matriz triangular superior es triangular inferior yrec´ ıprocamente. 2.5.2. Demostrar que: a) El producto de matrices diagonales es diagonal. b) El producto de matrices triangulares superiores es triangular superior. c) El producto de matrices triangulares inferiores es triangular inferior. Debido al ejercicio 2.4.5, las matrices sim´tricas de orden n no son un subanillo de las matrices cuadradas de orden en, (porque el producto de dos matrices sim´tricas puede no ser sim´trica). Sin embargo, debido al ejercicio 2.5.2 las e ematrices diagonales de orden n forman un subanilo unitario del anillo unitario de las matrices cuadradas de orden n ylo mismo ocurre con las matrices triangulares superiores de orden n y con las matrices triangulares inferiores de ordenn. 41
  • 42. Las matrices que tienen distinto n´mero de filas que de columnas se llaman matrices rectangulares. uEn ellas m = n. Pasando ahora a las matrices rectangulares m × n, otro subconjunto importante de ellas son lasmatrices escalonadas: Se llaman as´ porque en ellas se puede trazar una escalera por debajo de la cual ıtodos los elementos son nulos, siendo no nulos los elementos de sus esquinas y recorriendo esta escalerafilas y columnas de manera que no baja m´s de una fila en cada escal´n; de manera m´s precisa, a a o ala izquierda y debajo del primer n´mero distinto de cero de cada fila, los n´meros son todos ceros. u uMatem´ticamente se puede expresar as´ (aij ) es escalonada si para cada fila i existe una columna ki a ı:tal que los n´meros de esa fila anteriores a la columna ki son nulos: aij = 0 si j ki y los t´rminos u ede las filas posteriores situados en dichas ki columnas son tambi´n nulos: alj = 0 si l i, j ≤ ki . e § ¤ § ¤ 0 1 2 3 4 5 6 0 1 2 3 4 5 6 0 0 2 3 4 5 6 0 0 2 3 4 5 6 0 0 0 0 4 5 6 0 0 0 0 4 5 6 0 0 0 0 0 5 6 0 0 0 0 2 5 6 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ¦ ¥ ¦ ¥ matriz escalonada matriz no escalonada Las matrices escalonadas m × n, donde m y n son fijos, no forman un grupo aditivo respecto ala suma de matrices. Se puede comprobar que toda matriz cuadrada y escalonada es triangular superior. Para elloobs´rvese c´mo es una matriz escalonada con n´mero m´ e o u ınimo de ceros (v´ase la matriz a conti- enuaci´n). Si tuviera m´s ceros seguir´ siendo triangular superior. o a ıa § ¤ 1 2 3 4 5 6 0 2 3 4 5 6 0 0 7 4 5 6 0 0 0 9 5 6 0 0 0 0 1 8 0 0 0 0 0 8 ¦ ¥ matriz escalonada y triangular superior 42
  • 43. Se puede ver tambi´n que en una matriz cuadrada escalonada la ultima fila tiene un elemento e ´distinto de cero, si y s´lo si el primer escal´n est´ en la primera columna y cada escal´n tiene longitud o o a ode una columna. Ya que en otro caso, al ir recorriendo los escalones, agotamos antes las columnas quelas filas, quedando la ultima fila completa debajo de la escalera. (V´ase la matriz a continuaci´n). ´ e o § ¤ 1 2 3 4 5 6 0 2 3 4 5 6 0 0 0 4 5 6 0 0 0 0 5 6 0 0 0 0 0 6 0 0 0 0 0 0 ¦ ¥ matriz escalonada con escal´n de dos columnas o 43
  • 44. (Ejercicios tomados del libro [L]), 1. Demostrar: a) Si Y es una matriz columna de n´meros reales y Y t es la matriz fila traspuesta ude la matriz anterior, Yt·Y =0⇔Y =0 b) Dada una matriz A de n´meros reales y una matriz columna Z tambi´n de n´meros reales, u e umultiplicable a la izquierda por A: t A · AZ = 0 ⇔ AZ = 0 c) Si X es una matriz de n´meros reales multiplicable a la izquierda por otra matriz cuadrada A: u t A · AX = 0 ⇔ AX = 0 y A · t AX = 0 ⇔ t AX = 0 d) A · t A · AX = 0 ⇔ t A · AX = 0 ⇔ AX = 0. e) (t A · A)k X = 0 ⇔ AX = 0 f) Usar los resultados anteriores cuando X=I, para probar que son equivalentes las relacionessiguientes: t A = 0, A · A = 0, A · t A · A = 0, (t A · A)k = 0 A(t A · A)k = 0 2. Una matriz sim´trica y no nula de n´meros reales, no puede tener ninguna potencia nula. e u Ejemplos resueltos y problemas propuestos el el cap´ ıtulo 2 de [A], en la secci´n 1.3. de [F], en el ocap´ ıtulo 2 de [V], en la secci´n 1.4 de [H] o 44
  • 45. Bibliograf´ ıa. [A] Algebra Lineal y aplicaciones. J. Arves´ Carballo, R. Alvarez Nodarse, F. Marcell´n Espa˜ol. u a nEd. S´ ıntesis Madrid. 1999. [F] J.B: Fraleigh R. A. Beauregard. Algebra Lineal. Addison-Wesley Iberoamericana 1989. [G] Matem´ticas 2 Bachillerato. Carlos Gonzalez Garc´ Jes´s Llorente Medrano. Maria Jos´ a ıa. u eRuiz Jim´nez. Ed. Editex. 2009. e [L] E. M. Landesman, M. R. Hestenes. Linear Algebra for Mathematics, Science, and Engineering.Prentice-Hall International, Inc. 1992. 45
  • 46. 46
  • 47. ´ ´ METODO DE GAUSS Y REDUCCION DE GAUSS-JORDAN. Introducci´n. o Los sistemas de ecuaciones lineales aparecen frecuentemente en problemas elementales de otrasciencias y de la vida corriente. Como ejemplo se enuncian aqu´ varios problemas de esos: ı 1. Averiguar si los planos de ecuaciones: π1 ≡ −y + z = 2, π2 ≡ 3x + 6y + z = −5, π3 ≡ 2x + 4y − 2z = −3 tienen un punto com´n. u Sol: pto com´n: 1/8(21, −17, −1) u 2. Determinar si en R3 las rectas siguientes se cortan: 2x +3y +z = 5 x +y =2 r1 ≡ r2 ≡ x −3y =4 y −z = −1 Sol: no se cortan. 3. Ajustar la reacci´n: o xIO3 N a + ySO3 HN a → zSO4 N a2 + uSO4 HN a + vH2 0 + wI2 Sol: x = 2w, y = 5w, z = 2w, u = 3w, v = w. 5. En la red de tr´fico del dibujo de la p´gina siguiente, se conocen las cantidades de coches que a acirculan en dos entradas y en algunos tramos. Se desea conocer las cantidades de coches que circulanen todos los tramos. Se podr´ colocar un contador en cada tramo desconocido, entonces har´ falta ıa ıannueve contadores, sin embargo, se puede demostrar que dos contadores son suficientes, porque lostr´ficos en los distintos tramos est´n relacionados. Demu´strese. a a e 47
  • 48. 30 x1 30 1( c 1( c 1( c x2 x3 E E 0) 0) 0) d   d   d   d   d   10 d 20   5 d   d   d   ‚ d c ©   1( 10 10 0)   d   d   d   d x4   x5 d x6   d c   d c   d   d 1( ©   1( c 1( ‚ d 10 5 E 0) 0) 0) x c7 x c8 x c9 4. Hallar las intensidades de las corrientes que circulan por los tramos horizontales del circuitoel´ctrico siguiente, conocidas las resistencias: R1 = 8Ω, R2 = 6Ω, R3 = 12Ω, y las diferencias de epotencial: V1 = 5v, V2 = 18v, sabiendo que se cumplen las leyes de Kirchoff y la ley de Ohm. Las leyes de Kirchoff son: 1. En cada nodo la suma de las intensidades de las corrientes que entran es igual a la suma delas corrientes que salen. 2. En cada lazo cerrado la diferencia de potencial total es igual a la suma de las diferencias depotencial correspondientes a cada tramo del circuito. La ley de Ohm dice que la diferencia de potencial correspondiente a un tramo con una resistenciaR por el que corre una corriente de intensidad I es igual al producto RI. Sol: I1 = −3/36, I2 = 34/36, I3 = 37/36. 48
  • 49. V1  d R1  d I 1 d  d  I2 E  d R2  d d  d  V2  d R3  d I 3 d  d  Resolver un sistema de ecuaciones lineales es hallar, cuando es posible, todos los valores de lasinc´gnitas que satisfacen todas las ecuaciones del sistema. Supondremos que los coeficientes de las oinc´gnitas en las ecuaciones son reales o complejos. La teor´ que vamos a desarrollar vale siempre o ıaque los coeficientes est´n en un cuerpo. e Si no es posible encontrar esos valores, el sistema se llama incompatible. Si es posible encontrar-los, distinguimos el caso en que estos valores est´n determinados un´ a ıvocamente, llamando al sistemacompatible determinado, del caso en que hay infinitos valores, llam´ndolo entonces compatible inde- aterminado. En Bachillerato se han visto los m´todos de eliminaci´n, reducci´n y sustituci´n para resolver e o o osistemas de ecuaciones lineales. Cada sistema concreto puede resolverse o verse si es incompatibleusando uno de estos m´todos. El M´todo de Gauss es una combinaci´n sistem´tica de los m´todos e e o a ede eliminaci´n y sustituci´n v´lida para todos los sistemas. Habiendo garant´ de poder decidir si un o o a ıasistema dado cualquiera es incompatible o compatible y resolverlo en este caso, por dicho m´todo. e Algunas veces s´lo interesa saber si el sistema es incompatible, compatible determinado o com- opatible indeterminado, sin llegar a resolver efectivamente el sistema. Veremos que esto tambi´n se epuede hacer, estudiando la evoluci´n de los sistemas en la primera parte (eliminaci´n) del m´todo o o ede Gauss. 49
  • 50. M´todo de Gauss. e Si el sistema est´ formado por una s´la ecuaci´n con una inc´gnita que es de la forma ax = b, a o o osabemos que tiene soluci´n unica si a tiene inverso (lo cual es equivalente, cuando a est´ en un o ´ acuerpo, a que a sea distinto de cero); tiene infinitas soluciones cuando a = b = 0; es incompatiblecuando a = 0 y b = 0. Si el sistema es de una ecuaci´n con m´s de una inc´gnita, es de la forma a11 x1 + · · · + a1n xn = b1 ; o a o´ste es indeterminado o incompatible, siendo ´ste ultimo el caso cuando todos los coeficientes de lase e ´inc´gnitas son nulos sin serlo el t´rmino independiente. o e La idea es, entonces, ir reduciendo la complejidad de un sistema con varias ecuaciones y variasinc´gnitas a la simplicidad de un sistema con una ecuaci´n. o o Lo cual se puede hacer pasando a primera ecuaci´n una que tenga coeficiente a11 de x1 distinto ode cero, dividiendo por a11 dicha ecuaci´n (que se puede hacer porque a11 = 0) y restando a las osiguientes ecuaciones la primera multiplicada por el coeficiente de x1 en cada ecuaci´n. As´ hemos o ıeliminado la inc´gnita x1 en las ecuaciones posteriores a la primera y ´stas dan un sistema de una o eecuaci´n menos con una inc´gnita menos. Repitiendo el procedimiento, llegamos hasta un sistema o ode una ecuaci´n, que sabemos resolver o ver si es incompatible. o Veamos un ejemplo: resolvamos por el m´todo de Gauss el siguiente sistema: e  x1 +2x2 +x3 +2x4 = 16   2x1 −x2 −x3 −x4 = −7  −2x1 +x2 +2x3 −x4 = 2   2x2 +3x3 +x4 = 17  Empezamos eliminando la inc´gnita x1 de las ecuaciones segunda y tercera sumando a estas oecuaciones la primera multiplicada adecuadamente por los n´meros −2, 2. Podemos hacerlo porque uel coeficiente de x1 en la primera ecuaci´n es distinto de cero. Entonces pasamos a o  x1 +2x2 +x3 +2x4 = 16   −5x2 −3x3 −5x4 = −39  5x2 +4x3 +3x4 = 34   2x2 +3x3 +x4 = 17 As´ encontramos dentro del sistema dado un subsistema de tres ecuaciones con tres inc´gnitas, ı oformado por las tres ultimas ecuaciones, m´s simple que el dado y que una vez resuelto nos dar´ la ´ a ıasoluci´n del sistema dado considerando tambi´n la primera ecuaci´n. o e o En este subsistema de tres ecuaciones podemos pasar a otro subsistema de dos ecuaciones condos inc´gnitas, eliminando la inc´gnita x2 de las dos ultimas ecuaciones sumando a ´stas la primera o o ´ e 50
  • 51. multiplicada adecuadamente, ya que el coeficiente de x2 en la primera ecuaci´n del subsistema es odistinto de cero. Pero como tendr´ıamos que multiplicar la primera ecuaci´n por −1/5 para conseguir que el co- oeficiente de x2 sea 1 y luego multiplicar adecuadamente para eliminar los coeficientes de dicha x2en las restantes ecuaciones y de este modo surgir´ fracciones, vamos a utilizar otro camino que ıantambi´n consiste en multiplicar una ecuaci´n por un n´mero y sumar otra ecuaci´n multiplicada por e o u oun n´mero: vamos a multiplicar la primera ecuaci´n del subsistema por −1 y le vamos a sumar la u oultima multiplicada por −2, pasando a:´  x2 −3x3 +3x4 = 5  5x2 +4x3 +3x4 = 34 2x2 +3x3 +x4 = 17  Hemos conseguido que el coeficiente de la inc´gnita x2 sea 1 en la primera ecuaci´n. Ahora o omultiplicando esta ecuaci´n por −5 y sumand´sela a la segunda ecuaci´n y luego multiplicando la o o oprimera ecuaci´n por −2 y sum´ndosela a la tercera ecuaci´n tenemos: o a o  x2 −3x3 +3x4 = 5  19x3 −12x4 = 9 9x3 −5x4 = 7 donde podemos percibir un subsistema de las dos ultimas ecuaciones con las dos ultimas inc´gnitas. ´ ´ oDe este subsistema, restando a la pen´ltima ecuaci´n la ultima multiplicada por 2, obtenemos: u o ´ x3 −2x4 = −5 9x3 −5x4 = 7y as´ eliminamos f´cilmente la inc´gnita x3 de la ultima ecuaci´n pasando a ı a o ´ o x3 −2x4 = −5 13x4 = 52donde aparece al final una ecuaci´n con una inc´gnita. Resuelta esta ecuaci´n podemos ir resolviendo o o olos subsistemas de dos y tres ecuaciones que se han ido hallando resolviendo progresivamente unaecuaci´n m´s y llegar a la soluci´n del sistema dado. En efecto, la ultima ecuaci´n da x4 = 4, que o a o ´ osustituida en x3 − 2x4 = −5 da x3 = 3, lo cual sustituido en x2 − 3x3 + 3x4 = 5 da x2 = 2 y todoesto sustituido en x1 + 2x2 + x3 + 2x4 = 16 da x1 = 1, teniendo el sistema resuelto por el m´todo de eGauss. 51
  • 52. Si el sistema hubiera sido:  2x2 +3x3 +x4 = 17   2x1 −x2 −x3 −x4 = −7  −2x1 +x2 +2x3 −x4 = 2   x1 +2x2 +x3 +2x4 = 16 donde el coeficiente de la primera ecuaci´n en la primera inc´gnita es cero, pasamos a un sistema o odonde este coeficiente es distinto de cero, intercambiando ecuaciones. Veamos otros ejemplos donde se va viendo los subsistemas formados eliminando sucesivamentelas inc´gnitas hasta llegar a una ecuaci´n. o o 2)    6x2 +12x3 = 18  x1 −x2 +x3 = 0  x1 −x2 +x3 = 0  8x1 + 6x2 =5 8x1 +6x2 =5 14x2 −8x3 = 5 x1 − x2 +x3 = 0 6x2 +12x3 = 18 6x2 +12x3 = 18       x1 −x2 +x3 = 0  x1 −x2 +x3 = 0  x1 −x2 +x3 = 0  14x2 −8x3 = 5 x2 +2x3 = 3 x2 +2x3 = 3 x2 +2x3 = 3 14x2 −8x3 = 5 −36x3 = −37    Como la ultima ecuaci´n es compatible, el sistema es compatible y como tambi´n es determinada, ´ o epodemos despejar x3 en la ultima ecuaci´n y sustituyendo en la segunda ecuaci´n despejar x2 , tambi´n ´ o o edeterminada. Obtenemos x1 de la primera ecuaci´n al sustituir los valores de las otras inc´gnitas; el o osistema resulta compatible determinado. Se obtiene x3 = 37/36, x2 = 17/18, x1 = −1/12. 3)   x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  −2x1 +x2 +3x3 = 7 7x2 +x3 +2x4 = 9 x2 −x4 = 0 x2 −x4 = 0     x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  x2 −x4 = 0 x2 −x4 = 0 7x2 +x3 +2x4 = 9 x3 +9x4 = 9   52
  • 53. Este sistema tambi´n es compatible por serlo la ultima ecuaci´n. Pero como ´sta es indeterminada, e ´ o eel sistema es indeterminado. Despejamos x3 en funci´n de x4 en la ultima ecuaci´n, x2 en funci´n o ´ o ode x4 en la pen´ltima ecuaci´n y luego sustituimos x2 y x3 en la primera ecuaci´n y obtenemos: u o ox3 = 9 − 9x4 , x2 = x4 , x1 = 10 − 13x4 , x4 puede ser cualquiera. Pero, aunque la ultima ecuaci´n sea compatible determinada, el sitema puede ser incompatible ´ oindeterminado, como ocurre en los ejemplos 4) y 5) siguientes: 4)   x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  −2x1 +x2 +9x3 = 7 7x2 +7x3 +2x4 = 9 x2 +x3 −x4 = 0 x2 +x3 −x4 = 0     x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  x2 +x3 −x4 = 0 x2 +x3 −x4 = 0 7x2 +7x3 +2x4 = 9 9x4 = 9   Por ser la ultima ecuaci´n compatible, el sistema es compatible. En este caso, x4 est´ determinado ´ o aen la ultima ecuaci´n, pero al sustituir el valor de x4 en las ecuaciones anteriores, la pen´ltima ´ o uecuaci´n queda indeterminada por lo que el sistema es indeterminado. Despejando x2 en funci´n de o ox3 y sustituyendo en la primera ecuaci´n tenemos las soluciones: x4 = 1, x2 = 1 − x3 , x1 = −3 + 4x3 , ox3 puede ser cualquiera. 5)   x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  −2x1 +x2 +2x3 = 7 7x2 +2x4 = 9 x2 −x4 = 0 x2 −x4 = 0     x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  x2 −x4 = 0 x2 −x4 = 0 7x2 +2x4 = 9 9x4 = 9   De nuevo el sistema es compatible por serlo la ultima ecuaci´n. Tanto ´sta, como la pen´ltima ´ o e uecuaci´n salen determinadas, pero al sustitir x4 y x2 en la primera ecuaci´n, obtenemos una ecuaci´n o o ocon dos inc´gnitas que es indeterminada (tiene infinitas soluciones) por lo que el sistema es compatible oindeterminado. Sus soluciones son: x4 = 1, x2 = 1, x1 = x3 − 3, x3 puede ser cualquiera. Por ultimo, veamos un sistema incompatible. ´ 53
  • 54. 6)   x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  −2x1 +x2 +2x3 −9x4 = 7 7x2 −7x4 = 9 x2 −x4 = 0 x2 −x4 = 0     x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  x2 −x4 = 0 x2 −x4 = 0 7x2 −7x4 = 9 0x2 +0x4 = 9   Aqu´ la ultima ecuaci´n es incompatible, esto es suficiente para que el sistema sea incompatible. ı ´ o Debido a que cuando encontramos una primera ecuaci´n de un subsistema con coeficiente cero oen la primera inc´gnita la intercambiamos con otra que tiene coeficiente distinto de cero en esa oinc´gnita, la incompatibilidad es relegada a la ultima ecuaci´n. o ´ o Se puede conseguir que el coeficiente de la primera inc´gnita sea 1 utilizando coeficientes de dicha oinc´gnita en otras ecuaciones primos entre s´ o ı. Recapitulando, el m´todo de Gauss es una combinaci´n ordenada de los m´todos de eliminaci´n y e o e osustituci´n y garantiza nuestra capacidad de decisi´n sobre el car´cter de un sistema porque consiste o o aen la reali-zaci´n de sucesivas etapas con las ecuaciones del sistema de manera que se van formando osubsistemas de una ecuaci´n menos y una inc´gnita menos (como m´ o o ınimo) hasta llegar a un sistemade una s´la ecuaci´n, cuyo car´cter hemos visto que sabemos decidir. (El car´cter sistem´tico del o o a a am´todo de Gauss lo hace preferible a la hora de ejecutarlo por ordenador). e Entonces, si la ultima ecuaci´n es incompatible, el sistema es incompatible. ´ o Si la ultima ecuaci´n es compatible, se ve f´cilmente si ´sta es determinada o indeterminada. Si es ´ o a eindeterminada, el sistema es indeterminado. Si es compatible determinada, despejando la inc´gnita oen la ultima ecuaci´n conseguida y sustituyendo regresivamente en las anteriores, obtenemos otro ´ osistema equivalente con una inc´gnita menos y al menos una ecuaci´n menos, en el cual el car´cter de o o ala ultima ecuaci´n nos dir´ que el sistema es indeterminado si esta ecuaci´n fuera indeterminada; pero ´ o ıa osi dicha ecuaci´n es determinada, para ver el car´cter del sistema tenemos que repetir el procedimiento o ade sustituci´n regresiva y seguir as´ hasta que quede alguna ecuaci´n indeterminada en cuyo caso el o ı osistema ser´ indeterminado o que todas las ecuaciones hayan resultado determinadas en cuyo caso ael sistema es determinado y hemos ido obteniendo sus soluciones. Si el sistema es indeterminado,podemos despejar en las ecuaciones indeterminadas la primera inc´gnita que aparezca en ellas con ocoeficiente distinto de cero, en funci´n de las siguientes y sustituyendo regresivamente obtener un osubconjunto de inc´gnitas despejado en funci´n de otro subconjunto de inc´gnitas que pueden variar o o olibremente. 54
  • 55. La formaci´n de subsistemas de al menos una inc´gnita menos y al menos una ecuaci´n menos o o opuede hacerse con las siguientes etapas: 1) Pasar a primer lugar una ecuaci´n que tenga coeficiente distinto de cero de la primera inc´gnita. o o 2) Sumar a las restantes ecuaciones la primera multiplicada adecuadamente para que el coeficientede la primera inc´gnita en ellas salga cero. o 3) Considerar las ecuaciones excepto la primera como un subsistema que no tiene la primerainc´gnita y repetir las etapas 1) y 2) anteriores para la siguiente inc´gnita que no tiene coeficiente o onulo en todas las ecuaciones. Si todas las ecuaciones tuvieran coeficientes nulos de las inc´gnitas opero quedara alguna con t´rmino independiente distinto de cero (el sistema ser´ incompatible) se e ıareducen todas las ecuaciones incompatibles a una sola por etapas an´logas a la 2) anterior para los at´rminos independientes. e 4) Para resolver el sistema (en el caso en que sea compatible) se despeja la inc´gnita que aparezca ocon coeficiente distinto de cero en primer lugar en la ultima ecuaci´n, (si esta ultima ecuaci´n tiene ´ o ´ ovarias inc´gnitas, en funci´n de las restantes) y se sustituye en las dem´s ecuaciones con lo que se o o areduce en uno el n´mero de ecuaciones del sistema obtenido y se repite el proceso hasta agotar las uecuaciones. Al final, tendremos los valores de las inc´gnitas si el sistema es compatible determinado oo un subconjunto de inc´gnitas despejado en funci´n de las otras, que ser´n independientes y podr´n o o a atomar cualquier valor si el sistema es compatible indeterminado. Desmenuzando el tipo de operaciones que hacemos, las etapas 1), 2) y 3) del m´todo de Gauss ese hacen realizando en las ecuaciones de un sistema lo que llamamos Operaciones Elementales en un sistema: 1) Intercambio de las ecuaciones. 2) Suma de una ecuaci´n multiplicada por un n´mero a otra ecuaci´n distinta. o u o 3) Multiplicaci´n de una ecuaci´n por una constante distinta de cero. (Para despejar las inc´gnitas). o o o Estas operaciones son suficientes para su resoluci´n. Cualquier operaci´n elemental en un sistema o olo transforma en otro equivalente. 55
  • 56. Ejercicios: 3.1.1. Utilizar el m´todo de Gauss para determinar el car´cter de e a cada uno de los sistemasenunciados a continuaci´n y resolver los que sean compatibles: o   x1 +x2 +x3 = 6  x1 −x2 +x3 −2 = 0  a) x1 +2x2 +3x3 = 14 b) 2x1 +x2 −x3 −1 = 0 2x1 −x2 −x3 = −3 −x1 +2x2 +3x3 +3 = 0    x1 +x2 +x3 +x4 = 0    x1 +x2 +x3 +x4 = −1  x1 +2x2 +x3 +2x4 = 0  c) d) x1 +2x2 +x3 +2x4 = −1 −x1 −2x2 +x3 +2x4 = 0  −x1 −2x2 −x3 −2x4 = 1   3x1 +x2 +2x3 −x4 = 0    x1 +x2 +x3 +x4 = 0 x1 +x2 −x3 = 1    x1 −x2 +2x3 −2x4 = 1    −x1 +x2 +x3 = 1   e) f ) −x1 −x2 −x3 +2x4 = −6 2x1 −x2 +x3 = 2  2x1 +x2 +2x3 +x4 = 0    5x1 +2x2 −x3 = 5    −2x1 −3x2 +3x3 −x4 = −9  3.1.2. Hallar los valores de los par´metros α, β y γ para que se verifique A · At = I siendo A la amatriz:   7 −4 α A = 1/9  −4 β −8  −γ −8 1 3.1.3. Hallar e y f en la matriz 1 e 4 −1 f 8 para que exista una matriz A de tama˜o 2 × 2 que multiplicada a la izquierda por n 3 2 0 1 e 4 de −2 1 4 −1 f 8 Sol 3.1.1: a) x1 = 1, x2 = 2, x3 = 3; b) x1 = 1, x2 = −1, x3 = 0; c) x1 = 2x4 = 2k, x2 = −x4 =−k, x3 = −2x4 = −2k, x4 = k; d) x1 = −1 − x3 = −1 − α, x2 = −x4 = −β, x3 = α, x4 = β; e)incompatible ; f) x1 = 1, x2 = 2, x3 = −1, x4 = −2; Sol. 3.1.2: α = −4, β = 1, γ = 4. Sol. 3.1.3: e = 3, f = 4. 56
  • 57. Operaciones elementales en una matriz. Lo que importa al resolver un sistema son los coeficientes de las inc´gnitas y los t´rminos inde- o ependientes. Ellos foman la matriz de los coeficientes y la matriz ampliada del sistema. Un sistema sepuede escribir en forma matricial: AX=b donde A es la matriz de los coeficientes de las inc´gnitas, oX es la columna de las inc´gnitas y b es la columna formada por los t´rminos independientes. o e Los ejemplos 2), 3), 4), 5) dados anteriormente ser´ıan:          x1   0 6 12 x1 18 1 3 −1 1  1 x   8 6 0   x2  =  5   −2 1 3 0  2  =  7   x3  1 −1 1 x3 0 0 1 0 −1 0 x4      x1     x1    1 3 −1 1  1 1 3 −1 1  1   x2  =  7    x2  =  7     −2 1 9 0   −2 1 2 0  x3  x3  0 1 1 −1 0 0 1 0 −1 0 x4 x4 Llamamos matriz ampliada del sistema a la matriz A|b. Las matrices A y A|b van evolucionando,al irse realizando las operaciones elementales en el sistema, cuando se usa el m´todo de Gauss. e Las transformaciones que tienen lugar en la matriz de un sistema cuando se realizan operacioneselementales en ´l, se llaman operaciones elementales en la matriz. Se obtienen as´ tres tipos de e ıoperaciones elementales en matrices que corresponden a los tres tipos de operaciones elementales enel sistema. Llamamos Operaciones Elementales en una matriz a: 1) Intercambio de las filas de la matriz. 2) Suma de una fila de la matriz multiplicada por un n´mero a otra fila de la matriz. u 3) Multiplicaci´n de una fila por una constante distinta de cero. o La evoluci´n de las matrices en los ejemplos 2), 3), 4), 5) y 6) ha sido: o 57
  • 58. 2)       0 6 12 18 1 −1 1 0 1 −1 1 0  8 6 0 5 → 8 6 0 5  →  0 14 −8 5 → 1 −1 1 0 0 6 12 18 0 6 12 18       1 −1 1 0 1 −1 1 0 1 −1 1 0  0 14 −8 5 → 0 1 2 3 → 0 1 2 3 . 0 1 2 3 0 14 −8 5 0 0 −36 −373)     1 3 −1 1 1 1 3 −1 1 1  −2 1 3 0 7 → 0 7 1 2 9 → 0 1 0 −1 0 0 1 0 −1 0     1 3 −1 1 1 1 3 −1 1 1  0 1 0 −1 0 → 0 1 0 −1 0  0 7 1 2 9 0 0 1 9 94)     1 3 −1 1 1 1 3 −1 1 1  −2 1 9 0 7 → 0 7 7 2 9 → 0 1 1 −1 0 0 1 1 −1 0     1 3 −1 1 1 1 3 −1 1 1  0 1 1 −1 0 → 0 1 1 −1 0  0 7 7 2 9 0 0 0 9 95)     1 3 −1 1 1 1 3 −1 1 1  −2 1 2 0 7 → 0 7 0 2 9 → 0 1 0 −1 0 0 1 0 −1 0     1 3 −1 1 1 1 3 −1 1 1  0 1 0 −1 0 → 0 1 0 −1 0  0 7 0 2 9 0 0 0 9 9 58
  • 59. 6)     1 3 −1 1 1 1 3 −1 1 1  −2 1 2 −9 7 → 0 7 0 −7 9 → 0 1 0 −1 0 0 1 0 −1 0     1 3 −1 1 1 1 3 −1 1 1  0 1 0 −1 0 → 0 1 0 −1 0  0 7 0 −7 9 0 0 0 0 9 La observaci´n de las matrices de un sistema en las distintas etapas de su resoluci´n nos indica o oque vamos escalonando la matriz de coeficientes del sistema dado, fila a fila, por medio de lasoperaciones elementales y cuando tanto la matriz de coeficientes del sistema como la matriz ampliadason escalonadas, podemos decidir si el sistema es incompatible o compatible. En ese momento, el sistema es incompatible si y s´lo si la ultima ecuaci´n es incompatible, o ´ olo cual se traduce en que la matriz escalonada del sistema tiene un escal´n menos que la matriz oescalonada ampliada del sistema (v´ase el ultimo ejemplo). Si la ultima ecuaci´n es compatible, e ´ ´ oen cuyo caso las dos matrices escalonadas mencionadas tienen el mismo n´mero de escalones, el usistema es compatible indeterminado cuando queda indeterminada alguna de las ecuaciones al irsustituyendo, regresivamente en las ecuaciones anteriores, los valores de las inc´gnitas determinadas. oSe observa que queda alguna ecuaci´n indeterminada si y s´lo si alguno de los escalones de la matriz o odel sistema tiene longitud superior a una columna (v´anse los ejemplos 3, 4 y 5); habiendo entonces ealguna ecuaci´n indeterminada con m´s de una inc´gnita donde se pueden pasar al segundo miembro o a olas inc´gnitas correspondientes a las columnas que no dan escal´n y despejar las otras en funci´n o o ode ellas, lo que da la indeterminaci´n. El sistema es determinado si todas las ecuaciones quedan odeterminadas, lo cual s´lo ocurre cuando todos los escalones son de una columna (v´anse el ejemplo o e2). Vemos que en el proceso de resoluci´n de sistemas, podemos decidir el car´cter del sistema inicial o asin resolverlo totalmente y por ello enunciamos la versi´n del Teorema de Rouch´-Frobenius o epara matrices escalonadas: un sistema es incompatible cuando la matriz escalonada a la quehemos reducido la matriz ampliada del sistema tiene un escal´n m´s que la matriz escalonada a la o aque ha quedado reducida la matriz de los coeficientes del sistema; en otro caso es compatible, siendocompatible determinado si todos los escalones de la matriz escalonada del sistema tienen longituduna columna y compatible indeterminado si hay alg´n escal´n de longitud superior a una columna. u o Cuando la columna b es nula el sistema se llama homog´neo. Entonces, esta columna no a˜ade e nning´n escal´n, a pesar de las operaciones elementales, por lo que en estos sistemas las matrices u o 59
  • 60. escalonadas provenientes de la matriz de los coeficientes y de la matriz ampliada tienen siempre elmismo n´mero de escalones. Concluimos que los sistemas homog´neos son siempre compatibles. u e Ejercicios: 3.2.1. Haciendo operaciones elementales en la matriz ampliada del sistema y aplicando el Teoremade Rouch´-Frobenius, decidir el car´cter de los siguientes sistemas de ecuaciones lineales: e a   x1 +2x2 −x3 = 1  x1 +2x2 −x3 = 1  x2 +x3 = 2 x2 +x3 = 2 x1 +3x2 = 3 x1 +3x2 = 4     2x1 +x2 = 5  x1 −3x2 +x3 +x4 = 2  x1 −x2 = 1 3x1 −8x2 +2x3 +x4 = 2 x1 +2x2 = 4 2x1 −5x2 +x3 = 3   3.2.2. Hallar todas las matrices cuadradas de orden 2 que conmutan con la matriz 1 2 3 4 3.2.3. Considerar los sistemas:   x1 +2x2 −x3 = c  x1 +x2 −x3 = 1  a) x1 +x2 +2x3 = 2 b) 2x1 +cx2 +x3 = d −2x1 +3x2 +bx3 = −4 5x1 +5x2 −x3 = e   i). Encontrar los valores de b para los que el sistema a) tiene soluci´n, cualquiera que sea c. o ii). Existe un valor de b para el que el sistema a) no tiene siempre soluci´n, sino s´lo para un o ovalor de c. ¿C´ales son estos valores de b y de c? u iii). Encontrar las condiciones que han de cumplir c, d y e para que el sistema b) tenga soluci´n. o 3.2.4. a) Hallar y para que exista una matriz X2×2 tal que 1 2 1 2 0 y X − X= . 3 4 3 4 −3 0 b) Hallar la forma general de todas las matrices X que verifican la igualdad anterior con el valorhallado de y. 60
  • 61. 3.2.5. Dado el sistema      1 a 1 x b  a 0 1 − a  y  =  0 , 1 1−a 1 z 0Encontrar los valores de a y b para los que el sistema es: a) compatible determinado. b) incompatible. c) compatible indeterminado. 3.2.6. Considerar el sistema de ecuaciones siguiente:  x+y+z =1  x + y + az = 2 x + y + bz = 3  a) ¿Existen valores de a, b para los que el sistema es compatible determinado? b) ¿Para qu´ valores de a, b, el sistema es incompatible? e 3.2.7. Consideremos el sistema de ecuaciones lineales:  x −y +2z = 2   x +y −z = 1  2x +az = c   3x +y +bz = 4  a) Hallar las condiciones que tienen que cumplir los valores de a, b, c para que el sistema seacompatible indeterminado. b) Hallar las condiciones que tienen que cumplir los valores de a, b, c para que el sistema seacompatible determinado. 3.2.8. Dado el sistema de ecuaciones lineales:  x +2y −2z +2t = 4   −3y +z +t = 1  x +5y −3z +t = m   −x +y +z +mt = 1  a) Mostrar que si el sistema tiene soluci´n, ´sta no es unica. o e ´ b) Encontrar los valores de m para que exista soluci´n. o 61
  • 62. 3.2.9. Consideremos el sistema de ecuaciones lineales:  x +y +(1 + m)z = 4 − m  (1 − m)x −y +2z = −2 2x +my +3z =2−m dependiente de m. Hallar razonadamente: a) Para qu´ valores de m el sistema es compatible determinado. e b) Para qu´ valores de m el sistema es compatible. e c) Para qu´ valores de m el sistema es incompatible. e Sol. 3.2.3ii).: b = −19, c = 2. Sol. 3.2.4 a).: y = 2. 62
  • 63. Reducci´n de Gauss-Jordan. o Una vez decidido el car´cter del sistema, hemos visto que si es compatible, la sustituci´n re- a ogresiva de las inc´gnitas que son determinadas o se pueden despejar en funci´n de otras, da las o osoluciones del sistema. Mirando de nuevo las matrices de los sistemas que van quedando al sustituir,vemos que van evolucionando de manera que se van haciendo 1 los elementos de las esquinas de losescalones (llamados pivotes), y se hacen cero los elementos sobre estos pivotes. Lo podemos hacertodo matricialmente hasta el final y entonces se dice que se resuelve el sistema por la Reducci´n ode Gauss-Jordan Ve´moslo en el ejemplo 4) (p´gs. 53 y 58): Una vez conseguido el sistema en la forma escalonada, a adespejar x4 es pasar del ultimo sistema ´    x1 +3x2 −x3 +x4 = 1  1 3 −1 1 1 x2 +x3 −x4 = 0 de matriz  0 1 1 −1 0  9x4 = 9 0 0 0 9 9  al sistema    x1 +3x2 −x3 +x4 = 1  1 3 −1 1 1 x2 +x3 −x4 = 0 de matriz  0 1 1 −1 0  x4 = 1 0 0 0 1 1 obtenidos dividiendo la ultima fila por 9. ´ Sustituir x4 en las ecuaciones anteriores es pasar al sistema:  x1 +3x2 −x3 =0  x2 +x3 =1 x4 = 1 de matriz     1 3 −1 0 0 1 3 −1 1 1  0 1 1 0 1  obtenida de  0 1 1 −1 0  0 0 0 1 1 0 0 0 1 1restando la tercera fila a la primera y sumando la tercera fila a la segunda. Como sustituir en las ecuaciones anteriores es pasar a un sistema donde no aparece la inc´gnita ox4 , es decir, donde los coeficientes de x4 son nulos en todas las ecuaciones excepto en la ultima, en la ´matriz escalonada ampliada, del ultimo sistema, los n´meros de la columna de x4 , excepto el ultimo, ´ u ´son ceros. 63
  • 64. Despejar x2 y sustituirla en la primera ecuaci´n es pasar a otro sistema donde s´lo aparece x2 o oen la segunda ecuaci´n. Este sistema tiene una matriz escalonada ampliada que tiene ceros en la ocolumna de x2 encima del 1 correspondiente a x2 en la segunda ecuaci´n: o Ahora hemos pasado al sistema:  x1 −4x3 = −3  x2 +x3 = 1 x4 = 1 de matriz     1 0 −4 0 −3 1 3 −1 0 0  0 1 1 0 1  obtenida de  0 1 1 0 1  0 0 0 1 1 0 0 0 1 1restando la segunda fila multiplicada por 3 de la primera fila. Como la columna de x3 no da escal´n, se puede pasar al segundo miembro, y es indeterminada oporque puede tomar cualquier valor; si x3 = k, se tienen las soluciones:        x1 = 4k −3   x1 4 −3 x2 = −k +1 x   −1   1    ≡  2  = k  1  +  0 .    x3 = k   x3   x4 = 1 x4 0 1  El procedimiento descrito, realizado en las matrices, desde el principio al final, en las matrices A yA|b es la Reducci´n de Gauss-Jordan para resolver el sistema AX=b: consiste en escribir la omatriz ampliada del sistema, y reducirla a forma escalonada mediante operaciones elementales. En elcaso en que sea compatible, hacer 1 todos los pivotes y anular los elementos por encima de los pivotescon m´s operaciones elementales. Luego rellenamos las inc´gnitas en las columnas correspondientes a oy tenemos en el caso compatible determinado, los valores de las inc´gnitas; en el caso compatible oindeterminado pasamos al segundo miembro las inc´gnitas cuyas columnas no dan escal´n y las o osustituimos por par´metros variables. a Veamos ahora un ejemplo resuelto con la reducci´n de Gauss-Jordan desde el principio. o 7)  x1 +2x2 +x3 +2x4 +x5 +3x6 = 0   2x1 +5x2 +x3 +2x4 +4x5 +7x6 = 2  −2x1 −3x2 −3x3 −x4 +20x5 +14x6 = 21   x1 +x2 +2x3 +6x4 +7x5 +10x6 = 8  64
  • 65. equivalente a     x1   1 2 1 2 1 3   x2   0  2 5 1 2 4 7  x3   2    =   −2 −3 −3 −1 20 14   x4   21    1 1 2 6 7 10  x5  8 x6 La reducci´n de Gauss-Jordan de las matrices del sistema y ampliada da: o     1 2 1 2 1 3 0 1 2 1 2 1 3 0  2  5 1 2 4 7 → 0 2   1 −1 −2 2 1 2  →  −2 −3 −3 −1 20 14 21   0 1 −1 3 22 20 21  1 1 2 6 7 10 8 0 −1 1 4 6 7 8     1 2 1 2 1 3 0 1 2 1 2 1 3 0  0 1 −1 −2 2 1 2    0 1 −1 −2 2 1 2   → →  0 0 0 5 20 19 19   0 0 0 1 4 3 −1  0 0 0 2 8 8 10 0 0 0 2 8 8 10     1 2 1 2 1 3 0 1 2 1 2 1 3 0  0 1 −1 −2 2 1 2  →  0 1 −1 −2 2 1 2    →  0 0 0 1 4 3 −1   0 0 0 1 4 3 −1  0 0 0 0 0 2 12 0 0 0 0 0 1 6     1 2 1 2 1 0 −18 1 2 1 0 −7 0 20  0 1 −1 −2 2 0 −4   →  0 1 −1 0 10 0 −42  →     0 0 0 1 4 0 −19   0 0 0 1 4 0 −19  0 0 0 0 0 1 6 0 0 0 0 0 1 6   1 0 3 0 −27 0 104  0 1 −1 0 10 0 −42     0 0 0 1 4 0 −19  0 0 0 0 0 1 6 Rellenando ahora las inc´gnitas: o   x1 +3x3 −27x5 = 104   x1 = 104 −3x3 +27x5   x2 −x3 +10x5 = −42 x2 = −42 +x3 −10x5   ≡ x4 +4x5 = −19   x4 = −19 −4x5   x6 = 6 x6 = 6   65
  • 66. donde hemos pasado al segundo miembro las inc´gnitas que no dan escal´n. o o Las soluciones del sistema est´n constituidas por los (x1 , x2 , x3 , x4 , x5 , x6 ), tales que: a         x1 = 104 −3x3 +27x5 x1 104 −3 27 x2 = −42 +x3 −10x5  x2   −42       1     −10    x3 = x3  x3   0    1   0  ≡  = + x3    + x5   x4 = −19 −4x5  x4   −19      0    −4    x5 = x5  x5   0   0   1  x6 = 6 x6 6 0 0         x1 104 −3 27   x2     −42     1     −10    x3   0   1   0  ≡ =  + λ1   + λ2     x4     −19     0     −4    x5   0   0   1  x6 6 0 0donde λ1 y λ2 varian arbitraria e independientemente. Ejercicios: 3.3.1. Resolver utilizando la reducci´n de Gauss-Jordan los siguientes sistemas de ecuaciones olineales.   2y −z +t = 6  x +2y −z = −3   x −4y +z −2t = −9  a) 3x +7y +2z = 1 b) 2x −7y −2z +t = 10  4x −2y +z = −2   3y −4t = −16   x −y +z −t = 0  2x −2y −z +t = 3  c) −x +y +2z −2t = −3   −2x +2y +3z −t = 8  Si tenemos varios sistemas con la misma matriz de coeficientes, podemos resolverlostodos a la vez, ampliando la matriz del sistema con las columnas de los t´rminos indepen- edientes de los sistemas dados y haciendo en esta matriz m´s ampliada, las operaciones aelementales que escalonen la matriz de los coeficientes. 66
  • 67. 3.3.2. Resolver de manera simult´nea por el m´todo de Gauss-Jordan los siguientes sistemas de a eecuaciones:    z −2t = 0   z −2t = −1   z −2t = −2   3x −6y +2z = −3 3x −6y +2z = 2 3x −6y +2z = −6    x −2y +z −t = −1  x −2y +z −t =  0  x −2y +z −t = −3    2x −3y +3t = −1 2x −3y +3t = 3 2x −3y +3t = 0    Sol. 3.3.1: a) x = −1, y = 0, z = 2 b) x = 1, y = 0, z = −2, t = 4 c) (x, y, z, t) =(1, 0, 11/2, 13/2) + λ(1, 1, 0, 0) Sol. 3.3.2: x1 = 1, y1 = 1, z1 = 0, t1 = 0; x2 = 0, y2 = 0, z2 = 1, t2 = 1; x3 = 0, y3 = 1, z3 =0, t3 = 1. La reducci´n de Gauss-Jordan vale tambi´n para una ecuaci´n matricial AX = B donde X es una o e omatriz de n filas y m columnas y B es una matriz de m columnas y el mismo n´mero de filas de A. uLlamando Xi a la columna i-´sima de X y Bi a la columna i-´sima en B, la ecuaci´n matricial dada e e oes equivalente al conjunto de sistemas AXi = Bi , i ∈ {1, ..., m}. Los sistemas matriciales puedenser incompatibles o compatibles y en este caso, determinados o indeterminados. Se puede ver si soncompatibles escalonando la matriz ampliada A|B, y si son compatibles, resolverlos simult´neamente ahaciendo la reducci´n de Gauss-Jordan en dicha matriz ampliada A|B. o Cuando B=I, la soluci´n de la ecuaci´n AX=I se llama inversa a la derecha de A. Puede no existir o oy si A no es cuadrada puede no ser unica . ´ Si A es una matriz cuadrada, la igualdad AX = I ”s´ implica XA = I. Cuando se estudie la ı”teor´ que viene a continuaci´n, usada para demostrar el teorema de caracterizaci´n de las matrices ıa o oinvertibles, se puede demostrar esa implicaci´n utilizando la proposici´n 3’, la expresi´n final de A o o oen la proposici´n 4 y la unicidad de la inversa. Se propone construir todo el razonamiento en el oejercicio 3.5.4. Ejercicio: 3.3.3. Demostrar que 1) Si una matriz A tiene inversa a la izquierda, la inversa a la derecha, de existir, es unica. ´ 2) Si una matriz A tiene inversa a la derecha, la inversa a la izquierda, de existir, es unica. ´ 3) Si una matriz A tiene inversa a la derecha e inversa a la izquierda, ambas coinciden. 67
  • 68. Matrices Invertibles. Nos interesa caracterizar las matrices A tales que los sistemas que se plantean con ellas tienensoluci´n y ´sta es unica, es decir que todos los sistemas que se plantean como Ax = b son compatibles o e ´determinados. Estas matrices A son aquellas para las que existe otra matriz B tal que AB = I = BA.Ve´moslo: a Si existe B tal que BA=I, dado un sistema de la forma AX = b, multiplic´ndolo a la izquierda apor B, obtenemos que la soluci´n, de existir, ha de ser X = Bb; para que efectivamente, ´sta sea la o esoluci´n hay que comprobar que ABb = b, lo cual se cumple si la matriz B verifica AB=I, es decir, osi B es tambi´n inversa a la derecha de A. siendo esto cierto cualquiera que sea b. e En un ejercicio anterior se prob´ que si A tiene inversa a la izquierda y inversa a la derecha, oambas coinciden y son unicas. Esta unicidad es necesaria para que todos los sistemas AX=b tengan ´soluci´n, porque con matrices A que tuvieran dos inversas a la izquierda distintas, B y B podr´ o ıaexistir alg´n b para el que las condiciones necesarias x = B b y x = B b, fueran incompatibles entre us´ Por otra parte, para que la condici´n necesaria x = Bb sea suficiente cualquiera que sea b, ha de ı. oser ABb = b para todo b, para lo cual es necesario que AB = I. Se llaman invertibles las matrices A tales que existe una matriz B tal que BA = I = AB.Entonces, se llama a B, inversa de A. Una matriz A invertible no puede tener ninguna columna ni ninguna fila de ceros, porque en estoscasos, se tendr´ cualquiera que fuera la matriz X, en XA una columna de ceros o en AX una fila ıa,de ceros, no obteni´ndose nunca la identidad. Queremos ver que adem´s ha de ser cuadrada. e a Observemos que una inversa a la derecha X de una matriz A, es una soluci´n de la ecuaci´n o oAX = I y que una matriz A con la primera columna no nula y con m´s columnas que filas, al aescalonarla da el primer escal´n en la primera columna y por ello, alg´n escal´n con m´s de una o u o acolumna, por lo que el sistema AX = I, de tener soluci´n, no tiene soluci´n unica. Si no tiene o o ´soluci´n, la matriz no es invertible y si existen varias soluciones, como estas soluciones ser´ distintas o ıaninversas a la derecha de A, seg´n el problema 3.3.3 no existe inversa a la izquierda. Concluimos que uuna matriz con m´s columnas que filas no es invertible. a Tambi´n se puede concluir que una matriz con m´s filas que columnas no es invertible, porque e asi lo fuera, su traspuesta, que tiene m´s columnas que filas ser´ invertible, en contra de lo anterior. a ıa t t t t t t(Si AB = I = BA, B A = (AB) = I y A B = (BA) = I). Entonces, una matriz invertible, adem´s de no tener ninguna fila ni ninguna columna nula, ha de aser cuadrada. En los ejercicios 3.5.6-3.5.10 de la secci´n siguiente, se establece otro camino distinto del visto oahora para demostrar que las matrices invertibles han de ser cuadradas. 68
  • 69. Caracterizaci´n de las matrices invertibles. o Observando lo que pasa en las matrices cuando aplicamos el m´todo de Gauss a un sistema, epodemos deducir propiedades de las matrices que nos dan tambi´n el m´todo de Gauss para hallar e ela inversa de una matriz. Y al mismo tiempo, podemos demostrar un teorema que caracteriza a lasmatrices invertibles como producto de ciertas matrices llamadas elementales. Las operaciones elementales en una matriz (p´g. 57) se pueden expresar en forma matem´tica a acomo el resultado de multiplicar por la izquierda por las matrices llamadas Matrices Elementales: Son las matrices obtenidas de las matrices identidad por operaciones ele-mentales. (Diremos que son de tres tipos seg´n el tipo de operaci´n elemental realizado). u o Se puede comprobar f´cilmente, caso por caso, que al multiplicar a la izquierda una matriz aelemental por otra matriz se produce en esta ultima la operaci´n elemental realizada en la matriz I ´ opara obtener la matriz elemental considerada. Tambi´n, hagamos las siguientes consideraciones: e a) Si hacemos sucesivamente dos intercambios de las mismas filas de la matriz identidad, la matrizqueda invariante. Esto quiere decir que el producto de una matriz elemental del primer tipo por ellamisma es la identidad. Por tanto, las matrices elementales correspondientes (del primer tipo) soninvertibles y coinciden con su inversa. b) Si sumamos a una fila de la identidad otra fila multiplicada por un n´mero y luego le sumamos ula misma fila multiplicada por el n´mero opuesto obtenemos la identidad. Esto quiere decir tambi´n u eque las dos matrices elementales correspondientes (del segundo tipo) son inversas una de otra, siendosus inversas del mismo tipo. c) Si primero multiplicamos una fila de la matriz identidad por un n´mero distinto de cero y uluego la multiplicamos por el inverso de dicho n´mero, queda igual. Esto quiere decir que el producto ude las dos matrices elementales correspondientes es la identidad. Por tanto, tambi´n las matrices eelementales del tercer tipo son invertibles y sus inversas son del mismo tipo. Se deduce de estas consideraciones que las matrices elementales son invertibles y que sus inversasson tambi´n matrices elementales. e Nuestro teorema sobre matrices invertibles es: 69
  • 70. TEOREMA 1: Una matriz cuadrada es invertible si y s´lo si es producto de matrices oelementales. Ya que las matrices elementales son invertibles, la demostraci´n de que toda matriz producto de omatrices elementales es invertible es una f´cil consecuencia de la siguiente proposici´n: a o Proposici´n 1: El producto de matrices invertibles es invertible. o Sean A1 , A2 , ..., Am , matrices cuyas inversas respectivas son B1 , B2 , ..., Bm , se puede comprobarque la matriz producto A = A1 · A2 · ... · Am tiene como inversa B = Bm ... · B2 · B1 . En efecto, por la propiedad asociativa, en el producto AB = A1 · A2 · ... · Am Bm ... · B2 · B1empezando por i=m podemos ir simplificando las Ai con las Bi correspondientes y llegar a la iden-tidad. Lo mismo podemos hacer, empezando por i=1, en el producto BA = Bm ... · B2 · B1 A1 · A2 · ... · Am . Para demostrar el teorema tenemos que demostrar tambi´n que toda matriz invertible es producto ede matrices elementales. Para ello vamos a usar las proposiciones 2, 3 y 4 siguientes: Proposici´n 2: Toda matriz puede reducirse a una matriz escalonada multiplic´ndola adecuada- o amente a la izquierda por matrices elementales. Su demostraci´n se deduce de la observaci´n de la evoluci´n de la matriz del sistema en el o o oprocedimiento seguido en el m´todo de Gauss. Se ve en ese procedimiento que toda matriz se epuede reducir a una matriz escalonada haciendo operaciones elementales en sus filas, olo que es lo mismo, que dada una matriz, multiplicando a la izquierda, sucesivamente, por matriceselementales se puede llegar a una matriz escalonada. Por tanto, dada la matriz A, existen matrices elementales: E1 , E2 , ..., Ek , tales que Ek · Ek−1 · ...E1 A = Edonde E es una matriz escalonada. Conviene comprobarlo en el siguiente Ejercicio: 70
  • 71. 3.4.1. Encontrar una sucesi´n de matrices elementales E1 , · · · , Ek tal que Ek · · · E1 A = E donde oA es una de las matrices dadas a continuaci´n y E es una matriz escalonada: o         1 3 0 2 4 0 −1 1 −2 1 1 2 3 4 a)  −1 0  b) c)  1 1 3  d)  1 0 −1  e)  3 −2 1  3 1 2 2 1 3 3 7 2 −1 −1 1 −1 1           0 −1 −1 0 −1 −1 0 −1 −1 0 −1 −1 0 2 4f)  1 0 −1  g)  1 1 0  h)  1 1 1  i)  1 0 −1  j)  1 0 −1  2 −1 −3 2 −1 −3 2 −1 −1 2 −1 −1 1 −2 −3 Para la mejor comprensi´n de las demostraciones de las proposiciones siguientes se proponen los oejercicios: 3.4.2. Comprobar que una vez obtenida la matriz escalonada en los casos c), e), i) y j) anteriorespodemos llegar desde la matriz escalonada a la matriz identidad haciendo m´s operaciones elemen- atales, por el mismo procedimiento usado para despejar las inc´gnitas en la reducci´n de Gauss-Jordan. o o 3.4.3. Comprobar que una vez obtenida la matriz escalonada en los casos d), f), g) y h) anteri-ores no podemos llegar desde la matriz escalonada a la matriz identidad haciendo m´s operaciones aelementales, por el mismo procedimiento usado para despejar las inc´gnitas en la reducci´n de Gauss- o oJordan. Antes de pasar a la demostraci´n completa del teorema, vamos a ver un ejemplo en el que se llega odesde una matriz a la identidad por transformaciones elementales, lo cual equivale a multiplicar lamatriz por matrices elementales y esto pone de manifiesto que la matriz dada es producto de matriceselementales y  tanto invertible: por  0 2 4 La matriz  1 1 3 pasa, multiplic´ndola a la izquierda por las matrices elementales: a 3 4 7         0 1 0 1 0 0 1 0 0 1 0 0  1 0 0 ,  0 1 0 ,  0 1 0 ,  0 1 0  2 0 0 1 −3 0 1 0 0 1 0 −1 1sucesivamente, a las matrices         1 1 3 1 1 3 1 1 3 1 1 3  0 2 4 ,  0 2 4 ,  0 1 2 ,  0 1 2 . 3 4 7 0 1 −2 0 1 −2 0 0 −4 71
  • 72. Como esta ultima tiene todos los escalones de longitud una columna, siendo por tanto, los elementos ´de la diagonal principal distintos de cero, podemos conseguir que estos elementos sean unos, divi-diendo adecuadamente las filas, lo que aqu´ se reduce a dividir la ultima fila por −4, es decir, a ı ´multiplicar ahora a la izquierda por la matriz   1 0 0  0 1 0  0 0 −14habiendo llegado a   1 1 3  0 1 2 . 0 0 1 En esta matriz con 1 en todos los elementos de la diagonal y ceros en todos los sitios debajo de ladiagonal, podemos seguir haciendo operaciones elementales que anulen tambi´n los n´meros en los e usitios por encima de la diagonal, llegando as´ a la identidad. ı Efectivamente, multiplicando sucesivamente a la izquierda, por las matrices elementales:       1 0 0 1 0 −3 1 −1 0  0 1 −2  ,  0 1 0 ,  0 1 0  0 0 1 0 0 1 0 0 1obtenemos la identidad (compru´bese). e Hemos multiplicado, en total, por ocho matrices elementales, que designamos por E1 , E2 , E3 , E4 , E5 ,E6 , E7 , E8 , por orden de utilizaci´n. o Entonces: E8 · E7 · E6 · E5 · E4 · E3 · E2 · E1 · A = I. Como las matrices elementales tienen inversas, multiplicando a la izquierda por sus inversas demanera que se vayan simplificando dichas matrices, tenemos: −1 −1 −1 −1 −1 −1 −1 −1 A = E1 · E2 · E3 · E4 · E5 · E6 · E7 · E8 . Lo cual puede comprobarse teniendo en cuentaque         0 1 0 1 0 0 1 0 0 1 0 0 −1 −1 −1 −1 E 1 =  1 0 0  , E2 =  0 1 0  , E3 =  0 2 0  , E 4 =  0 1 0  0 0 1 3 0 1 0 0 1 0 1 1         1 0 0 1 0 0 1 0 3 1 1 0 −1 −1 −1 −1 E5 =  0 1 0  E6 =  0 1 2  , E7 =  0 1 0  , E8 =  0 1 0  0 0 4 0 0 1 0 0 1 0 0 1 72
  • 73. Como tambi´n las inversas de matrices elementales son elementales, hemos visto que del hecho ede tener la matriz escalonada obtenida de A todos los escalones de longitud una columna (y porello, todos los elementos de la diagonal distintos de cero), hemos llegado a la expresi´n de A como oproducto de matrices elementales. Como estas matrices son invertibles, de la proposici´n 1 se deduce oque A es invertible. Seguimos ahora con las siguientes etapas para la demostraci´n del teorema: o Proposici´n 3: Si una matriz A es invertible, la matriz escalonada E a la que se reduce, tiene otodos los escalones de longitud una columna, estando el primer escal´n en la primera fila y primera ocolumna. Demostraci´n: o Si A es invertible, A tiene que ser cuadrada y la existencia de una matriz B tal que BA=I implicaque la primera columna de A no es toda de ceros, porque entonces la primera columna del productoBA ser´ toda de ceros y no coincidir´ con la primera columna de I; por lo que se puede conseguir ıa ıa(si es necesario por un cambio de orden de las filas) que el elemento de la primera fila y primeracolumna sea distinto de cero, empezando por tanto los escalones en este lugar. Veamos que al seguirescalonando la matriz, la matriz escalonada E a la que se reduce A tiene todos los escalones delongitud una columna razonando por reducci´n al absurdo: Si tuviera alg´n escal´n con m´s de o u o auna columna, al ir recorriendo los pivotes y llegar al primero de tales escalones, nos desplazamos ala derecha por lo menos el espacio de dos columnas, sali´ndonos de la diagonal y por ello al seguir erecorriendo pivotes agotamos antes las columnas que las filas, quedando por tanto la ultima fila entera ´por debajo de la l´ınea de pivotes y estando por ello formada por ceros. Entonces, multiplicando porlas matrices elementales correspondientes tendr´ ıamos: E = Ek Ek−1 , ...E1 Adonde E es una matriz escalonada con la ultima fila toda de ceros. ´ Ahora bien, si A es invertible, existe B tal que AB=I. Entonces, EB = Ek Ek−1 ...E1 AB = Ek Ek−1 ...E1 I = Ek Ek−1 ...E1y por tanto, como las matrices elementales tienen inversa, −1 −1 −1 −1 EBE1 ...Ek = Ek Ek−1 ...E1 E1 ...Ek = I −1 −1Si la matriz E tuviera la ultima fila de ceros, la matriz EBE1 .....Em tendr´ tambi´n la ultima fila ´ ıa e ´de ceros por tenerla E y esto es una contradicci´n ya que I tiene un 1 en su ultima fila. Quedando o ´as´ demostrada la proposici´n 3. ı o 73
  • 74. Esta proposici´n es tambi´n cierta si se debilita la hip´tesis: o e o Proposici´n 3’: Si una matriz A cuadrada tiene inversa a la derecha, la matriz escalonada E a ola que se reduce, tiene todos los escalones de longitud una columna, estando el primer escal´n en la oprimera fila y primera columna. La demostraci´n se sigue de que de no ser as´ la matriz escalonada E tendr´ la ultima fila de o ı ıa ´ceros, pero esto no puede ocurrir si la matriz A tiene inversa a la derecha como se ha visto en lademostraci´n de la proposici´n 3. o o Proposici´n 4: Si al escalonar una matriz cuadrada A, todos los escalones son de una columna, oestando el escal´n de la primera fila en la primera columna, A es producto de matrices elementales. o Demostraci´n: Sea E la matriz escalonada a la que se reduce A. Como estamos suponiendo que oA es cuadrada y el tama˜o de la matriz queda invariante por las operaciones elementales, E tambi´n n eha de ser cuadrada. Tenemos un pivote en el sitio de la primera columna de la primera fila. Silos escalones de E son todos de una columna, al ir recorriendo los pivotes, vamos desplaz´ndonos a ala derecha el espacio de una columna al mismo tiempo que nos desplazamos hacia abajo el espaciode cada fila, recorriendo as´ la diagonal principal de E, que por tanto est´ formada por n´meros ı, a udistintos de cero. Dividiendo cada fila por el n´mero que est´ en la diagonal de esa fila, (lo cual es u ahacer operaciones elementales) podemos hacer todos los elementos de la diagonal iguales a 1. Y conestos 1, podemos seguir haciendo operaciones elementales para anular todos los elementos encima deellos, (seg´n la reducci´n de Gauss-Jordan), llegando entonces a la matriz identidad. u o Entonces, podemos afirmar que, en la hip´tesis de la proposici´n 4, adem´s de las matrices o o aelementales: E1 , E2 , ..., Ek , tales que Ek · Ek−1 ...E1 A = Edonde E es una matriz escalonada, existen matrices elementales Ek+1 , Ek+2 ...Em tales que Em Em−1 ...Ek+1 Ek ...E1 A = I Como las matrices elementales tienen inversa, multiplicando a la izquierda la igualdad anteriorpor las inversas de las matrices elementales, obtenemos −1 −1 −1 A = E1 ...Ek ...Em Y como las inversas de matrices elementales son matrices elementales, hemos llegado a unaexpresi´n de A como producto de matrices elementales. o 74
  • 75. Para terminar la demostraci´n del Teorema 1, es decir, para demostrar que toda matriz inver- otible es producto de matrices elementales, tenemos en cuenta, primero, que por la proposici´n 2, ouna matriz A siempre se puede escalonar, luego, que cuando A es invertible, seg´n la proposici´n 3, u ola matriz escalonada E, que se obtiene de A, tiene todos los escalones de una columna, estando elprimer escal´n de la primera fila en la primera columna. Entonces, la proposici´n 4 establece que la o omatriz A invertible es producto de matrices elementales. Por otra parte, enlazando la proposici´n 4 y la proposici´n 1, tenemos que si al escalonar una o omatriz cuadrada A, todos los escalones son de una columna, estando el escal´n de la primera fila en ola primera columna, A es invertible. Adem´s, la proposici´n 3 implica que si al escalonar una matriz cuadrada A, alg´n escal´n es de a o u om´s de una columna, A no es invertible, por lo que tambi´n es cierto el a e Teorema 2: Una matriz cuadrada A es invertible si y s´lo si al escalonar A, se obtiene una matriz oescalonada con todos los escalones de longitud una columna, estando el primer escal´n en la primera ocolumna. Ejercicios: 3.5.1. Decidir cu´les de las matrices del ejercicio 3.4.1 son invertibles mirando la matriz escalonada aa la que han sido reducidas. 3.5.2. Expresar las inversas de las matrices del ejercicio 3.4.1. que sean invertibles como productode matrices elementales. 3.5.3. Expresar las matrices del ejercicio 3.4.1 que sean invertibles como producto de matriceselementales. 3.5.4. Demostrar que toda matriz cuadrada con inversa a la derecha tiene inversa a la izquierda. 3.5.5. Demostrar que toda matriz cuadrada con inversa a la izquierda tiene inversa a la derecha. 3.5.6. Demostrar que si una matriz A con m´s filas que columnas se puede reducir por operaciones aelementales a la matriz:   In  0     .  .   . 0donde n es el n´mero de columnas de A, puede tener muchas inversas a la izquierda. u 3.5.7. Demostrar que dada una matriz con m´s filas que columnas, si tiene inversa a la izquierda, aesta no es unica. ´ 75
  • 76. 3.5.8. Demostrar que si una matriz tiene m´s de una inversa a la izquierda, no puede tener inversa aa la derecha. 3.5.9. Demostrar que una matriz con m´s filas que columnas no puede ser invertible. a 3.5.10. Demostrar que una matriz con m´s columnas que filas no puede ser invertible. a Deducir de los ejercicios anteriores que s´lo las matrices cuadradas pueden ser invertibles. o 76
  • 77. M´todo de Gauss para obtener la inversa de una matriz invertible: e Al repasar la demostraci´n de la proposici´n 4 nos podemos dar cuenta de que la matriz producto: o oEm ...Ek+1 Ek Ek−1 ...E1 es inversa a la izquierda de A y dada la expresi´n de A obtenida al final de o −1 −1la demostraci´n de dicha proposici´n,(A = E1 · · · Em ) podemos comprobar que ese producto es o otambi´n inversa a la derecha de A. Es decir, e A−1 = Em ...Ek+1 Ek Ek−1 ...E1 Como Em ...Ek+1 Ek Ek−1 ...E1 = Em ...Ek+1 Ek Ek−1 ...E1 I, la matriz A−1 se puede obtener haciendoen I las operaciones elementales correspondientes a las matrices elementales escritas, y estas opera-ciones son las mismas que hemos hecho en A para llegar a I. Por eso, para obtener la matriz inversade A colocamos la matriz I al lado de la matriz A en la forma (A| I) y hacemos en la matriz I lasmismas operaciones elementales que en la A. Cuando a la izquierda de la barra hayamos llegado ala matriz I, es que hemos multiplicado A por Em · · · E1 y lo mismo I, por lo que a la derecha de labarra habremos llegado a la matriz inversa de A. Ve´moslo con la matriz a   0 1 1 A= 1 0 1  1 1 0Escribimos:   0 1 1 1 0 0  1 0 1 0 1 0  1 1 0 0 0 1y ahora hacemos en la uni´n de las dos matrices, las transformaciones elementales que llevan la omatriz A a la identidad.       0 1 1 1 0 0 1 0 1 0 1 0 1 0 1 0 1 0  1 0 1 0 1 0 ∼ 0 1 1 1 0 0 ∼ 0 1 1 1 0 0 ∼ 1 1 0 0 0 1 1 1 0 0 0 1 0 1 −1 0 −1 1     1 0 1 0 1 0 1 0 1 0 1 0  0 1 1 1 0 0 ∼ 0 1 1 1 0 0 ∼ 0 0 −2 −1 −1 1 0 0 1 1/2 1/2 −1/2     1 0 1 0 1 0 1 0 0 −1/2 1/2 1/2  0 1 0 1/2 −1/2 1/2  ∼  0 1 0 1/2 −1/2 1/2  0 0 1 1/2 1/2 −1/2 0 0 1 1/2 1/2 −1/2 77
  • 78. Entonces:  −1   0 1 1 −1/2 1/2 1/2  1 0 1  =  1/2 −1/2 1/2  1 1 0 1/2 1/2 −1/2 Obs´rvese que la matriz obtenida para A−1 es tambi´n la matriz que habr´ e e ıamos obtenido comosoluci´n de la ecuaci´n matricial AX = I por el m´todo de Gauss-Jordan. Esta soluci´n X es una o o e oinversa a la derecha, y adem´s, al haber expresado esta X como producto de matrices elementales, aestamos seguros de que es inversa a la derecha y a la izquierda; y la unicidad de la inversa nosasegura la unicidad del resultado, cualquiera que sea el camino seguido, o sea, cualesquiera que seanlas operaciones elementales realizadas. Ejercicios: 3.6.1. Utilizar el m´todo de Gauss para hallar las inversas e de las matrices del ejercicio 3.4.1 quesean invertibles y comprobar los resultados del ejercicio 3.5.2. 3.6.2. Los sistemas de ecuaciones lineales:   2y +4z = −3  −2x +y +z = −3  x +y +3z = 1 3x −2y +z = 1 3x +3y +7z = −2 x −y +z = −2  se pueden expresar matricialmente de la forma AX = b donde A es una matriz invertible. Su inversaha sido calculada en los ejercicios anteriores; usarla para hallar las soluciones de los sistemas. 3.6.3. Demostrar que la traspuesta de la inversa de una matriz es la inversa de la traspuesta dedicha matriz. 3.6.4. Explicar por qu´ una matriz triangular superior es invertible si y s´lo si todos los elementos e ode su diagonal son distintos de cero. 3.6.5. Explicar por qu´ la inversa de una matriz triangular superior invertible es tambi´n trian- e egular superior. 3.6.6. Demostrar que una matriz triangular inferior es invertible si y s´lo si todos los elementos ode su diagonal son distintos de cero. 3.6.7. Demostrar que la inversa de una matriz triangular inferior invertible es tambi´n triangular einferior. 78
  • 79. La expresi´n de la inversa como producto de matrices elementales nos permite tambi´n enten- o eder la Reducci´n de Gauss-Jordan para resolver el sistema AX=b cuando A es matriz oinvertible: Multiplicando a la izquierda por A−1 con la expresi´n obtenida: A−1 = Er ...Em+1 Em Em−1 ...E1 , otenemos X = A−1 b = Er ...Em+1 Em Em−1 ...E1 b Luego X es el resultado de hacer en b las operaciones elementales que llevan A a I. Escribiendola matriz A|b y haciendo en ´sta dichas operaciones, cuando a la izquierda de la barra vertical eobtengamos la matriz I, a la derecha habremos obtenido la matriz soluci´n de las X. Ver el ejemplo o3 de la p´gina 42 del libro de Fraleigh-Beauregard. a Ejemplos resueltos y problemas propuestos el el cap´ıtulo 2 de (A),en el cap´ ıtulo 2 de (Vi), en lassecciones 1.2 y 1.4 de (H) y en el cap´ ıtulo 5 de (Vi). 79
  • 80. BIBLIOGRAFIA (A) Algebra Lineal y aplicaciones. J. Arves´ Carballo, R. Alvarez Nodarse, F. Marcell´n Espa˜ol. u a nEd. S´ıntesis Madrid. 1999. (FB) Algebra lineal. J. B. Fraleigh y R. A. Beauregard. Ed. Addison- Wesley /Iberoamericana,1989. (H) Algebra y Geometr´ Eugenio Hern´ndez. Ed. Addison- Wesley / UAM, 1994. ıa. a a [M] Matem´ticas 2 Bachillerato. M Felicidad Monteagudo Mart´ a ınez. Jes´s Paz Fern´ndez Ed. u aLuis Vives. 2003. (Vi) Problemas de Algebra. A. de la Villa. Ed. Clagsa, 1994. 80
  • 81. DETERMINANTES y SISTEMAS de ECUACIONES. Introducci´n. o Los determinantes son n´meros asociados a las matrices. u Hemos visto matrices asociadas a los sistemas de ecuaciones. Veremos que cuando calculamosdeterminantes de esas matrices o de submatrices suyas obtenemos informaci´n sobre la compatibilidad oy determinaci´n de dichos sistemas. o Los determinantes tambi´n tienen interpretaci´n geom´trica. Vamos a empezar motivando su e o edefinici´n por su significado geom´trico. o e Escribiendo en filas las coordenadas de un vector de la recta, de dos vectores del plano o de tresvectores del espacio tenemos, respectivamente, una matriz 1 × 1, una matriz 2 × 2 o una matriz 3 × 3.   a11 a12 a13 a11 a12 a11  a21 a22 a23  a21 a22 a31 a32 a33 Al mismo tiempo, dado un vector, podemos considerar su longitud, que es un n´mero; dados udos vectores, podemos construir un paralelogramo cuyos lados son los vectores dados y considerar suarea; Dados tres vectores, podemos construir un paralelep´´ ıpedo cuyas aristas son los tres vectores yconsiderar su volumen. ¨r ¨¨¨ ££ rrr ¨ ¨¨ £ rr ¨ ¨ £ ¨ £ ¨¨ £ ¨¨ £ ¨¨ r £ ¨¨¨ £ £ rr ¨ £ £ £ r ¨¨£ £ £ rr¨¨ £ £ £ # £ £ £ £ £ £ £ £ £ £ £ ¨rr ¨r ¨¨ r £ £ ¨¨ rr £ ¨¨ rr £ £¨ r £ ¨ r £ ¨ rr£ ¨ ¨¨ £ ¨¨ ¨ ¨¨ B £ ¨¨ £ ¨¨ B ¨ ¨ ¨ £ ¨ £ ¨ ¨¨ ¨¨ £ ¨ ¨ £ ¨¨ ‰ rr ¨ ‰ r ¨ r ¨¨ rr £ ¨¨ rr ¨ r £ ¨ r¨¨ rr¨¨ £ 81
  • 82. Las longitudes, las areas y los vol´menes son ”n´meros” asociados a vectores, a parejas de vectores ´ u uo a ternas de vectores y por tanto a las matrices formadas con ellos. Entonces, es l´gico estudiar qu´ o epropiedades han de cumplir, para ver c´mo se pueden calcular. o Si quisi´ramos que la longitud, el area o el volumen fueran n´meros asociados a estas matrices e ´ uy los design´ramos por las matrices entre barras, los ”n´meros” asociados a esas matrices tendr´ a u ıanque cumplir: a) Si multiplicamos uno de los vectores por una constante positiva o nula, el n´mero asociado uqueda multiplicado por esa constante: ra11 ra12 ra13 a11 a12 a13 ra11 ra12 a11 a12 |ra11 | = r|a11 |, =r , a21 a22 a23 = r a21 a22 a23 a21 a22 a21 a22 a31 a32 a33 a31 a32 a33 Lo an´logo ocurre con las otras filas. a b) Si en un vector, una pareja o una terna de vectores, sustituimos un vector por la suma deotros dos, el n´mero asociado (longitud, ´rea o volumen) a la matriz correspondiente es la suma de u alos n´meros asociados a las dos matrices de vectores correspondientes a los vectores sumandos: u I‰ r B ¨ ¨ rr ¨ ¨ r ¨ rr ¨¨ I B ¨ ¨¨ ¨ r ¨ ¨ ¨ rr¨¨ ¨ $X‰ $r ¨¨ r ¨¨¨ a1 $$$ r $$$$$ rr $$ r ¨ $¨ $$$ $$ $$$ X a1 + a1 $$$$ $ $ $ $$ $ $$$ $ $ $ ‰ rr $$$$ a1 a2 rr $$$ r r$ $$$ 82
  • 83. r¨ ¨ £ rr ¨ £ ¨ ¨ rr ¨¨ £ r ¨ ¨ ¨ £ ¨ £ ¨¨ £ ¨¨ £ ¨ $¨ £ ¨¨ £ $$$$$ £rrr ¨¨ £ £ $$ £ r ¨ £ £ $$$$ $$ £ rr¨¨ £ £ $ $$ $ £ $$ # £ £ £ $ $$$ $$$$ £ £ £ £ $ $$$$ £ $$$ £ £ £ r £ rr $$$$ $ £ £ ¨¨¨rrr £ £ r $$$ £ ¨ £ rr £ £ rr$$$$ £ ¨¨ £ r I£ £ # £ £ ¨¨¨ £ ¨ ¨ £ £ £ ¨ £ ¨¨ £ £ $¨ $ r£ ¨ £ ¨¨ £ £ $$$ rr £ ¨¨¨ £ £ $$$$ £ ¨¨ rr £ £ $$$ X¨ r£ £ £ $$$$ $$$ $$ $$$$ £ $$ $ £ $$ £ $$ $ £ $$$$$ ‰ rr £ $ rr $ $$$ £ $ rr$$$$ £ |a11 + a11 | = |a11 | + |a11 | a11 + a11 a12 + a12 a11 a12 a11 a12 = + a21 a22 a21 a22 a21 a22 a11 + a11 a12 + a12 a13 + a13 a11 a12 a13 a11 a12 a13 a21 a22 a23 = a21 a22 a23 + a21 a22 a23 a31 a32 a33 a31 a32 a33 a31 a32 a33 Tambi´n ocurrir´ con las otras filas. e ıa Del apartado b) se deduce que el apartado a) es cierto tambi´n cuando una fila se multiplica por euna constante negativa ya que si r = −1 a11 a12 a13 −a11 −a12 −a13 0 0 0 a21 a22 a23 + a21 a22 a23 = a21 a22 a23 =0 a31 a32 a33 a31 a32 a33 a31 a32 a33 c) Si uno de los vectores es proporcional a alguno de los otros, el area o el volumen es cero. (Esta ´propiedad s´lo tiene sentido cuando la matriz es de orden mayor que 1). o Vamos a deducir que si las areas y los vol´menes fueran n´meros asociados a las matrices cuyas ´ u ufilas son los vectores dados, con las propiedades b) c) y a) estos ”n´meros” cambiar´ de signo al u ıancambiar el orden de las filas de las matrices por una permutaci´n de dos filas: o 83
  • 84. En vol´menes se verificar´ Proposici´n 1: u ıa o a11 a12 a13 a21 a22 a23 a21 a22 a23 = − a11 a12 a13 . a31 a32 a33 a31 a32 a33 En efecto, a11 a12 a13 a21 a22 a23 = a31 a32 a33 1 1 1 (a 2 11 + a21 ) + 2 (a11 − a21 ) (a 2 12 + a22 ) + 1 (a12 − a22 ) 2 1 (a 2 13 + a23 ) + 1 (a13 − a23 ) 2 1 1 1 = 2 (a11 + a21 ) − 2 (a11 − a21 ) 2 (a12 + a22 ) − 1 (a12 − a22 ) 2 1 2 (a13 + a23 ) − 1 (a13 − a23 ) 2 = a31 a32 a33por b) 1 1 1 (a + a21 ) 2 11 (a + a22 ) 2 12 (a 2 13 + a23 ) 1 1 1 = (a + a21 ) − 2 (a11 − a21 ) 2 11 (a + a22 ) − 1 (a12 − a22 ) 2 12 2 1 (a 2 13 + a23 ) − 1 (a13 − a23 ) + 2 a31 a32 a33 1 1 1 − a21 ) (a 2 11 (a 2 12 − a22 ) (a 2 13 − a23 ) 1 + 2 (a11 + a21 ) − 1 (a11 − a21 ) 2 1 2 1 (a12 + a22 ) − 2 (a12 − a22 ) 1 (a 2 13 + a23 ) − 1 (a13 − a23 ) 2 = a31 a32 a33por b) 1 1 1 1 1 1 (a 2 11 + a21 ) (a 2 12 + a22 ) (a 2 13 + a23 ) (a + a21 ) 2 11 (a + a22 ) 2 12 (a + a23 ) 2 13 1 1 1 1 1 1= (a 2 11 + a21 ) (a 2 12 + a22 ) (a 2 13 + a23 ) + − 2 (a11 − a21 ) − 2 (a12 − a22 ) − 2 (a13 − a23 ) + a31 a32 a33 a31 a32 a33 1 1 1 1 1 1 (a 2 11 − a21 ) (a 2 12 − a22 ) (a 2 13 − a23 ) (a − a21 ) 2 11 (a − a22 ) 2 12 (a − a23 ) 2 13 1 1 1 1 1 1+ (a 2 11 + a21 ) (a 2 12 + a22 ) (a 2 13 + a23 ) + − 2 (a11 − a21 ) − 2 (a21 − a22 ) − 2 (a13 − a23 ) = a31 a32 a33 a31 a32 a33(porque los vol´menes asociados a vectores proporcionales son cero, por c)) u 1 1 1 1 1 1 (a + a21 ) 2 11 (a + a22 ) 2 12 (a + a23 ) 2 13 (a 2 11 − a21 ) (a 2 12 − a22 ) (a 2 13 − a23 ) 1 1 1 1 1 1 = − 2 (a11 − a21 ) − 2 (a12 − a22 ) − 2 (a13 − a23 ) + (a 2 11 + a21 ) (a 2 12 + a22 ) (a 2 13 + a23 ) a31 a32 a33 a31 a32 a33 84
  • 85. Por otra parte, an´logamente, se tiene: a a21 a22 a23 a11 a12 a13 = a31 a32 a33 1 1 1 (a 2 11 + a21 ) + 2 (a21 − a11 ) (a 2 12 + a22 ) + 1 (a22 − a12 ) 2 1 (a 2 13 + a23 ) + 1 (a23 − a13 ) 2 1 1 1 = (a 2 11 + a21 ) − 2 (a21 − a11 ) (a 2 12 + a22 ) − 1 (a22 − a12 ) 2 1 (a 2 13 + a23 ) − 1 (a23 − a13 ) 2 = a31 a32 a33 1 1 1 1 1 1 (a + a21 ) 2 11 (a + a22 ) 2 12 (a + a23 ) 2 13 (a 2 21 − a11 ) (a 2 22 − a12 ) (a 2 23 − a13 ) 1 1 1 1 1 1 = − 2 (a21 − a11 ) − 2 (a22 − a12 ) − 2 (a23 − a13 ) + (a 2 11 + a21 ) (a 2 12 + a22 ) (a 2 13 + a23 ) a31 a32 a33 a31 a32 a33expresi´n opuesta a la anterior, teniendo en cuenta la propiedad a) para r = −1. o El cambio de signo se comprobar´ de la misma manera si permut´ramos la segunda y la tercera ıa afilas o la primera y la tercera filas. La comprobaci´n del cambio de signo en las areas es exactamente igual al cambio hecho entre o ´primera y segunda filas. (H´gase como ejercicio). a Propiedades de los determinantes y operaciones elementales. Podemos relacionar ahora las tres propiedades a), b) y c) que tendr´ que cumplir los ”n´meros” ıan uasociados a las matrices con las operaciones elementales en las matrices: De la propiedades b), c) y a) hemos deducido primero la propiedad siguiente: que al hacer en lamatriz una operaci´n elemental de permutaci´n de filas cambia de signo el ”n´mero” asociado; la o o uvamos a llamar propiedad 1). De la propiedad a) tenemos: al hacer en una matriz la operaci´n elemental de multiplicar una fila opor una constante, el ”n´mero” asociado queda multiplicado por esa constante. La vamos a llamar upropiedad 2). De la propiedad c) junto con la propiedad b) podemos deducir la propiedad siguiente: al haceren una matriz la operaci´n elemental de sumar a una fila de la matriz otra fila multiplicada por ouna constante, el ”n´mero” asociado queda invariante. (Compru´bese como ejercicio). La vamos a u ellamar propiedad 3). 85
  • 86. Las tres propiedades 1), 2) y 3) enunciadas de estos ”n´meros” asociados a las matrices nos dicen uc´mo est´n relacionados entre s´ los ”n´meros” asociados a matrices relacionadas por operaciones o a ı uelementales. Si las propiedades de estos ”n´meros” est´n relacionadas con las operaciones elemen- u atales, que son las que realizamos en las matrices para resolver los sistemas de ecuaciones, podemospensar que esos n´meros nos dan informaci´n sobre la resolubilidad de dichos sistemas. u o Asociando a las matrices identidad el n´mero 1, lo cual es coherente con el valor de la longi- utud, el area y el volumen asociados a las matrices formadas por los vectores coordenados, quedan ´determinados los ”n´meros” asociados a las matrices elementales por las propiedades 1), 2) y 3): u i) Las matrices elementales obtenidas al intercambiar dos filas de la matriz identidad, tendr´ ıancomo ”n´mero” asociado el opuesto del asociado a la matriz identidad, es decir, −1. u ii) Las matrices elementales obtenidas al multiplicar una fila de la identidad por una constante cdistinta de cero, seg´n la propiedad a) (o propiedad 2) tienen como ”n´mero” asociado el producto u ude esta constante por el n´mero asociado a la matriz identidad, es decir, c. u iii) Las matrices elementales obtenidas al sumar a una fila de la matriz identidad otra fila mul-tiplicada por una constante tienen el mismo ”n´mero” asociado que la matriz identidad, es decir, u1. Matem´ticamente, las operaciones elementales se realizan en una matriz multiplic´ndola a la a aizquierda por matrices elementales. Las propiedades 1), 2) y 3) respecto a una matriz general Aquedan resumidas en t´rminos de matrices elementales en la e Proposici´n 2: Si Ei es una matriz elemental, |Ei A| = |Ei ||A|. o La demostraci´n de esta proposici´n consiste en su comprobaci´n en cada uno de los tres tipos o o ode matrices elementales teniendo en cuenta las propiedades 1), 2) y 3) y se deja para el lector. Ejercicios: 4.1.1. Utilizando la proposici´n 2 y sin necesidad de calcularlos, demostrar que los siguientes odeterminantes son nulos. 12 22 32 42 7 1 3 a b c 1 2 3 22 32 42 52 a) 3 2 1 b) −a −b −c c) 2 3 4 d) 2 3 42 52 62 10 3 4 d e f 3 4 5 42 52 62 72 4.1.2. Usando las matrices elementales que llevan las matrices siguientes a la identidad y laproposici´n 2, calcular los determinantes de las siguientes matrices: o 86
  • 87.     1 1 3 a11 a12 a13 a11 a12 a)  0 1 1  b) c)  0 a22 a23  0 a22 0 0 4 0 0 a33cuando los elementos de la diagonal de las dos ultimas matrices son distintos de cero. ´ 4.1.3. a) Demostrar que el determinante de una matriz triangular superior que tiene alg´n elemento de ula diagonal igual a cero es nulo, usando las propiedades de los determinantes. b) Demostrar que si escalonando la matriz A se obtiene una matriz triangular superior que tienealg´n elemento de la diagonal igual a cero, el determinante de A ha de ser nulo. u 4.1.4. Usando las matrices elementales que llevan las matrices siguientes a una triangular superiory los resultados anteriores, calcular los determinantes de las siguientes matrices:       1 0 0 0 2 4 0 2 4 2 4 a) b)  0 2 4  c)  1 0 0  d)  0 1 3  1 3 0 1 3 0 1 3 1 0 0         0 −1 −1 1 0 2 4 0 −1 1 −2 1 1  g)  3 −2 1  h)  1  0 −1 1  e)  1 1 3  f)  1 0 −1  2 −1 −3 −1   3 3 7 2 −1 −1 1 −1 1 0 1 −1 0 Sol: a) 2, b) 2 c)4 d) 2) e) 4, f) 0, g) −1, h) −8. 4.1.5. Establecer las igualdades siguientes: 1 0 0 0 a12 a13 0 a12 a13 a22 a23 a a a12 a13 0 a22 a23 = , 1 0 0 = − 12 13 , 0 a22 a23 = . a32 a33 a32 a33 a22 a23 0 a32 a33 0 a32 a33 1 0 0 Tambi´n podemos establecer utilizando la proposici´n 2 el siguiente e o t Teorema 1: | A| = |A|. En efecto, podemos comprobar que el teorema es cierto para matrices elementales: recorriendo lostres tipos de matrices elementales que hay, y considerando las traspuestas de cada tipo, vemos quela traspuesta de cada matriz elemental es elemental del mismo tipo y que le corresponde el mismo”n´mero” que a la matriz elemental considerada. (Compru´bese en las matrices elementales 3 × 3). u e En cuanto al caso general, distinguimos dos casos: 87
  • 88. a) A es invertible. Si A es invertible, es producto de matrices elementales. Sea A = Em · · · E1 , entonces t A = t E1 · · · t Em y como las matrices traspuestas de matriceselementales son, a su vez, matrices elementales, por la proposici´n 2: o |t A| = |t E1 · t E2 · · · t Em | = |t E1 ||t E2 · · · t Em | = |t E1 ||t E2 | · · · |t Em | =por ser el teorema cierto para matrices elementales, = |E1 ||E2 | · · · |Em | = |Em | · · · |E2 ||E1 | = |Em · · · E2 E1 | = |A| b) A no es invertible. Entonces t A tampoco es invertible, porque si lo fuera, t A ser´ producto de matrices elementales, ıaen cuyo caso A ser´ el producto (en orden inverso) de las traspuestas de esas matrices elementales, ıasiendo por tanto invertible. Si la matriz A no es invertible, por operaciones elementales se puede reducir a una matriz escalo- −1 −1nada E con la ultima fila de ceros, teni´ndose Ek · · · E1 A = E, de donde A = Ek · · · E1 E, que ´ epodemos escribir de manera gen´rica como A = Ek · · · E1 E, donde Ei son matrices elementales. e Si en una matriz E hay una fila de ceros, su n´mero asociado es cero, ya que multiplicando la ufila de ceros por un n´mero distinto de cero, queda la misma matriz; por lo que se verificar´ debido u ıaa la propiedad 2), que c|E| = |E|, cualqiera que sea c, lo cual implica |E| = 0, cuando c = 1. Ahora, en virtud de la proposici´n 2, si A = Ek · · · E1 E, se tiene |A| = |Ek ||Ek−1 · · · E1 E| = o|Ek ||Ek−1 | · · · |E1 ||E| = 0 El mismo razonamiento para t A, puesto que no es invertible, nos da |t A| = 0, siendo, por tanto,tambi´n, |t A| = |A|. e Hagamos ahora dos observaciones: Primera: hemos obtenido, si A es invertible, |Em | · · · |E1 | = |A| cuando A = Em · · · E1 , es decir,el ”n´mero asociado” a A est´ determinado por las matrices elementales que llevan A a la identidad u ay es distinto de cero. Segunda: como al trasponer una matriz, las columnas pasan a filas, las propiedades a) b) c)enunciadas respecto a las filas de una matriz y sus consecuencias son, an´logamente ciertas respecto aa las columnas en los ”n´meros” que buscamos. En particular es cierta la u Proposici´n 3. Si una matriz tiene una columna de ceros su ”n´mero asociado” es cero. o u Para la demostraci´n de la proposici´n 3, tengamos en cuenta que se puede ver que si una matriz o otiene una fila de ceros su ”n´mero asociado” es cero de manera similar a c´mo hemos demostrado u o 88
  • 89. que el ”n´mero asociado” a una matriz escalonada con la ultima fila de ceros es cero. Entonces, u ´teniendo en cuenta el teorema 1 que pasa filas a columnas, queda establecida la proposici´n 3. o En virtud de estas propiedades, se puede hacer el desarrollo del n´mero asociado a una matriz u2 × 2. En efecto, por la propiedad b) respecto a columnas en matrices 2 × 2, para una matriz 2 × 2, eldeterminante ha de ser: a b a b 0 b a 0 a b 0 b 0 0 = + = + + + = c d 0 d c d 0 d 0 0 c 0 c ddebido a que el n´mero es cero cuando hay una fila de ceros, u a 0 0 b 1 0 0 1 1 0 1 0 + = ad + bc = ad − bc = ad − cb 0 d c 0 0 1 1 0 0 1 0 1 ıamos (descomponiendo la 1a columna en suma de tres En cuanto a una matriz 3 × 3, tendr´columnas): a11 a12 a13 a11 a12 a13 0 a12 a13 0 a12 a13 a21 a22 a23 = 0 a22 a23 + a21 a22 a23 + 0 a22 a23 = a31 a32 a33 0 a32 a33 0 a32 a33 a31 a32 a33 (descomponiendo las filas en sumas de tres filas): a11 0 0 0 a12 0 0 0 a13 = 0 a22 a23 + 0 a22 a23 + 0 a22 a23 + 0 a32 a33 0 a32 a33 0 a32 a33 0 a12 a13 0 a12 a13 0 a12 a13 + a21 0 0 + 0 a22 0 + 0 0 a23 + 0 a32 a33 0 a32 a33 0 a32 a33 0 a12 a13 0 a12 a13 0 a12 a13 0 a22 a23 + 0 a22 a23 + 0 a22 a23 = a31 0 0 0 a32 0 0 0 a33(por la proposici´n 3), o a11 0 0 0 a12 a13 0 a12 a13 = 0 a22 a23 + a21 0 0 + 0 a22 a23 = 0 a32 a33 0 a32 a33 a31 0 0 89
  • 90. 1 0 0 0 a12 a13 0 a12 a13 = a11 0 a22 a23 + a21 1 0 0 + a31 0 a22 a23 0 a32 a33 0 a32 a33 1 0 0 Observando ahora que 1 0 0 a22 a23 = 0 a22 a23 = a32 a33 0 a32 a33ya que estas dos matrices se escalonan o se transforman en la identidad con matrices elementalesan´logas de igual ”n´mero asociado”; que a u 0 a12 a13 1 0 0 a12 a13 1 0 0 = − 0 a12 a13 =− a32 a33 0 a32 a33 0 a32 a33por la misma raz´n anterior, y que o 0 a12 a13 0 a12 a13 1 0 0 a12 a13 0 a22 a23 =− 1 0 0 = 0 a12 a13 = a22 a23 1 0 0 0 a22 a23 0 a22 a23por la misma raz´n, podemos concluir que o a11 a12 a13 a22 a23 a12 a13 a12 a13 a21 a22 a23 = a11 − a21 + a31 a32 a33 a32 a33 a22 a23 a31 a32 a33 Este proceso se puede hacer en cualquier dimensi´n y justifica nuestra definici´n por inducci´n o o ode los ”n´meros asociados” que vamos a llamar determinantes u Definici´n de los determinantes. o Dada una matriz cuadrada A, se representa por |Aij | el determinante asociado a la submatriz deA, obtenida suprimiendo la fila i y la columna j de A. Con un proceso an´logo al anterior, se llega a que , si cumple las propiedades a), b) y c) anteriores, adesglosando la primera columna en suma de n columnas y luego cada fila en suma de n filas, en virtudde la observaci´n segunda posterior al teorema 1, el determinante de una matriz n × n ha de ser: o |A| = a11 |A11 | − a21 |A21 | + · · · + (−1)i+1 ai1 |Ai1 | + · · · + (−1)n+1 an1 |An1 | 90
  • 91. que se llama desarollo del determinante por la primera columna. Tambi´n, desglosando la primera fila en suma de n filas y luego cada columna en suma de n ecolumnas, en virtud de la observaci´n segunda posterior al teorema 1, ha de ser: o |A| = |t A| = a11 |A11 | − a12 |A12 | + · · · + (−1)j+1 a1j |A1j | + · · · + (−1)n+1 a1n |A1n |que se llama desarollo del determinante por la primera fila. Lo cual, puede obtenerse tambi´n del desarrollo del de determinante por la primera fila y el eteorema 1: |A| = |t A|. Para dar completa validez a la definici´n, comprobaremos que con ella se verifican las propiedades o1), a) y b) enunciadas anteriormente. Una vez comprobadas dichas propiedades para nuestradefinici´n, como la propiedad 1), junto con la propiedad a), implica la propiedad c), se tienen opara dicha definici´n, las propiedades a), b) y c), que implican 1), 2) y 3), obteniendo as´ que la o ıproposici´n 2) es cierta para nuestra definici´n: |Ei A| = |Ei ||A| donde Ei es una matriz elemental o oy A es una matriz cualquiera; de donde, tambi´n es cierto para nuestra definici´n el teorema 1: e o t| A| = |A|, ya que se puede repetir el proceso de su demostraci´n. o Tambi´n el teorema 1. implica las propiedades a), b) y c) respecto a columnas. e Comprobaci´n de las propiedades. o Comprobemos ahora que con la definici´n dada se cumplen las propiedades requeridas al principio. o Recordemos las propiedades: 1) Si intercambiamos dos filas en una matriz su determinante cambia de signo. a) Si multiplicamos una fila de una matriz por una constante, el determinante de la matriz quedamultiplicado por esa constante. b) Si descomponemos una fila de una matriz en suma de otras dos filas el determinante de lamatriz dada es la suma de los determinantes de las dos matrices obtenidas sustituyendo en la matrizdada la fila considerada por cada una de las filas sumandos. c) El determinante de una matriz con filas proporcionales es cero. En lugar de la propiedad c) podemos considerar la propiedad 1), ya que ambas son equivalentescuando a) y b) son ciertas. (Compru´bese como ejercicio). e La demostraci´n de las propiedades b´sicas puede hacerse por inducci´n ya que as´ se ha hecho o a o ıla definici´n. o 91
  • 92. Para un determinante de una matriz de orden 1, s´lo tienen sentido las propiedades a) y b), que oson trivialmente ciertas. Por eso comprobamos las tres propiedades 1), a), b) para determinantes de matrices de orden 2y luego demostramos que supuestas ciertas estas propiedades para determinantes de orden n − 1, loson para determinantes de orden n. Comprobamos en primer lugar la propiedad 1, porque permite transmitir lo que probemos parala primera fila a las dem´s filas. a Probemos 1) en matrices 2 × 2: Se reduce a comprobar que a b c d =− c d a b De la definici´n se tiene: o a b c d = ad − cb y = cb − ad = −(ad − cb) c d a bestando por tanto comprobado. Para comprobar la propiedad a), es suficiente comprobarla con la primera fila, ya que por lapropiedad 1), se trasmite a la segunda fila. En efecto, ra rb a b = rad − crb = r(ad − cb) = r c d c d Vemos la propiedad b) en matrices 2 × 2, respecto a la primera fila, a+a b+b a b a b = (a + a )d − c(b + b ) = ad − cb + a d − cb = + c d c d c d La propiedad comprobada se trasmite a la segunda fila, usando la propiedad 1). Ahora, suponiendo que la propiedad 1) se verifica en determinantes de matrices (n − 1) × (n − 1),vamos a comprobarla en determinates de matrices de orden n. Primero, lo demostramos cuando el intercambio de filas se hace entre dos filas sucesivas (la i y lai − 1): Por definici´n, o 92
  • 93. a11 a12 ··· a1n a22 ··· a2n a12 ··· a1n a21 a22 ··· a2n ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n ai−1,1 ai−1,2 ··· ai−1,n = a11 − a21 + ai2 ··· ain ai2 ··· ain ai1 ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann an1 an2 ··· ann a12 ··· a1n a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· ··· ··· ··· ai−2,2 ··· ai−2,n ai−1,2 ··· ai−1,n ai−1,2 · · · ai−1,n(−1)i ai−1,1 (−1)i+1 ai1 +· · ·+(−1)n+1 an1 = ai2 ··· ain ai+1,2 ··· ai+1,n ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann an−1,2 · · · an−1,nPor la hip´tesis de inducci´n, o o estos sumandos son:     a22 · · · a2n a12 ··· a1n   ··· ··· ···     ··· ··· ···    ai2 ··· ain   − a21 − ai2  ··· ain  = a11 −  + ···+   ai−1,2 · · · ai−1,n     ai−1,2 ··· ai−1,n    ··· ··· ···   ··· ··· ···  an,2 · · · an,n an2 ··· ann     a12 ··· a1n a12 ··· a1n   ··· ··· ···     ··· ··· ···   a ··· ai−2,n  + (−1)i ai1 − ai−1,2 ··· ai−1,n (−1) ai−1,1 − i−2,2 i+1      + ···+   ai2 ··· ain     ai+1,2 ··· ai+1,n    ··· ··· ···   ··· ··· ···  an2 ··· ann an2 ··· ann     a12 ··· a1n a22 ··· a2n a12 ··· a1n   ··· ··· ···     ··· ··· ··· ··· ··· ···    ai2 ··· ain   ai2 ··· ain ai2 ··· ain +(−1)n+1 an1 −  = − a11 − a21 +   ai−1,2 · · · ai−1,n     ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n    ··· ··· ···   ··· ··· ··· ··· ··· ···  an−1,2 · · · an−1,n an,2 ··· an,n an2 ··· ann 93
  • 94.   a12 ··· a1n a12 ··· a1n   ··· ··· ··· ··· ··· ···    ai−1,2 ··· ai−1,n ai−2,2 ··· ai−2,n  · · · − (−1)i ai1 + (−1)i+1 ai−1,1  + ···   ai+1,2 ··· ai+1,n ai2 ··· ain    ··· ··· ··· ··· ··· ···  an2 ··· ann an2 ··· ann a11 a12 ··· a1n a12 ··· a1n a21 a22 ··· a2n ··· ··· ··· ··· ··· ··· ··· ai2 ··· ain −(−1)n+1 an1 = − ai1 ai2 ··· ain . ai−1,2 · · · ai−1,n ai−1,1 ai−1,2 ··· ai−1,n ··· ··· ··· ··· ··· ··· ··· an−1,2 · · · an−1,n an1 an2 ··· ann Si las filas intercambiadas no son sucesivas, tenemos que darnos cuenta de que el intercambiopuede hacerse en dos etapas compuestas de intercambios de filas sucesivas: intercambiar la fila ”i”y la fila ”j”, suponiendo que j i, es bajar la fila ”i” al sitio ”j”, para lo cual tenemos que saltarsucesivamente sobre j −i filas y luego subir la fila ”j” (que ya ha quedado en el sitio ”j −1” al sitio ”i”,para lo cual tenemos que saltar sucesivamente otras j − 1 − i filas. En total, hemos hecho 2(i − j) − 1cambios de filas sucesivas, lo cual se traduce en un cambio total de signo: (−1)2(i−j)−1 = −1. Pasamos a demostrar la propiedad a) en determinantes de orden n, suponiendo que es cierta paradeterminantes de orden n − 1: Por definici´n, o ra11 ra12 ··· ra1n a22 ··· a2n ra12 ··· ra1n a21 a22 ··· a2n ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n ai−1,1 ai−1,2 ··· ai−1,n = ra11 − a21 + ···+ ai2 ··· ain ai2 ··· ain ai1 ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann an1 an2 ··· ann 94
  • 95. ra12 ··· ra1n ra12 ··· ra1n ra12 · · · ra1n ··· ··· ··· ··· ··· ··· ··· ··· ··· ai−2,2 ··· ai−2,n a ··· ai−1,n ai−1,2 · · · ai−1,n(−1)i ai−1,1 (−1)i+1 ai1 i−1,2 +· · · (−1)n+1 an1 ai2 ··· ain ai+1,2 ··· ai+1,n ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann an−1,2 · · · an−1,nPor la hip´tesis de inducci´n, estos sumandos son: o o a22 ··· a2n a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n ai−2,2 ··· ai−2,nra11 − a21 r + · · · + (−1)i ai−1,1 r + ai2 ··· ain ai2 ··· ain ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann an2 ··· ann a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· a ··· ai−1,n ai−1,2 · · · ai−1,n +(−1)i+1 ai1 r i−1,2 + · · · + (−1)n+1 an1 r = ai+1,2 ··· ai+1,n ai2 ··· ain ··· ··· ··· ··· ··· ··· an2 ··· ann an−1,2 · · · an−1,n   a22 ··· a2n a12 ··· a1n a12 ··· a1n   ··· ··· ··· ··· ··· ··· ··· ··· ···    ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n ai−2,2 ··· ai−2,n r a11 − a21 + · · · + (−1)i ai−1,1 +   ai2 ··· ain ai2 ··· ain ai2 ··· ain    ··· ··· ··· ··· ··· ··· ··· ··· ···  an2 ··· ann an2 ··· ann an2 ··· ann   a12 ··· a1n a12 ··· a1n   ··· ··· ··· ··· ··· ···    ai−1,2 ··· ai−1,n ai−1,2 · · · ai−1,n  +r (−1)i+1 ai1 + · · · + (−1)n+1 an1 =   ai+1,2 ··· ai+1,n ai2 ··· ain    ··· ··· ··· ··· ··· ···  an2 ··· ann an−1,2 · · · an−1,n 95
  • 96. a11 a12 ··· a1n a21 a22 ··· a2n ··· ··· ··· ··· r ai−1,1 ai−1,2 ··· ai−1,n . ai1 ai2 ··· ain ··· ··· ··· ··· an1 an2 ··· ann Esta propiedad se trasmite a las dem´s filas usando la propiedad 1). a Para acabar, demostramos la propiedad b) en determinantes n × n, suponi´ndola cierta en deter- eminantes (n − 1) × (n − 1): a11 + a11 a12 + a12 · · · a1n + a1n a22 ··· a2n a21 a22 ··· a2n ··· ··· ··· ··· ··· ··· ··· a ··· ai−1,n ai−1,1 ai−1,2 ··· ai−1,n = (a11 + a11 ) i−1,2 ai2 ··· ain ai1 ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an1 an2 ··· ann a12 + a12 · · · a1n + a1n a12 + a12 · · · a1n + a1n ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−2,2 ··· ai−2,n −a21 + · · · + (−1)i ai−1,1 + ai2 ··· ain ai2 ··· ain ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann a12 + a12 · · · a1n + a1n a12 + a12 · · · a1n + a1n ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n (−1)i+1 ai1 + · · · + (−1)n+1 an1 ai+1,2 ··· ai+1,n ai2 ··· ain ··· ··· ··· ··· ··· ··· an2 ··· ann an−1,2 ··· an−1,n 96
  • 97. Por la hip´tesis de inducci´n, estos sumandos son: o o a22 ··· a2n a22 ··· a2n a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,na11 +a11 −a21 −a21 + ai2 ··· ain ai2 ··· ain ai2 ··· ain ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann an2 ··· ann an2 ··· ann a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· ai−2,2 ··· ai−2,n ai−2,2 ··· ai−2,n + · · · + (−1)i ai−1,1 + (−1)i ai−1,1 + ···+ ai2 ··· ain ai2 ··· ain ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n + · · · + (−1)i+1 ai1 + (−1)i+1 ai1 + ···+ ai+1,2 ··· ai+1,n ai+1,2 ··· ai+1,n ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· ai−1,2 · · · ai−1,n ai−1,2 · · · ai−1,n · · · + (−1)n+1 an1 + (−1)n+1 an1 = ai2 ··· ain ai2 ··· ain ··· ··· ··· ··· ··· ··· an−1,2 · · · an−1,n an−1,2 · · · an−1,ncogiendo los sumandos uno s´ otro no: ı, a11 a12 ··· a1n a11 a12 ··· a1n a21 a22 ··· a2n a21 a22 ··· a2n ··· ··· ··· ··· ··· ··· ··· ··· = ai−1,1 ai−1,2 ··· ai−1,n + ai−1,1 ai−1,2 ··· ai−1,n . ai1 ai2 ··· ain ai1 ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· an1 an2 ··· ann an1 an2 ··· ann Esta propiedad demostrada en la primera fila se trasmite a las dem´s filas por la propiedad 1). a 97
  • 98. Como se ha dicho antes, ahora podr´ ıamos demostrar el Teorema 1 para la definici´n dada por oinducci´n. o Debido al Teorema 1 las propiedades comprobadas para las filas se traducen en propiedadesan´logas para las columnas. a Veamos ahora c´mo dichas propiedades dan una relaci´n de los n´meros buscados con la resolu- o o ubilidad de sistemas de ecuaciones en la Regla de Cramer: a11 x +a12 y = b1 a21 x +a22 y = b2 Dado que la propiedad 1) implica que los determinantes de matrices con filas iguales son nulos,se tiene: a11 a12 b1 a21 a22 b2 a11 a12 b1 =0= a11 a12 b1 a21 a22 b2 a21 a22 b2Por tanto, desarrollando por la primera fila, se tiene: a12 b1 a11 b1 a11 a12 a11 − a12 + b1 =0 a22 b2 a22 b2 a21 a22 y a12 b1 a11 b1 a11 a12 a21 − a22 + b2 =0 a22 b2 a22 b2 a21 a22 o equivalentemente, cambiando columnas en los primeros determinantes, y cambiando los signos, b1 a12 a11 b1 a11 a12 a11 + a12 = b1 b2 a22 a22 b2 a21 a22 y b1 a12 a11 b1 a11 a12 a21 + a22 = b2 b2 a22 a22 b2 a21 a22habi´ndose encontrado que e b1 a12 a11 b1 a11 a12 b2 a22 a22 b2 cuando = 0 los valores : x = y= a21 a22 a11 a12 a11 a12 a21 a22 a21 a22satisfacen el sistema dado. 98
  • 99. Lo an´logo ocurre con los sistemas de n ecuaciones con n inc´gnitas. a o Podemos demostrar que la soluci´n considerada del sistema de ecuaciones lineales es unica cuando o ´el determinante de la matriz de los coeficientes es distinto de cero. Llamando ∆ a este determinante,como 1 a22 −a12 a11 a12 1 0 = ∆ −a21 a11 a21 a22 0 1Si a11 x +a12 y = b1 a11 a12 x 0 ≡ = a21 x +a22 y = b2 a21 a22 y 0y a11 x +a12 y = b1 a11 a12 x 0 ≡ = a21 x +a22 y = b2 a21 a22 y 0se tiene: a11 a12 x−x 0 = , a21 a22 y−y 0de donde x−x 1 a22 −a12 a11 a12 x−x 1 a22 −a12 0 0 = = = y−y ∆ −a21 a11 a21 a22 y−y ∆ −a21 a11 0 0 Ejercicios: 4.2.1. Calcular usando la definici´n los determinantes de las matrices num´ricas de los ejerciios o e4.1.∗ y comprobar que son los mismos que hallados anteriormente. 4.2.2. Calcular los determinantes de las matrices dadas a continuaci´n: o     3 2 −6 −8 −1 −4 a) 1/7  6 −3 2  b) 1/9  −4 4 7  2 6 3 1 8 −4 99
  • 100. 4.2.3. a) Comprobar que la ecuaci´n de un plano o que pasa por tres puntos no alineados: (a1 , a2 , a3 ),(b1 , b2 , b3 ), (c1 , c2 , c3 ) del espacio es 1 x1 x2 x3 1 a1 a2 a3 =0 1 b1 b2 b3 1 c1 c2 c3y hallar la ecuaci´n cartesiana del plano que pasa por los puntos (1, 2, 1), (−1, 3, 0), (2, 1, 3). o b) Escribir la ecuaci´n de una recta del plano que pasa por los puntos (a, b), (c, d) del plano y ohallar la ecuaci´n cartesiana de la recta del plano que pasa por los puntos (−1, −2), (2, 2). o Caracterizaci´n de las matrices invertibles por su determinante. o Teorema 2. Una matriz es invertible si y s´lo si su determinante es distinto de cero. o Dedujimos en la segunda parte de la demostraci´n del teorema 1 que el determinante de las omatrices no invertibles es cero; (utilizando el teorema 2 del cap´ıtulo anterior). Para ver que el determinante de las matrices invertibles es distinto de cero, empecemos porlas matrices elementales, que son invertibles, recorriendo sus distintos tipos. Se puede ver que susdeterminantes son distintos de cero. (Se hizo en la sexta p´gina de este cap´ a ıtulo) Para verlo en el caso general, debido al teorema que estableci´ que una matriz es invertible osi y s´lo si es producto de matrices elementales, y a la proposici´n 2 de este cap´ o o ıtulo, hacemosel siguiente razonamiento: Sea A = Em · Em−1 · · · E1 = Em · Em−1 · · · E1 I, entonces es necesario,seg´n la proposici´n 2, que |A| = |Em ||Em−1 · · · E1 ||I| = |Em ||Em−1 | · · · |E1 | = 0 porque todos los u odeterminantes de matrices elementales son distintos de cero. Pod´ıamos haber dado la definici´n de determinante de una matriz invertible utilizando las ma- otrices elementales en las que se descompone como producto, pero se hubiera planteado el problemasobre si el n´mero asociado era independiente del camino por el que la matriz llega a la identidad upor transformaciones elementales. Este problema est´ resuelto en la definici´n dada, ya que s´lo a o ointervienen los n´meros de las entradas de la matriz. Seg´n la definici´n que hemos dado, el de- u u oterminante de la matriz s´lo depende de los n´meros que forman la matriz y no de la sucesi´n de o u omatrices elementales que la transforman en la identidad; es independiente de esta sucesi´n. o 100
  • 101. Determinante del producto. Teorema 3: |AB| = |A||B| : El determinante del producto de dos matrices es el productode los determinantes de las matrices. De donde se deduce que |A−1 | = 1/|A|. Demostraci´n del Teorema 3: o Tambi´n ahora distinguimos dos casos: e a) |A| = 0. Entonces, A es invertible y ten´ ıamos en la proposici´n 4 del cap´ o ıtulo anterior: −1 −1 −1 −1 A = E1 E2 · · · Ek · · · Em donde Ei y Ei−1 son matrices elementales, (Estas E1 , · · · , Em son las inversas de las del teorema2.) de donde −1 −1 −1 −1 |A| = |E1 ||E2 || · · · |Ek | · · · |Em | Por otra parte, −1 −1 −1 −1 AB = E1 E2 · · · Ek · · · Em B y −1 −1 −1 −1 −1 −1 −1 −1 |AB| = |E1 ||E2 · · · Ek · · · Em B| = |E1 ||E2 | · · · |Ek | · · · |Em ||B| = |A||B|. b) |A| = 0. Entonces, A no es invertible; al reducir A a una matriz escalonada E, esta matrizescalonada tiene su ultima fila formada por ceros, entonces, ´ −1 −1 −1 A = E1 E2 · · · Em E y −1 −1 −1 AB = E1 E2 · · · Em EB donde la matriz EB tiene la ultima fila de ceros, por tanto su determinante es nulo y ´ −1 −1 −1 −1 −1 −1 |AB| = |E1 ||E2 · · · Em · · · EB| = |E1 ||E2 | · · · |Em | · · · |EB| = 0 = |A||B|. Hagamos aqu´ la observaci´n de que la unica forma de definir el determinante de la matriz ı o ´identidad coherente con este teorema era darle el valor 1, ya que si hubiera sido cero, no hubieradistinguido matrices invertibles de matrices no invertibles y de no ser cero, |I| = |II| = |I||I| implica|I| = 1. 101
  • 102. Ejercicios. 4.3.1. a) Demostrar que una matriz triangular superior es invertible si y s´lo si todos los elementos de osu diagonal son distintos de cero. b) Demostrar el resultado an´logo para matrices triangulares inferiores. a 4.3.2. a) Demostrar que una matriz antisim´trica de orden impar no puede ser invertible. e b) Encontrar matrices antisim´tricas de orden par que sean invertibles. e 4.3.3. Calcular los determinantes: 1 1 1 x1 x2 x3 x2 x 2 x 2 1 2 3 1 1 1 1 x1 x2 x3 x4 x2 x2 x2 x2 1 2 3 4 x3 x3 x3 x3 1 2 3 4 102
  • 103. Como un inciso, vamos a ver ahora como se hace en general el determinante n × n: 1 1 1 ··· 1 x1 x2 x3 ··· xn 2 2 x1 x2 x2 3 ··· x2n ∆n = x3 1 x3 2 x3 3 ··· x3n ··· ··· ··· ··· ··· xn−1 xn−1 xn−1 1 2 3 ··· n−1 xnque se llama determinante de Vandermonde. Si dos de los xi son iguales, la matriz tiene dos columnas iguales y por tanto su determinante escero. Suponemos ahora que todos los xi son distintos entre s´ ı. Se reduce su tama˜o en uno restando a cada fila la anterior multiplicada por x1 si x1 = 0. Si nx1 = 0 se reduce el tama˜o en uno, desarrollando por la primera columna y sacando xj de cada ncolumna j. Entonces: 1 1 1 ··· 1 1 1 1 ··· 1 x1 x2 x3 ··· xn 0 x 2 − x1 x 3 − x1 ··· xn − x1 2 2 x1 x2 x2 3 ··· x2n 0 x2 (x2 − x1 ) x3 (x3 − x1 ) · · · xn (xn − x1 ) 3 3∆n = x1 x2 x3 3 ··· x3n = 0 x2 (x2 − x1 ) 2 x2 (x3 − x1 ) 3 · · · x2 (xn − x1 ) n ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· xn−2 xn−2 xn−2 1 2 3 ··· xn−2 n 0 n−1 n−1 x2 (x2 − x1 ) x3 (x3 − x1 ) n−1 · · · xn (xn − x1 ) xn−1 xn−1 xn−1 1 2 3 ··· xn−1 n 0 xn−2 (x2 − x1 ) xn−2 (x3 − x1 ) 2 3 · · · xn−2 (xn − x1 ) nAqu´ podemos prescindir de la primera columna y sacar en las columnas restantes los factores: ı,x2 − x1 , x3 − x1 , · · · , xn − x1 , quedando nuestro determinante igual a 1 1 ··· 1 x2 x3 ··· xn x22 x23 ··· x2n ∆n = (x2 − x1 )(x3 − x1 ) · · · (xn − x1 ) 3 x2 x33 ··· x3n ··· ··· ··· ··· n−2 n−2 x2 x3 ··· xn−2 nque es del mismo tipo, donde repitiendo las operaciones con las filas, tenemos que es igual a 103
  • 104. 1 ··· 1 x3 ··· xn n−1 n x23 ··· x2n (x2 − x1 )(x3 − x1 ) · · · (xn − x1 )(x3 − x2 ) · · · (xn − x2 ) = (xi − xj ). x33 ··· x3n j=1 ij ··· ··· ··· n−3 x3 ··· xn−3 n Ejercicios: 4.4.1. a) Siendo a0 + a1 x + a2 x2 + a3 x3 = P (x) un polinomio de grado 3, hallar sus coeficientes paraque P (0) = 2, P (1) = 1, P (2) = −1, P (3) = 0 b) Demostrar que siempre se puede encontrar un polinomio de grado 3 que cumpla las condiciones{P (xi ) = yi }i∈{1,2,3,4} , cuando todos los {xi } son distintos, cualesquiera que sean los {yi }. c) Generalizar el resultado b): dado un polinomio de grado n, y n + 1 parejas de puntos{(xi , yi )}i∈{1,2,··· ,n+1} , siempre se pueden encontrar los coeficientes del polinomio de manera queP (xi ) = yi si todos los {xi } son distintos. Obs´rvese que la parte c) nos indica c´mo hallar una funci´n cuya gr´fica pase por n + 1 puntos e o o adel plano siempre que no haya dos puntos en la misma vertical. Desarrollo del determinante por una fila cualquiera y por una columna cualquiera: La definici´n de determinante se ha hecho por inducci´n utilizando la primera columna. Como o oel determinante de la matriz es igual al de la traspuesta por el teorema 1, obtenemos otra expresi´n otrasponiendo la matriz A y aplicando la definici´n de determinante: o |A| = a11 |A11 | − a12 |A12 | + · · · + (−1)j+1 a1j |A1j | + · · · + (−1)n+1 a1n |A1n |donde hemos cambiado el sub´ ındice i por j ya que j es el sub´ ındice utilizado usualmente para columnas.Este es el desarrollo del determinante por la primera fila. Por otra parte, considerando que la fila i-´sima puede ser colocada en la primera fila pas´ndola e apor encima de las i-1 anteriores, lo cual da en el determinante de la matriz i-1 cambios de signo ypor la f´rmula anterior, tenemos: o |A| = (−1)i−1 (ai1 |Ai1 | − ai2 |Ai2 | + · · · + (−1)j+1 aij |Aij | + · · · + (−1)n+1 ain |Ain |) = (−1)i+1 ai1 |Ai1 | + (−1)i+2 ai2 |Ai2 | + · · · + (−1)i+j aij |Aij | + · · · + (−1)i+n ain |Ain | Este es el desarrollo del determinante por cualquier fila. 104
  • 105. Si queremos desarrollar ahora el determinante por cualquier columna, utilizando el teorema 1,s´lo tenemos que trasponer la matriz y desarrollar el determinante de la traspuesta por la fila corres- opondiente obteniendo: |A| = (−1)j+1 a1j |A1j | + (−1)j+2 a2j |A2j | + · · · + (−1)i+j aij |Aij | + · · · + (−1)j+n anj |Anj | Ejercicios: 4.5.1. a) Obtener, en funci´n de los determinantes de los menores diagonales de la matriz A, o a11 − λ a12 a13 |A − λI| = a21 a22 − λ a23 a31 a32 a33 − λ(Indicaci´n: descomponer las filas en sumandos sin λ y con λ). o b) Aplicar la f´rmula a la obtenci´n de los siguientes determinantes: o o   1−λ 2 1 2 1 −2 0 3−λ 1 1/3  −1 −2 −2  − λI 3 1 2−λ −2 2 −1 4.5.2. Encontrar los valores de a para que las siguientes matrices sean invertibles.       a 1 1 −1 −1 1 −1 a a a)  1 a 1  b)  1 4 −a  c)  a −1 a  0 1 a −1 a 0 a a −1 4.5.3. Dadas A, B y C, matrices cuadradas de orden n y A C D= 0 B a) Demostrar que |D| = |A||B| utilizando la descomposici´n: o A C In 0 A C = 0 B 0 B 0 In b) Demostrar, utilizando una descomposici´n similar, la misma igualdad, |D| = |A||B|, en el ocaso: A 0 D= C B 105
  • 106. F´rmula para la inversa: o Del desarrollo del determinante por una fila cualquiera ten´ ıamos |A| = (−1)i+1 ai1 |Ai1 | + (−1)i+2 ai2 |Ai2 | + · · · + (−1)i+j aij |Aij | + · · · + (−1)i+n ain |Ain |que se puede expresar matricialmente as´ ı: (−1)i+1 |Ai1 |   (−1)i+2 |Ai2 |   . .  .   = (ai1 , ai2 , · · · , aij , · · · , ain )   = |A|    (−1)i+j |Aij |   . .   .  i+n (−1) |Ain | Ahora vamos a hacer la siguiente observaci´n: o Si k = i, la suma Σ = (−1)i+1 ak1 |Ai1 |+(−1)i+2 ak2 |Ai2 |+· · ·+(−1)i+j akj |Aij |+· · ·+(−1)i+n akn |Ain | corresponde aldesarrollo del determinante de la matriz obtenida cambianndo la fila i-´sima de A por la fila k-´sima e ey dejando esta ultima igual, es por tanto, el desarrollo del determinante de una matriz que tiene las ´filas i-´sima y k-´sima iguales, que es cero. Lo cual matricialmente se puede escribir as´ e e ı: (−1)i+1 |Ai1|    (−1)i+2 |Ai2 |   . .  .   (ak1 , ak2 , · · · , akj , · · · , akn )  =0    (−1)i+j |Aij |   . .   .  (−1)i+n |Ain | Por tanto tenemos en una sola expresi´n: o (−1)i+1 |Ai1 |     a11 · · · a1i · · · a1k · · · a1n 0   . .  .  . ··· ··· ··· ··· ··· . .  . . . 0        ai1 · · · aii · · · aik · · ·  ain    i+j (−1) |Aii |    |A|   . .  .   0   . ··· ··· ··· ··· ··· .  . =   . .  .   .  i+j  . .   k1 · · · aki · · · akk · · · (−1) |Aik |    a akn    .     . .  . .   . ··· ··· ··· ··· ··· .  .   . . .  .  an1 · · · ani · · · ank · · · ann (−1)i+n |Ain | 0 Ahora, haciendo variar en la columna anterior el sub´ ındice i, tenemos: 106
  • 107. . . .    |A11 | . (−1)i+1 |Ai1 | . . (−1)k+1 |Ak1 | . . . |An1 | a11 .. a1i .. a1k .. a1n . .   . . . . . . . . . . . . . .  . .. .. . .. .. .. .   . . . . . . . .   . . . (−1) |A1i | . . (−1) |Aki | . (−1) |Ani |  i+1 k+1 n+i  ai1 .. aii .. aik .. ain   . |Aii | . .    . . .. .. .  .  . . . . . . . . . . . . . .  . .. .. .. .   . . . . . . .  . . .  ak1 .. aki .. akk .. akn    (−1)k+1 |A1k | . (−1)i+k |Aik | . . . |Akk | . (−1)n+k |Ank | .  . .   . .. .. .. .. .. .   . . . . . . . .  . . . . . . . . . . . .  an1 .. ani .. anj .. ann   . . . (−1)n+1 |A1n | . . |Ain | . (−1)k+1 |Akn | . . . |Ann |   |A| 0 ··· ··· 0 ··· 0 .. 0 . ··· ··· ··· ··· 0     0 · · · |A| 0 0 ··· 0      = . . .. . .   = |A|I.  . ··· ··· . ··· ··· .    0 · · · 0 · · · |A| ··· 0    . . ··· ··· ··· ...   0 . 0  0 ··· 0 ··· 0 · · · |A| Adem´s, del desarrollo del determinante por una columna, ten´ a ıamos: |A| = (−1)j+1 a1j |A1j | + (−1)j+2 a2j |A2j | + · · · + (−1)i+j aij |Aij | + · · · + (−1)j+n anj |Anj |que matricialmente se escribe as´ ı:   a1j  a2j   . .  .   j+1 j+2 i+j n+j ((−1) |A1j |, (−1) |A2j | · · · (−1) aij |Aij | · · · (−1) |Anj |)   = |A|    aij   .  .   . anj Tambi´n ocurre que si k = j, e 0 = (−1)j+1 a1k |A1j | + (−1)j+2 a2k |A2j | + · · · + (−1)i+j aik |Aij | + · · · + (−1)j+n ank |Anj | ya que esel determinante de la matiz obtenida de A sustituyendo la columna j-´sima por la coluna k-´sima, e e 107
  • 108. (tiene dos columnas iguales), que matricialmente se escribe as´ ı:   a1k  a2k   . .  .   ((−1)j+1 |A1j |, (−1)j+2 |A2j | · · · (−1)i+j |Aij | · · · (−1)n+j |Anj |)  =0    aik   .  .   . anky globalmente para todas las columnas se expresa: . . .  |A11 | . (−1)j+1 |Aj1 | . . (−1)k+1 |Ak1 | . . . |An1 |   . . . . . . .  a11 .. a1j .. a1k .. a1n . . . . . . . . . . . . . .  .  . .  .. .. .. .. .. .  . . . . . (−1)j+1 |A1j | . . (−1)k+j |Akj | . (−1)n+j |Anj |   aj1  . |Ajj | . . .. ajj .. ajk .. ajn    . . . . . . . . . . . . . .  . .   . .. .. .. .. .. .  . . . . . . .  . .  . . . . (−1)j+k |Ajk | . . (−1)n+k |Ank |   ak1 .. akj .. akk .. akn   k+1 (−1) |A1k | . . |Akk | .   . .   . . . . . . . . . . . . . . .. .. .. .. .. . .  . . . . . .  an1 .. anj .. ank .. ann  . . . (−1)n+1 |A1n | . . |Ajn | . (−1)k+1 |Akn | . . . |Ann |   |A| 0 ··· ··· 0 ··· 0 ...  0 ··· ··· ··· ··· 0     0 · · · |A| 0 0 ··· 0    = . .. .  = |A|I.   . . ··· ··· . ··· ··· .  .   0  ··· 0 ··· |A| · · · 0    . . ...   0 . ··· ··· ··· 0  0 ··· 0 ··· 0 · · · |A| Entonces, de estas igualdades, tenemos que llamando matriz cofactor de A a cof (A) = (cof (aij )) =((−1)i+j |Aij |) se verifica: A · t cof (A) = |A|I, t cof (A) · A = |A|Ilo que nos indica la f´rmula de la inversa de una matriz con determinante distinto de cero: o 1 t A−1 = ( cof (A)) |A| 108
  • 109. que ser´ inversa a la derecha y a la izquierda, y por tanto unica. a ´ Ejercicios: 4.6.1. Utilizando las matrices de cofactores, hallar las inversas de las matrices de los ejercicios3.4.1. que sean invertibles. Comprobar los resultados obtenidos utilizando el m´todo de Gauss para ecalcular la inversa. 4.6.2. Mostrar, usando la f´rmula de la inversa, que cuando una matriz es invertible, la traspuesta ode la inversa coincide con la inversa de la traspuesta. 4.6.3. Mostrar, usando la f´rmula de la inversa, que la matriz inversa de una matriz triangular osuperior invertible es tambi´n triangular superior. Y que lo an´logo ocurre para matrices triangulares e ainferiores. 109
  • 110. Regla de Cramer. Sea AX = b un sistema de ecuaciones, escrito de manera resumida, donde A es la matriz delos coeficientes de las inc´gnitas, X es la columna de las inc´gnitas, y b es la columna de t´rminos o o eindependientes; si A es una matriz invertible, multiplicando por la inversa de A a la izquierda,tenemos X = A−1 b, donde utilizando la f´rmula anterior para la inversa, tenemos: o 1 t X= ( cof (A))b |A|que desarrollada inc´gnita a inc´gnita da la regla de Cramer. Para cada inc´gnita xi , que es una fila o o ode la matriz X, tenemos: 1 xi = ((−1)i+1 A1i b1 + (−1)i+2 A2i b2 + · · · + (−1)i+n Ani bn ) |A|donde la expresi´n del par´ntesis es el desarrollo por la columna i-´sima del determinante de la matriz o e eobtenida de A (la matriz de los coeficientes) cambiando su columna i-´sima por la columna de los et´rminos independientes. e Ejercicios: 4.7.1. Utilizar la regla de Cramer para resolver los siguientes sistemas de ecuaciones:    2x +y +4z +8t = −1  x +2y −z = 7  2x +3y −5z − 2 = 0   x +3y −6z +2t = 3  a) 2x +y +z = 6 b) 3x −y +2z + 1 = 0 c) 3x −2y +2z −2t = 8  x −y +3z = −1 5x +4y −6z − 3 = 0    2x −y +2z = 4  Se pueden comprobar los resultados obtenidos sustituyendo o aplicando el m´todo de Gauss. e Sol: a) (5/3,8/3,0) b) (−1/5, 14/5, 6/5), c)(2, −3, −3/2, 1/2). 110
  • 111. Volviendo a los sistemas de ecuaciones, para los que hemos encontrado la regla de Cramer cuandoA es invertible, podemos demostrar que X = A−1 b, es soluci´n unica, ya que si hubiera dos soluciones o ´X y X’ para las inc´gnitas, de las igualdades AX = b = AX se tiene A(X − X ) = 0 de donde omultiplicando por la izquierda por A−1 tenemos X − X = A−1 0 = 0, es decir, X = X . La unicidad de la soluci´n de los sistemas AX=b se puede reducir a la unicidad de soluci´n del sistema AX=0, ya o oque ´ste es un caso particular de los anteriores y si hay dos soluciones distintas de AX=b para alg´n b, la diferencia e u(distinta de cero), es soluci´n no nula de AX=0. o (Un sistema de la forma AX=0 se llama sistema homog´neo y dado un sistema de la forma AX=b, al sistema eAX=0 se le llama sistema homog´neo asociado al sistema dado.) e Se nos plantea la pregunta sobre qu´ podemos decir de los sistemas AX = b cuando A es una ematriz no invertible e incluso cuando A no es una matriz cuadrada. Teorema de Rouch´-Frobenius. e Cuando A no es invertible (p. ej. si no es cuadrada) en el cap´ ıtulo primero hemos enunciado elTeorema de Rouch´-Frobenius relativo a los escalones de las matrices escalonadas a las que quedan ereducidas A y A|b. Ahora vamos a expresar num´ricamente el teorema de Rouch´-Frobenius con la definici´n de e e orango de una matriz, por medio de determinantes de submatrices suyas. Para expresar num´ricamente este teorema definiremos el rango de una matriz no necesaria- emente cuadrada como el m´ximo de los ordenes de las submatrices cuadradas de A con determinante a ´distinto de cero. Recordemos que, denotando por E(A|b) la matriz escalonada que se puede obtener de la matrizampliada del sistema y por E(A) la matriz escalonada a la que queda reducida A, el teorema deRouch´-Frobenius enunciado relativo a los escalones de las matrices escalonadas a que se pueden ereducir la matriz de los coeficientes del sistema y la matriz ampliada era: El sistema es incompatible si el n´mero de escalones de E(A|b) (o n´mero de filas no nulas de u uE(A|b)) es distinto del n´mero de escalones de E(A) (o n´mero de filas no nulas de E(A)). u u El sistema es compatible si los dos n´meros anteriores son iguales, siendo compatible determinado usi todos los escalones de E(A) son de longitud una columna y siendo compatible indeterminado si hayalg´n escal´n en E(A) de m´s de una columna. En el primer caso el n´mero de escalones de las dos u o a umatrices escalonadas o n´mero de filas no nulas coincide con el n´mero de columnas, es decir, con el u un´mero de inc´gnitas; En el segundo caso el n´mero de filas no nulas de las dos matrices escalonadas u o uanteriores es menor que el n´mero de columnas o inc´gnitas. u o 111
  • 112. Veamos cu´l es el rango de una matriz escalonada. En una matriz escalonada, cada fila distinta ade cero determina un escal´n. Al n´mero distinto de cero del angulo del escal´n se le llama pivote. o u ´ oCada fila distinta de cero determina un pivote y rec´ ıprocamente cada pivote pertenece a una filadistinta de cero. Tambi´n cada pivote determina una columna con ese pivote; entonces, si en la esubmatriz formada por las columnas que tienen pivote, suprimimos las filas nulas, obtenemos unasubmatriz cuadrada, ya que tiene tantas filas y tantas columnas como pivotes. Adem´s es una matriz atriangular superior (de orden igual al n´mero de filas no nulas de la matriz escalonada o n´mero u ude escalones), cuyos elementos en la diagonal son los pivotes, todos distintos de cero; por tanto sudeterminante es no nulo. De ello se deduce que el rango de una matriz escalonada es mayor o igualque su n´mero de filas no nulas, pero una submatriz de mayor orden tendr´ que incluir filas nulas, u ıay su determinante ser´ nulo, por lo que el rango de una matriz escalonada coincide con el n´mero ıa ude sus filas no nulas o n´mero de escalones. u As´ podemos dar un primer paso y enunciar el teorema de Rouch´-Frobenius diciendo que el ı, esistema es incompatible cuando los rangos de las matrices escalonadas a las que se reducenla matriz de los coeficientes del sistema y la matriz ampliada son distintos. Y que escompatible determinado cuando adem´s de ser los dos rangos iguales, lo son al n´ mero a ude inc´gnitas, siendo en otro caso indeterminado. o Si ahora comprobamos que el rango de una matriz es invariante por operaciones elementales,podemos suprimir en el enunciado anterior la frase: ”las matrices escalonadas a las que se reducen”;quedando el teorema de Rouch´-Frobenius antes escrito en letra negrita en su enunciado cl´sico. e a Invariancia del rango por transformaciones elementales. En efecto, vamos a ver que se conserva el orden de las submatrices con determinante distinto decero, y por tanto su m´ximo, al realizar cada uno de los tipos de operaciones elementales. Para ello avemos que si hay un menor de un determinado orden distinto de cero en la matriz que resulta deuna dada por una transformaci´n elemental hay otro menor del mismo orden, distinto de cero (que opuede coincidir con el primero) en la matriz dada. 1.) Hagamos en una matriz un intercambio de filas. Si en la matriz resultante hay un menor distinto de cero, es decir, una submatriz de determinanteno nulo, puede ocurrir que no interseque las filas intercambiadas, en cuyo caso aparece tal cual en laprimera matriz y su determinante es el mismo. O que contenga a las dos filas intercambiadas, en cuyo caso haciendo el cambio de filas inversoen la submatriz obtenemos otra submatriz de la matriz dada con determinante cambiado de signo 112
  • 113. respecto a la primera submatriz considerada, pero tambi´n distinto de cero. e O que contenga s´lo una fila de las intercambiadas y en este caso permutando esta fila con las ootras para intercalarla en el lugar en que aparec´ en la matriz dada obtenemos una submatriz de ıala primera matriz en la que aparece el trozo correspondiente de la fila de la que proven´ siendo ıasu determinante igual o cambiado de signo respecto al menor considerado, pero siempre distinto decero. Luego el orden de los menores distintos de cero se conserva en el primer tipo de operacioneselementales. 2.) Multipliquemos una fila por un n´mero distinto de cero. u Dado un menor distinto de cero en la matriz modificada, es decir, una submatriz con determinantedistinto de cero, si esta submatriz no interseca la fila multiplicada, aparece tal cual en la matriz daday si aparece la fila multiplicada su determinante es un m´ltiplo distinto de cero del determinante ude la submatriz de las mismas filas y las mismas columnas en la matriz dada, que por tanto ha deser tambi´n distinto de cero. Entonces, el orden de los menores distintos de cero se conserva por el esegundo tipo de operaciones elementales. 3.) Sumemos a una fila otra fila multiplicada por un n´mero. u Un menor distinto de cero de la matriz resultante puede ser el determinante de una submatrizque no contenga la fila modificada y entonces aparece tal cual en la primera matriz, siendo ya antesdistinto de cero. Si la submatriz contiene la fila modificada y la fila sumada, su determinante es igual al de lasubmatriz de las mismas columnas y an´logas filas en la matriz dada, que por tanto era distinto de acero. Si la submatriz contiene la fila modificada pero no la sumada, descomponemos su determinante enla suma de los dos determinantes de las dos submatrices formadas, primero, por las mismas columnasy las filas an´logas de la primera matriz y segundo por la submatriz obtenida de ´sta sustituyendo a ela fila modificada por la sumada multiplicada por el n´mero. u Si la submatriz primer sumando tiene determinante no nulo, se ha conservado el orden de losmenores no nulos; si este ultimo determinante es nulo, el otro determinante sumando ha de ser no ´nulo, pero el otro es m´ltiplo de un menor del mismo orden en la matriz dada (aunque con filas upermutadas), que ha de ser de valor no nulo, por lo que tambi´n queda igual el orden de los menores edistintos de cero. De aqu´ se deduce que el rango de la matriz modificada por operaciones elementales es menor o ıigual que el rango de la matriz dada. Como la matriz dada tambi´n se obtiene de la matriz modificada epor las operaciones elementales inversas, tenemos que los dos rangos son iguales. Con esto queda establecido el teorema de Rouch´-Frobenius en la versi´n de rangos. e o 113
  • 114. Apliquemos ahora el teorema de Rouch´-Frobenius al sistema AX=b cuando A es una matriz cuadrada invertible ede orden n. Como |A| = 0 tenemos el rango de A igual a n y como A es una submatriz de A|b, el rango de A|b esmayor o igual que el de A, pero tambi´n es siempre menor o igual al n´mero de sus filas, que es n, por tanto coinciden e uel rango de A y el de A|b. Entonces, el sistema es compatible. Tambi´n tenemos que estos rangos son iguales a n, que ees el n´mero de inc´gnitas, por tanto la soluci´n es unica, cualquiera que sea b (los t´rminos independientes). u o o ´ e Si la soluci´n del sistema es unica para todo b, tambi´n lo es cuando b = 0. Entonces A es invertible porque si A o ´ eno fuera invertible, ser´ |A| = 0 por lo que al ser A cuadrada, tendr´ ıa ıamos que el mayor orden de los menores distintosde cero es menor que n por lo que el rango de A ser´ menor que n, pero al ser igual al rango de A|0, porque una ıacolumna de ceros no aumenta el orden de los menores distintos de cero, seg´n el Teorema de Rouch´-Frobenius, el u esistema ser´ compatible indeterminado, por tanto, la soluci´n no ser´ unicamente la trivial seg´n hab´ ıa o ıa ´ u ıamos supuesto. Con los mismos razonamientos tambi´n se puede demostrar el e Teorema 4: Dada una matriz cuadrada A, A es invertible si y s´lo si el sistema AX=0 otiene unicamente la soluci´n trivial. ´ o Este teorema se sigue de la equivalencia entre la unicidad de la soluci´n del sistema AX=0 y la odel sistema AX=b, cualquiera que sea b. Ejercicios: 4.8.1. Estudiar la compatibilidad y determinaci´n de los sistemas siguientes aplicando el teorema ode Rouch´-Frobenius seg´n el c´lculo del rango de las matrices correspondientes a los sistemas e u asiguientes:    x1 +2x2 −x3 = 1  2x1 +x2 = 5  x1 −3x2 +x3 = 2  x2 +x3 = 2 x1 −x2 = 1 3x1 −8x2 +2x3 = 2 x1 +3x2 = 3 x1 +2x2 = 0 2x1 −5x2 +x3 = 3    4.8.2. Hallar los valores de a para que los sistemas    ax +y +z = 1  (a + 1)x +y +2z = −2  −x +ay +az = 0  x +ay +z = 1 2x +y +(a + 1)z =3 ax −y +az = 0 x +y +az = 1 x +(a + 1)y +2z = −2 ax +ay −z = 0    sean compatibles indeterminados. 4.8.3. Estudiar los valores de a y b que hacen compatibles los sistemas: 114
  • 115.   bx −ay −az −at = a bx −ay −az = a    −bx −az −at = a   −bx −az = a   −bx −by −at = a−bx −by =a  −bx −by −bz = a   −bx −by −bz = b    −bx −by −bz −bt = b  115
  • 116. Producto Vectorial. El producto vectorial de dos vectores a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ) se escribe simb´licamente oas´ ı: i j k a×b= a1 a2 a3 b1 b2 b3lo cual representa el vector de coordenadas: a2 a3 a a a a a2 a3 a1 a3 a1 a2 ,− 1 3 , 1 2 =i −j +k b2 b3 b1 b 3 b1 b2 b2 b3 b1 b3 b1 b2donde i, j y k son los vectores unitarios en la direcci´n de los ejes coordenados. o Este vector tiene las siguientes caracter´ ısticas: 1) Es perpendicular a cada uno de los vectores (a1 , a2 , a3 ) y (b1 , b2 , b3 ) de los que es producto. 2) Su m´dulo es igual al ´rea del paralelogramo que tiene por lados los vectores factores. o a 3) Su sentido es el de avance de un sacacorchos que gira desde la recta engendrada por el vectorprimer factor hacia la recta engendrada por el vector segundo factor. Demostraci´n de la propiedad 1): Veamos que a b cosα = a1 b1 + a2 b2 + a3 b3 , donde α es el oangulo que forman los dos vectores a y b.´ En efecto, seg´n el dibujo, u  f   f   f   f   f   f b senα   f b     b-a f f   f   f         6 I   α   a   116
  • 117. 2 b−a = ( b senα)2 + ( b cosα − a )2 = b 2 sen2 α + b 2 cos2 α + a 2 −2 a b cosα = 2 2 b + a − 2 a b cosα. Desarrollando ahora los t´rminos iniciales y finales de la desigualdad anterior, e (b1 − a1 )2 + (b2 − a2 )2 + (a3 − b3 )2 = b2 + b2 + b2 + a2 + a2 + a2 − 2 a 1 2 3 1 2 3 b cosαdonde desarrollando de nuevo, los cuadrados del primer miembro y simplificando, llegamos a laigualdad deseada en 1. (Compru´bese como ejercicio.) e De aqu´ se deduce que dos vectores son perpendiculares si y s´lo si la suma de los productos de ı olas coordenadas del mismo ´ ındice es cero. Esta suma de productos de coordenadas para los vectoresa y a × b es el determinante de una matriz que tiene dos filas formadas por las coordenadas de a yotra fila formada por las coordenadas de b, siendo por tanto cero. Lo an´logo ocurre para los vectores ab y a × b. Por lo que los vectores a y b son perpendiculares al vector a × b. Las aplicaciones del producto vectorial en matem´ticas son numerosas: (adem´s de ser usado en a af´ ısica.): a) Dada una recta como intersecci´n de dos planos: o Ax + By + Cz = D Ax+By+C z = Dya que sabemos que dos vectores perpendiculares a dichos planos son correspondientemente: (A, B, C)y (A , B , C ), y que por tanto, son perpendiculares a la recta, el producto vectorial de estos vectoreses un vector en la direcci´n de la recta. o b) Dada una curva como intersecci´n de superficies, el vector tangente a la curva en un punto es ola intersecci´n de los planos tangentes a las superficies en ese punto y puede hallarse utilizando el oresultado anterior. Ejercicios: 4.9.1. Hallar el vector de direcci´n de la recta de R3 dada por las ecuaciones: o 2x + y + 2z = 0 x + 2y + z = 0 4.9.2. Hallar la recta perpendicular com´n a las dos rectas determinadas por las dos parejas de upuntos: {(3, 1, 0), (1, 1, 3)} y {(0, 1, 0), (−1, 0, 0)}. 117
  • 118. Demostraci´n de la propiedad 2): Para probar que el m´dulo del producto vectorial a × b es igual o oal ´rea del paralelogramo de lados a y b tenemos en cuenta que a (Ar(a, b))2 = a 2 b 2 sen2 α = a 2 b 2 (1 − cos2 α) = a 2 b 2 − a 2 b 2 cos2 α = (a2 + a2 + a2 )(b2 + b2 + b2 ) − ( a b cosα)2 = 1 2 3 1 2 3 (a2 + a2 + a2 )(b2 + b2 + b2 ) − (a1 b1 + a2 b2 + a3 b3 )2 = 1 2 3 1 2 3 2 2 2 a2 a3 a a a a + 1 3 + 1 2 b2 b3 b1 b3 b1 b2f´rmula muy util en R3 , donde es laborioso el c´lculo directo de la altura de un paralelogramo o de o ´ aun tri´ngulo. a Consecuencia de ello es que si el producto vectorial de dos vectores es cero, uno de los dos esm´ltiplo del otro. (O sea que est´n en la misma recta). Al ser nula el ´rea del paralelogramo u a asubtendido por ellos. Ejercicios: 4.10.1. Comprobar que el ´rea del cuadrado que tiene tres v´rtices en los puntos {(1, 1), (2, 1), (1, 2)} a edel plano, hallada haciendo el producto de base por altura es la misma que el area hallada usando el ´producto vectorial. 4.10.2. Hallar el area de un paralelogramo que tiene tres v´rtices en los puntos: ´ e a) (1, 1), (2, 3), (3, 4)}. b) {(0, 1, 0), (1, 2, 1), (1, 1, 1)}. 4.10.3. Hallar el area del cuadril´tero de v´rtices: {(−2, 0), (−1, −2), (2, 1), (0, 3)}. ´ a e 118
  • 119. La propiedad 3) se demuestra al final del cap´ ıtulo de movimientos utilizando m´s conocimientos adel curso. Otras propiedades interesantes son: Propiedad 4). Tambi´n se puede expresar el volumen de un paralelep´ e ıpedo cuyos lados son tresvectores como un determinante cuyas filas son las coordenadas de los vectores y que se llama productomixto de los tres vectores. Su demostraci´n se hace utilizando el producto vectorial. Ve´moslo: Si a, b y c son tres vectores no o acoplanarios, considerando que a y b determinan la base del paralelep´ ıpedo, el volumen es el productodel ´rea de la base por la altura. a T €€   €€ a×b   €€ €€ €€     €€       €   €€     €     c       p(c)                   b I  €€     €€    €       €€  € €€ €€a     €€ € €  q El area de la base es el m´dulo del producto vectorial a × b . La altura es el m´dulo de la ´ o oproyecci´n p(c) del vector c sobre la perpendicular al plano engendrado por a y b (a × b): o c · (a × b) c · (a × b) p(c) = c cosang(c, a × b) = c = c a×b a×bresultando a2 a3 a a a aV ol(paralpedo)(a, b, c) = a×b (c·(a×b)/ a×b ) = c·(a×b) = c1 −c2 1 3 +c3 1 2 = b2 b3 b1 b3 b1 b2 c1 c2 c3 a1 a2 a3 = a1 a2 a3 = b1 b2 b3 b1 b2 b3 c1 c2 c3 119
  • 120. Del volumen del paralelep´ ıpedo se deduce el volumen de un prisma triangular como la mitad delvolumen del paralelep´ıpedo y el volumen de una pir´mide como el tercio del volumen del prisma. aVe´nse los dibujos siguientes: a €   €€€   €€ €   € €   €       €     €                                                           €€€     € €€     €€ € €      €€   €€ €   € €     ¡¢ ¡ €    ¢ € ¡   €   ¡¢   4   ¡ 4    4    ¡ 4   ¢   4   ¡ ¢   44     ¡ ¢  4     ¡  44     ¡ ¢ 4   4   4 ¡   ¢       ¢       €€ ¢   €€ €€ ¢    €   €¢   €     ¡ €€   ¡¢ ¡ ¡   ¡ ¡¢ ¢ ¡ €€ ¡   € €   ¡ ¢¡ ¡ ¢   4€   ¡ ¢ ¡¢   4 € ¢ ¡ 4 44     ¡ ¡ ¡   4   ¢ 4 44  ¡ ¢ ¡  44 4   ¡ ¢   ¡ ¡ ¡ ¢ 4 44     ¢  4 ¡ ¡¢  4 ¡ ¢ 4     ¡ ¡¢ ¡ 44  4   4 4     ¡   ¡4¢ ¡¢ 4   ¢¡ ¢ 4       ¢ ¢   €€ ¢   €€ €€ ¢ ¢   € ¢ € ¢  ¢   120
  • 121. Ejercicios: 4.11.1. Hallar el volumen de un paralelep´ ıpedo que a) Tiene como aristas los vectores: {(1, 2, −1), (0, 1, 2), (1, 2, −3)}. b) Tiene un v´rtice en uno de los puntos: {(1, 0, 1), (1, 1, 2), (1, 1, 1), (2, 0, 2)} y los otros tres epuntos adyacentes al v´rtice escogido. e 4.11.2. Hallar el volumen de un prisma triangular con una base determinada por los puntos:{(1, 0, 1), (0, 1, 1)(1, 1, 0)} y con un v´rtice de la base opuesta en (1, 1, 1)). e 4.11.3. Los cuatro puntos {(0, 0, 0), (1, 0, 0), (0, 1, 0)(0, 0, 1)} determinan un tetraedro. Hallar: a) Su volumen. b) El area A de la cara que no est´ contenida en ning´n plano coordenado. ´ a u c) Su altura h referida a esta cara. d) Comprobar que el volumen obtenido utilizando determinantes es igual al volumen obtenidopor la f´rmula: V = 1/3(A × h). o 4.9.4. Los cuatro puntos {(3, 1, 0), (2, 0, 0), (0, 1, 0)(1, 1, 3)} determinan un tetraedro. Hallar la altura del v´rtice (3,1,0) respecto al area de la cara de v´rtices {(2, 0, 0), (0, 1, 0)(1, 1, 3)} e ´ eutilizando el producto vectorial y los determinantes. 121
  • 122. Propiedad 5). El producto vectorial se usa para calcular el vector normal (perpendicular) a unasuperficie en un punto y por ello, para calcular las integrales en superficies, entre ellas, las ´reas de alas superficies curvadas. Para ello es necesario saber cual es la relaci´n entre las ´reas de distintos paralelogramos de lados o aconocidos, contenidos en el mismo plano, cuando sabemos la relaci´n entre los lados. Esta relaci´n o ose usa al hacer cambios de coordenadas en las integrales. Es suficiente ver dicha relaci´n para vectores del plano coordenado z = 0, lo cual no restringe la ogeneralidad: dadas dos parejas de vectores {a, b} y {u, v} del plano donde u = c1 a+c2 b, v = d1 a+d2 bse cumple: c1 d 1 Ar(u, v) = Ar(a, b) c2 d 2 Demostraci´n: observemos que si a = (a1 , a2 , 0) y b = (b1 , b2 , 0), la f´rmula del area como el o o ´m´dulo del producto vectorial da o a1 a2 u1 u2 Ar(a, b) = y Ar(u, v) = b1 b2 v1 v2 Ya que es u = (u1 , u2 ) = (c1 a1 + c2 b1 , c1 a2 + c2 b2 ) y v = (v1 , v2 ) = (d1 a1 + d2 b1 , d1 a2 + d2 b2 ), c 1 a1 + c 2 b 1 c 1 a2 + c 2 b 2 Ar(u, v) = = d1 a1 + d2 b1 d1 a2 + d2 b2 c1 c2 a1 a2 c1 c2 a1 a2 c1 d 1 = = Ar(a, b) d1 d2 b1 b2 d1 d2 b1 b2 c2 d 2 Esta relaci´n se usa al hacer cambios de coordenadas en las integrales. Cuando se vea el cambio ode base entre espacios vectoriales se podr´ observar que el determinante que relaciona las dos areas a ´es el determinante de cambio de base entre la base {a, b} y la base {c, d}. 122
  • 123. BIBLIOGRAFIA (A) Algebra Lineal y aplicaciones. J. Arves´ Carballo, R. Alvarez Nodarse, F. Marcell´n Espa˜ol. u a nEd. S´ıntesis Madrid. 1999. (FB) Algebra lineal. J. B. Fraleigh y R. A. Beauregard. Ed. Addison- Wesley /Iberoamericana,1989. [G] Matem´ticas 2 Bachillerato. Carlos Gonzalez Garc´ Jes´s Llorente Medrano. Maria Jos´ a ıa. u eRuiz Jim´ez. Ed. Editex. 2009. n (H) Algebra y Geometr´ Eugenio Hern´ndez. Ed. Addison- Wesley / UAM, 1994. ıa. a [L] Linear Algebra for Mathematics, Science, and Engineering. E. M. Landesman, M. R. Hestenes.Prentice-Hall International, Inc. 1992. [S] Introduction to Linear Algebra. G. Strang. Wellesley-Cambridge Press 1993. 123
  • 124. 124
  • 125. ESPACIOS VECTORIALES. Introducci´n. o Consideremos el plano. Fijado un origen O y dado un punto P, uniendo el origen con ese puntopor el camino m´s corto obtenemos un segmento orientado que se llama vector. a Los vectores que empiezan en el mismo origen se pueden sumar dando otro vector con el mismoorigen y se pueden multiplicar por un n´mero real dando otro vector con el mismo origen: dos uvectores dados se suman por la regla del paralelogramo: trazando por el extremo del primer vectorotro vector paralelo al vector que queremos sumar y considerando el extremo de este ultimo como ´el extremo de la suma. Respecto a la suma son un grupo conmutativo y la otra operaci´n, que se ollama operaci´n externa, es distributiva respecto a la suma de vectores y a la suma de n´meros, es o uasociativa respecto al producto de n´meros y el producto de 1 por cualquier vector v deja invariante ua este v. Toda esta estructura recibe el nombre de espacio vectorial real. Por otra parte, en el plano podemos trazar dos rectas perpendiculares pasando por el origen,(normalmente, una horizontal y otra vertical), llamarlas ejes y llamar origen al punto en que seencuentran. Tambi´n podemos fijar un segmento como unidad de medida. A este conjunto de eelementos lo llamamos sistema de referencia. Trazando dos rectas paralelas a los ejes por el extremo de un vector que empiece en el origenobtenemos sobre los ejes, segmentos que medidos con la unidad fijada dan dos n´meros llamados ucoordenadas del vector o del punto extremo del vector. As´ hemos establecido otra correspondencia ıbiyectiva entre los puntos del plano y las parejas de n´meros reales, es decir, entre los puntos del uplano y R × R = R2 . (3,2) Q Es de observar que las coordenadas del vector suma de dos vectores dados, son la suma de lascoordenadas de los vectores sumandos. 125
  • 126. (x1 + y1 , x2 + y2 ) ¨ ¨ ¨ ¨  ¡ ¡ ¨   ¡ ¨¨ ¨   ¡ ¨¨   ¡ ¨ (y1 , y2 ) ¨   ¡ ! ¡   ¡ ¡   ¡ ¡   ¡ ¡   ¡ ¡   ¡ ¡   (x1 , x2 ) ¨¡ B ¡   ¨¨ ¡   ¨ ¡   ¨¨¨ ¡   ¨ ¡ ¨¨ ¨ ¨ ¡   Tambi´n al multiplicar un vector del plano por un n´mero real obtenemos un vector de su misma e udirecci´n y de longitud la que ten´ el vector multiplicada por el n´mero, (si el n´mero es negativo o ıa u ucambia de sentido), quedando las coordenadas del vector multiplicadas por el n´mero. u Como las operaciones de los vectores se trasmiten a las operaciones de R×R al coger coordenadasde los vectores, la estructura de R × R debida a la suma y a la operaci´n de multiplicaci´n por un o on´mero real, se llama espacio vectorial real. u Podemos hacer lo an´logo en el espacio trazando tres rectas perpendiculares dos a dos que se acortan en un punto del espacio llamado origen: asociar a cada punto un vector que empiece en elorigen y fijada una unidad de medida, asociar a cada punto tres coordenadas. En el espacio podemos sumar por la regla del paralelogramo y multiplicar un vector por unn´mero, lo cual est´ en correspondencia con las dos operaciones en las ternas de n´meros reales u a u 3(R = R × R × R): suma y multiplicaci´n por un n´mero real. La suma es una operaci´n interna. o u oLa multiplicaci´n por un n´mero real es una operaci´n externa. Estas dos operaciones tienen las o u omismas propiedades que las operaciones an´logas de R2 , por eso R3 tambi´n tiene estructura de a eespacio vectorial real. La estructura de estos conjuntos con estas operaciones puede encontrarse tambi´n en otros con- ejuntos utilizados en Geometr´ y en An´lisis y por ello se estudia de manera abstracta para poder ıa aaplicar sus resultados a todos los conjuntos con la misma estructura. Adem´s, la introducci´n del concepto de dimensi´n en los espacios vectoriales permite comparar a o olos conjuntos de soluciones de distintos sistemas de ecuaciones y determinar cu´ndo son coincidentes. a 126
  • 127. Tambi´n se puede simplificar el c´lculo del rango de una matriz sin tener que calcular todos sus e amenores utilizando el concepto de dimensi´n. o Pasamos ahora a una descripci´n precisa. o Cuerpo. Propiedades. En un espacio vectorial gen´rico, la operaci´n externa est´ definida por los elementos de un e o acuerpo. Por eso, antes de definir un espacio vectorial necesitamos la definici´n de cuerpo: o Definici´n 1: Cuerpo es un conjunto con dos operaci´nes internas que llamamos suma y producto o ocon las siguientes propiedades: 1) La suma es: a) Asociativa. b) Tiene elemento neutro (cero). c) Todo elemento tiene elemento opuesto. d) Conmutativa. 2) El producto es: α) Asociativo. β) Tiene elemento neutro (unidad). γ) Todo elemento distinto del elemento neutro de la suma tiene elemento inverso (opuesto respectoa la multiplicaci´n). o δ) El producto es distributivo respecto a la suma (a los dos lados). Si el producto es conmutativo, el cuerpo se llama cuerpo conmutativo. Los cuerpos utilizadospara los espacios vectoriales son cuerpos conmutativos. Por eso en nuestros cuerpos tambi´n se da ela propiedad: γ) Conmutativo. La existencia de la suma con las propiedades a), b), c) configura al conjunto K en grupo aditivo.La propiedad d) lo hace adem´s grupo aditivo conmutativo. a La otra operaci´n llamada multiplicaci´n o producto estructura a K − {0}, en un grupo multi- o oplicativo. El conjunto de los n´meros reales es un cuerpo, que denotamos por R. Tambi´n el conjunto de u elos n´meros complejos, que denotamos por C es un cuerpo y el conjunto de los n´meros racionales, u uque denotamos por Q. 127
  • 128. Estamos tan acostumbrados a que el producto del cero por cualquier otro elemento sea cero quepodemos pensar que este resultado es evidente, pero no lo es a partir de los axiomas establecidos enla definici´n de cuerpo. o Denotando por e al elemento neutro de la suma para que deje de parecer tan trivial, vamos aestablecer: e · x = e ∀x ∈ K En efecto: e · x = (e + e) · x = e · x + e · x Sumando ahora a los dos miembros de esta igualdad el elemento x opuesto de ex, tenemos: e = x + e · x = x + e · x + e · x = e + e · x = e · x es decir, e = e · x. Otras propiedades interesantes son: El elemento neutro de un grupo es unico: Suponiendo la existencia de dos elementos neutros ´e y e , llegamos a su igualdad: tendr´ ıamos e = e + e = e . De aqu´ tenemos la unicidad no s´lo del elemento neutro de la suma sino tambi´n la unicidad ı o edel elemento neutro de la multiplicaci´n sin m´s que cambiar el signo + por el signo ·. Usualmente, o arepresentaremos por 1 el elemento neutro de la multiplicaci´n. o El elemento opuesto de uno dado x de un grupo es unico: suponiendo la existencia de dos ´elementos opuestos x y x de x, tenemos: x = x + e = x + (x + x ) = (x + x) + x = e + x = x . Propiedad importante es que λ1 λ2 = e implica λ1 = e o λ2 = e. ´ En efecto: si λ2 = e, λ2 tiene un inverso respecto a la multiplicaci´n. Sea λ−1 este inverso, o 2entonces, seg´n la primera propiedad anterior, u e = eλ−1 = (λ1 λ2 )λ−1 = λ1 (λ2 λ−1 ) = λ1 . 2 2 2 128
  • 129. Espacio Vectorial. Definici´n 2: Un conjunto V es un Espacio Vectorial sobre un cuerpo K si o 1) Est´ dotado de una operaci´n interna llamada suma respecto de la cual es grupo conmutativo. a o 2) Tiene una multiplicaci´n externa por los elementos de un cuerpo K, es decir, existe una oaplicaci´n del conjunto K × V → V que asocia a cada par (λ, v) el elemento denotado por λv con olas siguientes propiedades: a) λ(v1 + v2 ) = λv1 + λv2 . (Distributividad respecto a la suma de V). b) (λ1 + λ2 )v = λ1 v + λ2 v. (Distributividad respecto a la suma en K). c) (λ1 λ2 )v = λ1 (λ2 v). (Asociatividad mixta). d) 1v = v donde 1 es el elemento neutro del cuerpo para la multiplicaci´n y v es cualquier vector ode v. El espacio vectorial se representa por VK . En los espacios vectoriales se verifica, si e es el elemento neutro del cuerpo, que e · v = 0 paracada vector v del espacio. Propiedad an´loga a la de los cuerpos, cuya demostraci´n es tambi´n a o eexactamente an´loga. a Tambi´n, si λ ∈ K y 0 es el elemento neutro de la suma de V, se verifica λ · 0 = 0. En efecto, ellamando v al elemento opuesto de λ · 0, tenemos 0 = v + λ · 0 = v + λ · (0 + 0) = v + (λ · 0 + λ · 0) = (v + λ · 0) + λ · 0 = 0 + λ · 0 = λ · 0 Otra propiedad interesante: si 1 es la unidad del cuerpo y −1 es el opuesto de 1 en K, el producto(−1)v es el opuesto de v en V. Se deduce de la igualdad: v + (−1)v = 1 · v + (−1) · v = (1 + (−1))v = e · v = 0y de la unicidad del elemento opuesto. Adem´s, si un vector v es distinto de cero, la igualdad λv = 0 implica λ = 0, ya que si λ = 0, a ıamos 0 = λ−1 (λv) = (λ−1 λ)v = 1 · v = v, en contra de loexistir´ el inverso de λ : (λ1 ) y tendr´ ıasupuesto. Se puede comprobar f´cilmente que el conjunto de matrices 2 × 2 de n´meros racionales es un a uespacio vectorial sobre Q. 129
  • 130. Es interesante observar que R tiene estructura de espacio vectorial sobre R y que cada cuerpo Ktiene estructura de espacio vectorial sobre K. Tambi´n se verifica que C tiene estructura de espacio vectorial sobre R y R tiene estructura de eespacio vectorial sobre Q. Es f´cil comprobar que el conjunto de polinomios de grado ≤ n con coeficientes reales es un aespacio vectorial sobre R y que el conjunto de polinomios de grado ≤ n con coeficientes complejoses un espacio vectorial sobre C. A los espacios vectoriales sobre R, se les llama espacios vectorialesreales. A los espacios vectoriales sobre C se les llama espacios vectoriales complejos. Son espacios vectoriales reales el conjunto de matrices con entradas reales de m filas y n columnas,Mm×n (R), el conjunto de funciones reales de variable real, el conjunto de las sucesiones de n´meros ureales... Son espacios vectoriales complejos el conjunto de matrices con entradas complejas de m filas y ncolumnas, Mm×n (C), el conjunto de sucesiones de n´meros complejos... u El conjunto de las aplicaciones definidas en un conjunto con imagen en un cuerpo es un espaciovectorial sobre ese cuerpo, sea este R, C o Q. Ejercicios 5.1.1. Indicar por qu´ el conjunto de todas las matrices de n´meros reales de todas las dimensiones e ucon n´meros reales no es un espacio vectorial real. u 5.1.2. Comprobar que el conjunto de funciones reales continuas de variable real son un subespaciovectorial real. 130
  • 131. Un ejemplo en el que se ve la importancia del cuerpo en la estructura de espacio vectorial es el conjunto C delos n´meros complejos. C tiene estructura de espacio vectorial sobre R y estructura de espacio vectorial sobre C. uPero son dos estructuras distintas; Como espacio vectorial complejo, fijado un elemento no cero, todo elemento deC se puede obtener multiplicando el elemento fijo por otro del cuerpo. Pero como espacio vectorial real, fijado unelemento distinto de cero s´lo los elementos de la recta geom´trica con direcci´n el elemento fijado se pueden obtener o e omultiplic´ndolo por elementos del cuerpo. a La estructura de espacio vectorial es importante porque permite el concepto de dimensi´n que oclasifica a estos espacios y establece diferencias entre los subconjutos de los espacios vectorialesllamados subespacios vectoriales. Se ver´ como ejercicio que la dimensi´n de C no es la misma a ocuando se considera espacio vectorial complejo que cuando se considera espacio vectorial real. Subespacios Vectoriales. Definici´n 3: Un Subespacio vectorial de un espacio vectorial V sobre un cuerpo K es un osubconjunto S no vac´ de V que es un espacio vectorial sobre el mismo cuerpo con las leyes de ıocomposici´n inducidas por las leyes de V (con el mismo cuerpo). o El espacio vectorial R contenido en el espacio vectorial C es un subespacio suyo si se considera en C la operaci´n oexterna por los elementos de R, pero no es un subespacio vectorial, si se considera en C la operaci´n externa por los oelementos del mismo C. El cuerpo sobre el que se considera el espacio vectorial es importante a la hora de considerarsubespacios: fijado un origen, hemos visto que los puntos del plano dan lugar a un espacio vectorialreal formado por los vectores que tienen el mismo origen 0 y que este espacio vectorial se puede hacercoincidir con el espacio vectorial real R × R introduciendo un sistema de referencia. El conjunto delos vectores horizontales, con origen en el punto prefijado, son un subespacio vectorial real del primerespacio vectorial y correspondientemente, el conjunto de las parejas {(a, 0)|a ∈ R}, es un subespaciovectorial de R × R. Pero tambi´n, se pueden poner los puntos del plano en correspondencia con los n´meros complejos e uy trasmitirles la estructura de espacio vectorial complejo de C. En este caso, como el subconjunto delos n´meros reales no es subespacio vectorial del espacio de los n´meros complejos cuando el cuerpo u uque se considera es C, la recta horizontal, que es la que corresponde a R no es un subespacio delespacio de los puntos del plano con la estructura vectorial compleja. Para que un subconjunto S no vac´ de un espacio vectorial sea subespacio vectorial se tendr´ que ıo averificar que la suma del espacio vectorial sea una operaci´n del subconjunto, asociativa, con elemento oneutro, tal que todo elemento del subconjunto tenga su elemento opuesto en el conjunto, conmutativa 131
  • 132. y adem´s que la multiplicaci´n externa por los elementos del mismo cuerpo sea otra operaci´n del a o osubconjunto con las propiedades distributivas y asociativa mixta y tal que 1 × v = v ∀v ∈ S. Pero hay algunas de estas propiedades, como la asociatividad, la distributividad y la conmutativi-dad, que por verificarse en V, se verifican en cualquier subconjunto S, y por ello, para comprobar queun subconjunto S es subespacio vectorial, s´lo hay que comprobar que las operaciones se mantienen odentro del subconjunto, (se dice que sean cerradas en el subconjunto), y que el subconjunto contieneel elemento neutro de la suma. Podemos ahorrarnos comprobaciones estableciendo: Proposici´n 1: El subconjunto S es un subespacio vectorial de un espacio vectorial V si: o i) S es cerrado respecto a la suma de V. (∀v1 , v2 ∈ S, v1 + v2 ∈ S). ii) S contiene el elemento neutro de la suma de V. iii) S es cerrado respecto a la operaci´n externa. (∀v ∈ S, ∀λ ∈ K, λv ∈ S) o En efecto, si S es cerrado respecto a la suma, S est´ dotado de esta operaci´n. Como S tambi´n a o etiene el elemento neutro por ii), y la operaci´n es asociativa en S (por serlo en V) lo unico que le o ´falta a S para ser grupo es que para cada v el elemento opuesto: −v pertenezca a S; Por ser cerradorespecto a la operaci´n externa, −v = (−1)v pertenece a S. Por lo que tenemos que S es un grupo oaditivo. La conmutatividad de la suma en S viene heredada de la conmutatividad de la suma en V. Luego 1) S es un grupo aditivo conmutativo. Adem´s, si S es cerrado respecto a la operaci´n externa de V, existe la aplicaci´n K × S → S a o oque asocia a cada par (λ, v) el elemento λv de S con las propiedades: a), b), c), d), de la definici´n o2. heredadas de las de V. Es decir, 2) S est´ dotado de la operaci´n externa por ser cerrado respecto a ella. Y las restantes a opropiedades de las operaciones de un espacio vectorial quedan heredadas. Hay que a˜adir la condici´n ii) porque el conjunto vac´ verifica i) y iii) pero no es subespacio n o ıovectorial. Sin embargo, podemos simplificar a´n m´s las condiciones a cumplir por un subespacio vectorial u ay establecer la Proposici´n 2: El subconjunto S es un subespacio vectorial de un espacio vectorial V si: o i) S contiene el elemento neutro del espacio vectorial respecto a la suma. ii) Dados λ1 , λ2 cualesquiera de K y dados v1 , v2 cualesquiera en S, λ1 v1 + λ2 v2 est´ en S. a 132
  • 133. Demostraci´n: o Veamos primero que si se cumplen las condiciones de la proposici´n 2, se cumplen las condiciones ode la proposici´n 1. o La condici´n i) de la proposici´n 2 es la condici´n ii) de la proposici´n 1. o o o o Si se verifica ii) de la proposici´n 2, cogiendo λ1 = λ2 = 1, dados dos vectores v1 y v2 de S, el ovector 1 · v1 + 1 · v2 = v1 + v2 pertenece a S, luego S es cerrado respecto a la suma en V. Adem´s, cogiendo λ1 = λ, λ2 = e, v1 = v = v2 , tenemos que λ1 v + e · v = λv est´ en S, cualquiera a aque sea λ ∈ K y v ∈ S, luego S es cerrado respecto a la ley de composici´n externa. o Rec´ıprocamente, veamos que si se cumplen las condiciones de la proposici´n 1, se cumplen las ocondiciones de la proposici´n 2: o ii) Dados λ1 , λ2 de K cualesquiera, y dados v1 , v2 en S los vectores λ1 v1 y λ2 v2 pertenecen a S,por ser S cerrado respecto a la operaci´n externa y su suma pertenece a S por ser S cerrado respecto oa la suma. La condici´n i) de esta proposici´n no es superflua, porque en el caso de ser S vac´ se cumplir´ o o ıo ıala condici´n ii) pero no ser´ S un grupo aditivo al no contener el elemento neutro. o ıa En realidad, podemos establecer la Proposici´n 3: El subconjunto S es un subespacio vectorial de un espacio vectorial V si: o i) S es no vac´ ıo. ii) Dados λ1 λ2 cualesquiera de K y dados v1 , v2 cualesquiera en S, λ1 v1 + λ2 v2 est´ en S. a Ya que al ser S no vac´ existiendo v ∈ S, el vector cero 0 = e · v pertenece a S por ii), cogiendo ıo,λ1 = λ2 = 0 y v1 = v2 = v. Ejercicios: 5.2.1. Comprobar que el conjunto de vectores con origen en O cuyos extremos est´n en una recta aque pasa por el punto O es un subespacio vectorial del espacio vectorial real formado por todos losvectores con origen en O. 5.2.2. Explicar por qu´ el conjunto de vectores con origen en O cuyos extremos est´n en una e arecta que no pasa por un punto O no es un subespacio vectorial del espacio vectorial real formadopor todos los vectores con origen en O. 133
  • 134. 5.2.3. Comprobar que el subconjunto de R2 formado por las parejas (x, y) con x ≥ 0 no es unsubespacio vectorial de R2 . 5.2.4. Estudiar si son subespacios vectoriales de R2 los siguientes subconjuntos: a) S1 = {(x, y) ∈ R2 | y − x = 0}, b) S2 = {(x, y) ∈ R2 | y − x = 1}, c) S3 = {(x, y) ∈ R2 | xy = 0}, d) S4 = {(x, y) ∈ R2 | y = |x|}, e) S5 = {(x, y) ∈ R2 | |y| = |x|}. 5.2.5. Estudiar si son subespacios vectoriales de R3 los siguientes subconjuntos: a) S1 = {(x, y, z) ∈ R3 | y − x = 0}, b) S2 = {(x, y, z) ∈ R3 | y − x = 1}, c) S3 = {(x, y, z) ∈ R3 | xy = 0}, d) S4 = {(x, y, z) ∈ R3 | y = |x|}, e) S5 = {(x, y, z) ∈ R3 | |y| = |x|}. 5.2.6. Comprobar que aunque Q est´ contenido en R y sus operaciones est´n inducidas por las de a aR, Q no es subespacio vectorial de R. (La multiplicaci´n de elementos de Q por elementos de R no oes cerrada en Q (puede dar elementos de R no contenidos en Q)). Lo mismo ocurre con R respectoa C. 5.2.7. Estudiar si son subespacios vectoriales de C, considerado como espacio vectorial complejo,a) el conjunto de los n´meros reales. b) el conjunto de los n´meros imaginarios puros. u u 5.2.8. Comprobar que el conjunto de las matrices diagonales de orden n con elementos de uncuerpo K, es un subespacio vectorial del espacio vectorial sobre el cuerpo dado, de las matricescuadradas de orden n con elementos de ese cuerpo. 5.2.9. Comprobar que el espacio vectorial de las matrices 2 × 2 con n´meros racionales no es usubespacio vectorial del espacio vectorial real de las matrices 2 × 2 con n´meros reales. u 5.2.10. Estudiar si son subespacios vectoriales del espacio vectorial real de funciones reales devariable real los siguientes subconjuntos: S1 = {f |f (0) = 0}, S2 = {f |f (1) = 0}, S3 = {f |f (0) = 1}. 5.2.11. Averiguar si son subespacios vectoriales de los correspondientes espacios vectoriales lossiguientes subconjuntos: a) El subconjunto de los polinomios con coeficientes reales dentro del espacio vectorial real de lasfunciones reales de variable real. b) El subconjunto de los polinomios de grado ≤ n, con coeficientes reales, siendo n fijo, dentrodel espacio vectorial real de las funciones reales de variable real. c) El conjunto de los polinomios de grado n, siendo n fijo, con coeficientes reales como subconjuntodel espacio vectorial real de los polinomios de cualquier grado con coeficientes reales. d) El subconjunto de polinomios de grado ≤ 3 con coeficientes reales divisibles por x − 1 comosubconjunto del espacio vectorial real de los polinomios de grado ≤ 3 con coeficientes reales. 134
  • 135. 5.2.12. Averiguar si son subespacios vectoriales del espacio vectorial real de matrices de n´meros ureales de orden 2 × 2 los siguientes subconjuntos: a) El subconjunto de las matrices de n´meros reales de orden 2×2 de traza cero como subconjunto udel espacio vectorial real de las matrices de n´meros reales de orden 2 × 2. (Se llama traza de una umatriz a la suma de los elementos de su diagonal). b) El subconjunto de las matrices de n´meros reales de orden 2 × 2 de rango 1 como subconjunto udel espacio vectorial real de las matrices de n´meros reales de orden 2 × 2. u c) El subconjunto de las matrices de n´meros reales de orden 2 × 2 que conmutan con la matriz uB, siendo B una matriz fija 2 × 2, como subconjunto del espacio vectorial real de las matrices den´meros reales de orden 2 × 2 . u 5.2.13. Averiguar si son subespacios vectoriales de los correspondientes espacios vectoriales lossiguientes subconjuntos: a) El subconjunto de las matrices triangulares superiores n × n con elementos de un cuerpo comosubconjunto del espacio vectorial sobre ese cuerpo de las matrices cuadradas n × n con elementos delmismo cuerpo. b) El subconjunto de las matrices sim´tricas n × n con elementos de un cuerpo como subconjunto edel espacio vectorial sobre ese cuerpo de las matrices cuadradas n × n con elementos del mismocuerpo. c) El subconjunto de las matrices antisim´tricas n × n con elementos de un cuerpo como subcon- ejunto del espacio vectorial sobre ese cuerpo de las matrices cuadradas n × n con elementos del mismocuerpo. 5.2.14. Averiguar si es subespacio vectorial del espacio vectorial real de matrices de n´meros ureales de orden m × n el subconjunto de las matrices escalonadas de m filas y n columnas. Corolario 1:(de la proposici´n 2.) o La intersecci´n de una familia de subespacios vectoriales es un subespacio vectorial. La de- omostraci´n a partir de la proposici´n 2 es f´cil de ver y se deja como ejercicio. o o a Corolario 2: El conjunto de soluciones de un sistema homog´neo de ecuaciones lineales con coeficientes en un ecuerpo conmutativo es un subespacio vectorial. Demostraci´n: o Demostrando primero que el conjunto de soluciones de una ecuaci´n lineal es un subespacio ovectorial, la demostraci´n se sigue de la observaci´n de que el conjunto de soluciones del sistema es o ola intersecci´n de los subespacios soluciones de cada ecuaci´n. o o Respecto a lo primero, sea a1 x1 +a2 x2 +· · ·+an xn = 0 una ecuaci´n con coeficientes en un cuerpo oK conmutativo y sea S el conjunto de sus soluciones. Entonces: i) (0,0,...,0) es soluci´n de la ecuaci´n lineal. o o 135
  • 136. ii) Sean λ1 y λ2 elementos del cuerpo K y (u1 , u2 , · &#x