• Me gusta
Libro Curso De Algebra Lineal
Próxima SlideShare
Cargando en...5
×

Libro Curso De Algebra Lineal

  • 3,142 reproducciones
Subido el

Curso de Algebra Lineal (septima version, 2012). ...

Curso de Algebra Lineal (septima version, 2012).

Luca Contreras Caballero.
Depto. Matematicas. Fac. Ciencias.
Universidad Autonoma de Madrid.

Más en: Educación
  • Full Name Full Name Comment goes here.
    ¿Está seguro?
    Tu mensaje aparecerá aquí
Sin descargas

reproducciones

reproducciones totales
3,142
En SlideShare
0
De insertados
0
Número de insertados
2

Acciones

Compartido
Descargas
132
Comentarios
1
Me gusta
1

Insertados 0

No embeds

Denunciar contenido

Marcada como inapropiada Marcar como inapropiada
Marcar como inapropiada

Seleccione la razón para marcar esta presentación como inapropiada.

Cancelar
    No notes for slide

Transcript

  • 1. Curso de Algebra Lineal (s´ptima versi´n, 2012). e o Luc´ Contreras Caballero. ıa Depto. Matem´ticas. Fac. Ciencias. a Universidad Aut´noma de Madrid. o 1
  • 2. 2
  • 3. ´ PROLOGO. He escrito este curso tratando de expresar de la forma m´s sencilla posible los conceptos de algebra a ´lineal, requiriendo solamente los conceptos previos de Bachillerato. Corresponde a los programas delos dos semestres de primer curso de algebra lineal de C.C. F´ ´ ısicas en la Universidad Aut´noma de oMadrid. Despu´s ha sido ampliado para cubrir tambi´n los programas de los semestres de Algebra e eLineal y Algebra Lineal y Geometr´ de CC. Matem´ticas. ıa a Aqu´ se encontraban en la tercera versi´n, algunos trabajos originales de la autora: Una intro- ı oducci´n geom´trica a los determinantes, una demostraci´n sencilla de la regla de Cramer, demostra- o e ociones elementales del teorema de Jordan en dimensi´n 2, 3 y 4, la obtenci´n de la base de Jordan o oen dimensi´n 2 y 3 y una aplicaci´n del espacio dual a la obtenci´n de condiciones necesarias y o o osuficientes para la diagonalizaci´n simult´nea de formas cuadr´ticas. o a a Tambi´n se encontraba una aplicaci´n del concepto de dimensi´n al c´lculo del rango de una e o o amatriz y aplicaciones de la diagonalizaci´n de formas cuadr´ticas, y entre los ejercicios, aplicaciones de o ala diagonalizaci´n de matrices y de su forma de Jordan a problemas de poblaciones. Y se explicitaban oel m´todo de Gauss, el teorema de Rouch´-Frobenius y el criterio de Sylvester. Otra aplicaci´n e e ointeresante es la de la t´cnica de las proyecciones al m´todo de m´ e e ınimos cuadrados. En la cuarta versi´n he a˜adido otros trabajos tambi´n originales: condiciones necesarias y sufi- o n ecientes para detectar el car´cter de las formas cuadr´ticas degeneradas, una demostraci´n elemental a a odel teorema de Jordan general para endomorfismos, un m´todo f´cil para hallar la forma de Jordan y e auna demostraci´n de que el sentido f´ o ısico de la regla del sacacorchos del producto vectorial coincidecon el sentido matem´tico de dicho producto vectorial. a En la quinta versi´n he a˜adido la din´mica de poblaciones. En la sexta versi´n he a˜adido un o n a o ncap´ıtulo de c´nicas y otro de cu´dricas. En la s´ptima version he a˜adido una ap´ndice sobre el o a e n eespacio cociente. El curso es autocontenido, con todas las demostraciones de los resultados y teoremas expuestosde forma l´gica y rigurosa. o Intentando que los alumnos estudien los conceptos, se introducen motivaciones de los mismos yse intercalan muchos grupos de ejercicios con dificultad progresiva. Algunos ejercicios se plantean deforma que se puedan resolver de distintas maneras, lo cual permite al alumno la comprobaci´n de osus resultados. Tambi´n he intercalado dibujos que facilitan la comprensi´n de los conceptos y de los razonamien- e otos y ejemplos resueltos en los ultimos cap´ ´ ıtulos. Luc´ Contreras Caballero. ıa 3
  • 4. ´ INDICE. ´NUMEROS COMPLEJOS.Introducci´n. o 9Regla de Ruffini para soluciones fraccionarias. 12N´meros Complejos. u 14Inverso de un n´mero complejo. u 15Propiedades de las soluciones de las ecuaciones. 19Forma trigonom´trica y forma polar de un n´mero complejo. e u 22Radicaci´n. o 26MATRICES. SUS OPERACIONES.Introducci´n. o 31Operaciones en las matrices. 32Tipos de matrices. 38 ´ ´METODO DE GAUSS Y REDUCCION DE GAUSS-JORDAN.Introducci´n. o 47M´todo de Gauss. e 50Operaciones elementales en una matriz. 57Reducci´n de Gauss-Jordan. o 63Matrices Invertibles. 68Caracterizaci´n de las matrices invertibles. o 69M´todo de Gauss para obtener la inversa de una matriz invertible. e 77DETERMINANTES y SISTEMAS de ECUACIONES.Introducci´n. o 81Propiedades de los determinantes y operaciones elementales. 85Definici´n de los determinantes. o 90Comprobaci´n de las propiedades. o 91Regla de Cramer sin utilizar la matriz inversa. 98Caracterizaci´n de las matrices invertibles por su determinante. o 100Determinante del producto. 101Desarrollo del determinante por una fila cualquiera y por una columna cualquiera. 104F´rmula para la inversa. o 106Regla de Cramer. 110Teorema de Rouch´-Frobenius. e 111Producto Vectorial. 116ESPACIOS VECTORIALES.Introducci´n. o 125 4
  • 5. Cuerpo. Propiedades. 127 Espacio Vectorial. 129 Subespacios Vectoriales. 131 Bases. 141 Teorema de la Base. 147 Cambio de base. 153 Aplicaciones del concepto de dimensi´n a procesos concretos. o 155 Independencia del n´mero de escalones obtenidos escalonando una matriz. u 155 Extracci´n de la base a partir de un sistema generador. o 156 Aplicaci´n del rango a la obtenci´n de las ecuaciones cartesianas de un subespacio dado por sus o ogeneradores. 158 C´lculo del rango de la matriz A y b´squeda del menor distinto de cero de orden igual al rango. a u160 Aplicaci´n al m´todo de Gauss. o e 163 Suma e intersecci´n de subespacios vectoriales. o 164 APLICACIONES LINEALES. Introducci´n. o 171 Expresi´n matricial de una aplicaci´n lineal. o o 174 Cambio de base en la expresi´n matricial de una aplicaci´n lineal. o o 177 N´cleo de una aplicaci´n lineal. u o 183 Imagen de una aplicaci´n lineal. o 186 F´rmula de las dimensiones para una aplicaci´n lineal. o o 190 Isomorfismos. 192 Espacio dual. 195 ESPACIO EUCLIDEO. ´ Introducci´n. o 201 Ortogonalidad. 202 Bases Ortogonales. 205 Ortogonalidad entre subespacios. 207 Complemento Ortogonal. 207 Teorema de Tellegen. 209 Proyecciones en general. 211 Proyecciones Ortogonales. 212 Proyecci´n ortogonal de un vector sobre un subespacio. o 213 Teorema de la aproximaci´n optima. o ´ 215 M´todo de Aproximaci´n de M´ e o ınimos Cuadrados. 216 Aplicaci´n del m´todo de m´ o e ınimos cuadrados a la regresi´n lineal. o 218 5
  • 6. Aplicaci´n del m´todo de m´ o e ınimos cuadrados a la obtenci´n de la matriz de la aplicaci´n proyecci´n o o oortogonal sobre un subespacio. 221 ESPACIO EUCL´ IDEO GENERAL. Una generalizaci´n m´s del Producto Escalar. o a 222 Expresi´n polinomial de una forma bilineal en un espacio vectorial de dimensi´n finita. o o 226 Expresi´n matricial de una forma bilineal en un espacio vectorial de dimensi´n finita. o o 226 Complementario Ortogonal en el espacio eucl´ ıdeo general. 229 Proyecciones ortogonales en un espacio eucl´ ıdeo general. 230 M´todo para encontrar una base ortonormal en un espacio vectorial de dimensi´n finita. e o 232 M´todo de ortogonalizaci´n de Gram-Schmidt. e o 233 Ortogonalidad en un espacio eucl´ ıdeo general. 238 Desigualdad de Schwarz. 239 Cambio de base. 241 Condiciones Necesarias y Suficientes para que una matriz corresponda a un Producto Escalar.(Criterio de Sylvester). 243 DIAGONALIZACION ´ DE ENDOMORFISMOS. Aplicaciones autoadjuntas en espacios eucl´ ıdeosy herm´ ıticos, y aplicaciones unitarias en espacios herm´ıticos. Introducci´n.o 249 Vectores propios y valores propios. 250 Primera condici´n necesaria y suficiente para que el endomorfismo sea diagonalizable. o 251 Segunda condici´n necesaria y suficiente para que el endomorfismo sea diagonalizable. o 257 Din´mica de poblaciones. a 259 Multiplicidad de los valores propios. 260 Tercera condici´n necesaria y suficiente para que el endomorfismo sea diagonalizable. o 262 Aplicaciones autoadjuntas en un espacio eucl´ ıdeo. 264 Diagonalizaci´n de las Aplicaciones Autoadjuntas, (de las matrices sim´tricas). o e 268 Espacios Herm´ ıticos. 275 FORMAS CUADRATICAS. ´ Introducci´n.o 281 Expresi´n matricial de una forma cuadr´tica. o a 281 Cambio de base en formas cuadr´ticas. a 285 Diagonalizaci´n de formas cuadr´ticas. o a 287 Diagonalizaci´n de una forma cuadr´tica en una base ortonormal. o a 287 Estudio de C´nicas. o 291 M´ximos y m´ a ınimos de funciones. 292 M´ximos y m´ a ınimos en la esfera unidad. 293 Energ´ de rotaci´n de un s´lido. ıa o o 294 Diagonalizaci´n de formas cuadr´ticas completando cuadrados. o a 295 6
  • 7. Ley de inercia de Sylvester. 302 Criterio de Sylvester para formas cuadr´ticas definidas positivas. a 306 Criterios para formas cuadr´ticas degeneradas. a 311 Diagonalizaci´n simult´nea de formas cuadr´ticas. o a a 319 Condiciones necesarias y suficientes para la diagonalizaci´n simult´nea de formas cuadr´ticas.325 o a a FORMAS DE JORDAN EN DIMENSION 2, 3 y 4. ´ Introducci´n. o 333 Consideraciones previas. 334 Forma de Jordan de Matrices 2 × 2 de n´meros reales. u 335 Forma de Jordan de Matrices 3 × 3 de n´meros reales. u 339 3 Resumen de la forma de Jordan en R . 354 Forma de Jordan compleja de Matrices 4 × 4 de n´meros complejos. u 355 Resumen de la forma de Jordan en R4 . 360 ´ DEMOSTRACION DEL TEOREMA DE JORDAN PARA ENDOMORFISMOS. Teorema de Jordan. 363 Ejemplos para un m´todo f´cil para hallar la base de Jordan. e a 367 M´todo general. e 378 APLICACIONES ORTOGONALES. ESPACIO AF´ Y MOVIMIENTOS. IN Introducci´n. o 383 Definici´n y propiedades. o 383 Estudio de las transformaciones ortogonales de R2 . 389 Estudio de las transformaciones ortogonales de R3 . 395 Espacio Af´ ın. 405 Aplicaciones afines con puntos fijos. 414 Movimentos en el plano. 420 Movimentos en el espacio tridimensional. 425 Sentido del producto vectorial. 438 ´ CONICAS. Introducci´n. o 441 Ecuaciones de las c´nicas en posici´n can´nica. o o o 443 Ecuaciones de algunas c´nicas en posici´n no can´nica. o o o 446 Algunos ejemplos de reducci´n de curvas de segundo grado a su ecuaci´n can´nica. o o o 449 Reducci´n de la ecuaci´n general de la expresi´n de una curva de segundo grado a su expresi´n o o o ocan´nica. o 453 Invariantes de las c´nicas. o 455 Clasificaci´n de las c´nicas. o o 457 Ejes de simetr´ y centro de las c´nicas no degeneradas. ıa o 458 C´lculos en la elipse del ejemplo 5. a 460 7
  • 8. C´lculos en la hip´rbola del ejemplo 6. a e 461C´lculos en la par´bola del ejemplo 7. a a 462Unificaci´n de las c´nicas en una definici´n de lugar geom´trico. o o o e 465 ´CUADRICAS.Introducci´n. o 469Estudio general de la superficie de segundo grado. 472Invariantes de las cu´dricas. a 476Clasificaci´n de las cu´dricas. o a 478Resumen de la clasificaci´n de las cu´dricas. o a 479Ejes de simetr´ y centro de las cu´dricas no degeneradas. ıa a 479Otros invariantes de las cu´dricas degeneradas. a 482Ley de los signos de Descartes. 484 ´APENDICE: ESPACIO VECTORIAL COCIENTE. 487 8
  • 9. ´ NUMEROS COMPLEJOS. Introducci´n. o Los distintos tipos de n´meros han ido apareciendo en la historia del hombre progresivamente, useg´n las necesidades de las actividades que realizaba y son estudiados hoy tambi´n progresivamente u edesde la escuela primaria a la Universidad. Debido a la necesidad de contar las cabezas de ganado surgieron los n´meros naturales, (que uson todos positivos) con los que se puede sumar; los n´meros enteros, (que pueden ser positivos o unegativos e incluyen al cero) sirven para indicar los intercambios de mercanc´ y dinero; con ellos se ıaspuede sumar y restar. La multiplicaci´n es una forma m´s r´pida de hacer una suma de sumandos o a aiguales y entonces se plantea el problema de hacer la operaci´n inversa a la multiplicaci´n que es la o odivisi´n, pero esta operaci´n no siempre tiene soluci´n con n´meros enteros, por lo que se crearon o o o uotros n´meros llamados fraccionarios o racionales. u Los n´meros enteros se caracterizan por el hecho de que cualquier ecuaci´n de la forma x + a = b u otiene soluci´n cuando los n´meros que aparecen en ella son enteros. o u Los n´meros fraccionarios se caracterizan por el hecho de que cualquier ecuaci´n de la forma u oa1 x + a = b tiene soluci´n cuando los n´meros que aparecen en ella son fraccionarios y a1 = 0. o u Hay otro conjunto de n´meros en los que tambi´n la ecuaci´n a1 x + a = b tiene soluci´n si a1 = 0, u e o oson los n´meros reales que se construyen como l´ u ımites de sucesiones de n´meros fraccionarios. Los un´meros reales incluyen a los fraccionarios. La ecuaci´n anterior es una ecuaci´n de primer grado con u o ouna inc´gnita, que tambi´n se puede escribir a1 x + a0 = 0. Nos podemos plantear el problema sobre o esi una ecuaci´n m´s general: an xn + an−1 xn−1 + · · · + a1 x + a0 = 0 tiene siempre soluci´n cuando los o a on´meros que aparecen en ella son reales. La respuesta es que no y para obtener respuesta positiva utenemos que construir otro conjunto de n´meros que se llama n´meros complejos y se designa por C. u u Hay ejemplos de ecuaciones de segundo grado que no tienen soluci´n real. La ecuaci´n m´s o o asimple que no tiene soluci´n real es x2 + √ = 0. La ecuaci´n general de segundo grado, de la forma o 1 o b2ax2 + bx + c = 0 tiene la soluci´n x = −b± 2a −4ac pero si b2 − 4ac < 0 no encontramos ning´n n´mero o u ureal para x. Lo asombroso es que escribiendo por i un n´mero imaginario que satisfaga i2 +1 = 0, encontramos un´meros, llamados complejos, que son soluciones de todas las ecuaciones de segundo grado planteadas. u √ √Ya que si b2 −4ac < 0, tenemos b2 − 4ac = i 4ac − b2 que tiene un sentido imaginario. Entonces, elconjunto de los n´meros soluciones de todas las ecuaciones de segundo grado que se pueden plantear u √ 2 −4aces el conjunto de los binomios de la forma −b ± b 2a 2a donde el segundo sumando puede ser real ´o imaginario. Este es el conjunto de los n´meros complejos en el que i2 = −1 por ser i soluci´n u ode la ecuaci´n x2 + 1 = 0. Los representaremos, en general, como a + bi, donde a y b son ahora on´meros reales cualesquiera. El conocimiento de las propiedades de las operaciones de los n´meros u ucomplejos ampl´ la cantidad de ecuaciones que podemos resolver. Es muy importante y sorprendente ıa 9
  • 10. el teorema fundamental del ´lgebra que afirma que cualquier ecuaci´n de grado n con coeficientes a ocomplejos tiene siempre al menos un n´mero complejo como soluci´n. u o Haciendo ingeniosas combinaciones con los coeficientes de la ecuaci´n de tercer grado, del Ferro oy Tartaglia encontraron la forma general de sus soluciones, que ha pasado a la historia como f´rmula ode Cardano. La resoluci´n de la ecuaci´n de cuarto grado fu´ reducida a la soluci´n de la ecuaci´n de o o e o otercer grado por Ferrari. Pero el problema es mucho m´s dif´ si el grado de la ecuaci´n es mayor, a ıcil ono estando claro ni siquiera que la ecuaci´n tenga soluci´n. En este sentido, la importancia de los o on´meros complejos, de los que hemos hablado en la introduci´n, y del Teorema Fundamental del u oAlgebra demostrado por Gauss estriba en que afirma que cualquier ecuaci´n de grado n con ocoeficientes complejos tiene siempre al menos un n´ mero complejo como soluci´n. Este u oteorema afirma la existencia de la soluci´n pero sigue quedando el problema de c´mo encontrarla o oefectivamente. Durante mucho tiempo, los matem´ticos estuvieron buscando una f´rmula general a opara todas las ecuaciones de un cierto grado expresada por raices de expresiones racionales de suscoeficientes, hasta que un matem´tico llamado Abel demostr´ que esta forma general expresada por a oradicales com´n para todas las ecuaciones de un cierto grado no exist´ a partir de grado 5. M´s u ıa atarde, otro matem´tico llamado Galois encontr´ las condiciones necesarias y suficientes que han de a overificar los coeficientes de la ecuaci´n para que sus soluciones se puedan expresar por radicales. A´n o uhoy no todas las ecuaciones est´n resueltas y en eso trabajan los algebristas. a Sin embargo, se puede demostrar y lo demostraremos m´s adelante que, debido a las propiedades ade los n´meros complejos, si los coeficientes de la ecuaci´n son reales las soluciones complejas aparecen u opor parejas conjugadas de la misma multiplicidad. Y de aqu´ que toda ecuaci´n de grado impar con ı, ocoeficientes reales tiene al menos una soluci´n real. o El Algebra es el estudio de la resolubilidad de las ecuaciones; en cuanto que las ecuaciones seresuelven haciendo operaciones con los coeficientes que aparecen en ellas, el algebra es tambi´n el ´ eestudio de las propiedades de las operaciones que podemos hacer con esos n´meros. u En este cap´ıtulo repasaremos algunos resultados de bachillerato, los generalizaremos y adem´saestudiaremos ciertas propiedades de los n´meros complejos que nos servir´n para ampliar la cantidad u ade ecuaciones que sabemos resolver. 10
  • 11. Recordemos conocimientos de Bachillerato sobre las ecuaciones de grado n. Las soluciones enteras de una ecuaci´n de grado n con coeficientes enteros deben ser divisores del ot´rmino independiente. e Veamos por qu´: Sea an xn + an−1 xn−1 + · · · + a1 x + a0 = 0 una ecuaci´n de grado n donde todos e olos ai son enteros y sea a una soluci´n entera de la ecuaci´n. Entonces, o o an an + an−1 an−1 + · · · + a1 a + a0 = 0 =⇒ an an + an−1 an−1 + · · · + a1 a = −a0 ,de donde (an an−1 + an−1 an−2 + · · · + a1 )a = −a0 ;como todos los n´meros del par´ntesis son enteros, la ultima expresi´n indica que la soluci´n a divide u e ´ o oa a0 . Esta regla nos permite muchas veces encontrar las soluciones enteras de una ecuaci´n de grado on por tanteo, ya que el n´mero de divisores de un n´mero fijado es finito. Y se puede utilizar para u uecuaciones con coeficientes fraccionarios, una vez que hemos quitado los denominadores. En Bachillerato se estudia tambi´n la regla de Ruffini, que es un algoritmo para hallar Pn (a) y elos coeficientes del polinomio cociente Qn−1 (x). Este algoritmo es un m´todo para obtener el resto Pn (a) = an an + an−1 an−1 + · · · + a1 a + a0 eresultante de dividir Pn (x) por x − a, consistente en lo siguiente: Se colocan en una fila los coeficientes an , an−1 , an−2 , · · · a1 , a0 y debajo de ´sta, a la izquierda eel n´mero a y se hace una l´ u ınea horizontal: an an−1 an−2 ··· a1 a0 2 n a) 0 an a an a + an−1 a ··· ··· an a + · · · + a1 a −− −− − − − − − −−−−− −−− −−−−− −−−−−−− an an a + an−1 an a2 + an−1 a + an−2 ··· an an−1 + · · · + a1 an an + · · · + a1 a + a0 Se suma 0 a an y se pone debajo de la l´ ınea horizontal a la altura de an ; se multiplica por a,se pone an a debajo de an−1 al que se suma, obteni´ndose debajo de la l´ e ınea horizontal an a + an−1 ;de nuevo, se multiplica este n´mero por a, se coloca debajo de an−2 y se suman los dos n´meros, u uobteni´ndose an a2 + an−1 a + an−2 debajo de la l´ e ınea horizontal; se va repitiendo el mismo proceso conlas sumas que se van obteniendo debajo de la l´ ınea horizontal, teni´ndose a la altura de a1 la suma ean an−1 + an−1 an−2 + · · · + a2 a + a1 , que multiplicada por a y sumada a a0 da: an an + an−1 an−1 +· · · + a2 a2 + a1 a + a0 = Pn (a). Seg´n lo demostrado anteriormente, este n´mero es cero si y s´lo si u u oel polinomio considerado es divisible por x − a. 11
  • 12. Adem´s, los n´meros obtenidos debajo de la l´ a u ınea horizontal son los coeficientes de los t´rminos ede mayor grado de los restos sucesivos obtenidos al hacer la divisi´n del polinomio Pn (x) por x − a; opor ello son los coeficientes de las potencias de x en el polinomio cociente Qn−1 (x). Por ejemplo, la ecuaci´n x4 − 10x3 + 35x2 − 50x + 24 = 0 puede admitir como soluciones los odivisores de 24, entre ellos est´ el 3; para ver si el 3 es efectivamente una soluci´n aplicamos la regla a ode Ruffini para hallar el resto de la divisi´n del polinomio dado por x − 3: o 1 −10 35 −50 24 3) 0 3 −21 42 −24 −− −− −− −− −− −− 1 −7 14 −8 0 Habiendo salido cero el ultimo n´mero de abajo a la derecha, el resto de dividir el polinomio por ´ ux − 3 es cero y el cociente es x3 − 7x2 + 14x − 8. Efectivamente, una soluci´n de la ecuaci´n es 3. o o Recordemos estos conocimientos en los Ejercicios: 1.1.1. Resolver utilizando la regla de Ruffini las ecuaciones: 1−λ 1 3 4 3 2 x − 2x − 13x + 14x + 24 = 0. 1 2 − λ −2 = 0. 0 1 3−λ 1.1.2. Resolver las ecuaciones siguientes: x4 − 13x2 + 36 = 0. x6 − 14x4 + 49x2 − 36 = 0. La regla de Ruffini se puede generalizar a soluciones fraccionarias: Regla de Ruffini para soluciones fraccionarias. Se puede generalizar a las soluciones fraccionarias el resultado 1) demostrado para las solucionesenteras de una ecuaci´n de grado n con coeficientes enteros, encontr´ndose que 3) si un n´ mero o a uracional M/N irreducible es soluci´n de la ecuaci´n de grado n con coeficientes enteros, o oM debe ser divisor del t´rmino independiente y N debe ser divisor del coeficiente del et´rmino de mayor grado. e Demostraci´n: Sustituyendo la soluci´n M/N en la ecuaci´n dada tenemos: o o o M n M M Mn M n−1 M an ( ) + an−1 ( )n−1 + · · · + a1 + a0 = 0 =⇒ an n + an−1 n−1 + · · · + a1 + a0 = 0 N N N N N N 12
  • 13. de donde quitando denominadores y sacando factor com´n tenemos uan M n +an−1 M n−1 N +· · ·+a1 M N n−1 = −a0 N n ≡ M (an M n−1 +an−1 M n−2 N +· · ·+a1 N n−1 ) = −a0 N ndonde, debido a que todos los n´meros son enteros y a que M no tiene factor com´n con N, se tiene u uque M divide a a0 . Tambi´n tenemos: e−an M n = an−1 M n−1 N +· · ·+a1 M N n−1 +a0 N n ≡ −an M n = N (an−1 M n−1 +· · ·+a1 M N n−2 +a0 N n−1 )donde, debido a que todos los n´meros son enteros y a que N no tiene ning´n factor c´m´n con M, u u o use tiene que N divide a an . La regla de Ruffini tambi´n se puede aplicar con las raices fraccionarias. e Conviene practicar esta generalizaci´n en los Ejercicios: o 1.2.1. Resolver las ecuaciones: a) 6x2 − 5x + 1 = 0. b) 12x3 − 40x2 + 27x − 5 = 0. c) 24x3 − 26x2 + 9x − 1 = 0. d) 12x3 − 32x2 + 25x − 6 = 0. e) 6x4 + 7x3 − 3x2 − 3x + 1 = 0. 13
  • 14. N´ meros Complejos. u Veremos ahora los N´meros Complejos, cuyo conocimiento nos permitir´ la resoluci´n de m´s u a o aecuaciones: Se llama expresi´n bin´mica de un n´mero complejo a la forma a + ib, donde a y b son n´meros o o u ureales, en la cual a es la parte real y b es la parte imaginaria. El conjugado de un n´mero complejo uz = a + ib es z = a − ib. Los n´meros complejos se pueden sumar como binomios: u (a + ib) + (c + id) = (a + c) + i(b + d)y pueden comprobarse f´cilmente, utilizando las propiedades de los n´meros reales, (lo cual se re- a ucomienda como ejercicio), las propiedades de la suma: a) Asociativa. b) Tiene elemento neutro: 0+i0 (un elemento que sumado a cualquier otro lo deja igual). c) Todo n´mero complejo tiene elemento opuesto respecto a la suma: (el elemento opuesto de uuno dado es el elemento que sumado con ´l da el elemento neutro). e d) Conmutativa. La existencia de la suma con las propiedades antes enumeradas se resume en una frase: Losn´meros complejos son un grupo aditivo conmutativo. u Los n´meros complejos tambi´n se pueden multiplicar como binomios donde i2 = −1. u e (a + ib)(c + id) = (ac − bd) + i(ad + bc)y puede comprobarse, tambi´n utilizando las propiedades de los n´meros reales, que el producto es: e u a) Asociativo. b) Tiene elemento neutro (1). c) Todo elemento distinto del cero tiene elemento inverso. d) Es conmutativo. La existencia del producto con las propiedades antes enumeradas se resume en la frase: Losn´meros complejos distintos de cero son un grupo multiplicativo conmutativo. u De las propiedades anteriores, s´lo voy a comprobar aqu´ que todo n´mero complejo distinto de o ı ucero tiene inverso. 14
  • 15. Inverso de un n´ mero complejo. u Si buscamos el inverso x + iy de un n´mero complejo a + ib, buscamos un n´mero tal que u u (a + ib)(x + iy) = 1 es decir, un n´mero tal que (ax − by) + i(ay + bx) = 1. u Si el n´mero fuera real: z = a, de a−1 a = 1 tenemos que z −1 = a−1 . Si el n´mero fuera imaginario u upuro: z = ib, de −ib−1 ib = 1 tenemos que z −1 = −ib−1 . Podemos suponer en lo que sigue que el n´mero no es real ni imaginario puro, es decir, que ua = 0 = b. Como dos n´meros complejos son iguales cuando tienen la misma parte real y la misma parte uimaginaria, ha de ser: ax − by = 1 a2 x − aby = a ≡ (si a = 0, b = 0) bx + ay = 0 b2 x + aby = 0de donde (a2 + b2 )x = a. Aqu´ podemos despejar x por ser a2 + b2 = 0, ya que estamos suponiendo ıa = 0, b = 0. Entonces x = a/(a2 + b2 ). Tambi´n, ha de ser: e abx − b2 y = b abx + a2 y = 0de donde (a2 + b2 )y = −b, donde tambi´n podemos despejar y = −b/(a2 + b2 ). e 1 Hemos obtenido que el inverso de a + ib, es (a2 +b2 ) (a − ib), siempre que a + bi sea distinto de cero.Compru´bese que esta f´rmula es v´lida para los casos particulares hallados al principio, en los que e o ael n´mero era real o era imaginario puro. u Para dividir z1 por z2 (si z2 = 0) multiplicamos z1 por el inverso de z2 . Por un procedimiento similar de igualar partes real e imaginaria podemos hallar, dado un n´mero complejo c + di uotro n´mero complejo a + bi que elevado al cuadrado d´ c + di. As´ podemos resolver todas las ecuaciones bicuadradas u e ıen el conjunto de los n´meros complejos. u e) Adem´s el producto es distributivo respecto a la suma (debe comprobarse). a La existencia de la suma y del producto con las propiedades antes enumeradas se expresa en otrafrase: Los n´meros complejos son un cuerpo conmutativo. u Otros cuerpos ya conocidos son los conjuntos de los n´meros racionales y de los n´meros reales. u u Ahora se puede comprobar como Ejercicios: 15
  • 16. 1.3.1. Comprobar que, en el cuerpo de los n´meros complejos, tienen tantas soluciones como su ugrado, las ecuaciones siguientes: x2 − x + 1 = 0. √ x2 − 3x + 1 = 0. 2x3 + 4x2 − 3x + 9 = 0. x4 − x3 − 3x2 + 4x − 4 = 0. 2 λ 1 1 2 −λ = 0. 2λ 1 1 x6 + 4x4 + 5x2 + 2 = 0. x4 − x3 − x2 − x − 2 = 0. x4 + x3 − x − 1 = 0. 6x4 + x3 + 2x2 − 4x + 1 = 0. 6x5 + 5x4 + 4x3 + 4x2 − 2x − 1 = 0. x5 + x4 − x − 1 = 0. 6x4 + x3 + 11x2 + 2x − 2 = 0 12x4 + x3 + 11x2 + x − 1 = 0 6x4 − 11x3 + 10x2 − 11x + 4 = 0 4x4 + 4x3 − 11x2 + 4x − 15 = 0 4x4 + 16x3 + 31x2 + 64x + 60 = 0 1.3.2. Factorizar los polinomios igualados a cero en las ecuaciones anteriores y en las siguientes: x5 − 2x4 + 2x3 − 4x2 + x − 2 = 0. 6x4 + 7x3 − 3x2 − 3x + 1 = 0. 16
  • 17. x5 + x4 + 2x3 + 2x2 + x + 1 = 0. x7 + x6 + 6x5 + 6x4 + 9x3 + 9x2 + 4x + 4 = 0. Observar que algunas no son totalmente factorizables en binomios de grado 1 con coeficientesreales. Cuando se admiten los coeficientes complejos, o bien hay tantos factores como el grado de laecuaci´n, o bien llamando al n´mero de veces que se repite un factor, multiplicidad de ese factor, la o usuma de las multiplicidades de los factores de primer grado es igual al grado de la ecuaci´n. o 1.3.3. Demostrar que en un cuerpo, se tiene b · 0 = 0, cualquiera que sea b. 1.3.4. Demostrar que en un cuerpo, si a = 0, ax = 0 ⇒ x = 0. 1.3.5. Probar que en un conjunto de n´meros que sea un cuerpo, la ecuaci´n a1 x + a = 0 tiene u osoluci´n unica si a1 = 0. No tiene soluci´n si a1 = 0 y a = 0. Tiene infinitas soluciones si a1 = 0 = a. o ´ o Recordemos que se llama conjugado del n´mero complejo z = a + ib al n´mero a − ib que se u urepresenta por z = a − ib. Utilizando la notaci´n de conjugado de un n´mero complejo, hemos o uobtenido anteriormente respecto a su inverso que: z −1 = (a2 +b2 ) z. 1 Se puede representar el n´mero complejo a + ib como el punto del plano que tiene coordenadas ucartesiamas (a, b). Entonces, el punto correspondiente al conjugado de un n´mero complejo es el upunto sim´trico respecto al eje OX. e a+ib U b ƒ a ƒ ƒ ƒ ƒ w ƒ a-ib 17
  • 18. Por el teorema de Pit´goras, el n´mero a2 + b2 es el cuadrado de la longitud del vector con origen a uen el origen de coordenadas y extremo en el punto. Esta longitud se llama m´dulo del n´mero o ucomplejo y se representa por |z|. Entonces, podemos escribir: z −1 = |z|2 z. De donde se deduce 1tambi´n |z|2 = zz. e Para hacer operaciones con los n´meros complejos se proponen los Ejercicios: u 1.4.1. Hallar los siguientes n´meros complejos en forma bin´mica: u o 1 + 2i 1 + 2i 2 (1 + 2i)3 (1 + 2i)3 (1 + 2i)(1 − 2i), , ( ), , . 1 − 2i 1 − 2i (2 − i)3 (2 − 2i)3 1.4.2. Hallar un n´mero complejo en forma bin´mica: a + bi tal que (a + bi)2 = 1 + i. u o 1.4.3. Resolver la ecuaci´n x4 − 2x2 + 10 = 0 en el cuerpo de los n´meros complejos. o u 2 1.4.4. Resolver la ecuaci´n z − (1 + i)z + i = 0 en el cuerpo de los n´meros complejos. o u 1.4.5. Demostrar a) z1 + z2 = z1 + z2 b) z1 · z2 = z1 · z2 1.4.6. Demostrar: a) |z| = |z| b) |z1 · z2 | = |z1 ||z2 | c) |z1 + z2 | ≤ |z1 | + |z2 | 18
  • 19. Propiedades de las soluciones de las ecuaciones. A) Utilizando el ejercicio 1.4.5. anterior se obtiene que las soluciones complejas de una ecuaci´n ocon coeficientes reales aparecen por parejas conjugadas: Sea an xn + an−1 xn−1 + · · · + a1 x + a0 = 0 una ecuaci´n de grado n donde todos los ai son reales oy sea z una soluci´n compleja de la ecuaci´n. Entonces, o o an z n + an−1 z n−1 + · · · + a1 z + a0 = 0 =⇒ an z n + an−1 z n−1 + · · · + a1 z + a0 = 0 =⇒ an z n + an−1 z n−1 + · · · + a1 z + a0 = 0 =⇒ an z n + an−1 z n−1 + · · · + a1 z + a0 = 0donde se ve que tambi´n z es soluci´n de la ecuaci´n. e o o B) El n´mero a es soluci´n de la ecuaci´n: an xn + an−1 xn−1 + · · · + a1 x + a0 = 0, si y s´lo si el u o o o n n−1binomio x − a divide al polinomio an x + an−1 x + · · · + a1 x + a0 . En efecto, llamando Pn (x) aeste polinomio y divid´ndolo por x − a obtendr´ e ıamos: Pn (x) = Qn−1 (x)(x − a) + R(x)pero R(x) = R es un n´mero por ser el grado del resto menor que el grado del divisor. Sustituyendo uahora el valor a en la expresi´n de la divisi´n, tenemos: o o Pn (a) = Qn−1 (a)(a − a) + R = Rlo que nos dice que el resto de esta divisi´n es cero si y s´lo si a es soluci´n de la ecuaci´n dada, o o o oteni´ndose as´ que el polimomio Pn (x) es divisible por x − a si y s´lo si a es soluci´n de la ecuaci´n e ı o o oPn (x) = 0. Con lo que conocida una soluci´n de una ecuaci´n, esta queda reducida a otra de grado o omenor, presumiblemente m´s f´cil (Qn−1 (x) = 0). a a No podemos demostrar ahora con los conocimientos que tenemos el teorema fundamental delalgebra, pero s´ podemos ver consecuencias suyas:´ ı C) Todo polinomio con coeficientes complejos puede factorizarse en binomios de primer grado concoeficientes complejos. En efecto, dado un polinomio Pn (x), con coeficientes complejos, al tener la ecuaci´n Pn (x) = 0 osiempre soluci´n en los n´meros complejos por el teorema fundamental del algebra, existe z1 , tal o u ´ 19
  • 20. que Pn (x) = (x − z1 )Qn−1 (x), donde el grado del cociente Qn−1 (x) es n − 1. Este nuevo polinomiocociente puede factorizarse igualmente por el teorema fundamental del ´lgebra, obteni´ndose Pn (x) = a e(x − z1 )(x − z2 )Qn−2 (x). El grado del polinomio cociente puede seguir siendo rebajado hasta 1, encuyo momento, habremos factorizado el polinomio dado en n binomios de primer grado, algunos delos cuales se pueden repetir. Observando que los binomios de primer grado que factorizan un polinomio se pueden repetir yllamando multiplicidad de cada raiz zi al exponente de x − zi en la factorizaci´n de Pn (x), ahora ovemos que la suma de las multiplicidades de las soluciones reales y complejas de una ecuaci´n de grado n con ocoeficientes complejos es igual al grado de la ecuaci´n. o Tambi´n se define la multiplicidad de una raiz zi de un polinomio Pn (x) como el n´mero ni tal e u nique Pn (x) = (x − zi ) Qi (x) donde Qi (zi ) = 0. D) Si la ecuaci´n es de grado impar con coeficientes reales, alguna de sus soluciones ha de ser real. o Veamos primero que las raices complejas no reales de un polinomio con coeficientes reales, apare-cen con la misma multiplicidad que sus conjugadas: Si Pn (x) = 0 es una ecuaci´n con coeficientes reales y z1 y z 1 son dos soluciones conjugadas, osiendo z1 = a + ib; al ser Pn (x) = (x − z1 )Qn−1 (x) se tiene: 0 = Pn (z1 ) = (z1 − z1 )Qn−1 (z1 ) = −2biQn−1 (z1 )donde b = 0, por lo que Qn−1 (z1 ) = 0, siendo Qn−1 (x) divisible por x − z1 ; entonces, Pn (x) = (x − z1 )(x − z1 )Qn−2 (x) = (x − (a + bi))(x − (a − bi))Qn−2 (x) = [(x − a)2 + b2 ]Qn−2 (x) El polinomio Qn−2 (x) debe tener todos sus coeficientes reales, porque Pn (x) y (x − a)2 + b2 lostienen reales, por ello, si Qn−2 (x) tiene una raiz compleja no real tambi´n tiene a su conjugada. Lo emismo ocurrre con los sucesivos cocientes de Qn−2k (x)por (x − z1 )(x − z 1 ), de ser divisibles por x − z1 ,por ello la raiz z 1 aparece tantas veces como la raiz z1 . Entonces, si todas las raices del polinomio, de grado impar, fueran complejas no reales, la sumade sus multiplicidades ser´ par, no coincidiendo con su grado, por tanto, tiene que haber al menos ıauna soluci´n real. o E) Si un polinomio de grado n se anula para m´s de n valores distintos de la variable x, el polinomio aes el polinomio nulo, (todos los ai son nulos). (De donde si el polinomio no es nulo y es de grado n,no se puede anular para m´s de n valores de la variable). a 20
  • 21. En efecto, cogiendo n valores distintos {xi }i∈{1...n} que anulen al polinomio, por ser Pn (x1 ) = 0,Pn (x) es divisible por x − x1 , es decir, Pn (x) = Qn−1 (x)(x − x1 ). Si x2 = x1 anula al polinomio,Pn (x2 ) = 0 implica que Qn−1 (x2 )(x2 − x1 ) = 0, lo cual a su vez implica que Qn−1 (x2 ) = 0, por lo queQn−1 (x) = Qn−2 (x)(x − x2 ), y Pn (x) = Qn−2 (x)(x − x2 )(x − x1 ). Repitiendo el mismo procedimientocon n raices distintas, llegamos a que podemos expresar: Pn (x) = Q0 (x − xn )(x − xn−1 ) · · · (x − x2 )(x − x1 )donde Q0 es un n´mero, que debe ser igual a an . Cogiendo un valor m´s: (xn+1 ), que anule al u apolinomio, suponiendo que existe, tenemos: 0 = Pn (xn+1 ) = an (xn+1 − xn )(xn+1 − xn−1 ) · · · (xn+1 − x1 )donde por estar en un cuerpo y ser todos los par´ntesis distintos de cero, ha de ser an = 0. Por la emisma raz´n, an−1 = 0 y as´ sucesivamente hasta el a0 . (Un polinomio igual a una constante se anula o ıpara alg´n valor de x s´lo si esta constante es cero). u o F) Con un razonamiento an´logo se puede demostrar que encontradas k raices de un polinomio, cuya asuma de multiplicidades es igual al grado del polinomio, no puede haber otra raiz m´s. a En efecto, una vez escrito: Pn (x) = (x − z1 )n1 (x − z2 )n2 · · · (x − zk )nk an donde Σni = n, y an = 0si hubiera otra soluci´n m´s: zn+1 , se tendr´ o a ıa: 0 = Pn (zn+1 ) = (zn+1 − z1 )n1 (zn+1 − z2 )n2 · · · (zn+1 − zk )nk an Por ser los n´meros complejos un cuerpo, el producto de una serie de factores es cero si y s´lo si u oalguno de los factores es cero, por lo que zn+1 debe coincidir con alguno de los zi anteriores. 21
  • 22. Forma trigonom´trica y forma polar de un n´ mero complejo. e u La forma bin´mica de los n´meros complejos es adecuada para la suma, pero para la multiplicaci´n o u ohay otra forma m´s adecuada que es la forma polar. a Adem´s, para expresar de formas an´logas entre s´ las soluciones de la ecuaci´n xn − 1 = 0 ≡ a a ı o nx = 1 vamos a utilizar la forma trigonom´trica y la forma polar de un n´mero complejo. e u Ya hemos dicho que los n´meros complejos se pueden poner en correspondencia con los puntos del uplano. Para ello, trazamos en el plano dos rectas perpendiculares, una horizontal y la otra vertical,llamamos O (origen) al punto intersecci´n de las dos rectas e introducimos una unidad de medida. oEntonces al n´mero complejo a + ib puede asociarse el punto P que est´ a distancia ”a” unidades u ade medida del eje vertical y ”b” unidades de medida del eje horizontal. Al mismo tiempo podemosdibujar un vector con origen O y extremo P. Por el teorema de Pit´goras la longitud de este vector acoincide con el m´dulo del n´mero complejo. El vector est´ perfectamente determinado tambi´n por o u a esu longitud y por el ´ngulo que hace con la direcci´n positiva de uno de los ejes; vamos a escoger el eje a ohorizontal y al angulo que forma el vector con este eje le llamamos argumento del m´dulo complejo. ´ oHemos llegado a otra determinaci´n de un n´mero complejo por su m´dulo y su argumento que da o u olugar a la forma trigonom´trica y a la forma polar. e a+ib U b r 6 φ a La forma polar del n´mero complejo a + ib es el s´ u ımbolo reiφ donde r es el m´dulo y φ es el oargumento del n´mero complejo. (El m´dulo r es siempre positivo). u o Es de observar que cuando r = 0, cualquiera que sea φ, el n´mero es el cero. Y que reiφ = rei(φ+2π) , ues decir, todos los n´meros complejos con el mismo r y argumentos diferenci´ndose en un m´ltiplo u a ude 2π coinciden. 22
  • 23. Dado que a = rcosφ y b = rsenφ, el n´mero complejo es tambi´n a + ib = r(cosφ + isenφ), siendo u e´sta la forma trigonom´trica del n´mero complejo. Se ve que tanφ = b/a. La forma trigonom´tricae e u e iφy la forma polar dan la relaci´n e = (cosφ + isenφ). o Otros ejercicios para la familiarizaci´n con estas formas son: o 1.5.1. De los n´meros complejos enunciados a continuaci´n calcular su m´dulo y su argumento y u o oescribirlos en forma trigonom´trica y en forma polar. e √ √ 1 3 3 1 1 + i, 1 − i, −1 − i, +i , +i 2 2 2 2 1.5.2. Comprobar que cualquier n´mero complejo tiene el mismo m´dulo que su conjugado y que u osu opuesto. ¿C´al es la relaci´n entre los argumentos de un n´mero complejo, su conjugado y su u o uopuesto? 1.5.3. Suponiendo conocidos el m´dulo y el argumento de un n´mero complejo, hallar el m´dulo o u oy el argumento de su inverso. Las formas trigonom´trica y polar nos pasan de la naturaleza puramente algebraica de los en´meros complejos a su representaci´n geom´trica, lo cual va a revertir en el descubrimiento de u o em´s propiedades de dichos n´meros. a u Por ejemplo, la expresi´n de la multiplicaci´n de n´meros complejos se simplifica: o o u iφ1 iφ2 Sean z1 = r1 e = r1 (cosφ1 + isenφ1 ) y z2 = r2 e = r2 (cosφ2 + isenφ2 ) y multipliqu´moslos eseg´n la regla que tenemos para multiplicarlos en forma bin´mica: u o r1 eiφ1 r2 eiφ2 = z1 z2 = r1 (cosφ1 + isenφ1 ) · r2 (cosφ2 + isenφ2 ) = (r1 cosφ1 r2 cosφ2 − r1 senφ1 r2 senφ2 ) + i(r1 cosφ1 r2 senφ2 + r1 senφ1 r2 cosφ2 ) = r1 r2 (cosφ1 cosφ2 − senφ1 senφ2 ) + ir1 r2 (cosφ1 senφ2 + senφ1 cosφ2 ) = = r1 r2 (cos(φ1 + φ2 ) + isen(φ1 + φ2 ) = r1 r2 ei(φ1 +φ2 ) Donde vemos que la multiplicaci´n de n´meros complejos dados en forma polar o trigonom´trica o u ese hace multiplicando sus m´dulos y sumando sus argumentos. Debido a ello, la asociatividad del oproducto se demuestra mucho m´s f´cilmente utilizando la forma polar. a a Otros ejercicios son: 1.6.1. Demostrar utilizando la forma bin´mica y la forma polar de los n´meros complejos que: o u a) El producto de un n´mero por su conjugado es un n´mero real. u u 23
  • 24. b) El cociente de un n´mero por su conjugado es de m´dulo 1. u o Observar que la demostraci´n usando la forma polar es m´s corta. o a c) Comprobar los resultados anteriores en los c´lculos siguientes: a 3 + 4i (1 + 2i)(1 − 2i), , 3 − 4i d) Utilizar los resultados anteriores para calcular: √ √ √ √ √ 2 √ 2 2 2 2 2 2 +i 2 ( +i )( −i ), √ √ 2 2 2 2 2 − i 22 2 1.6.2. Probar la asociatividad de la multiplicaci´n de n´meros complejos usando su expresi´n en o u oforma polar y comparar la simplicidad del c´lculo respecto del que hay que hacer para demostrarla aen forma bin´mica. o 24
  • 25. La potenciaci´n sale tambi´n beneficiada de esta forma simple de multiplicar en forma polar. o eSeg´n lo visto: u z n = (reiφ )n = rn einφ = rn (cos(nφ) + isen(nφ))de donde se obtiene la f´rmula de Moivre: o cos(nφ) + isen(nφ) = (cosφ + isenφ)nen la que desarrollando el ssegundo miembro por el binomio de Newton y separando partes reales eimaginarias tenemos expresiones para cos(nφ) y sen(nφ) en funci´n de cosφ y senφ. o Otra repercusi´n geom´trica de la forma polar de un n´mero complejo se pone de manifiesto si o e uobservamos lo que ocurre al multiplicar n´mero de m´dulo 1 por otro n´mero complejo dado: u o u eiφ · reiα = rei(φ+α)Vemos que el resultado es un n´mero complejo del mismo m´dulo resultante de girar el n´mero u o ucomplejo dado un angulo φ. ´ Por tanto, la operaci´n geom´trica giro se expresa algebraicamente como una multiplicaci´n. o e o i(2+i) u e e e e e ¨2+i B e ¨¨ e ¨ e¨¨e ¨ ¨¨ e ¨¨e e¨ 25
  • 26. Radicaci´n. o La extracci´n de raices tambi´n se hace mucho m´s f´cilmente cuando los n´meros vienen o e a a udados en forma polar. Extraer las raices n-´simas de un n´mero complejo z es hallar los n´meros x tales que xn = z, e u u nes decir, resolver la ecuaci´n x − z = 0. Si z es real, esta ecuaci´n, por ser de coeficientes reales, o otiene las raices complejas por parejas conjugadas, es decir, las raices complejas de un n´mero real uaparecen por parejas conjugadas. Las soluciones de la ecuaci´n xn − z = 0 (si z = 0) tienen multiplicidad 1: vamos a ver que no opueden tener multilicidad mayor o igual que 2: Si una soluci´n z1 la tuviera, se podr´ escribir xn − z = (x − z1 )2 Qn−2 (x), entonces, derivando o ıa n−1en los dos miembros tendr´ ıamos nx = 2(x − z1 )Qn−2 (x) + (x − z1 )2 Qn−2 (x), que al sustituir x por n−1 nz1 , da nz1 = 0, imposible si z1 = 0. Al ser cada raiz de multiplicidad 1, debe haber n raices distintas. Veamos c´mo se obtienen: o Dado z = |z|eiα , un n´mero complejo x es raiz n-´sima de z si xn = z, es decir, escribiendo u ex = reiφ en forma polar, si rn einφ = |z|eiα , pero tambi´n si rn einφ = |z|ei(α+2π) o rn einφ = |z|ei(α+k2π) , e ´ ncualquiera que sea k, para lo cu´l es suficiente que r = |z| y nφ = α + k2π, cualquiera que sea k. a n La condici´n r = |z| siempre tiene soluci´n porque |z| es positivo pero puede tener dos soluciones o oreales para r si n es par, de las cuales s´lo cogemos la positiva porque el m´dulo es siempre positivo. o oPero lo m´s importante es que debido a la no unicidad de la expresi´n polar de un n´mero complejo, a o ucuando k var´ tenemos distintas posibilidades para φ de la condici´n nφ = α + k2π. Lo que nos da ıa, opara φ las soluciones:   φ0 = α  n  φ1 = α + 2π    n n φ2 = α + 2 2π  n n  φ3 = α + 3 2π  n n ··· ···     φn−1 = α + (n − 1) 2π  n n α 2π α φn = +n ≡ n n n Para el valor de r = + n |z| hay n posibles argumentos, (ya que φn es equivalente a φ0 ), por loque hay n raices complejas de cada n´mero complejo dado. u 26
  • 27. Las raices n-´simas del n´mero complejo 1 tienen m´dulo 1 y argumentos k2π/n, donde k var´ e u o ıade cero a n − 1. El conjunto de estos n n´meros con la operaci´n multiplicaci´n es un ejemplo de u o ogrupo multiplicativo finito. Sus puntos correspondientes determinan un pol´ ıgono regular de n ladoscon un v´rtice en el punto (1,0). Cada raiz determina tambi´n un giro del plano de ´ngulo k2π/n e e aEstos giros del plano dejan invariante cualquier pol´ ıgono regular de n lados con centro en el origen.Dos de estos giros se pueden realizar sucesivamente, lo cual da un giro que se llama composici´n ode los dos giros. La operaci´n composici´n de giros corresponde a la multiplicaci´n de los n´meros o o o ucomplejos que los representan. Por ello, el conjunto de los giros que dejan invariante un pol´ ıgonoregular con centro en el origen es un grupo multiplicativo finito. Se proponen los siguientes Ejercicios: donde se pide hacer los c´lculos en forma polar. a 1.7.1. Calcular en forma polar y en forma bin´mica los siguientes n´meros complejos: o u √ √ √ −4, i, −i, . Comprobar que los resultados son los mismos. 1.7.2. Calcular en forma bin´mica y en forma trigonom´trica los siguientes n´meros complejos: o e u √ √ 1 + i, −2 + 2iComparando las expresiones determinar el valor de cos(π/8) y cos(3π/8). Comprobar que cos2 (π/8)+cos2 (3π/8) = 1. ¿Por qu´?e 1.7.3. Expresar las siguientes raices en forma bin´mica utilizando la forma trigonom´trica corres- o epondiente y el ejercicio anterior. √ √ √ √ 4 4 −16, 3 −8, 3 −27i, 16i. 1.7.4. Hallar las raices cuartas de −i y representarlas gr´ficamente. a 1.7.5. Hallar las raices quintas de la unidad. Se˜alar cu´les son las raices que son conjugadas n aentre s´ ı. 1.7.6. Hallar las siguientes raices: √ √ 3 3 1 6 1 3 +i , +i 2 2 2 2¿C´mo est´n relacionadas entre s´ o a ı? 1.7.7. Resolver en el cuerpo de los n´meros complejos las ecuaciones: u x6 + 1 = 0, 27
  • 28. x6 + 2x3 + 1 = 0, x6 + x3 + 1 = 0, x6 + 2x4 + 2x2 + 1 = 0, 3x7 + x6 + 6x4 + 2x3 + 6x + 2 = 0. 2x7 − x6 + 4x4 + 2x3 + 2x − 1 = 0 2x7 + x6 + 4x4 + 2x3 + 2x + 1 = 0 4x8 − x6 − 8x5 + 2x3 + 4x2 − 1 = 0 2x5 + x4 − 2x3 − x2 + 2x + 1 = 0 Comprobar que la suma de las multiplicidades de las soluciones complejas (entre ellas las reales)de cada ecuaci´n es igual a su grado. o 1.7.8. Habiendo comprobado que (xn−1 + xn−2 + xn−3 + · · · + x + 1)(x − 1) = xn − 1, demostrarque a) La ecuaci´n x4 + x3 + x2 + x + 1 = 0 no tiene ninguna soluci´n real. o o b) La ecuaci´n xn + xn−1 + xn−2 + · · · + x + 1 = 0 no tiene ninguna soluci´n real si n es par y o otiene exactamente una soluci´n real si n es impar. ¿Cu´l es la soluci´n real si n es impar? o a o c) Las raices (n + 1) − esimas de la unidad que no coinciden con 1, son soluciones de la ecuaci´n ´ oxn + xn−1 + xn−2 + · · · + x + 1 = 0. 1.7.9. Resolver en el cuerpo de los n´meros complejos las ecuaciones: u x6 + x5 − x − 1 = 0, x7 + x6 − x − 1 = 0, 2x5 + x4 + x3 + x2 + x − 1 = 0, 6x6 + 5x5 + 4x4 + 4x3 + 4x2 − 2x − 1 = 0. Comprobar que la suma de las multiplicidades de las soluciones complejas (entre ellas las reales)de cada ecuaci´n es igual a su grado. o 1.7.10. Deducir de la f´mula de Moivre o a) Las f´rmulas del coseno del ´ngulo triple y del seno del ´ngulo triple. o a a b) Las f´rmulas an´logas para el angulo qu´ o a ´ ıntuple. 1.7.11. Hallar cos(π/12) calculando la raiz de eiπ/6 utilizando las formas bin´mica, trigonom´trica o ey polar de los n´meros complejos y comparando los resultados. u 28
  • 29. 1.7.12. Comprobar que las raices de orden n de la unidad y por ello los giros que dejan invarianteun pol´ ıgono regular de n lados con centro en el origen y un v´rtice en 1, son un grupo multiplicativo econmutativo. Otros ejemplos y problemas se pueden encontrar en el cap´ ıtulo 1 del libro [A], en el cap´ ıtulo 4 de[B], en el ap´ndice A2 de [G] en el cap´ e ıtulo 20 de [S] y en el cap´ıtulo 4 del libro [H] de la bibliograf´ ıa. Soluciones de 1.2.1: a) 1/2,1/3, b) 1/2,1/3,5/2, c) 1/2,1/3,1/4, d) 1/2,√ √ 2/3,3/2. e) 1/2,1/3,−1(doble). Soluciones de las cinco ultimas ecuaciones de 1.3.1: −1/2, 1/3, i 2, −i 2; −1/3, 1/4, i, −i; 1/2, 4/3, i, −i; ´3/2, −5/2, i, −i; −3/2, −5/2, 2i, −2i. 29
  • 30. Bibliograf´ ıa. [A1]. Algebra Lineal y aplicaciones. Jorge Arves´ Carballo, Renato Alvarez Nodarse, Francisco uMarcell´n Espa˜ol. Ed. S´ a n ıntesis 1999. [A2] La Matem´tica: su contenido, m´todos y significado. A. D. Alexandrov, A. N. Kolmogorov, a eM. A. Laurentief y otros. Ed. Alianza Universidad. 1981. [B] N´meros y Convergencia. B. Rubio. Ed. B. Rubio. 2006. u [D]. El Universo de las Matem´ticas. Willian Dunham. Ed. Pir´mide. 1994. a a [G1] Matem´ticas 1 Bachillerato. Carlos Gonzalez Garc´ Jes´s Llorente Medrano. Maria Jos´ a ıa. u eRuiz Jim´nez. Ed. Editex. 2008. e [G]. Algebra Lineal con aplicaciones. Stanley I. Grossman. Ed. McGraw-Hill. 1992. [H]. Algebra y Geometr´ E. Hern´ndez. Ed. Addison-Wesley-U.A.M. 1994. ıa. a [S]. Algebra Superior. M. R. Spiegel. Ed. Mc Graw Hill 2000. 30
  • 31. MATRICES. SUS OPERACIONES. Introducci´n. o Definici´n: Una matriz es una disposici´n rectangular y entre par´ntesis de n´meros; Es por o o e utanto, una tabla de n´meros entre par´ntesis y tiene un determinado n´mero de filas, que llamamos u e um y un determinado n´mero de columnas que llamamos n. Entonces se dice que la matriz es m × n. u Puede ser de n´meros positivos, de n´meros enteros, de n´meros racionales, de n´meros reales o u u u ude n´meros complejos. u Las tablas aparecen bastante en la vida cotidiana. P. ej. la tabla de valores de compra y venta de distintasmonedas con una fija (sea ´sta el euro), es una tabla de tantas filas como monedas consignemos y de dos columnas. eOtro ejemplo es la tabla de porcentaje de composici´n de unos alimentos determinados seg´n los hidratos de carbono, o ugrasas y prote´ ınas; ´sta es una tabla de tantas filas como alimentos hayamos listado y tres columnas. Las presiones ey temperaturas de un conjunto de n gases forman una tabla de dos filas y n columnas. Las tablas se transforman enmatrices cuando sus datos son utilizados para c´lculos. a Una matriz de una fila y una columna es un n´mero entre par´ntesis. u e La derivada de una funci´n real de variable real es un n´mero, y se generaliza a la derivada de una funci´n real o u ode varias variables por una matriz de una fila y varias columnas, cada una de las cuales es una derivada parcial. Deespecial inter´s en f´ e ısica son las derivadas de una funci´n real de tres variables, que se llaman gradientes y son tres on´meros entre par´ntesis. u e Un punto de R3 se representa por tres coordenadas entre par´ntesis, lo cual es una matriz 1 × 3. e 3Algunas veces, para comodidad de c´lculo, un vector de R se representa por los n´meros en columna; a uentonces es una matriz 3 × 1. En ´lgebra lineal aparecen las matrices m×n al expresar de forma global los sistemas de ecuaciones alineales de m ecuaciones con n inc´gnitas. Para ello se define el producto de matrices. o Tambi´n se utilizan para expresar las aplicaciones llamadas lineales y los productos escalares. Y epara relacionar distintos sistemas de coordenadas en el mismo espacio vectorial. Ciertas operaciones del conjunto de n´meros que aparecen en la matriz se trasfieren a operaciones ucon las matrices pero no siempre con las mismas propiedades que las operaciones de los n´meros de ulos que est´n formadas. Nuestro objetivo en este cap´ a ıtulo es definir y estudiar dichas operaciones. 31
  • 32. Operaciones en las matrices. Si representamos por K un conjunto de n´meros, se representa por Mm×n (K) el conjunto de las umatrices de m filas y n columnas que tienen n´meros de ese conjunto. Cada sitio de la matriz se ullama entrada. Introducimos la notaci´n general de una matriz: se escribe o A = (aij )i∈{1,2,...m},j∈{1,2,...n}donde aij es el n´mero que ocupa el lugar de la fila i y la columna j. Cuando est´n claras en el u acontexto, las variaciones de i y de j, no se especifican por sencillez de escritura. Si K tiene un producto, cualquier matriz puede multiplicarse por un n´mero del conjunto del que uest´ formada. Si A = (aij ) ∈ Mm×n (K) y s ∈ K, se define s · A = (saij ). a Este producto verifica: Si K tiene unidad (1): 1 · A = A Es distributivo si el producto de K es distributivo respecto a una suma: (s + t) · A = s · A + t · A Hay asociatividad mixta si K es asociativo: (st) · A = s · (t · A) Si en el conjunto K hay una suma, tambi´n ciertas matrices se pueden sumar, pero para eso etienen que tener el mismo n´mero de filas y de columnas. La suma no es una operaci´n en el u oconjunto de todas las matrices sino en Mm×n (K) cuando se han fijado m y n. Entonces, se define: si A = (aij )i∈{1...m}j∈{1...n} ∈ Mm×n (K) y B = (bij )i∈{1...m}j∈{1...n} ∈ Mm×n (K),A + B = (aij + bij )i∈{1...m}j∈{1...n} ∈ Mm×n (K), Se propone comprobar como ejercicios que 2.1.1. La suma es asociativa si la suma en K lo es. 2.1.2. La matriz cero (que tiene cero en todos los sitios), es elemento neutro para la suma si ceroes el elemento neutro de K respecto a su suma. 2.1.3. Si cada elemento de K tiene elemento opuesto respecto a la suma, cada matriz tieneelemento opuesto. Recordando la definici´n de grupo, los ejercicios 2.1.1., 2.1.2., y 2.1.3. se expresan conjuntamente oafirmando que si K es un grupo aditivo, Mm×n (K) lo es. Se puede comprobar tambi´n como ejercicio que si K es un grupo aditivo conmutativo, Mm×n (K) etambi´n lo es. e Adem´s la suma es distributiva respecto al producto por los elementos de K si lo es en K. aCompru´bese como ejercicio que s · (A + B) = s · A + s · B. e Estas operaciones con todas las propiedades enumeradas se dan p. ej. en M1×3 (R) que coincidecon el espacio de los vectores y por analog´ la estructura de Mm×n (K) con estas dos operaciones ıa,con las propiedades enumeradas se llama espacio vectorial. 32
  • 33. Para pasar a otra operaci´n entre matrices llamada producto, observemos que una matriz fila o1 × n y una matriz columna n × 1 se pueden multiplicar n´mero a n´mero: u u n (a1j )j∈{1...n} · (bi1 )i∈{1...n} = a1k · bk1 k=1dando otro n´mero. u Esto es lo que se hace para calcular el producto escalar de dos vectores de R3 : se coloca uno delos vectores en fila y el otro en columna y se multiplican n´mero a n´mero. u u Es tambi´n lo que se hace para calcular lo que tenemos que pagar en una compra multiplicando la matriz fila de elos precios de los art´ ıculos que hemos comprado por la matriz columna de las cantidades que hemos comprado de cadauno de ellos. Observemos tambi´n que una matriz A ∈ Mm×n (K) puede escribirse como superposici´n de filas: e o   F1  F2  A= .     . .  Fmo como yuxtaposici´n de columnas: o B = (C1 , C2 , · · · , Cn ) Si las filas de A tienen el mismo n´mero de elementos que las columnas de B, A y B se pueden umultiplicar multiplicando las filas de A por las columnas de B, siendo n n (AB)ij = Fi · Cj = aik bkj que escribiremos Aik Bkj k=1 k=1 Este producto es una operaci´n que va de Mm×n (K)× Mn×u (K) en Mm×u (K). Para que sea ooperaci´n en Mm×n (K), ha de ser m = n. o Podemos decir, por tanto, que las matrices cuadradas tienen otra operaci´n, el producto, con las osiguientes propiedades: a) El producto es asociativo si el producto en K lo es: A(BC) = (AB)C. En efecto, vamos a ver que el n´mero de la entrada (i,j) de A(BC) es el mismo que el n´mero de u ula entrada (i,j) de (AB)C: Suponiendo que A ∈ Mm×n (K), B ∈ Mn×u (K), C ∈ Mu×s (K). 33
  • 34. n n u n u (A(BC))i,j = Aik (BC)kj = Aik ( Bkl Clj ) = Aik (Bkl Clj ) k=1 k=1 l=1 k=1 l=1 u u n u n ((AB)C)i,j = (AB)il Clj = ( Aik Bkl )Clj = (Aik Bkl )Clj l=1 l=1 k=1 l=1 k=1Comparando las dos expresiones finales se puede ver que contienen los mismos sumandos debido ala propiedad asociativa del producto en K. La diferencia est´ solamente en la forma de agruparlos: a En el primer sumatorio agrupamos primero los del mismo k, sumamos los Aik (Bkl Clj ), para todoslos valores posibles de ‘l y luego volvemos a sumar estas sumas para todos los valores posibles de ‘k En el segundo sumatorio agrupamos primero los del mismo l, sumamos los (Aik Bkl )Clj , para todoslos valores posibles de ‘k y luego volvemos a sumar estas sumas para todos los valores posibles de‘l ; Pero la forma de agruparlos para la suma no importa debido a su propiedad conmutativa. Representaremos las matrices cuadradas n × n con elementos de K por Mn (K). Se indica como ejercicios la demostraci´n de o 2.2.1. b) El producto es distributivo respecto a la suma de matrices si el producto de K lo esrespecto a la suma. Como todav´ no hemos comprobado que el producto sea conmutativo y de hecho no lo es, la ıadistributividad tiene dos facetas, a la derecha y a la izquierda: A(B + C) = AB + AC, (A + B)C = AC + BC 2.2.2. c) El producto es asociativo respecto al producto por los elementos de K si el producto enK lo es. s(AB) = (sA)B, (AB)s = A(Bs) Pero existen matrices distintas de cero que no tienen inverso respecto a la multiplicaci´n. Para oello v´ase como ejercicio: e 2.2.3. Dada la matriz 1 0 A= 1 0Comprobar que no existe una matriz B tal que AB = I = BA. 34
  • 35. El conjunto de las matrices cuadradas de orden n con elementos de un cuerpo es un grupo aditivoconmutativo respecto a su suma. Respecto al producto no constituyen un grupo multiplicativo nia´n prescindiendo de la matriz cero, porque existen matrices no nulas que no poseen inversa seg´n el u uejercicio 2.2.3; por esto no son un cuerpo; la estructura de grupo aditivo con un producto asociativo ydistributivo se denomina anillo. Adem´s, el elemento unidad del cuerpo permite construir el elemento aunidad del conjunto de las matrices cuadradas de orden n respecto a la multiplicaci´n que es la matriz oque tiene 1 en todos los elementos de la diagonal y ceros en el resto. Por eso, se dice que Mn (K) esun anillo unitario. Nos podemos dar cuenta de que el producto en general no es conmutativo viendo que una matrizfila y una matriz columna del mismo n´mero de elementos son multiplicables en los dos sentidos udistintos pero en un sentido el producto es un n´mero y en otro sentido el producto es una matriz ucuadrada de orden igual al n´mero de elementos de las matrices dadas. u Se puede comprobar como ejercicios la no conmutatividad de matrices cuadradas y otras propiedadespeculiares: 2.2.4. Siendo A y B las matrices dadas a continuaci´n calcular los productos AB y BA cuando osea posible y comparar los resultados. 1 1 3 4 2 3 1 3 a) A = B= b) A = B= −1 1 5 6 0 1 0 0       2 4 0 5 50 1 2 2 3 4 c) A =  5 0 3  B =  1 60  d) A = B= 1 0  4 3 2 0 1 0 1 86 4 4 ¿Ser´ cierta para las matrices cuadradas la relaci´n (A + B)2 = A2 + 2AB + B 2 ? a o 2.2.5. Comprobar que el producto de dos matrices puede ser nulo sin que lo sean ninguno de losfactores, hallando los productos AB siendo A y B las matrices dadas a continuaci´n: o 1 1 1 3 6 −2 a) A = B= b) A = B= 1 1 −1 1 2 1 −6 1 0 0 0 c) A = 5 6 B= d) A = B= 5 1 0 1 1 ¿Es cierto que AB = 0 ⇒ BA = 0? Comprobarlo. 35
  • 36. 2.2.6. Hallar la forma general de las matrices 3 × 3 de n´meros reales o complejos que conmutan ucon   1 1 0  0 1 1 . 0 0 1 2.2.7. Hallar matrices 2 × 2 de n´meros reales, tales que su cuadrado es −I. u 2.2.8. Hallar matrices A ∈ M2×2 de n´meros reales, tales que A = I y A2 = A. u 2.2.9. Siendo   1 1 2 −4 F1 A =  0 1  = (C1 , C2 ), B = = 4 5 F2 1 1Comprobar que AB = C1 F1 + C2 F2 Generalizar este resultado para matrices de dimensiones multiplicables. 2.2.10. ¿Qu´ transformaci´n tiene lugar en la matriz C dada a continuaci´n cuando la multipli- e o ocamos a la derecha o a la izquierda por la matriz D diagonal dada tambi´n a continuaci´n: e o     6 −2 0 2 0 0 C= 2 0 1  D= 0 4 0  1 1 0 0 0 6 ¿C´ales son las matrices diagonales que conmutan con todas las dem´s? u a 2.2.11. Demostrar que si una matriz no es diagonal, no conmuta con todas las dem´s. Deducir ade este ejercicio y del anterior la forma de las matrices que conmutan con todas las dem´s. a 2.2.12. Multiplicando las dos matrices A y B dadas a continuaci´n, o     2 4 0 6 −2 0 A= 5 0 3  B= 2 0 1  0 1 0 1 1 0 Comprobar que: a) La primera fila del producto AB es la suma de las filas de B multiplicadas por los n´meros de ula primera fila de A considerados como coeficientes. b) La primera columna de AB es la suma de las columnas de A multiplicados por los n´meros de ula primera columna de B considerados como coeficientes. ¿Qu´ ocurre an´logamente con las dem´s filas y las dem´s columnas del producto? e a a a 36
  • 37. 2.2.13. Se llaman matrices elementales las obtenidas de la matriz identidad, haciendo una de lassiguientes transformaciones: a) Permutaci´n de filas. o b) Suma a una fila de otra fila multiplicada por un n´mero. u c) Multiplicaci´n de una fila por un n´mero distinto de cero. o u Escribir todas las matrices elementales de tama˜o 3 × 3. n Escoger una matriz cualquiera de n´meros y comprobar que al multiplicar esta matriz por otra uelemental colocando a la izquierda la matriz elemental, se realiza en la matriz escogida, la trans-formaci´n que hab´ tenido lugar en la identidad para obtener la matriz elemental. Generalizar el o ıaresultado. 37
  • 38. La trasposici´n es otra aplicaci´n definida en el conjunto de las matrices con imagen en este o omismo conjunto que hace corresponder a una matriz A = (aij )i∈{1,2,...m},j∈{1,2,...n} , la matriz represen-tada por t A: t A = (bij )i∈{1,2,...n},j∈{1,2,...m} donde bij = aji . Lo que hacemos es modificar la disposici´n ode los n´meros cambiando filas por columnas. u La trasposici´n no es siempre una operaci´n en Mm×n (R), ya que asocia a elementos de Mm×n (R), o oelementos de Mn×m (R). Para que una aplicaci´n sea operaci´n en un conjunto, tiene que quedarse o oen ese conjunto, para lo cual ha de ser Mm×n (R) = Mn×m (R), es decir, m = n. La traspuesta de la matriz suma de otras dos matrices es la suma de las traspuestas de las matricesdadas. En cuanto a la relaci´n del producto con la trasposici´n tenemos la siguiente igualdad: o o t (AB) = t Bt A ya que (t (AB))ji = (AB)ij = Aik Bkj = Bkj Aik = (t B)jk (t A)ki = (t B · t A)ji k k k Tipos de matrices. Entre las matrices cuadradas de n´meros reales se definen Las matrices sim´tricas son las que u ecoinciden con su traspuesta, para lo cual han de ser cuadradas (m=n): la matriz A = (aij ) essim´trica si y s´lo si aij = aji ∀i, j; tambi´n se escribe si y s´lo si A = t A. e o e o Las matrices antisim´tricas son las que coinciden con la opuesta de su traspuesta, para lo cual etambi´n han de ser cuadradas: la matriz A = (aij ) es antisim´trica si y s´lo si aij = −aji , ∀i, j; e e otambi´n se escribe A = −t A. e Compru´bese como ejercicios que e 2.3.1. Una matriz antisim´trica tiene nulos todos los elementos de su diagonal principal. e 2.3.2. Una matriz a la vez sim´trica y antisim´trica es una matriz nula (que tiene 0 en todos los e esitios). 2.3.3. Comprobar que: a) Dada una matriz cuadrada A, la matriz 1 (A + t A) es una matriz sim´trica. 2 e b) Dada una matriz cuadrada A, la matriz 1 (A − t A) es una matriz antisim´trica. 2 e c) Toda matriz cuadrada se puede escribir como suma de una matriz sim´trica y otra antisim´trica. e e 38
  • 39. Entre las matrices cuadradas de n´meros complejos se definen las matrices herm´ticas como las u ımatrices que verifican aij = aji , ∀i, j (A = t A) Y las matrices antiherm´ ıticas como las matrices queverifican aij = −aji ∀i, j (A = −t A) Compru´bese como ejercicios que e 2.4.1. Una matriz herm´ ıtica tiene todos los elementos de su diagonal principal reales. 2.4.2. En una matriz antiherm´ ıtica son imaginarios puros todos los elementos de la diagonalprincipal. 2.4.3. Una matriz a la vez herm´ ıtica y antiherm´ ıtica es una matriz nula. 2.4.4. Toda matriz cuadrada compleja se puede escribir como suma de una matriz herm´ ıtica yotra antiherm´ıtica. 2.4.5. Comprobar que el producto de matrices sim´tricas no siempre es una matriz sim´trica e erealizando el producto AB en el caso a):     1 0 1 1 0 0 a) A =  0 1 0 , B =  0 2 0  1 0 1 0 0 3 Sin embargo, s´ es sim´trico en el caso: ı e     1 4 1 0 0 1 b) A =  4 3 4  , B =  0 1 0  1 4 1 1 0 0 Comprobar que en el caso a) BA = t (AB) y en el caso b) BA = AB. 2.4.6. Demostrar que dadas A y B, dos matrices sim´tricas, A y B conmutan si y s´lo si su e oproducto es una matriz sim´trica. Encontrar matrices sim´tricas que conmuten y matrices sim´tricas e e eque no conmuten distintas de las del ejercicio anterior. 2.4.7. Si A es una matriz sim´trica y B es una matriz antisim´trica, A y B conmutan si y s´lo si e e osu producto es una matriz antisim´trica. e 2.4.8. Demostrar que toda matriz sim´trica 2 × 2 de n´meros reales o complejos que conmute con e u 1 1 0 1es un m´ltiplo de la identidad. u 2.4.9. Demostrar que toda matriz sim´trica 3 × 3 de n´meros reales o complejos que conmute con e u 39
  • 40.   1 1 0  0 1 1  0 0 1es un m´ltiplo de la identidad. u 40
  • 41. Otros subconjuntos importantes de las matrices cuadradas son: Las matrices diagonales: Son aquellas en las que aij = 0 siempre que i = j. Son en ellas nulostodos los elementos situados fuera de la diagonal del cuadrado que va del ´ngulo superior izquierdo aal ´ngulo inferior derecho (que se llama diagonal principal). a De las matrices diagonales la m´s importante es la identidad que tiene 1 en todos los elementos ade la diagonal. Tambi´n son importantes entre las matrices cuadradas las matrices triangulares superiores: Son een ellas nulos todos los elementos que se encuentran debajo de la diagonal principal. Por tanto,aquellas en las que aij = 0 siempre que i > j. An´logas a ´stas son las matrices triangulares inferiores: Son en ellas nulos todos los elementos a eque se encuentran encima de la diagonal principal. Por tanto, aquellas en las que aij = 0 siempreque i < j. Obs´rvese que una matriz a la vez triangular superior y triangular inferior es una matriz diagonal. e 2.5.1. Comprobar que la traspuesta de una matriz triangular superior es triangular inferior yrec´ ıprocamente. 2.5.2. Demostrar que: a) El producto de matrices diagonales es diagonal. b) El producto de matrices triangulares superiores es triangular superior. c) El producto de matrices triangulares inferiores es triangular inferior. Debido al ejercicio 2.4.5, las matrices sim´tricas de orden n no son un subanillo de las matrices cuadradas de orden en, (porque el producto de dos matrices sim´tricas puede no ser sim´trica). Sin embargo, debido al ejercicio 2.5.2 las e ematrices diagonales de orden n forman un subanilo unitario del anillo unitario de las matrices cuadradas de orden n ylo mismo ocurre con las matrices triangulares superiores de orden n y con las matrices triangulares inferiores de ordenn. 41
  • 42. Las matrices que tienen distinto n´mero de filas que de columnas se llaman matrices rectangulares. uEn ellas m = n. Pasando ahora a las matrices rectangulares m × n, otro subconjunto importante de ellas son lasmatrices escalonadas: Se llaman as´ porque en ellas se puede trazar una escalera por debajo de la cual ıtodos los elementos son nulos, siendo no nulos los elementos de sus esquinas y recorriendo esta escalerafilas y columnas de manera que no baja m´s de una fila en cada escal´n; de manera m´s precisa, a a o ala izquierda y debajo del primer n´mero distinto de cero de cada fila, los n´meros son todos ceros. u uMatem´ticamente se puede expresar as´ (aij ) es escalonada si para cada fila i existe una columna ki a ı:tal que los n´meros de esa fila anteriores a la columna ki son nulos: aij = 0 si j < ki y los t´rminos u ede las filas posteriores situados en dichas ki columnas son tambi´n nulos: alj = 0 si l > i, j ≤ ki . e § ¤ § ¤ 0 1 2 3 4 5 6 0 1 2 3 4 5 6 0 0 2 3 4 5 6 0 0 2 3 4 5 6 0 0 0 0 4 5 6 0 0 0 0 4 5 6 0 0 0 0 0 5 6 0 0 0 0 2 5 6 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ¦ ¥ ¦ ¥ matriz escalonada matriz no escalonada Las matrices escalonadas m × n, donde m y n son fijos, no forman un grupo aditivo respecto ala suma de matrices. Se puede comprobar que toda matriz cuadrada y escalonada es triangular superior. Para elloobs´rvese c´mo es una matriz escalonada con n´mero m´ e o u ınimo de ceros (v´ase la matriz a conti- enuaci´n). Si tuviera m´s ceros seguir´ siendo triangular superior. o a ıa § ¤ 1 2 3 4 5 6 0 2 3 4 5 6 0 0 7 4 5 6 0 0 0 9 5 6 0 0 0 0 1 8 0 0 0 0 0 8 ¦ ¥ matriz escalonada y triangular superior 42
  • 43. Se puede ver tambi´n que en una matriz cuadrada escalonada la ultima fila tiene un elemento e ´distinto de cero, si y s´lo si el primer escal´n est´ en la primera columna y cada escal´n tiene longitud o o a ode una columna. Ya que en otro caso, al ir recorriendo los escalones, agotamos antes las columnas quelas filas, quedando la ultima fila completa debajo de la escalera. (V´ase la matriz a continuaci´n). ´ e o § ¤ 1 2 3 4 5 6 0 2 3 4 5 6 0 0 0 4 5 6 0 0 0 0 5 6 0 0 0 0 0 6 0 0 0 0 0 0 ¦ ¥ matriz escalonada con escal´n de dos columnas o 43
  • 44. (Ejercicios tomados del libro [L]), 1. Demostrar: a) Si Y es una matriz columna de n´meros reales y Y t es la matriz fila traspuesta ude la matriz anterior, Yt·Y =0⇔Y =0 b) Dada una matriz A de n´meros reales y una matriz columna Z tambi´n de n´meros reales, u e umultiplicable a la izquierda por A: t A · AZ = 0 ⇔ AZ = 0 c) Si X es una matriz de n´meros reales multiplicable a la izquierda por otra matriz cuadrada A: u t A · AX = 0 ⇔ AX = 0 y A · t AX = 0 ⇔ t AX = 0 d) A · t A · AX = 0 ⇔ t A · AX = 0 ⇔ AX = 0. e) (t A · A)k X = 0 ⇔ AX = 0 f) Usar los resultados anteriores cuando X=I, para probar que son equivalentes las relacionessiguientes: t A = 0, A · A = 0, A · t A · A = 0, (t A · A)k = 0 A(t A · A)k = 0 2. Una matriz sim´trica y no nula de n´meros reales, no puede tener ninguna potencia nula. e u Ejemplos resueltos y problemas propuestos el el cap´ ıtulo 2 de [A], en la secci´n 1.3. de [F], en el ocap´ ıtulo 2 de [V], en la secci´n 1.4 de [H] o 44
  • 45. Bibliograf´ ıa. [A] Algebra Lineal y aplicaciones. J. Arves´ Carballo, R. Alvarez Nodarse, F. Marcell´n Espa˜ol. u a nEd. S´ ıntesis Madrid. 1999. [F] J.B: Fraleigh R. A. Beauregard. Algebra Lineal. Addison-Wesley Iberoamericana 1989. [G] Matem´ticas 2 Bachillerato. Carlos Gonzalez Garc´ Jes´s Llorente Medrano. Maria Jos´ a ıa. u eRuiz Jim´nez. Ed. Editex. 2009. e [L] E. M. Landesman, M. R. Hestenes. Linear Algebra for Mathematics, Science, and Engineering.Prentice-Hall International, Inc. 1992. 45
  • 46. 46
  • 47. ´ ´ METODO DE GAUSS Y REDUCCION DE GAUSS-JORDAN. Introducci´n. o Los sistemas de ecuaciones lineales aparecen frecuentemente en problemas elementales de otrasciencias y de la vida corriente. Como ejemplo se enuncian aqu´ varios problemas de esos: ı 1. Averiguar si los planos de ecuaciones: π1 ≡ −y + z = 2, π2 ≡ 3x + 6y + z = −5, π3 ≡ 2x + 4y − 2z = −3 tienen un punto com´n. u Sol: pto com´n: 1/8(21, −17, −1) u 2. Determinar si en R3 las rectas siguientes se cortan: 2x +3y +z = 5 x +y =2 r1 ≡ r2 ≡ x −3y =4 y −z = −1 Sol: no se cortan. 3. Ajustar la reacci´n: o xIO3 N a + ySO3 HN a → zSO4 N a2 + uSO4 HN a + vH2 0 + wI2 Sol: x = 2w, y = 5w, z = 2w, u = 3w, v = w. 5. En la red de tr´fico del dibujo de la p´gina siguiente, se conocen las cantidades de coches que a acirculan en dos entradas y en algunos tramos. Se desea conocer las cantidades de coches que circulanen todos los tramos. Se podr´ colocar un contador en cada tramo desconocido, entonces har´ falta ıa ıannueve contadores, sin embargo, se puede demostrar que dos contadores son suficientes, porque lostr´ficos en los distintos tramos est´n relacionados. Demu´strese. a a e 47
  • 48. 30 x1 30 1( c 1( c 1( c x2 x3 E E 0) 0) 0) d   d   d   d   d   10 d 20   5 d   d   d   ‚ d c ©   1( 10 10 0)   d   d   d   d x4   x5 d x6   d c   d c   d   d 1( ©   1( c 1( ‚ d 10 5 E 0) 0) 0) x c7 x c8 x c9 4. Hallar las intensidades de las corrientes que circulan por los tramos horizontales del circuitoel´ctrico siguiente, conocidas las resistencias: R1 = 8Ω, R2 = 6Ω, R3 = 12Ω, y las diferencias de epotencial: V1 = 5v, V2 = 18v, sabiendo que se cumplen las leyes de Kirchoff y la ley de Ohm. Las leyes de Kirchoff son: 1. En cada nodo la suma de las intensidades de las corrientes que entran es igual a la suma delas corrientes que salen. 2. En cada lazo cerrado la diferencia de potencial total es igual a la suma de las diferencias depotencial correspondientes a cada tramo del circuito. La ley de Ohm dice que la diferencia de potencial correspondiente a un tramo con una resistenciaR por el que corre una corriente de intensidad I es igual al producto RI. Sol: I1 = −3/36, I2 = 34/36, I3 = 37/36. 48
  • 49. V1  d R1  d I 1 d  d  I2 E  d R2  d d  d  V2  d R3  d I 3 d  d  Resolver un sistema de ecuaciones lineales es hallar, cuando es posible, todos los valores de lasinc´gnitas que satisfacen todas las ecuaciones del sistema. Supondremos que los coeficientes de las oinc´gnitas en las ecuaciones son reales o complejos. La teor´ que vamos a desarrollar vale siempre o ıaque los coeficientes est´n en un cuerpo. e Si no es posible encontrar esos valores, el sistema se llama incompatible. Si es posible encontrar-los, distinguimos el caso en que estos valores est´n determinados un´ a ıvocamente, llamando al sistemacompatible determinado, del caso en que hay infinitos valores, llam´ndolo entonces compatible inde- aterminado. En Bachillerato se han visto los m´todos de eliminaci´n, reducci´n y sustituci´n para resolver e o o osistemas de ecuaciones lineales. Cada sistema concreto puede resolverse o verse si es incompatibleusando uno de estos m´todos. El M´todo de Gauss es una combinaci´n sistem´tica de los m´todos e e o a ede eliminaci´n y sustituci´n v´lida para todos los sistemas. Habiendo garant´ de poder decidir si un o o a ıasistema dado cualquiera es incompatible o compatible y resolverlo en este caso, por dicho m´todo. e Algunas veces s´lo interesa saber si el sistema es incompatible, compatible determinado o com- opatible indeterminado, sin llegar a resolver efectivamente el sistema. Veremos que esto tambi´n se epuede hacer, estudiando la evoluci´n de los sistemas en la primera parte (eliminaci´n) del m´todo o o ede Gauss. 49
  • 50. M´todo de Gauss. e Si el sistema est´ formado por una s´la ecuaci´n con una inc´gnita que es de la forma ax = b, a o o osabemos que tiene soluci´n unica si a tiene inverso (lo cual es equivalente, cuando a est´ en un o ´ acuerpo, a que a sea distinto de cero); tiene infinitas soluciones cuando a = b = 0; es incompatiblecuando a = 0 y b = 0. Si el sistema es de una ecuaci´n con m´s de una inc´gnita, es de la forma a11 x1 + · · · + a1n xn = b1 ; o a o´ste es indeterminado o incompatible, siendo ´ste ultimo el caso cuando todos los coeficientes de lase e ´inc´gnitas son nulos sin serlo el t´rmino independiente. o e La idea es, entonces, ir reduciendo la complejidad de un sistema con varias ecuaciones y variasinc´gnitas a la simplicidad de un sistema con una ecuaci´n. o o Lo cual se puede hacer pasando a primera ecuaci´n una que tenga coeficiente a11 de x1 distinto ode cero, dividiendo por a11 dicha ecuaci´n (que se puede hacer porque a11 = 0) y restando a las osiguientes ecuaciones la primera multiplicada por el coeficiente de x1 en cada ecuaci´n. As´ hemos o ıeliminado la inc´gnita x1 en las ecuaciones posteriores a la primera y ´stas dan un sistema de una o eecuaci´n menos con una inc´gnita menos. Repitiendo el procedimiento, llegamos hasta un sistema o ode una ecuaci´n, que sabemos resolver o ver si es incompatible. o Veamos un ejemplo: resolvamos por el m´todo de Gauss el siguiente sistema: e  x1 +2x2 +x3 +2x4 = 16   2x1 −x2 −x3 −x4 = −7  −2x1 +x2 +2x3 −x4 = 2   2x2 +3x3 +x4 = 17  Empezamos eliminando la inc´gnita x1 de las ecuaciones segunda y tercera sumando a estas oecuaciones la primera multiplicada adecuadamente por los n´meros −2, 2. Podemos hacerlo porque uel coeficiente de x1 en la primera ecuaci´n es distinto de cero. Entonces pasamos a o  x1 +2x2 +x3 +2x4 = 16   −5x2 −3x3 −5x4 = −39  5x2 +4x3 +3x4 = 34   2x2 +3x3 +x4 = 17 As´ encontramos dentro del sistema dado un subsistema de tres ecuaciones con tres inc´gnitas, ı oformado por las tres ultimas ecuaciones, m´s simple que el dado y que una vez resuelto nos dar´ la ´ a ıasoluci´n del sistema dado considerando tambi´n la primera ecuaci´n. o e o En este subsistema de tres ecuaciones podemos pasar a otro subsistema de dos ecuaciones condos inc´gnitas, eliminando la inc´gnita x2 de las dos ultimas ecuaciones sumando a ´stas la primera o o ´ e 50
  • 51. multiplicada adecuadamente, ya que el coeficiente de x2 en la primera ecuaci´n del subsistema es odistinto de cero. Pero como tendr´ıamos que multiplicar la primera ecuaci´n por −1/5 para conseguir que el co- oeficiente de x2 sea 1 y luego multiplicar adecuadamente para eliminar los coeficientes de dicha x2en las restantes ecuaciones y de este modo surgir´ fracciones, vamos a utilizar otro camino que ıantambi´n consiste en multiplicar una ecuaci´n por un n´mero y sumar otra ecuaci´n multiplicada por e o u oun n´mero: vamos a multiplicar la primera ecuaci´n del subsistema por −1 y le vamos a sumar la u oultima multiplicada por −2, pasando a:´  x2 −3x3 +3x4 = 5  5x2 +4x3 +3x4 = 34 2x2 +3x3 +x4 = 17  Hemos conseguido que el coeficiente de la inc´gnita x2 sea 1 en la primera ecuaci´n. Ahora o omultiplicando esta ecuaci´n por −5 y sumand´sela a la segunda ecuaci´n y luego multiplicando la o o oprimera ecuaci´n por −2 y sum´ndosela a la tercera ecuaci´n tenemos: o a o  x2 −3x3 +3x4 = 5  19x3 −12x4 = 9 9x3 −5x4 = 7 donde podemos percibir un subsistema de las dos ultimas ecuaciones con las dos ultimas inc´gnitas. ´ ´ oDe este subsistema, restando a la pen´ltima ecuaci´n la ultima multiplicada por 2, obtenemos: u o ´ x3 −2x4 = −5 9x3 −5x4 = 7y as´ eliminamos f´cilmente la inc´gnita x3 de la ultima ecuaci´n pasando a ı a o ´ o x3 −2x4 = −5 13x4 = 52donde aparece al final una ecuaci´n con una inc´gnita. Resuelta esta ecuaci´n podemos ir resolviendo o o olos subsistemas de dos y tres ecuaciones que se han ido hallando resolviendo progresivamente unaecuaci´n m´s y llegar a la soluci´n del sistema dado. En efecto, la ultima ecuaci´n da x4 = 4, que o a o ´ osustituida en x3 − 2x4 = −5 da x3 = 3, lo cual sustituido en x2 − 3x3 + 3x4 = 5 da x2 = 2 y todoesto sustituido en x1 + 2x2 + x3 + 2x4 = 16 da x1 = 1, teniendo el sistema resuelto por el m´todo de eGauss. 51
  • 52. Si el sistema hubiera sido:  2x2 +3x3 +x4 = 17   2x1 −x2 −x3 −x4 = −7  −2x1 +x2 +2x3 −x4 = 2   x1 +2x2 +x3 +2x4 = 16 donde el coeficiente de la primera ecuaci´n en la primera inc´gnita es cero, pasamos a un sistema o odonde este coeficiente es distinto de cero, intercambiando ecuaciones. Veamos otros ejemplos donde se va viendo los subsistemas formados eliminando sucesivamentelas inc´gnitas hasta llegar a una ecuaci´n. o o 2)    6x2 +12x3 = 18  x1 −x2 +x3 = 0  x1 −x2 +x3 = 0  8x1 + 6x2 =5 8x1 +6x2 =5 14x2 −8x3 = 5 x1 − x2 +x3 = 0 6x2 +12x3 = 18 6x2 +12x3 = 18       x1 −x2 +x3 = 0  x1 −x2 +x3 = 0  x1 −x2 +x3 = 0  14x2 −8x3 = 5 x2 +2x3 = 3 x2 +2x3 = 3 x2 +2x3 = 3 14x2 −8x3 = 5 −36x3 = −37    Como la ultima ecuaci´n es compatible, el sistema es compatible y como tambi´n es determinada, ´ o epodemos despejar x3 en la ultima ecuaci´n y sustituyendo en la segunda ecuaci´n despejar x2 , tambi´n ´ o o edeterminada. Obtenemos x1 de la primera ecuaci´n al sustituir los valores de las otras inc´gnitas; el o osistema resulta compatible determinado. Se obtiene x3 = 37/36, x2 = 17/18, x1 = −1/12. 3)   x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  −2x1 +x2 +3x3 = 7 7x2 +x3 +2x4 = 9 x2 −x4 = 0 x2 −x4 = 0     x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  x2 −x4 = 0 x2 −x4 = 0 7x2 +x3 +2x4 = 9 x3 +9x4 = 9   52
  • 53. Este sistema tambi´n es compatible por serlo la ultima ecuaci´n. Pero como ´sta es indeterminada, e ´ o eel sistema es indeterminado. Despejamos x3 en funci´n de x4 en la ultima ecuaci´n, x2 en funci´n o ´ o ode x4 en la pen´ltima ecuaci´n y luego sustituimos x2 y x3 en la primera ecuaci´n y obtenemos: u o ox3 = 9 − 9x4 , x2 = x4 , x1 = 10 − 13x4 , x4 puede ser cualquiera. Pero, aunque la ultima ecuaci´n sea compatible determinada, el sitema puede ser incompatible ´ oindeterminado, como ocurre en los ejemplos 4) y 5) siguientes: 4)   x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  −2x1 +x2 +9x3 = 7 7x2 +7x3 +2x4 = 9 x2 +x3 −x4 = 0 x2 +x3 −x4 = 0     x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  x2 +x3 −x4 = 0 x2 +x3 −x4 = 0 7x2 +7x3 +2x4 = 9 9x4 = 9   Por ser la ultima ecuaci´n compatible, el sistema es compatible. En este caso, x4 est´ determinado ´ o aen la ultima ecuaci´n, pero al sustituir el valor de x4 en las ecuaciones anteriores, la pen´ltima ´ o uecuaci´n queda indeterminada por lo que el sistema es indeterminado. Despejando x2 en funci´n de o ox3 y sustituyendo en la primera ecuaci´n tenemos las soluciones: x4 = 1, x2 = 1 − x3 , x1 = −3 + 4x3 , ox3 puede ser cualquiera. 5)   x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  −2x1 +x2 +2x3 = 7 7x2 +2x4 = 9 x2 −x4 = 0 x2 −x4 = 0     x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  x2 −x4 = 0 x2 −x4 = 0 7x2 +2x4 = 9 9x4 = 9   De nuevo el sistema es compatible por serlo la ultima ecuaci´n. Tanto ´sta, como la pen´ltima ´ o e uecuaci´n salen determinadas, pero al sustitir x4 y x2 en la primera ecuaci´n, obtenemos una ecuaci´n o o ocon dos inc´gnitas que es indeterminada (tiene infinitas soluciones) por lo que el sistema es compatible oindeterminado. Sus soluciones son: x4 = 1, x2 = 1, x1 = x3 − 3, x3 puede ser cualquiera. Por ultimo, veamos un sistema incompatible. ´ 53
  • 54. 6)   x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  −2x1 +x2 +2x3 −9x4 = 7 7x2 −7x4 = 9 x2 −x4 = 0 x2 −x4 = 0     x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  x2 −x4 = 0 x2 −x4 = 0 7x2 −7x4 = 9 0x2 +0x4 = 9   Aqu´ la ultima ecuaci´n es incompatible, esto es suficiente para que el sistema sea incompatible. ı ´ o Debido a que cuando encontramos una primera ecuaci´n de un subsistema con coeficiente cero oen la primera inc´gnita la intercambiamos con otra que tiene coeficiente distinto de cero en esa oinc´gnita, la incompatibilidad es relegada a la ultima ecuaci´n. o ´ o Se puede conseguir que el coeficiente de la primera inc´gnita sea 1 utilizando coeficientes de dicha oinc´gnita en otras ecuaciones primos entre s´ o ı. Recapitulando, el m´todo de Gauss es una combinaci´n ordenada de los m´todos de eliminaci´n y e o e osustituci´n y garantiza nuestra capacidad de decisi´n sobre el car´cter de un sistema porque consiste o o aen la reali-zaci´n de sucesivas etapas con las ecuaciones del sistema de manera que se van formando osubsistemas de una ecuaci´n menos y una inc´gnita menos (como m´ o o ınimo) hasta llegar a un sistemade una s´la ecuaci´n, cuyo car´cter hemos visto que sabemos decidir. (El car´cter sistem´tico del o o a a am´todo de Gauss lo hace preferible a la hora de ejecutarlo por ordenador). e Entonces, si la ultima ecuaci´n es incompatible, el sistema es incompatible. ´ o Si la ultima ecuaci´n es compatible, se ve f´cilmente si ´sta es determinada o indeterminada. Si es ´ o a eindeterminada, el sistema es indeterminado. Si es compatible determinada, despejando la inc´gnita oen la ultima ecuaci´n conseguida y sustituyendo regresivamente en las anteriores, obtenemos otro ´ osistema equivalente con una inc´gnita menos y al menos una ecuaci´n menos, en el cual el car´cter de o o ala ultima ecuaci´n nos dir´ que el sistema es indeterminado si esta ecuaci´n fuera indeterminada; pero ´ o ıa osi dicha ecuaci´n es determinada, para ver el car´cter del sistema tenemos que repetir el procedimiento o ade sustituci´n regresiva y seguir as´ hasta que quede alguna ecuaci´n indeterminada en cuyo caso el o ı osistema ser´ indeterminado o que todas las ecuaciones hayan resultado determinadas en cuyo caso ael sistema es determinado y hemos ido obteniendo sus soluciones. Si el sistema es indeterminado,podemos despejar en las ecuaciones indeterminadas la primera inc´gnita que aparezca en ellas con ocoeficiente distinto de cero, en funci´n de las siguientes y sustituyendo regresivamente obtener un osubconjunto de inc´gnitas despejado en funci´n de otro subconjunto de inc´gnitas que pueden variar o o olibremente. 54
  • 55. La formaci´n de subsistemas de al menos una inc´gnita menos y al menos una ecuaci´n menos o o opuede hacerse con las siguientes etapas: 1) Pasar a primer lugar una ecuaci´n que tenga coeficiente distinto de cero de la primera inc´gnita. o o 2) Sumar a las restantes ecuaciones la primera multiplicada adecuadamente para que el coeficientede la primera inc´gnita en ellas salga cero. o 3) Considerar las ecuaciones excepto la primera como un subsistema que no tiene la primerainc´gnita y repetir las etapas 1) y 2) anteriores para la siguiente inc´gnita que no tiene coeficiente o onulo en todas las ecuaciones. Si todas las ecuaciones tuvieran coeficientes nulos de las inc´gnitas opero quedara alguna con t´rmino independiente distinto de cero (el sistema ser´ incompatible) se e ıareducen todas las ecuaciones incompatibles a una sola por etapas an´logas a la 2) anterior para los at´rminos independientes. e 4) Para resolver el sistema (en el caso en que sea compatible) se despeja la inc´gnita que aparezca ocon coeficiente distinto de cero en primer lugar en la ultima ecuaci´n, (si esta ultima ecuaci´n tiene ´ o ´ ovarias inc´gnitas, en funci´n de las restantes) y se sustituye en las dem´s ecuaciones con lo que se o o areduce en uno el n´mero de ecuaciones del sistema obtenido y se repite el proceso hasta agotar las uecuaciones. Al final, tendremos los valores de las inc´gnitas si el sistema es compatible determinado oo un subconjunto de inc´gnitas despejado en funci´n de las otras, que ser´n independientes y podr´n o o a atomar cualquier valor si el sistema es compatible indeterminado. Desmenuzando el tipo de operaciones que hacemos, las etapas 1), 2) y 3) del m´todo de Gauss ese hacen realizando en las ecuaciones de un sistema lo que llamamos Operaciones Elementales en un sistema: 1) Intercambio de las ecuaciones. 2) Suma de una ecuaci´n multiplicada por un n´mero a otra ecuaci´n distinta. o u o 3) Multiplicaci´n de una ecuaci´n por una constante distinta de cero. (Para despejar las inc´gnitas). o o o Estas operaciones son suficientes para su resoluci´n. Cualquier operaci´n elemental en un sistema o olo transforma en otro equivalente. 55
  • 56. Ejercicios: 3.1.1. Utilizar el m´todo de Gauss para determinar el car´cter de e a cada uno de los sistemasenunciados a continuaci´n y resolver los que sean compatibles: o   x1 +x2 +x3 = 6  x1 −x2 +x3 −2 = 0  a) x1 +2x2 +3x3 = 14 b) 2x1 +x2 −x3 −1 = 0 2x1 −x2 −x3 = −3 −x1 +2x2 +3x3 +3 = 0    x1 +x2 +x3 +x4 = 0    x1 +x2 +x3 +x4 = −1  x1 +2x2 +x3 +2x4 = 0  c) d) x1 +2x2 +x3 +2x4 = −1 −x1 −2x2 +x3 +2x4 = 0  −x1 −2x2 −x3 −2x4 = 1   3x1 +x2 +2x3 −x4 = 0    x1 +x2 +x3 +x4 = 0 x1 +x2 −x3 = 1    x1 −x2 +2x3 −2x4 = 1    −x1 +x2 +x3 = 1   e) f ) −x1 −x2 −x3 +2x4 = −6 2x1 −x2 +x3 = 2  2x1 +x2 +2x3 +x4 = 0    5x1 +2x2 −x3 = 5    −2x1 −3x2 +3x3 −x4 = −9  3.1.2. Hallar los valores de los par´metros α, β y γ para que se verifique A · At = I siendo A la amatriz:   7 −4 α A = 1/9  −4 β −8  −γ −8 1 3.1.3. Hallar e y f en la matriz 1 e 4 −1 f 8 para que exista una matriz A de tama˜o 2 × 2 que multiplicada a la izquierda por n 3 2 0 1 e 4 de −2 1 4 −1 f 8 Sol 3.1.1: a) x1 = 1, x2 = 2, x3 = 3; b) x1 = 1, x2 = −1, x3 = 0; c) x1 = 2x4 = 2k, x2 = −x4 =−k, x3 = −2x4 = −2k, x4 = k; d) x1 = −1 − x3 = −1 − α, x2 = −x4 = −β, x3 = α, x4 = β; e)incompatible ; f) x1 = 1, x2 = 2, x3 = −1, x4 = −2; Sol. 3.1.2: α = −4, β = 1, γ = 4. Sol. 3.1.3: e = 3, f = 4. 56
  • 57. Operaciones elementales en una matriz. Lo que importa al resolver un sistema son los coeficientes de las inc´gnitas y los t´rminos inde- o ependientes. Ellos foman la matriz de los coeficientes y la matriz ampliada del sistema. Un sistema sepuede escribir en forma matricial: AX=b donde A es la matriz de los coeficientes de las inc´gnitas, oX es la columna de las inc´gnitas y b es la columna formada por los t´rminos independientes. o e Los ejemplos 2), 3), 4), 5) dados anteriormente ser´ıan:          x1   0 6 12 x1 18 1 3 −1 1  1 x   8 6 0   x2  =  5   −2 1 3 0  2  =  7   x3  1 −1 1 x3 0 0 1 0 −1 0 x4      x1     x1    1 3 −1 1  1 1 3 −1 1  1   x2  =  7    x2  =  7     −2 1 9 0   −2 1 2 0  x3  x3  0 1 1 −1 0 0 1 0 −1 0 x4 x4 Llamamos matriz ampliada del sistema a la matriz A|b. Las matrices A y A|b van evolucionando,al irse realizando las operaciones elementales en el sistema, cuando se usa el m´todo de Gauss. e Las transformaciones que tienen lugar en la matriz de un sistema cuando se realizan operacioneselementales en ´l, se llaman operaciones elementales en la matriz. Se obtienen as´ tres tipos de e ıoperaciones elementales en matrices que corresponden a los tres tipos de operaciones elementales enel sistema. Llamamos Operaciones Elementales en una matriz a: 1) Intercambio de las filas de la matriz. 2) Suma de una fila de la matriz multiplicada por un n´mero a otra fila de la matriz. u 3) Multiplicaci´n de una fila por una constante distinta de cero. o La evoluci´n de las matrices en los ejemplos 2), 3), 4), 5) y 6) ha sido: o 57
  • 58. 2)       0 6 12 18 1 −1 1 0 1 −1 1 0  8 6 0 5 → 8 6 0 5  →  0 14 −8 5 → 1 −1 1 0 0 6 12 18 0 6 12 18       1 −1 1 0 1 −1 1 0 1 −1 1 0  0 14 −8 5 → 0 1 2 3 → 0 1 2 3 . 0 1 2 3 0 14 −8 5 0 0 −36 −373)     1 3 −1 1 1 1 3 −1 1 1  −2 1 3 0 7 → 0 7 1 2 9 → 0 1 0 −1 0 0 1 0 −1 0     1 3 −1 1 1 1 3 −1 1 1  0 1 0 −1 0 → 0 1 0 −1 0  0 7 1 2 9 0 0 1 9 94)     1 3 −1 1 1 1 3 −1 1 1  −2 1 9 0 7 → 0 7 7 2 9 → 0 1 1 −1 0 0 1 1 −1 0     1 3 −1 1 1 1 3 −1 1 1  0 1 1 −1 0 → 0 1 1 −1 0  0 7 7 2 9 0 0 0 9 95)     1 3 −1 1 1 1 3 −1 1 1  −2 1 2 0 7 → 0 7 0 2 9 → 0 1 0 −1 0 0 1 0 −1 0     1 3 −1 1 1 1 3 −1 1 1  0 1 0 −1 0 → 0 1 0 −1 0  0 7 0 2 9 0 0 0 9 9 58
  • 59. 6)     1 3 −1 1 1 1 3 −1 1 1  −2 1 2 −9 7 → 0 7 0 −7 9 → 0 1 0 −1 0 0 1 0 −1 0     1 3 −1 1 1 1 3 −1 1 1  0 1 0 −1 0 → 0 1 0 −1 0  0 7 0 −7 9 0 0 0 0 9 La observaci´n de las matrices de un sistema en las distintas etapas de su resoluci´n nos indica o oque vamos escalonando la matriz de coeficientes del sistema dado, fila a fila, por medio de lasoperaciones elementales y cuando tanto la matriz de coeficientes del sistema como la matriz ampliadason escalonadas, podemos decidir si el sistema es incompatible o compatible. En ese momento, el sistema es incompatible si y s´lo si la ultima ecuaci´n es incompatible, o ´ olo cual se traduce en que la matriz escalonada del sistema tiene un escal´n menos que la matriz oescalonada ampliada del sistema (v´ase el ultimo ejemplo). Si la ultima ecuaci´n es compatible, e ´ ´ oen cuyo caso las dos matrices escalonadas mencionadas tienen el mismo n´mero de escalones, el usistema es compatible indeterminado cuando queda indeterminada alguna de las ecuaciones al irsustituyendo, regresivamente en las ecuaciones anteriores, los valores de las inc´gnitas determinadas. oSe observa que queda alguna ecuaci´n indeterminada si y s´lo si alguno de los escalones de la matriz o odel sistema tiene longitud superior a una columna (v´anse los ejemplos 3, 4 y 5); habiendo entonces ealguna ecuaci´n indeterminada con m´s de una inc´gnita donde se pueden pasar al segundo miembro o a olas inc´gnitas correspondientes a las columnas que no dan escal´n y despejar las otras en funci´n o o ode ellas, lo que da la indeterminaci´n. El sistema es determinado si todas las ecuaciones quedan odeterminadas, lo cual s´lo ocurre cuando todos los escalones son de una columna (v´anse el ejemplo o e2). Vemos que en el proceso de resoluci´n de sistemas, podemos decidir el car´cter del sistema inicial o asin resolverlo totalmente y por ello enunciamos la versi´n del Teorema de Rouch´-Frobenius o epara matrices escalonadas: un sistema es incompatible cuando la matriz escalonada a la quehemos reducido la matriz ampliada del sistema tiene un escal´n m´s que la matriz escalonada a la o aque ha quedado reducida la matriz de los coeficientes del sistema; en otro caso es compatible, siendocompatible determinado si todos los escalones de la matriz escalonada del sistema tienen longituduna columna y compatible indeterminado si hay alg´n escal´n de longitud superior a una columna. u o Cuando la columna b es nula el sistema se llama homog´neo. Entonces, esta columna no a˜ade e nning´n escal´n, a pesar de las operaciones elementales, por lo que en estos sistemas las matrices u o 59
  • 60. escalonadas provenientes de la matriz de los coeficientes y de la matriz ampliada tienen siempre elmismo n´mero de escalones. Concluimos que los sistemas homog´neos son siempre compatibles. u e Ejercicios: 3.2.1. Haciendo operaciones elementales en la matriz ampliada del sistema y aplicando el Teoremade Rouch´-Frobenius, decidir el car´cter de los siguientes sistemas de ecuaciones lineales: e a   x1 +2x2 −x3 = 1  x1 +2x2 −x3 = 1  x2 +x3 = 2 x2 +x3 = 2 x1 +3x2 = 3 x1 +3x2 = 4     2x1 +x2 = 5  x1 −3x2 +x3 +x4 = 2  x1 −x2 = 1 3x1 −8x2 +2x3 +x4 = 2 x1 +2x2 = 4 2x1 −5x2 +x3 = 3   3.2.2. Hallar todas las matrices cuadradas de orden 2 que conmutan con la matriz 1 2 3 4 3.2.3. Considerar los sistemas:   x1 +2x2 −x3 = c  x1 +x2 −x3 = 1  a) x1 +x2 +2x3 = 2 b) 2x1 +cx2 +x3 = d −2x1 +3x2 +bx3 = −4 5x1 +5x2 −x3 = e   i). Encontrar los valores de b para los que el sistema a) tiene soluci´n, cualquiera que sea c. o ii). Existe un valor de b para el que el sistema a) no tiene siempre soluci´n, sino s´lo para un o ovalor de c. ¿C´ales son estos valores de b y de c? u iii). Encontrar las condiciones que han de cumplir c, d y e para que el sistema b) tenga soluci´n. o 3.2.4. a) Hallar y para que exista una matriz X2×2 tal que 1 2 1 2 0 y X − X= . 3 4 3 4 −3 0 b) Hallar la forma general de todas las matrices X que verifican la igualdad anterior con el valorhallado de y. 60
  • 61. 3.2.5. Dado el sistema      1 a 1 x b  a 0 1 − a  y  =  0 , 1 1−a 1 z 0Encontrar los valores de a y b para los que el sistema es: a) compatible determinado. b) incompatible. c) compatible indeterminado. 3.2.6. Considerar el sistema de ecuaciones siguiente:  x+y+z =1  x + y + az = 2 x + y + bz = 3  a) ¿Existen valores de a, b para los que el sistema es compatible determinado? b) ¿Para qu´ valores de a, b, el sistema es incompatible? e 3.2.7. Consideremos el sistema de ecuaciones lineales:  x −y +2z = 2   x +y −z = 1  2x +az = c   3x +y +bz = 4  a) Hallar las condiciones que tienen que cumplir los valores de a, b, c para que el sistema seacompatible indeterminado. b) Hallar las condiciones que tienen que cumplir los valores de a, b, c para que el sistema seacompatible determinado. 3.2.8. Dado el sistema de ecuaciones lineales:  x +2y −2z +2t = 4   −3y +z +t = 1  x +5y −3z +t = m   −x +y +z +mt = 1  a) Mostrar que si el sistema tiene soluci´n, ´sta no es unica. o e ´ b) Encontrar los valores de m para que exista soluci´n. o 61
  • 62. 3.2.9. Consideremos el sistema de ecuaciones lineales:  x +y +(1 + m)z = 4 − m  (1 − m)x −y +2z = −2 2x +my +3z =2−m dependiente de m. Hallar razonadamente: a) Para qu´ valores de m el sistema es compatible determinado. e b) Para qu´ valores de m el sistema es compatible. e c) Para qu´ valores de m el sistema es incompatible. e Sol. 3.2.3ii).: b = −19, c = 2. Sol. 3.2.4 a).: y = 2. 62
  • 63. Reducci´n de Gauss-Jordan. o Una vez decidido el car´cter del sistema, hemos visto que si es compatible, la sustituci´n re- a ogresiva de las inc´gnitas que son determinadas o se pueden despejar en funci´n de otras, da las o osoluciones del sistema. Mirando de nuevo las matrices de los sistemas que van quedando al sustituir,vemos que van evolucionando de manera que se van haciendo 1 los elementos de las esquinas de losescalones (llamados pivotes), y se hacen cero los elementos sobre estos pivotes. Lo podemos hacertodo matricialmente hasta el final y entonces se dice que se resuelve el sistema por la Reducci´n ode Gauss-Jordan Ve´moslo en el ejemplo 4) (p´gs. 53 y 58): Una vez conseguido el sistema en la forma escalonada, a adespejar x4 es pasar del ultimo sistema ´    x1 +3x2 −x3 +x4 = 1  1 3 −1 1 1 x2 +x3 −x4 = 0 de matriz  0 1 1 −1 0  9x4 = 9 0 0 0 9 9  al sistema    x1 +3x2 −x3 +x4 = 1  1 3 −1 1 1 x2 +x3 −x4 = 0 de matriz  0 1 1 −1 0  x4 = 1 0 0 0 1 1 obtenidos dividiendo la ultima fila por 9. ´ Sustituir x4 en las ecuaciones anteriores es pasar al sistema:  x1 +3x2 −x3 =0  x2 +x3 =1 x4 = 1 de matriz     1 3 −1 0 0 1 3 −1 1 1  0 1 1 0 1  obtenida de  0 1 1 −1 0  0 0 0 1 1 0 0 0 1 1restando la tercera fila a la primera y sumando la tercera fila a la segunda. Como sustituir en las ecuaciones anteriores es pasar a un sistema donde no aparece la inc´gnita ox4 , es decir, donde los coeficientes de x4 son nulos en todas las ecuaciones excepto en la ultima, en la ´matriz escalonada ampliada, del ultimo sistema, los n´meros de la columna de x4 , excepto el ultimo, ´ u ´son ceros. 63
  • 64. Despejar x2 y sustituirla en la primera ecuaci´n es pasar a otro sistema donde s´lo aparece x2 o oen la segunda ecuaci´n. Este sistema tiene una matriz escalonada ampliada que tiene ceros en la ocolumna de x2 encima del 1 correspondiente a x2 en la segunda ecuaci´n: o Ahora hemos pasado al sistema:  x1 −4x3 = −3  x2 +x3 = 1 x4 = 1 de matriz     1 0 −4 0 −3 1 3 −1 0 0  0 1 1 0 1  obtenida de  0 1 1 0 1  0 0 0 1 1 0 0 0 1 1restando la segunda fila multiplicada por 3 de la primera fila. Como la columna de x3 no da escal´n, se puede pasar al segundo miembro, y es indeterminada oporque puede tomar cualquier valor; si x3 = k, se tienen las soluciones:        x1 = 4k −3   x1 4 −3 x2 = −k +1 x   −1   1    ≡  2  = k  1  +  0 .    x3 = k   x3   x4 = 1 x4 0 1  El procedimiento descrito, realizado en las matrices, desde el principio al final, en las matrices A yA|b es la Reducci´n de Gauss-Jordan para resolver el sistema AX=b: consiste en escribir la omatriz ampliada del sistema, y reducirla a forma escalonada mediante operaciones elementales. En elcaso en que sea compatible, hacer 1 todos los pivotes y anular los elementos por encima de los pivotescon m´s operaciones elementales. Luego rellenamos las inc´gnitas en las columnas correspondientes a oy tenemos en el caso compatible determinado, los valores de las inc´gnitas; en el caso compatible oindeterminado pasamos al segundo miembro las inc´gnitas cuyas columnas no dan escal´n y las o osustituimos por par´metros variables. a Veamos ahora un ejemplo resuelto con la reducci´n de Gauss-Jordan desde el principio. o 7)  x1 +2x2 +x3 +2x4 +x5 +3x6 = 0   2x1 +5x2 +x3 +2x4 +4x5 +7x6 = 2  −2x1 −3x2 −3x3 −x4 +20x5 +14x6 = 21   x1 +x2 +2x3 +6x4 +7x5 +10x6 = 8  64
  • 65. equivalente a     x1   1 2 1 2 1 3   x2   0  2 5 1 2 4 7  x3   2    =   −2 −3 −3 −1 20 14   x4   21    1 1 2 6 7 10  x5  8 x6 La reducci´n de Gauss-Jordan de las matrices del sistema y ampliada da: o     1 2 1 2 1 3 0 1 2 1 2 1 3 0  2  5 1 2 4 7 → 0 2   1 −1 −2 2 1 2  →  −2 −3 −3 −1 20 14 21   0 1 −1 3 22 20 21  1 1 2 6 7 10 8 0 −1 1 4 6 7 8     1 2 1 2 1 3 0 1 2 1 2 1 3 0  0 1 −1 −2 2 1 2    0 1 −1 −2 2 1 2   → →  0 0 0 5 20 19 19   0 0 0 1 4 3 −1  0 0 0 2 8 8 10 0 0 0 2 8 8 10     1 2 1 2 1 3 0 1 2 1 2 1 3 0  0 1 −1 −2 2 1 2  →  0 1 −1 −2 2 1 2    →  0 0 0 1 4 3 −1   0 0 0 1 4 3 −1  0 0 0 0 0 2 12 0 0 0 0 0 1 6     1 2 1 2 1 0 −18 1 2 1 0 −7 0 20  0 1 −1 −2 2 0 −4   →  0 1 −1 0 10 0 −42  →     0 0 0 1 4 0 −19   0 0 0 1 4 0 −19  0 0 0 0 0 1 6 0 0 0 0 0 1 6   1 0 3 0 −27 0 104  0 1 −1 0 10 0 −42     0 0 0 1 4 0 −19  0 0 0 0 0 1 6 Rellenando ahora las inc´gnitas: o   x1 +3x3 −27x5 = 104   x1 = 104 −3x3 +27x5   x2 −x3 +10x5 = −42 x2 = −42 +x3 −10x5   ≡ x4 +4x5 = −19   x4 = −19 −4x5   x6 = 6 x6 = 6   65
  • 66. donde hemos pasado al segundo miembro las inc´gnitas que no dan escal´n. o o Las soluciones del sistema est´n constituidas por los (x1 , x2 , x3 , x4 , x5 , x6 ), tales que: a         x1 = 104 −3x3 +27x5 x1 104 −3 27 x2 = −42 +x3 −10x5  x2   −42       1     −10    x3 = x3  x3   0    1   0  ≡  = + x3    + x5   x4 = −19 −4x5  x4   −19      0    −4    x5 = x5  x5   0   0   1  x6 = 6 x6 6 0 0         x1 104 −3 27   x2     −42     1     −10    x3   0   1   0  ≡ =  + λ1   + λ2     x4     −19     0     −4    x5   0   0   1  x6 6 0 0donde λ1 y λ2 varian arbitraria e independientemente. Ejercicios: 3.3.1. Resolver utilizando la reducci´n de Gauss-Jordan los siguientes sistemas de ecuaciones olineales.   2y −z +t = 6  x +2y −z = −3   x −4y +z −2t = −9  a) 3x +7y +2z = 1 b) 2x −7y −2z +t = 10  4x −2y +z = −2   3y −4t = −16   x −y +z −t = 0  2x −2y −z +t = 3  c) −x +y +2z −2t = −3   −2x +2y +3z −t = 8  Si tenemos varios sistemas con la misma matriz de coeficientes, podemos resolverlostodos a la vez, ampliando la matriz del sistema con las columnas de los t´rminos indepen- edientes de los sistemas dados y haciendo en esta matriz m´s ampliada, las operaciones aelementales que escalonen la matriz de los coeficientes. 66
  • 67. 3.3.2. Resolver de manera simult´nea por el m´todo de Gauss-Jordan los siguientes sistemas de a eecuaciones:    z −2t = 0   z −2t = −1   z −2t = −2   3x −6y +2z = −3 3x −6y +2z = 2 3x −6y +2z = −6    x −2y +z −t = −1  x −2y +z −t =  0  x −2y +z −t = −3    2x −3y +3t = −1 2x −3y +3t = 3 2x −3y +3t = 0    Sol. 3.3.1: a) x = −1, y = 0, z = 2 b) x = 1, y = 0, z = −2, t = 4 c) (x, y, z, t) =(1, 0, 11/2, 13/2) + λ(1, 1, 0, 0) Sol. 3.3.2: x1 = 1, y1 = 1, z1 = 0, t1 = 0; x2 = 0, y2 = 0, z2 = 1, t2 = 1; x3 = 0, y3 = 1, z3 =0, t3 = 1. La reducci´n de Gauss-Jordan vale tambi´n para una ecuaci´n matricial AX = B donde X es una o e omatriz de n filas y m columnas y B es una matriz de m columnas y el mismo n´mero de filas de A. uLlamando Xi a la columna i-´sima de X y Bi a la columna i-´sima en B, la ecuaci´n matricial dada e e oes equivalente al conjunto de sistemas AXi = Bi , i ∈ {1, ..., m}. Los sistemas matriciales puedenser incompatibles o compatibles y en este caso, determinados o indeterminados. Se puede ver si soncompatibles escalonando la matriz ampliada A|B, y si son compatibles, resolverlos simult´neamente ahaciendo la reducci´n de Gauss-Jordan en dicha matriz ampliada A|B. o Cuando B=I, la soluci´n de la ecuaci´n AX=I se llama inversa a la derecha de A. Puede no existir o oy si A no es cuadrada puede no ser unica . ´ Si A es una matriz cuadrada, la igualdad AX = I ”s´ implica XA = I. Cuando se estudie la ı”teor´ que viene a continuaci´n, usada para demostrar el teorema de caracterizaci´n de las matrices ıa o oinvertibles, se puede demostrar esa implicaci´n utilizando la proposici´n 3’, la expresi´n final de A o o oen la proposici´n 4 y la unicidad de la inversa. Se propone construir todo el razonamiento en el oejercicio 3.5.4. Ejercicio: 3.3.3. Demostrar que 1) Si una matriz A tiene inversa a la izquierda, la inversa a la derecha, de existir, es unica. ´ 2) Si una matriz A tiene inversa a la derecha, la inversa a la izquierda, de existir, es unica. ´ 3) Si una matriz A tiene inversa a la derecha e inversa a la izquierda, ambas coinciden. 67
  • 68. Matrices Invertibles. Nos interesa caracterizar las matrices A tales que los sistemas que se plantean con ellas tienensoluci´n y ´sta es unica, es decir que todos los sistemas que se plantean como Ax = b son compatibles o e ´determinados. Estas matrices A son aquellas para las que existe otra matriz B tal que AB = I = BA.Ve´moslo: a Si existe B tal que BA=I, dado un sistema de la forma AX = b, multiplic´ndolo a la izquierda apor B, obtenemos que la soluci´n, de existir, ha de ser X = Bb; para que efectivamente, ´sta sea la o esoluci´n hay que comprobar que ABb = b, lo cual se cumple si la matriz B verifica AB=I, es decir, osi B es tambi´n inversa a la derecha de A. siendo esto cierto cualquiera que sea b. e En un ejercicio anterior se prob´ que si A tiene inversa a la izquierda y inversa a la derecha, oambas coinciden y son unicas. Esta unicidad es necesaria para que todos los sistemas AX=b tengan ´soluci´n, porque con matrices A que tuvieran dos inversas a la izquierda distintas, B y B podr´ o ıaexistir alg´n b para el que las condiciones necesarias x = B b y x = B b, fueran incompatibles entre us´ Por otra parte, para que la condici´n necesaria x = Bb sea suficiente cualquiera que sea b, ha de ı. oser ABb = b para todo b, para lo cual es necesario que AB = I. Se llaman invertibles las matrices A tales que existe una matriz B tal que BA = I = AB.Entonces, se llama a B, inversa de A. Una matriz A invertible no puede tener ninguna columna ni ninguna fila de ceros, porque en estoscasos, se tendr´ cualquiera que fuera la matriz X, en XA una columna de ceros o en AX una fila ıa,de ceros, no obteni´ndose nunca la identidad. Queremos ver que adem´s ha de ser cuadrada. e a Observemos que una inversa a la derecha X de una matriz A, es una soluci´n de la ecuaci´n o oAX = I y que una matriz A con la primera columna no nula y con m´s columnas que filas, al aescalonarla da el primer escal´n en la primera columna y por ello, alg´n escal´n con m´s de una o u o acolumna, por lo que el sistema AX = I, de tener soluci´n, no tiene soluci´n unica. Si no tiene o o ´soluci´n, la matriz no es invertible y si existen varias soluciones, como estas soluciones ser´ distintas o ıaninversas a la derecha de A, seg´n el problema 3.3.3 no existe inversa a la izquierda. Concluimos que uuna matriz con m´s columnas que filas no es invertible. a Tambi´n se puede concluir que una matriz con m´s filas que columnas no es invertible, porque e asi lo fuera, su traspuesta, que tiene m´s columnas que filas ser´ invertible, en contra de lo anterior. a ıa t t t t t t(Si AB = I = BA, B A = (AB) = I y A B = (BA) = I). Entonces, una matriz invertible, adem´s de no tener ninguna fila ni ninguna columna nula, ha de aser cuadrada. En los ejercicios 3.5.6-3.5.10 de la secci´n siguiente, se establece otro camino distinto del visto oahora para demostrar que las matrices invertibles han de ser cuadradas. 68
  • 69. Caracterizaci´n de las matrices invertibles. o Observando lo que pasa en las matrices cuando aplicamos el m´todo de Gauss a un sistema, epodemos deducir propiedades de las matrices que nos dan tambi´n el m´todo de Gauss para hallar e ela inversa de una matriz. Y al mismo tiempo, podemos demostrar un teorema que caracteriza a lasmatrices invertibles como producto de ciertas matrices llamadas elementales. Las operaciones elementales en una matriz (p´g. 57) se pueden expresar en forma matem´tica a acomo el resultado de multiplicar por la izquierda por las matrices llamadas Matrices Elementales: Son las matrices obtenidas de las matrices identidad por operaciones ele-mentales. (Diremos que son de tres tipos seg´n el tipo de operaci´n elemental realizado). u o Se puede comprobar f´cilmente, caso por caso, que al multiplicar a la izquierda una matriz aelemental por otra matriz se produce en esta ultima la operaci´n elemental realizada en la matriz I ´ opara obtener la matriz elemental considerada. Tambi´n, hagamos las siguientes consideraciones: e a) Si hacemos sucesivamente dos intercambios de las mismas filas de la matriz identidad, la matrizqueda invariante. Esto quiere decir que el producto de una matriz elemental del primer tipo por ellamisma es la identidad. Por tanto, las matrices elementales correspondientes (del primer tipo) soninvertibles y coinciden con su inversa. b) Si sumamos a una fila de la identidad otra fila multiplicada por un n´mero y luego le sumamos ula misma fila multiplicada por el n´mero opuesto obtenemos la identidad. Esto quiere decir tambi´n u eque las dos matrices elementales correspondientes (del segundo tipo) son inversas una de otra, siendosus inversas del mismo tipo. c) Si primero multiplicamos una fila de la matriz identidad por un n´mero distinto de cero y uluego la multiplicamos por el inverso de dicho n´mero, queda igual. Esto quiere decir que el producto ude las dos matrices elementales correspondientes es la identidad. Por tanto, tambi´n las matrices eelementales del tercer tipo son invertibles y sus inversas son del mismo tipo. Se deduce de estas consideraciones que las matrices elementales son invertibles y que sus inversasson tambi´n matrices elementales. e Nuestro teorema sobre matrices invertibles es: 69
  • 70. TEOREMA 1: Una matriz cuadrada es invertible si y s´lo si es producto de matrices oelementales. Ya que las matrices elementales son invertibles, la demostraci´n de que toda matriz producto de omatrices elementales es invertible es una f´cil consecuencia de la siguiente proposici´n: a o Proposici´n 1: El producto de matrices invertibles es invertible. o Sean A1 , A2 , ..., Am , matrices cuyas inversas respectivas son B1 , B2 , ..., Bm , se puede comprobarque la matriz producto A = A1 · A2 · ... · Am tiene como inversa B = Bm ... · B2 · B1 . En efecto, por la propiedad asociativa, en el producto AB = A1 · A2 · ... · Am Bm ... · B2 · B1empezando por i=m podemos ir simplificando las Ai con las Bi correspondientes y llegar a la iden-tidad. Lo mismo podemos hacer, empezando por i=1, en el producto BA = Bm ... · B2 · B1 A1 · A2 · ... · Am . Para demostrar el teorema tenemos que demostrar tambi´n que toda matriz invertible es producto ede matrices elementales. Para ello vamos a usar las proposiciones 2, 3 y 4 siguientes: Proposici´n 2: Toda matriz puede reducirse a una matriz escalonada multiplic´ndola adecuada- o amente a la izquierda por matrices elementales. Su demostraci´n se deduce de la observaci´n de la evoluci´n de la matriz del sistema en el o o oprocedimiento seguido en el m´todo de Gauss. Se ve en ese procedimiento que toda matriz se epuede reducir a una matriz escalonada haciendo operaciones elementales en sus filas, olo que es lo mismo, que dada una matriz, multiplicando a la izquierda, sucesivamente, por matriceselementales se puede llegar a una matriz escalonada. Por tanto, dada la matriz A, existen matrices elementales: E1 , E2 , ..., Ek , tales que Ek · Ek−1 · ...E1 A = Edonde E es una matriz escalonada. Conviene comprobarlo en el siguiente Ejercicio: 70
  • 71. 3.4.1. Encontrar una sucesi´n de matrices elementales E1 , · · · , Ek tal que Ek · · · E1 A = E donde oA es una de las matrices dadas a continuaci´n y E es una matriz escalonada: o         1 3 0 2 4 0 −1 1 −2 1 1 2 3 4 a)  −1 0  b) c)  1 1 3  d)  1 0 −1  e)  3 −2 1  3 1 2 2 1 3 3 7 2 −1 −1 1 −1 1           0 −1 −1 0 −1 −1 0 −1 −1 0 −1 −1 0 2 4f)  1 0 −1  g)  1 1 0  h)  1 1 1  i)  1 0 −1  j)  1 0 −1  2 −1 −3 2 −1 −3 2 −1 −1 2 −1 −1 1 −2 −3 Para la mejor comprensi´n de las demostraciones de las proposiciones siguientes se proponen los oejercicios: 3.4.2. Comprobar que una vez obtenida la matriz escalonada en los casos c), e), i) y j) anteriorespodemos llegar desde la matriz escalonada a la matriz identidad haciendo m´s operaciones elemen- atales, por el mismo procedimiento usado para despejar las inc´gnitas en la reducci´n de Gauss-Jordan. o o 3.4.3. Comprobar que una vez obtenida la matriz escalonada en los casos d), f), g) y h) anteri-ores no podemos llegar desde la matriz escalonada a la matriz identidad haciendo m´s operaciones aelementales, por el mismo procedimiento usado para despejar las inc´gnitas en la reducci´n de Gauss- o oJordan. Antes de pasar a la demostraci´n completa del teorema, vamos a ver un ejemplo en el que se llega odesde una matriz a la identidad por transformaciones elementales, lo cual equivale a multiplicar lamatriz por matrices elementales y esto pone de manifiesto que la matriz dada es producto de matriceselementales y  tanto invertible: por  0 2 4 La matriz  1 1 3 pasa, multiplic´ndola a la izquierda por las matrices elementales: a 3 4 7         0 1 0 1 0 0 1 0 0 1 0 0  1 0 0 ,  0 1 0 ,  0 1 0 ,  0 1 0  2 0 0 1 −3 0 1 0 0 1 0 −1 1sucesivamente, a las matrices         1 1 3 1 1 3 1 1 3 1 1 3  0 2 4 ,  0 2 4 ,  0 1 2 ,  0 1 2 . 3 4 7 0 1 −2 0 1 −2 0 0 −4 71
  • 72. Como esta ultima tiene todos los escalones de longitud una columna, siendo por tanto, los elementos ´de la diagonal principal distintos de cero, podemos conseguir que estos elementos sean unos, divi-diendo adecuadamente las filas, lo que aqu´ se reduce a dividir la ultima fila por −4, es decir, a ı ´multiplicar ahora a la izquierda por la matriz   1 0 0  0 1 0  0 0 −14habiendo llegado a   1 1 3  0 1 2 . 0 0 1 En esta matriz con 1 en todos los elementos de la diagonal y ceros en todos los sitios debajo de ladiagonal, podemos seguir haciendo operaciones elementales que anulen tambi´n los n´meros en los e usitios por encima de la diagonal, llegando as´ a la identidad. ı Efectivamente, multiplicando sucesivamente a la izquierda, por las matrices elementales:       1 0 0 1 0 −3 1 −1 0  0 1 −2  ,  0 1 0 ,  0 1 0  0 0 1 0 0 1 0 0 1obtenemos la identidad (compru´bese). e Hemos multiplicado, en total, por ocho matrices elementales, que designamos por E1 , E2 , E3 , E4 , E5 ,E6 , E7 , E8 , por orden de utilizaci´n. o Entonces: E8 · E7 · E6 · E5 · E4 · E3 · E2 · E1 · A = I. Como las matrices elementales tienen inversas, multiplicando a la izquierda por sus inversas demanera que se vayan simplificando dichas matrices, tenemos: −1 −1 −1 −1 −1 −1 −1 −1 A = E1 · E2 · E3 · E4 · E5 · E6 · E7 · E8 . Lo cual puede comprobarse teniendo en cuentaque         0 1 0 1 0 0 1 0 0 1 0 0 −1 −1 −1 −1 E 1 =  1 0 0  , E2 =  0 1 0  , E3 =  0 2 0  , E 4 =  0 1 0  0 0 1 3 0 1 0 0 1 0 1 1         1 0 0 1 0 0 1 0 3 1 1 0 −1 −1 −1 −1 E5 =  0 1 0  E6 =  0 1 2  , E7 =  0 1 0  , E8 =  0 1 0  0 0 4 0 0 1 0 0 1 0 0 1 72
  • 73. Como tambi´n las inversas de matrices elementales son elementales, hemos visto que del hecho ede tener la matriz escalonada obtenida de A todos los escalones de longitud una columna (y porello, todos los elementos de la diagonal distintos de cero), hemos llegado a la expresi´n de A como oproducto de matrices elementales. Como estas matrices son invertibles, de la proposici´n 1 se deduce oque A es invertible. Seguimos ahora con las siguientes etapas para la demostraci´n del teorema: o Proposici´n 3: Si una matriz A es invertible, la matriz escalonada E a la que se reduce, tiene otodos los escalones de longitud una columna, estando el primer escal´n en la primera fila y primera ocolumna. Demostraci´n: o Si A es invertible, A tiene que ser cuadrada y la existencia de una matriz B tal que BA=I implicaque la primera columna de A no es toda de ceros, porque entonces la primera columna del productoBA ser´ toda de ceros y no coincidir´ con la primera columna de I; por lo que se puede conseguir ıa ıa(si es necesario por un cambio de orden de las filas) que el elemento de la primera fila y primeracolumna sea distinto de cero, empezando por tanto los escalones en este lugar. Veamos que al seguirescalonando la matriz, la matriz escalonada E a la que se reduce A tiene todos los escalones delongitud una columna razonando por reducci´n al absurdo: Si tuviera alg´n escal´n con m´s de o u o auna columna, al ir recorriendo los pivotes y llegar al primero de tales escalones, nos desplazamos ala derecha por lo menos el espacio de dos columnas, sali´ndonos de la diagonal y por ello al seguir erecorriendo pivotes agotamos antes las columnas que las filas, quedando por tanto la ultima fila entera ´por debajo de la l´ınea de pivotes y estando por ello formada por ceros. Entonces, multiplicando porlas matrices elementales correspondientes tendr´ ıamos: E = Ek Ek−1 , ...E1 Adonde E es una matriz escalonada con la ultima fila toda de ceros. ´ Ahora bien, si A es invertible, existe B tal que AB=I. Entonces, EB = Ek Ek−1 ...E1 AB = Ek Ek−1 ...E1 I = Ek Ek−1 ...E1y por tanto, como las matrices elementales tienen inversa, −1 −1 −1 −1 EBE1 ...Ek = Ek Ek−1 ...E1 E1 ...Ek = I −1 −1Si la matriz E tuviera la ultima fila de ceros, la matriz EBE1 .....Em tendr´ tambi´n la ultima fila ´ ıa e ´de ceros por tenerla E y esto es una contradicci´n ya que I tiene un 1 en su ultima fila. Quedando o ´as´ demostrada la proposici´n 3. ı o 73
  • 74. Esta proposici´n es tambi´n cierta si se debilita la hip´tesis: o e o Proposici´n 3’: Si una matriz A cuadrada tiene inversa a la derecha, la matriz escalonada E a ola que se reduce, tiene todos los escalones de longitud una columna, estando el primer escal´n en la oprimera fila y primera columna. La demostraci´n se sigue de que de no ser as´ la matriz escalonada E tendr´ la ultima fila de o ı ıa ´ceros, pero esto no puede ocurrir si la matriz A tiene inversa a la derecha como se ha visto en lademostraci´n de la proposici´n 3. o o Proposici´n 4: Si al escalonar una matriz cuadrada A, todos los escalones son de una columna, oestando el escal´n de la primera fila en la primera columna, A es producto de matrices elementales. o Demostraci´n: Sea E la matriz escalonada a la que se reduce A. Como estamos suponiendo que oA es cuadrada y el tama˜o de la matriz queda invariante por las operaciones elementales, E tambi´n n eha de ser cuadrada. Tenemos un pivote en el sitio de la primera columna de la primera fila. Silos escalones de E son todos de una columna, al ir recorriendo los pivotes, vamos desplaz´ndonos a ala derecha el espacio de una columna al mismo tiempo que nos desplazamos hacia abajo el espaciode cada fila, recorriendo as´ la diagonal principal de E, que por tanto est´ formada por n´meros ı, a udistintos de cero. Dividiendo cada fila por el n´mero que est´ en la diagonal de esa fila, (lo cual es u ahacer operaciones elementales) podemos hacer todos los elementos de la diagonal iguales a 1. Y conestos 1, podemos seguir haciendo operaciones elementales para anular todos los elementos encima deellos, (seg´n la reducci´n de Gauss-Jordan), llegando entonces a la matriz identidad. u o Entonces, podemos afirmar que, en la hip´tesis de la proposici´n 4, adem´s de las matrices o o aelementales: E1 , E2 , ..., Ek , tales que Ek · Ek−1 ...E1 A = Edonde E es una matriz escalonada, existen matrices elementales Ek+1 , Ek+2 ...Em tales que Em Em−1 ...Ek+1 Ek ...E1 A = I Como las matrices elementales tienen inversa, multiplicando a la izquierda la igualdad anteriorpor las inversas de las matrices elementales, obtenemos −1 −1 −1 A = E1 ...Ek ...Em Y como las inversas de matrices elementales son matrices elementales, hemos llegado a unaexpresi´n de A como producto de matrices elementales. o 74
  • 75. Para terminar la demostraci´n del Teorema 1, es decir, para demostrar que toda matriz inver- otible es producto de matrices elementales, tenemos en cuenta, primero, que por la proposici´n 2, ouna matriz A siempre se puede escalonar, luego, que cuando A es invertible, seg´n la proposici´n 3, u ola matriz escalonada E, que se obtiene de A, tiene todos los escalones de una columna, estando elprimer escal´n de la primera fila en la primera columna. Entonces, la proposici´n 4 establece que la o omatriz A invertible es producto de matrices elementales. Por otra parte, enlazando la proposici´n 4 y la proposici´n 1, tenemos que si al escalonar una o omatriz cuadrada A, todos los escalones son de una columna, estando el escal´n de la primera fila en ola primera columna, A es invertible. Adem´s, la proposici´n 3 implica que si al escalonar una matriz cuadrada A, alg´n escal´n es de a o u om´s de una columna, A no es invertible, por lo que tambi´n es cierto el a e Teorema 2: Una matriz cuadrada A es invertible si y s´lo si al escalonar A, se obtiene una matriz oescalonada con todos los escalones de longitud una columna, estando el primer escal´n en la primera ocolumna. Ejercicios: 3.5.1. Decidir cu´les de las matrices del ejercicio 3.4.1 son invertibles mirando la matriz escalonada aa la que han sido reducidas. 3.5.2. Expresar las inversas de las matrices del ejercicio 3.4.1. que sean invertibles como productode matrices elementales. 3.5.3. Expresar las matrices del ejercicio 3.4.1 que sean invertibles como producto de matriceselementales. 3.5.4. Demostrar que toda matriz cuadrada con inversa a la derecha tiene inversa a la izquierda. 3.5.5. Demostrar que toda matriz cuadrada con inversa a la izquierda tiene inversa a la derecha. 3.5.6. Demostrar que si una matriz A con m´s filas que columnas se puede reducir por operaciones aelementales a la matriz:   In  0     .  .   . 0donde n es el n´mero de columnas de A, puede tener muchas inversas a la izquierda. u 3.5.7. Demostrar que dada una matriz con m´s filas que columnas, si tiene inversa a la izquierda, aesta no es unica. ´ 75
  • 76. 3.5.8. Demostrar que si una matriz tiene m´s de una inversa a la izquierda, no puede tener inversa aa la derecha. 3.5.9. Demostrar que una matriz con m´s filas que columnas no puede ser invertible. a 3.5.10. Demostrar que una matriz con m´s columnas que filas no puede ser invertible. a Deducir de los ejercicios anteriores que s´lo las matrices cuadradas pueden ser invertibles. o 76
  • 77. M´todo de Gauss para obtener la inversa de una matriz invertible: e Al repasar la demostraci´n de la proposici´n 4 nos podemos dar cuenta de que la matriz producto: o oEm ...Ek+1 Ek Ek−1 ...E1 es inversa a la izquierda de A y dada la expresi´n de A obtenida al final de o −1 −1la demostraci´n de dicha proposici´n,(A = E1 · · · Em ) podemos comprobar que ese producto es o otambi´n inversa a la derecha de A. Es decir, e A−1 = Em ...Ek+1 Ek Ek−1 ...E1 Como Em ...Ek+1 Ek Ek−1 ...E1 = Em ...Ek+1 Ek Ek−1 ...E1 I, la matriz A−1 se puede obtener haciendoen I las operaciones elementales correspondientes a las matrices elementales escritas, y estas opera-ciones son las mismas que hemos hecho en A para llegar a I. Por eso, para obtener la matriz inversade A colocamos la matriz I al lado de la matriz A en la forma (A| I) y hacemos en la matriz I lasmismas operaciones elementales que en la A. Cuando a la izquierda de la barra hayamos llegado ala matriz I, es que hemos multiplicado A por Em · · · E1 y lo mismo I, por lo que a la derecha de labarra habremos llegado a la matriz inversa de A. Ve´moslo con la matriz a   0 1 1 A= 1 0 1  1 1 0Escribimos:   0 1 1 1 0 0  1 0 1 0 1 0  1 1 0 0 0 1y ahora hacemos en la uni´n de las dos matrices, las transformaciones elementales que llevan la omatriz A a la identidad.       0 1 1 1 0 0 1 0 1 0 1 0 1 0 1 0 1 0  1 0 1 0 1 0 ∼ 0 1 1 1 0 0 ∼ 0 1 1 1 0 0 ∼ 1 1 0 0 0 1 1 1 0 0 0 1 0 1 −1 0 −1 1     1 0 1 0 1 0 1 0 1 0 1 0  0 1 1 1 0 0 ∼ 0 1 1 1 0 0 ∼ 0 0 −2 −1 −1 1 0 0 1 1/2 1/2 −1/2     1 0 1 0 1 0 1 0 0 −1/2 1/2 1/2  0 1 0 1/2 −1/2 1/2  ∼  0 1 0 1/2 −1/2 1/2  0 0 1 1/2 1/2 −1/2 0 0 1 1/2 1/2 −1/2 77
  • 78. Entonces:  −1   0 1 1 −1/2 1/2 1/2  1 0 1  =  1/2 −1/2 1/2  1 1 0 1/2 1/2 −1/2 Obs´rvese que la matriz obtenida para A−1 es tambi´n la matriz que habr´ e e ıamos obtenido comosoluci´n de la ecuaci´n matricial AX = I por el m´todo de Gauss-Jordan. Esta soluci´n X es una o o e oinversa a la derecha, y adem´s, al haber expresado esta X como producto de matrices elementales, aestamos seguros de que es inversa a la derecha y a la izquierda; y la unicidad de la inversa nosasegura la unicidad del resultado, cualquiera que sea el camino seguido, o sea, cualesquiera que seanlas operaciones elementales realizadas. Ejercicios: 3.6.1. Utilizar el m´todo de Gauss para hallar las inversas e de las matrices del ejercicio 3.4.1 quesean invertibles y comprobar los resultados del ejercicio 3.5.2. 3.6.2. Los sistemas de ecuaciones lineales:   2y +4z = −3  −2x +y +z = −3  x +y +3z = 1 3x −2y +z = 1 3x +3y +7z = −2 x −y +z = −2  se pueden expresar matricialmente de la forma AX = b donde A es una matriz invertible. Su inversaha sido calculada en los ejercicios anteriores; usarla para hallar las soluciones de los sistemas. 3.6.3. Demostrar que la traspuesta de la inversa de una matriz es la inversa de la traspuesta dedicha matriz. 3.6.4. Explicar por qu´ una matriz triangular superior es invertible si y s´lo si todos los elementos e ode su diagonal son distintos de cero. 3.6.5. Explicar por qu´ la inversa de una matriz triangular superior invertible es tambi´n trian- e egular superior. 3.6.6. Demostrar que una matriz triangular inferior es invertible si y s´lo si todos los elementos ode su diagonal son distintos de cero. 3.6.7. Demostrar que la inversa de una matriz triangular inferior invertible es tambi´n triangular einferior. 78
  • 79. La expresi´n de la inversa como producto de matrices elementales nos permite tambi´n enten- o eder la Reducci´n de Gauss-Jordan para resolver el sistema AX=b cuando A es matriz oinvertible: Multiplicando a la izquierda por A−1 con la expresi´n obtenida: A−1 = Er ...Em+1 Em Em−1 ...E1 , otenemos X = A−1 b = Er ...Em+1 Em Em−1 ...E1 b Luego X es el resultado de hacer en b las operaciones elementales que llevan A a I. Escribiendola matriz A|b y haciendo en ´sta dichas operaciones, cuando a la izquierda de la barra vertical eobtengamos la matriz I, a la derecha habremos obtenido la matriz soluci´n de las X. Ver el ejemplo o3 de la p´gina 42 del libro de Fraleigh-Beauregard. a Ejemplos resueltos y problemas propuestos el el cap´ıtulo 2 de (A),en el cap´ ıtulo 2 de (Vi), en lassecciones 1.2 y 1.4 de (H) y en el cap´ ıtulo 5 de (Vi). 79
  • 80. BIBLIOGRAFIA (A) Algebra Lineal y aplicaciones. J. Arves´ Carballo, R. Alvarez Nodarse, F. Marcell´n Espa˜ol. u a nEd. S´ıntesis Madrid. 1999. (FB) Algebra lineal. J. B. Fraleigh y R. A. Beauregard. Ed. Addison- Wesley /Iberoamericana,1989. (H) Algebra y Geometr´ Eugenio Hern´ndez. Ed. Addison- Wesley / UAM, 1994. ıa. a a [M] Matem´ticas 2 Bachillerato. M Felicidad Monteagudo Mart´ a ınez. Jes´s Paz Fern´ndez Ed. u aLuis Vives. 2003. (Vi) Problemas de Algebra. A. de la Villa. Ed. Clagsa, 1994. 80
  • 81. DETERMINANTES y SISTEMAS de ECUACIONES. Introducci´n. o Los determinantes son n´meros asociados a las matrices. u Hemos visto matrices asociadas a los sistemas de ecuaciones. Veremos que cuando calculamosdeterminantes de esas matrices o de submatrices suyas obtenemos informaci´n sobre la compatibilidad oy determinaci´n de dichos sistemas. o Los determinantes tambi´n tienen interpretaci´n geom´trica. Vamos a empezar motivando su e o edefinici´n por su significado geom´trico. o e Escribiendo en filas las coordenadas de un vector de la recta, de dos vectores del plano o de tresvectores del espacio tenemos, respectivamente, una matriz 1 × 1, una matriz 2 × 2 o una matriz 3 × 3.   a11 a12 a13 a11 a12 a11  a21 a22 a23  a21 a22 a31 a32 a33 Al mismo tiempo, dado un vector, podemos considerar su longitud, que es un n´mero; dados udos vectores, podemos construir un paralelogramo cuyos lados son los vectores dados y considerar suarea; Dados tres vectores, podemos construir un paralelep´´ ıpedo cuyas aristas son los tres vectores yconsiderar su volumen. ¨r ¨¨¨ ££ rrr ¨ ¨¨ £ rr ¨ ¨ £ ¨ £ ¨¨ £ ¨¨ £ ¨¨ r £ ¨¨¨ £ £ rr ¨ £ £ £ r ¨¨£ £ £ rr¨¨ £ £ £ # £ £ £ £ £ £ £ £ £ £ £ ¨rr ¨r ¨¨ r £ £ ¨¨ rr £ ¨¨ rr £ £¨ r £ ¨ r £ ¨ rr£ ¨ ¨¨ £ ¨¨ ¨ ¨¨ B £ ¨¨ £ ¨¨ B ¨ ¨ ¨ £ ¨ £ ¨ ¨¨ ¨¨ £ ¨ ¨ £ ¨¨ ‰ rr ¨ ‰ r ¨ r ¨¨ rr £ ¨¨ rr ¨ r £ ¨ r¨¨ rr¨¨ £ 81
  • 82. Las longitudes, las areas y los vol´menes son ”n´meros” asociados a vectores, a parejas de vectores ´ u uo a ternas de vectores y por tanto a las matrices formadas con ellos. Entonces, es l´gico estudiar qu´ o epropiedades han de cumplir, para ver c´mo se pueden calcular. o Si quisi´ramos que la longitud, el area o el volumen fueran n´meros asociados a estas matrices e ´ uy los design´ramos por las matrices entre barras, los ”n´meros” asociados a esas matrices tendr´ a u ıanque cumplir: a) Si multiplicamos uno de los vectores por una constante positiva o nula, el n´mero asociado uqueda multiplicado por esa constante: ra11 ra12 ra13 a11 a12 a13 ra11 ra12 a11 a12 |ra11 | = r|a11 |, =r , a21 a22 a23 = r a21 a22 a23 a21 a22 a21 a22 a31 a32 a33 a31 a32 a33 Lo an´logo ocurre con las otras filas. a b) Si en un vector, una pareja o una terna de vectores, sustituimos un vector por la suma deotros dos, el n´mero asociado (longitud, ´rea o volumen) a la matriz correspondiente es la suma de u alos n´meros asociados a las dos matrices de vectores correspondientes a los vectores sumandos: u I‰ r B ¨ ¨ rr ¨ ¨ r ¨ rr ¨¨ I B ¨ ¨¨ ¨ r ¨ ¨ ¨ rr¨¨ ¨ $X‰ $r ¨¨ r ¨¨¨ a1 $$$ r $$$$$ rr $$ r ¨ $¨ $$$ $$ $$$ X a1 + a1 $$$$ $ $ $ $$ $ $$$ $ $ $ ‰ rr $$$$ a1 a2 rr $$$ r r$ $$$ 82
  • 83. r¨ ¨ £ rr ¨ £ ¨ ¨ rr ¨¨ £ r ¨ ¨ ¨ £ ¨ £ ¨¨ £ ¨¨ £ ¨ $¨ £ ¨¨ £ $$$$$ £rrr ¨¨ £ £ $$ £ r ¨ £ £ $$$$ $$ £ rr¨¨ £ £ $ $$ $ £ $$ # £ £ £ $ $$$ $$$$ £ £ £ £ $ $$$$ £ $$$ £ £ £ r £ rr $$$$ $ £ £ ¨¨¨rrr £ £ r $$$ £ ¨ £ rr £ £ rr$$$$ £ ¨¨ £ r I£ £ # £ £ ¨¨¨ £ ¨ ¨ £ £ £ ¨ £ ¨¨ £ £ $¨ $ r£ ¨ £ ¨¨ £ £ $$$ rr £ ¨¨¨ £ £ $$$$ £ ¨¨ rr £ £ $$$ X¨ r£ £ £ $$$$ $$$ $$ $$$$ £ $$ $ £ $$ £ $$ $ £ $$$$$ ‰ rr £ $ rr $ $$$ £ $ rr$$$$ £ |a11 + a11 | = |a11 | + |a11 | a11 + a11 a12 + a12 a11 a12 a11 a12 = + a21 a22 a21 a22 a21 a22 a11 + a11 a12 + a12 a13 + a13 a11 a12 a13 a11 a12 a13 a21 a22 a23 = a21 a22 a23 + a21 a22 a23 a31 a32 a33 a31 a32 a33 a31 a32 a33 Tambi´n ocurrir´ con las otras filas. e ıa Del apartado b) se deduce que el apartado a) es cierto tambi´n cuando una fila se multiplica por euna constante negativa ya que si r = −1 a11 a12 a13 −a11 −a12 −a13 0 0 0 a21 a22 a23 + a21 a22 a23 = a21 a22 a23 =0 a31 a32 a33 a31 a32 a33 a31 a32 a33 c) Si uno de los vectores es proporcional a alguno de los otros, el area o el volumen es cero. (Esta ´propiedad s´lo tiene sentido cuando la matriz es de orden mayor que 1). o Vamos a deducir que si las areas y los vol´menes fueran n´meros asociados a las matrices cuyas ´ u ufilas son los vectores dados, con las propiedades b) c) y a) estos ”n´meros” cambiar´ de signo al u ıancambiar el orden de las filas de las matrices por una permutaci´n de dos filas: o 83
  • 84. En vol´menes se verificar´ Proposici´n 1: u ıa o a11 a12 a13 a21 a22 a23 a21 a22 a23 = − a11 a12 a13 . a31 a32 a33 a31 a32 a33 En efecto, a11 a12 a13 a21 a22 a23 = a31 a32 a33 1 1 1 (a 2 11 + a21 ) + 2 (a11 − a21 ) (a 2 12 + a22 ) + 1 (a12 − a22 ) 2 1 (a 2 13 + a23 ) + 1 (a13 − a23 ) 2 1 1 1 = 2 (a11 + a21 ) − 2 (a11 − a21 ) 2 (a12 + a22 ) − 1 (a12 − a22 ) 2 1 2 (a13 + a23 ) − 1 (a13 − a23 ) 2 = a31 a32 a33por b) 1 1 1 (a + a21 ) 2 11 (a + a22 ) 2 12 (a 2 13 + a23 ) 1 1 1 = (a + a21 ) − 2 (a11 − a21 ) 2 11 (a + a22 ) − 1 (a12 − a22 ) 2 12 2 1 (a 2 13 + a23 ) − 1 (a13 − a23 ) + 2 a31 a32 a33 1 1 1 − a21 ) (a 2 11 (a 2 12 − a22 ) (a 2 13 − a23 ) 1 + 2 (a11 + a21 ) − 1 (a11 − a21 ) 2 1 2 1 (a12 + a22 ) − 2 (a12 − a22 ) 1 (a 2 13 + a23 ) − 1 (a13 − a23 ) 2 = a31 a32 a33por b) 1 1 1 1 1 1 (a 2 11 + a21 ) (a 2 12 + a22 ) (a 2 13 + a23 ) (a + a21 ) 2 11 (a + a22 ) 2 12 (a + a23 ) 2 13 1 1 1 1 1 1= (a 2 11 + a21 ) (a 2 12 + a22 ) (a 2 13 + a23 ) + − 2 (a11 − a21 ) − 2 (a12 − a22 ) − 2 (a13 − a23 ) + a31 a32 a33 a31 a32 a33 1 1 1 1 1 1 (a 2 11 − a21 ) (a 2 12 − a22 ) (a 2 13 − a23 ) (a − a21 ) 2 11 (a − a22 ) 2 12 (a − a23 ) 2 13 1 1 1 1 1 1+ (a 2 11 + a21 ) (a 2 12 + a22 ) (a 2 13 + a23 ) + − 2 (a11 − a21 ) − 2 (a21 − a22 ) − 2 (a13 − a23 ) = a31 a32 a33 a31 a32 a33(porque los vol´menes asociados a vectores proporcionales son cero, por c)) u 1 1 1 1 1 1 (a + a21 ) 2 11 (a + a22 ) 2 12 (a + a23 ) 2 13 (a 2 11 − a21 ) (a 2 12 − a22 ) (a 2 13 − a23 ) 1 1 1 1 1 1 = − 2 (a11 − a21 ) − 2 (a12 − a22 ) − 2 (a13 − a23 ) + (a 2 11 + a21 ) (a 2 12 + a22 ) (a 2 13 + a23 ) a31 a32 a33 a31 a32 a33 84
  • 85. Por otra parte, an´logamente, se tiene: a a21 a22 a23 a11 a12 a13 = a31 a32 a33 1 1 1 (a 2 11 + a21 ) + 2 (a21 − a11 ) (a 2 12 + a22 ) + 1 (a22 − a12 ) 2 1 (a 2 13 + a23 ) + 1 (a23 − a13 ) 2 1 1 1 = (a 2 11 + a21 ) − 2 (a21 − a11 ) (a 2 12 + a22 ) − 1 (a22 − a12 ) 2 1 (a 2 13 + a23 ) − 1 (a23 − a13 ) 2 = a31 a32 a33 1 1 1 1 1 1 (a + a21 ) 2 11 (a + a22 ) 2 12 (a + a23 ) 2 13 (a 2 21 − a11 ) (a 2 22 − a12 ) (a 2 23 − a13 ) 1 1 1 1 1 1 = − 2 (a21 − a11 ) − 2 (a22 − a12 ) − 2 (a23 − a13 ) + (a 2 11 + a21 ) (a 2 12 + a22 ) (a 2 13 + a23 ) a31 a32 a33 a31 a32 a33expresi´n opuesta a la anterior, teniendo en cuenta la propiedad a) para r = −1. o El cambio de signo se comprobar´ de la misma manera si permut´ramos la segunda y la tercera ıa afilas o la primera y la tercera filas. La comprobaci´n del cambio de signo en las areas es exactamente igual al cambio hecho entre o ´primera y segunda filas. (H´gase como ejercicio). a Propiedades de los determinantes y operaciones elementales. Podemos relacionar ahora las tres propiedades a), b) y c) que tendr´ que cumplir los ”n´meros” ıan uasociados a las matrices con las operaciones elementales en las matrices: De la propiedades b), c) y a) hemos deducido primero la propiedad siguiente: que al hacer en lamatriz una operaci´n elemental de permutaci´n de filas cambia de signo el ”n´mero” asociado; la o o uvamos a llamar propiedad 1). De la propiedad a) tenemos: al hacer en una matriz la operaci´n elemental de multiplicar una fila opor una constante, el ”n´mero” asociado queda multiplicado por esa constante. La vamos a llamar upropiedad 2). De la propiedad c) junto con la propiedad b) podemos deducir la propiedad siguiente: al haceren una matriz la operaci´n elemental de sumar a una fila de la matriz otra fila multiplicada por ouna constante, el ”n´mero” asociado queda invariante. (Compru´bese como ejercicio). La vamos a u ellamar propiedad 3). 85
  • 86. Las tres propiedades 1), 2) y 3) enunciadas de estos ”n´meros” asociados a las matrices nos dicen uc´mo est´n relacionados entre s´ los ”n´meros” asociados a matrices relacionadas por operaciones o a ı uelementales. Si las propiedades de estos ”n´meros” est´n relacionadas con las operaciones elemen- u atales, que son las que realizamos en las matrices para resolver los sistemas de ecuaciones, podemospensar que esos n´meros nos dan informaci´n sobre la resolubilidad de dichos sistemas. u o Asociando a las matrices identidad el n´mero 1, lo cual es coherente con el valor de la longi- utud, el area y el volumen asociados a las matrices formadas por los vectores coordenados, quedan ´determinados los ”n´meros” asociados a las matrices elementales por las propiedades 1), 2) y 3): u i) Las matrices elementales obtenidas al intercambiar dos filas de la matriz identidad, tendr´ ıancomo ”n´mero” asociado el opuesto del asociado a la matriz identidad, es decir, −1. u ii) Las matrices elementales obtenidas al multiplicar una fila de la identidad por una constante cdistinta de cero, seg´n la propiedad a) (o propiedad 2) tienen como ”n´mero” asociado el producto u ude esta constante por el n´mero asociado a la matriz identidad, es decir, c. u iii) Las matrices elementales obtenidas al sumar a una fila de la matriz identidad otra fila mul-tiplicada por una constante tienen el mismo ”n´mero” asociado que la matriz identidad, es decir, u1. Matem´ticamente, las operaciones elementales se realizan en una matriz multiplic´ndola a la a aizquierda por matrices elementales. Las propiedades 1), 2) y 3) respecto a una matriz general Aquedan resumidas en t´rminos de matrices elementales en la e Proposici´n 2: Si Ei es una matriz elemental, |Ei A| = |Ei ||A|. o La demostraci´n de esta proposici´n consiste en su comprobaci´n en cada uno de los tres tipos o o ode matrices elementales teniendo en cuenta las propiedades 1), 2) y 3) y se deja para el lector. Ejercicios: 4.1.1. Utilizando la proposici´n 2 y sin necesidad de calcularlos, demostrar que los siguientes odeterminantes son nulos. 12 22 32 42 7 1 3 a b c 1 2 3 22 32 42 52 a) 3 2 1 b) −a −b −c c) 2 3 4 d) 2 3 42 52 62 10 3 4 d e f 3 4 5 42 52 62 72 4.1.2. Usando las matrices elementales que llevan las matrices siguientes a la identidad y laproposici´n 2, calcular los determinantes de las siguientes matrices: o 86
  • 87.     1 1 3 a11 a12 a13 a11 a12 a)  0 1 1  b) c)  0 a22 a23  0 a22 0 0 4 0 0 a33cuando los elementos de la diagonal de las dos ultimas matrices son distintos de cero. ´ 4.1.3. a) Demostrar que el determinante de una matriz triangular superior que tiene alg´n elemento de ula diagonal igual a cero es nulo, usando las propiedades de los determinantes. b) Demostrar que si escalonando la matriz A se obtiene una matriz triangular superior que tienealg´n elemento de la diagonal igual a cero, el determinante de A ha de ser nulo. u 4.1.4. Usando las matrices elementales que llevan las matrices siguientes a una triangular superiory los resultados anteriores, calcular los determinantes de las siguientes matrices:       1 0 0 0 2 4 0 2 4 2 4 a) b)  0 2 4  c)  1 0 0  d)  0 1 3  1 3 0 1 3 0 1 3 1 0 0         0 −1 −1 1 0 2 4 0 −1 1 −2 1 1  g)  3 −2 1  h)  1  0 −1 1  e)  1 1 3  f)  1 0 −1  2 −1 −3 −1   3 3 7 2 −1 −1 1 −1 1 0 1 −1 0 Sol: a) 2, b) 2 c)4 d) 2) e) 4, f) 0, g) −1, h) −8. 4.1.5. Establecer las igualdades siguientes: 1 0 0 0 a12 a13 0 a12 a13 a22 a23 a a a12 a13 0 a22 a23 = , 1 0 0 = − 12 13 , 0 a22 a23 = . a32 a33 a32 a33 a22 a23 0 a32 a33 0 a32 a33 1 0 0 Tambi´n podemos establecer utilizando la proposici´n 2 el siguiente e o t Teorema 1: | A| = |A|. En efecto, podemos comprobar que el teorema es cierto para matrices elementales: recorriendo lostres tipos de matrices elementales que hay, y considerando las traspuestas de cada tipo, vemos quela traspuesta de cada matriz elemental es elemental del mismo tipo y que le corresponde el mismo”n´mero” que a la matriz elemental considerada. (Compru´bese en las matrices elementales 3 × 3). u e En cuanto al caso general, distinguimos dos casos: 87
  • 88. a) A es invertible. Si A es invertible, es producto de matrices elementales. Sea A = Em · · · E1 , entonces t A = t E1 · · · t Em y como las matrices traspuestas de matriceselementales son, a su vez, matrices elementales, por la proposici´n 2: o |t A| = |t E1 · t E2 · · · t Em | = |t E1 ||t E2 · · · t Em | = |t E1 ||t E2 | · · · |t Em | =por ser el teorema cierto para matrices elementales, = |E1 ||E2 | · · · |Em | = |Em | · · · |E2 ||E1 | = |Em · · · E2 E1 | = |A| b) A no es invertible. Entonces t A tampoco es invertible, porque si lo fuera, t A ser´ producto de matrices elementales, ıaen cuyo caso A ser´ el producto (en orden inverso) de las traspuestas de esas matrices elementales, ıasiendo por tanto invertible. Si la matriz A no es invertible, por operaciones elementales se puede reducir a una matriz escalo- −1 −1nada E con la ultima fila de ceros, teni´ndose Ek · · · E1 A = E, de donde A = Ek · · · E1 E, que ´ epodemos escribir de manera gen´rica como A = Ek · · · E1 E, donde Ei son matrices elementales. e Si en una matriz E hay una fila de ceros, su n´mero asociado es cero, ya que multiplicando la ufila de ceros por un n´mero distinto de cero, queda la misma matriz; por lo que se verificar´ debido u ıaa la propiedad 2), que c|E| = |E|, cualqiera que sea c, lo cual implica |E| = 0, cuando c = 1. Ahora, en virtud de la proposici´n 2, si A = Ek · · · E1 E, se tiene |A| = |Ek ||Ek−1 · · · E1 E| = o|Ek ||Ek−1 | · · · |E1 ||E| = 0 El mismo razonamiento para t A, puesto que no es invertible, nos da |t A| = 0, siendo, por tanto,tambi´n, |t A| = |A|. e Hagamos ahora dos observaciones: Primera: hemos obtenido, si A es invertible, |Em | · · · |E1 | = |A| cuando A = Em · · · E1 , es decir,el ”n´mero asociado” a A est´ determinado por las matrices elementales que llevan A a la identidad u ay es distinto de cero. Segunda: como al trasponer una matriz, las columnas pasan a filas, las propiedades a) b) c)enunciadas respecto a las filas de una matriz y sus consecuencias son, an´logamente ciertas respecto aa las columnas en los ”n´meros” que buscamos. En particular es cierta la u Proposici´n 3. Si una matriz tiene una columna de ceros su ”n´mero asociado” es cero. o u Para la demostraci´n de la proposici´n 3, tengamos en cuenta que se puede ver que si una matriz o otiene una fila de ceros su ”n´mero asociado” es cero de manera similar a c´mo hemos demostrado u o 88
  • 89. que el ”n´mero asociado” a una matriz escalonada con la ultima fila de ceros es cero. Entonces, u ´teniendo en cuenta el teorema 1 que pasa filas a columnas, queda establecida la proposici´n 3. o En virtud de estas propiedades, se puede hacer el desarrollo del n´mero asociado a una matriz u2 × 2. En efecto, por la propiedad b) respecto a columnas en matrices 2 × 2, para una matriz 2 × 2, eldeterminante ha de ser: a b a b 0 b a 0 a b 0 b 0 0 = + = + + + = c d 0 d c d 0 d 0 0 c 0 c ddebido a que el n´mero es cero cuando hay una fila de ceros, u a 0 0 b 1 0 0 1 1 0 1 0 + = ad + bc = ad − bc = ad − cb 0 d c 0 0 1 1 0 0 1 0 1 ıamos (descomponiendo la 1a columna en suma de tres En cuanto a una matriz 3 × 3, tendr´columnas): a11 a12 a13 a11 a12 a13 0 a12 a13 0 a12 a13 a21 a22 a23 = 0 a22 a23 + a21 a22 a23 + 0 a22 a23 = a31 a32 a33 0 a32 a33 0 a32 a33 a31 a32 a33 (descomponiendo las filas en sumas de tres filas): a11 0 0 0 a12 0 0 0 a13 = 0 a22 a23 + 0 a22 a23 + 0 a22 a23 + 0 a32 a33 0 a32 a33 0 a32 a33 0 a12 a13 0 a12 a13 0 a12 a13 + a21 0 0 + 0 a22 0 + 0 0 a23 + 0 a32 a33 0 a32 a33 0 a32 a33 0 a12 a13 0 a12 a13 0 a12 a13 0 a22 a23 + 0 a22 a23 + 0 a22 a23 = a31 0 0 0 a32 0 0 0 a33(por la proposici´n 3), o a11 0 0 0 a12 a13 0 a12 a13 = 0 a22 a23 + a21 0 0 + 0 a22 a23 = 0 a32 a33 0 a32 a33 a31 0 0 89
  • 90. 1 0 0 0 a12 a13 0 a12 a13 = a11 0 a22 a23 + a21 1 0 0 + a31 0 a22 a23 0 a32 a33 0 a32 a33 1 0 0 Observando ahora que 1 0 0 a22 a23 = 0 a22 a23 = a32 a33 0 a32 a33ya que estas dos matrices se escalonan o se transforman en la identidad con matrices elementalesan´logas de igual ”n´mero asociado”; que a u 0 a12 a13 1 0 0 a12 a13 1 0 0 = − 0 a12 a13 =− a32 a33 0 a32 a33 0 a32 a33por la misma raz´n anterior, y que o 0 a12 a13 0 a12 a13 1 0 0 a12 a13 0 a22 a23 =− 1 0 0 = 0 a12 a13 = a22 a23 1 0 0 0 a22 a23 0 a22 a23por la misma raz´n, podemos concluir que o a11 a12 a13 a22 a23 a12 a13 a12 a13 a21 a22 a23 = a11 − a21 + a31 a32 a33 a32 a33 a22 a23 a31 a32 a33 Este proceso se puede hacer en cualquier dimensi´n y justifica nuestra definici´n por inducci´n o o ode los ”n´meros asociados” que vamos a llamar determinantes u Definici´n de los determinantes. o Dada una matriz cuadrada A, se representa por |Aij | el determinante asociado a la submatriz deA, obtenida suprimiendo la fila i y la columna j de A. Con un proceso an´logo al anterior, se llega a que , si cumple las propiedades a), b) y c) anteriores, adesglosando la primera columna en suma de n columnas y luego cada fila en suma de n filas, en virtudde la observaci´n segunda posterior al teorema 1, el determinante de una matriz n × n ha de ser: o |A| = a11 |A11 | − a21 |A21 | + · · · + (−1)i+1 ai1 |Ai1 | + · · · + (−1)n+1 an1 |An1 | 90
  • 91. que se llama desarollo del determinante por la primera columna. Tambi´n, desglosando la primera fila en suma de n filas y luego cada columna en suma de n ecolumnas, en virtud de la observaci´n segunda posterior al teorema 1, ha de ser: o |A| = |t A| = a11 |A11 | − a12 |A12 | + · · · + (−1)j+1 a1j |A1j | + · · · + (−1)n+1 a1n |A1n |que se llama desarollo del determinante por la primera fila. Lo cual, puede obtenerse tambi´n del desarrollo del de determinante por la primera fila y el eteorema 1: |A| = |t A|. Para dar completa validez a la definici´n, comprobaremos que con ella se verifican las propiedades o1), a) y b) enunciadas anteriormente. Una vez comprobadas dichas propiedades para nuestradefinici´n, como la propiedad 1), junto con la propiedad a), implica la propiedad c), se tienen opara dicha definici´n, las propiedades a), b) y c), que implican 1), 2) y 3), obteniendo as´ que la o ıproposici´n 2) es cierta para nuestra definici´n: |Ei A| = |Ei ||A| donde Ei es una matriz elemental o oy A es una matriz cualquiera; de donde, tambi´n es cierto para nuestra definici´n el teorema 1: e o t| A| = |A|, ya que se puede repetir el proceso de su demostraci´n. o Tambi´n el teorema 1. implica las propiedades a), b) y c) respecto a columnas. e Comprobaci´n de las propiedades. o Comprobemos ahora que con la definici´n dada se cumplen las propiedades requeridas al principio. o Recordemos las propiedades: 1) Si intercambiamos dos filas en una matriz su determinante cambia de signo. a) Si multiplicamos una fila de una matriz por una constante, el determinante de la matriz quedamultiplicado por esa constante. b) Si descomponemos una fila de una matriz en suma de otras dos filas el determinante de lamatriz dada es la suma de los determinantes de las dos matrices obtenidas sustituyendo en la matrizdada la fila considerada por cada una de las filas sumandos. c) El determinante de una matriz con filas proporcionales es cero. En lugar de la propiedad c) podemos considerar la propiedad 1), ya que ambas son equivalentescuando a) y b) son ciertas. (Compru´bese como ejercicio). e La demostraci´n de las propiedades b´sicas puede hacerse por inducci´n ya que as´ se ha hecho o a o ıla definici´n. o 91
  • 92. Para un determinante de una matriz de orden 1, s´lo tienen sentido las propiedades a) y b), que oson trivialmente ciertas. Por eso comprobamos las tres propiedades 1), a), b) para determinantes de matrices de orden 2y luego demostramos que supuestas ciertas estas propiedades para determinantes de orden n − 1, loson para determinantes de orden n. Comprobamos en primer lugar la propiedad 1, porque permite transmitir lo que probemos parala primera fila a las dem´s filas. a Probemos 1) en matrices 2 × 2: Se reduce a comprobar que a b c d =− c d a b De la definici´n se tiene: o a b c d = ad − cb y = cb − ad = −(ad − cb) c d a bestando por tanto comprobado. Para comprobar la propiedad a), es suficiente comprobarla con la primera fila, ya que por lapropiedad 1), se trasmite a la segunda fila. En efecto, ra rb a b = rad − crb = r(ad − cb) = r c d c d Vemos la propiedad b) en matrices 2 × 2, respecto a la primera fila, a+a b+b a b a b = (a + a )d − c(b + b ) = ad − cb + a d − cb = + c d c d c d La propiedad comprobada se trasmite a la segunda fila, usando la propiedad 1). Ahora, suponiendo que la propiedad 1) se verifica en determinantes de matrices (n − 1) × (n − 1),vamos a comprobarla en determinates de matrices de orden n. Primero, lo demostramos cuando el intercambio de filas se hace entre dos filas sucesivas (la i y lai − 1): Por definici´n, o 92
  • 93. a11 a12 ··· a1n a22 ··· a2n a12 ··· a1n a21 a22 ··· a2n ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n ai−1,1 ai−1,2 ··· ai−1,n = a11 − a21 + ai2 ··· ain ai2 ··· ain ai1 ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann an1 an2 ··· ann a12 ··· a1n a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· ··· ··· ··· ai−2,2 ··· ai−2,n ai−1,2 ··· ai−1,n ai−1,2 · · · ai−1,n(−1)i ai−1,1 (−1)i+1 ai1 +· · ·+(−1)n+1 an1 = ai2 ··· ain ai+1,2 ··· ai+1,n ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann an−1,2 · · · an−1,nPor la hip´tesis de inducci´n, o o estos sumandos son:     a22 · · · a2n a12 ··· a1n   ··· ··· ···     ··· ··· ···    ai2 ··· ain   − a21 − ai2  ··· ain  = a11 −  + ···+   ai−1,2 · · · ai−1,n     ai−1,2 ··· ai−1,n    ··· ··· ···   ··· ··· ···  an,2 · · · an,n an2 ··· ann     a12 ··· a1n a12 ··· a1n   ··· ··· ···     ··· ··· ···   a ··· ai−2,n  + (−1)i ai1 − ai−1,2 ··· ai−1,n (−1) ai−1,1 − i−2,2 i+1      + ···+   ai2 ··· ain     ai+1,2 ··· ai+1,n    ··· ··· ···   ··· ··· ···  an2 ··· ann an2 ··· ann     a12 ··· a1n a22 ··· a2n a12 ··· a1n   ··· ··· ···     ··· ··· ··· ··· ··· ···    ai2 ··· ain   ai2 ··· ain ai2 ··· ain +(−1)n+1 an1 −  = − a11 − a21 +   ai−1,2 · · · ai−1,n     ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n    ··· ··· ···   ··· ··· ··· ··· ··· ···  an−1,2 · · · an−1,n an,2 ··· an,n an2 ··· ann 93
  • 94.   a12 ··· a1n a12 ··· a1n   ··· ··· ··· ··· ··· ···    ai−1,2 ··· ai−1,n ai−2,2 ··· ai−2,n  · · · − (−1)i ai1 + (−1)i+1 ai−1,1  + ···   ai+1,2 ··· ai+1,n ai2 ··· ain    ··· ··· ··· ··· ··· ···  an2 ··· ann an2 ··· ann a11 a12 ··· a1n a12 ··· a1n a21 a22 ··· a2n ··· ··· ··· ··· ··· ··· ··· ai2 ··· ain −(−1)n+1 an1 = − ai1 ai2 ··· ain . ai−1,2 · · · ai−1,n ai−1,1 ai−1,2 ··· ai−1,n ··· ··· ··· ··· ··· ··· ··· an−1,2 · · · an−1,n an1 an2 ··· ann Si las filas intercambiadas no son sucesivas, tenemos que darnos cuenta de que el intercambiopuede hacerse en dos etapas compuestas de intercambios de filas sucesivas: intercambiar la fila ”i”y la fila ”j”, suponiendo que j > i, es bajar la fila ”i” al sitio ”j”, para lo cual tenemos que saltarsucesivamente sobre j −i filas y luego subir la fila ”j” (que ya ha quedado en el sitio ”j −1” al sitio ”i”,para lo cual tenemos que saltar sucesivamente otras j − 1 − i filas. En total, hemos hecho 2(i − j) − 1cambios de filas sucesivas, lo cual se traduce en un cambio total de signo: (−1)2(i−j)−1 = −1. Pasamos a demostrar la propiedad a) en determinantes de orden n, suponiendo que es cierta paradeterminantes de orden n − 1: Por definici´n, o ra11 ra12 ··· ra1n a22 ··· a2n ra12 ··· ra1n a21 a22 ··· a2n ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n ai−1,1 ai−1,2 ··· ai−1,n = ra11 − a21 + ···+ ai2 ··· ain ai2 ··· ain ai1 ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann an1 an2 ··· ann 94
  • 95. ra12 ··· ra1n ra12 ··· ra1n ra12 · · · ra1n ··· ··· ··· ··· ··· ··· ··· ··· ··· ai−2,2 ··· ai−2,n a ··· ai−1,n ai−1,2 · · · ai−1,n(−1)i ai−1,1 (−1)i+1 ai1 i−1,2 +· · · (−1)n+1 an1 ai2 ··· ain ai+1,2 ··· ai+1,n ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann an−1,2 · · · an−1,nPor la hip´tesis de inducci´n, estos sumandos son: o o a22 ··· a2n a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n ai−2,2 ··· ai−2,nra11 − a21 r + · · · + (−1)i ai−1,1 r + ai2 ··· ain ai2 ··· ain ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann an2 ··· ann a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· a ··· ai−1,n ai−1,2 · · · ai−1,n +(−1)i+1 ai1 r i−1,2 + · · · + (−1)n+1 an1 r = ai+1,2 ··· ai+1,n ai2 ··· ain ··· ··· ··· ··· ··· ··· an2 ··· ann an−1,2 · · · an−1,n   a22 ··· a2n a12 ··· a1n a12 ··· a1n   ··· ··· ··· ··· ··· ··· ··· ··· ···    ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n ai−2,2 ··· ai−2,n r a11 − a21 + · · · + (−1)i ai−1,1 +   ai2 ··· ain ai2 ··· ain ai2 ··· ain    ··· ··· ··· ··· ··· ··· ··· ··· ···  an2 ··· ann an2 ··· ann an2 ··· ann   a12 ··· a1n a12 ··· a1n   ··· ··· ··· ··· ··· ···    ai−1,2 ··· ai−1,n ai−1,2 · · · ai−1,n  +r (−1)i+1 ai1 + · · · + (−1)n+1 an1 =   ai+1,2 ··· ai+1,n ai2 ··· ain    ··· ··· ··· ··· ··· ···  an2 ··· ann an−1,2 · · · an−1,n 95
  • 96. a11 a12 ··· a1n a21 a22 ··· a2n ··· ··· ··· ··· r ai−1,1 ai−1,2 ··· ai−1,n . ai1 ai2 ··· ain ··· ··· ··· ··· an1 an2 ··· ann Esta propiedad se trasmite a las dem´s filas usando la propiedad 1). a Para acabar, demostramos la propiedad b) en determinantes n × n, suponi´ndola cierta en deter- eminantes (n − 1) × (n − 1): a11 + a11 a12 + a12 · · · a1n + a1n a22 ··· a2n a21 a22 ··· a2n ··· ··· ··· ··· ··· ··· ··· a ··· ai−1,n ai−1,1 ai−1,2 ··· ai−1,n = (a11 + a11 ) i−1,2 ai2 ··· ain ai1 ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an1 an2 ··· ann a12 + a12 · · · a1n + a1n a12 + a12 · · · a1n + a1n ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−2,2 ··· ai−2,n −a21 + · · · + (−1)i ai−1,1 + ai2 ··· ain ai2 ··· ain ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann a12 + a12 · · · a1n + a1n a12 + a12 · · · a1n + a1n ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n (−1)i+1 ai1 + · · · + (−1)n+1 an1 ai+1,2 ··· ai+1,n ai2 ··· ain ··· ··· ··· ··· ··· ··· an2 ··· ann an−1,2 ··· an−1,n 96
  • 97. Por la hip´tesis de inducci´n, estos sumandos son: o o a22 ··· a2n a22 ··· a2n a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,na11 +a11 −a21 −a21 + ai2 ··· ain ai2 ··· ain ai2 ··· ain ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann an2 ··· ann an2 ··· ann a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· ai−2,2 ··· ai−2,n ai−2,2 ··· ai−2,n + · · · + (−1)i ai−1,1 + (−1)i ai−1,1 + ···+ ai2 ··· ain ai2 ··· ain ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· ai−1,2 ··· ai−1,n ai−1,2 ··· ai−1,n + · · · + (−1)i+1 ai1 + (−1)i+1 ai1 + ···+ ai+1,2 ··· ai+1,n ai+1,2 ··· ai+1,n ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann a12 ··· a1n a12 ··· a1n ··· ··· ··· ··· ··· ··· ai−1,2 · · · ai−1,n ai−1,2 · · · ai−1,n · · · + (−1)n+1 an1 + (−1)n+1 an1 = ai2 ··· ain ai2 ··· ain ··· ··· ··· ··· ··· ··· an−1,2 · · · an−1,n an−1,2 · · · an−1,ncogiendo los sumandos uno s´ otro no: ı, a11 a12 ··· a1n a11 a12 ··· a1n a21 a22 ··· a2n a21 a22 ··· a2n ··· ··· ··· ··· ··· ··· ··· ··· = ai−1,1 ai−1,2 ··· ai−1,n + ai−1,1 ai−1,2 ··· ai−1,n . ai1 ai2 ··· ain ai1 ai2 ··· ain ··· ··· ··· ··· ··· ··· ··· ··· an1 an2 ··· ann an1 an2 ··· ann Esta propiedad demostrada en la primera fila se trasmite a las dem´s filas por la propiedad 1). a 97
  • 98. Como se ha dicho antes, ahora podr´ ıamos demostrar el Teorema 1 para la definici´n dada por oinducci´n. o Debido al Teorema 1 las propiedades comprobadas para las filas se traducen en propiedadesan´logas para las columnas. a Veamos ahora c´mo dichas propiedades dan una relaci´n de los n´meros buscados con la resolu- o o ubilidad de sistemas de ecuaciones en la Regla de Cramer: a11 x +a12 y = b1 a21 x +a22 y = b2 Dado que la propiedad 1) implica que los determinantes de matrices con filas iguales son nulos,se tiene: a11 a12 b1 a21 a22 b2 a11 a12 b1 =0= a11 a12 b1 a21 a22 b2 a21 a22 b2Por tanto, desarrollando por la primera fila, se tiene: a12 b1 a11 b1 a11 a12 a11 − a12 + b1 =0 a22 b2 a22 b2 a21 a22 y a12 b1 a11 b1 a11 a12 a21 − a22 + b2 =0 a22 b2 a22 b2 a21 a22 o equivalentemente, cambiando columnas en los primeros determinantes, y cambiando los signos, b1 a12 a11 b1 a11 a12 a11 + a12 = b1 b2 a22 a22 b2 a21 a22 y b1 a12 a11 b1 a11 a12 a21 + a22 = b2 b2 a22 a22 b2 a21 a22habi´ndose encontrado que e b1 a12 a11 b1 a11 a12 b2 a22 a22 b2 cuando = 0 los valores : x = y= a21 a22 a11 a12 a11 a12 a21 a22 a21 a22satisfacen el sistema dado. 98
  • 99. Lo an´logo ocurre con los sistemas de n ecuaciones con n inc´gnitas. a o Podemos demostrar que la soluci´n considerada del sistema de ecuaciones lineales es unica cuando o ´el determinante de la matriz de los coeficientes es distinto de cero. Llamando ∆ a este determinante,como 1 a22 −a12 a11 a12 1 0 = ∆ −a21 a11 a21 a22 0 1Si a11 x +a12 y = b1 a11 a12 x 0 ≡ = a21 x +a22 y = b2 a21 a22 y 0y a11 x +a12 y = b1 a11 a12 x 0 ≡ = a21 x +a22 y = b2 a21 a22 y 0se tiene: a11 a12 x−x 0 = , a21 a22 y−y 0de donde x−x 1 a22 −a12 a11 a12 x−x 1 a22 −a12 0 0 = = = y−y ∆ −a21 a11 a21 a22 y−y ∆ −a21 a11 0 0 Ejercicios: 4.2.1. Calcular usando la definici´n los determinantes de las matrices num´ricas de los ejerciios o e4.1.∗ y comprobar que son los mismos que hallados anteriormente. 4.2.2. Calcular los determinantes de las matrices dadas a continuaci´n: o     3 2 −6 −8 −1 −4 a) 1/7  6 −3 2  b) 1/9  −4 4 7  2 6 3 1 8 −4 99
  • 100. 4.2.3. a) Comprobar que la ecuaci´n de un plano o que pasa por tres puntos no alineados: (a1 , a2 , a3 ),(b1 , b2 , b3 ), (c1 , c2 , c3 ) del espacio es 1 x1 x2 x3 1 a1 a2 a3 =0 1 b1 b2 b3 1 c1 c2 c3y hallar la ecuaci´n cartesiana del plano que pasa por los puntos (1, 2, 1), (−1, 3, 0), (2, 1, 3). o b) Escribir la ecuaci´n de una recta del plano que pasa por los puntos (a, b), (c, d) del plano y ohallar la ecuaci´n cartesiana de la recta del plano que pasa por los puntos (−1, −2), (2, 2). o Caracterizaci´n de las matrices invertibles por su determinante. o Teorema 2. Una matriz es invertible si y s´lo si su determinante es distinto de cero. o Dedujimos en la segunda parte de la demostraci´n del teorema 1 que el determinante de las omatrices no invertibles es cero; (utilizando el teorema 2 del cap´ıtulo anterior). Para ver que el determinante de las matrices invertibles es distinto de cero, empecemos porlas matrices elementales, que son invertibles, recorriendo sus distintos tipos. Se puede ver que susdeterminantes son distintos de cero. (Se hizo en la sexta p´gina de este cap´ a ıtulo) Para verlo en el caso general, debido al teorema que estableci´ que una matriz es invertible osi y s´lo si es producto de matrices elementales, y a la proposici´n 2 de este cap´ o o ıtulo, hacemosel siguiente razonamiento: Sea A = Em · Em−1 · · · E1 = Em · Em−1 · · · E1 I, entonces es necesario,seg´n la proposici´n 2, que |A| = |Em ||Em−1 · · · E1 ||I| = |Em ||Em−1 | · · · |E1 | = 0 porque todos los u odeterminantes de matrices elementales son distintos de cero. Pod´ıamos haber dado la definici´n de determinante de una matriz invertible utilizando las ma- otrices elementales en las que se descompone como producto, pero se hubiera planteado el problemasobre si el n´mero asociado era independiente del camino por el que la matriz llega a la identidad upor transformaciones elementales. Este problema est´ resuelto en la definici´n dada, ya que s´lo a o ointervienen los n´meros de las entradas de la matriz. Seg´n la definici´n que hemos dado, el de- u u oterminante de la matriz s´lo depende de los n´meros que forman la matriz y no de la sucesi´n de o u omatrices elementales que la transforman en la identidad; es independiente de esta sucesi´n. o 100
  • 101. Determinante del producto. Teorema 3: |AB| = |A||B| : El determinante del producto de dos matrices es el productode los determinantes de las matrices. De donde se deduce que |A−1 | = 1/|A|. Demostraci´n del Teorema 3: o Tambi´n ahora distinguimos dos casos: e a) |A| = 0. Entonces, A es invertible y ten´ ıamos en la proposici´n 4 del cap´ o ıtulo anterior: −1 −1 −1 −1 A = E1 E2 · · · Ek · · · Em donde Ei y Ei−1 son matrices elementales, (Estas E1 , · · · , Em son las inversas de las del teorema2.) de donde −1 −1 −1 −1 |A| = |E1 ||E2 || · · · |Ek | · · · |Em | Por otra parte, −1 −1 −1 −1 AB = E1 E2 · · · Ek · · · Em B y −1 −1 −1 −1 −1 −1 −1 −1 |AB| = |E1 ||E2 · · · Ek · · · Em B| = |E1 ||E2 | · · · |Ek | · · · |Em ||B| = |A||B|. b) |A| = 0. Entonces, A no es invertible; al reducir A a una matriz escalonada E, esta matrizescalonada tiene su ultima fila formada por ceros, entonces, ´ −1 −1 −1 A = E1 E2 · · · Em E y −1 −1 −1 AB = E1 E2 · · · Em EB donde la matriz EB tiene la ultima fila de ceros, por tanto su determinante es nulo y ´ −1 −1 −1 −1 −1 −1 |AB| = |E1 ||E2 · · · Em · · · EB| = |E1 ||E2 | · · · |Em | · · · |EB| = 0 = |A||B|. Hagamos aqu´ la observaci´n de que la unica forma de definir el determinante de la matriz ı o ´identidad coherente con este teorema era darle el valor 1, ya que si hubiera sido cero, no hubieradistinguido matrices invertibles de matrices no invertibles y de no ser cero, |I| = |II| = |I||I| implica|I| = 1. 101
  • 102. Ejercicios. 4.3.1. a) Demostrar que una matriz triangular superior es invertible si y s´lo si todos los elementos de osu diagonal son distintos de cero. b) Demostrar el resultado an´logo para matrices triangulares inferiores. a 4.3.2. a) Demostrar que una matriz antisim´trica de orden impar no puede ser invertible. e b) Encontrar matrices antisim´tricas de orden par que sean invertibles. e 4.3.3. Calcular los determinantes: 1 1 1 x1 x2 x3 x2 x 2 x 2 1 2 3 1 1 1 1 x1 x2 x3 x4 x2 x2 x2 x2 1 2 3 4 x3 x3 x3 x3 1 2 3 4 102
  • 103. Como un inciso, vamos a ver ahora como se hace en general el determinante n × n: 1 1 1 ··· 1 x1 x2 x3 ··· xn 2 2 x1 x2 x2 3 ··· x2n ∆n = x3 1 x3 2 x3 3 ··· x3n ··· ··· ··· ··· ··· xn−1 xn−1 xn−1 1 2 3 ··· n−1 xnque se llama determinante de Vandermonde. Si dos de los xi son iguales, la matriz tiene dos columnas iguales y por tanto su determinante escero. Suponemos ahora que todos los xi son distintos entre s´ ı. Se reduce su tama˜o en uno restando a cada fila la anterior multiplicada por x1 si x1 = 0. Si nx1 = 0 se reduce el tama˜o en uno, desarrollando por la primera columna y sacando xj de cada ncolumna j. Entonces: 1 1 1 ··· 1 1 1 1 ··· 1 x1 x2 x3 ··· xn 0 x 2 − x1 x 3 − x1 ··· xn − x1 2 2 x1 x2 x2 3 ··· x2n 0 x2 (x2 − x1 ) x3 (x3 − x1 ) · · · xn (xn − x1 ) 3 3∆n = x1 x2 x3 3 ··· x3n = 0 x2 (x2 − x1 ) 2 x2 (x3 − x1 ) 3 · · · x2 (xn − x1 ) n ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· xn−2 xn−2 xn−2 1 2 3 ··· xn−2 n 0 n−1 n−1 x2 (x2 − x1 ) x3 (x3 − x1 ) n−1 · · · xn (xn − x1 ) xn−1 xn−1 xn−1 1 2 3 ··· xn−1 n 0 xn−2 (x2 − x1 ) xn−2 (x3 − x1 ) 2 3 · · · xn−2 (xn − x1 ) nAqu´ podemos prescindir de la primera columna y sacar en las columnas restantes los factores: ı,x2 − x1 , x3 − x1 , · · · , xn − x1 , quedando nuestro determinante igual a 1 1 ··· 1 x2 x3 ··· xn x22 x23 ··· x2n ∆n = (x2 − x1 )(x3 − x1 ) · · · (xn − x1 ) 3 x2 x33 ··· x3n ··· ··· ··· ··· n−2 n−2 x2 x3 ··· xn−2 nque es del mismo tipo, donde repitiendo las operaciones con las filas, tenemos que es igual a 103
  • 104. 1 ··· 1 x3 ··· xn n−1 n x23 ··· x2n (x2 − x1 )(x3 − x1 ) · · · (xn − x1 )(x3 − x2 ) · · · (xn − x2 ) = (xi − xj ). x33 ··· x3n j=1 i>j ··· ··· ··· n−3 x3 ··· xn−3 n Ejercicios: 4.4.1. a) Siendo a0 + a1 x + a2 x2 + a3 x3 = P (x) un polinomio de grado 3, hallar sus coeficientes paraque P (0) = 2, P (1) = 1, P (2) = −1, P (3) = 0 b) Demostrar que siempre se puede encontrar un polinomio de grado 3 que cumpla las condiciones{P (xi ) = yi }i∈{1,2,3,4} , cuando todos los {xi } son distintos, cualesquiera que sean los {yi }. c) Generalizar el resultado b): dado un polinomio de grado n, y n + 1 parejas de puntos{(xi , yi )}i∈{1,2,··· ,n+1} , siempre se pueden encontrar los coeficientes del polinomio de manera queP (xi ) = yi si todos los {xi } son distintos. Obs´rvese que la parte c) nos indica c´mo hallar una funci´n cuya gr´fica pase por n + 1 puntos e o o adel plano siempre que no haya dos puntos en la misma vertical. Desarrollo del determinante por una fila cualquiera y por una columna cualquiera: La definici´n de determinante se ha hecho por inducci´n utilizando la primera columna. Como o oel determinante de la matriz es igual al de la traspuesta por el teorema 1, obtenemos otra expresi´n otrasponiendo la matriz A y aplicando la definici´n de determinante: o |A| = a11 |A11 | − a12 |A12 | + · · · + (−1)j+1 a1j |A1j | + · · · + (−1)n+1 a1n |A1n |donde hemos cambiado el sub´ ındice i por j ya que j es el sub´ ındice utilizado usualmente para columnas.Este es el desarrollo del determinante por la primera fila. Por otra parte, considerando que la fila i-´sima puede ser colocada en la primera fila pas´ndola e apor encima de las i-1 anteriores, lo cual da en el determinante de la matriz i-1 cambios de signo ypor la f´rmula anterior, tenemos: o |A| = (−1)i−1 (ai1 |Ai1 | − ai2 |Ai2 | + · · · + (−1)j+1 aij |Aij | + · · · + (−1)n+1 ain |Ain |) = (−1)i+1 ai1 |Ai1 | + (−1)i+2 ai2 |Ai2 | + · · · + (−1)i+j aij |Aij | + · · · + (−1)i+n ain |Ain | Este es el desarrollo del determinante por cualquier fila. 104
  • 105. Si queremos desarrollar ahora el determinante por cualquier columna, utilizando el teorema 1,s´lo tenemos que trasponer la matriz y desarrollar el determinante de la traspuesta por la fila corres- opondiente obteniendo: |A| = (−1)j+1 a1j |A1j | + (−1)j+2 a2j |A2j | + · · · + (−1)i+j aij |Aij | + · · · + (−1)j+n anj |Anj | Ejercicios: 4.5.1. a) Obtener, en funci´n de los determinantes de los menores diagonales de la matriz A, o a11 − λ a12 a13 |A − λI| = a21 a22 − λ a23 a31 a32 a33 − λ(Indicaci´n: descomponer las filas en sumandos sin λ y con λ). o b) Aplicar la f´rmula a la obtenci´n de los siguientes determinantes: o o   1−λ 2 1 2 1 −2 0 3−λ 1 1/3  −1 −2 −2  − λI 3 1 2−λ −2 2 −1 4.5.2. Encontrar los valores de a para que las siguientes matrices sean invertibles.       a 1 1 −1 −1 1 −1 a a a)  1 a 1  b)  1 4 −a  c)  a −1 a  0 1 a −1 a 0 a a −1 4.5.3. Dadas A, B y C, matrices cuadradas de orden n y A C D= 0 B a) Demostrar que |D| = |A||B| utilizando la descomposici´n: o A C In 0 A C = 0 B 0 B 0 In b) Demostrar, utilizando una descomposici´n similar, la misma igualdad, |D| = |A||B|, en el ocaso: A 0 D= C B 105
  • 106. F´rmula para la inversa: o Del desarrollo del determinante por una fila cualquiera ten´ ıamos |A| = (−1)i+1 ai1 |Ai1 | + (−1)i+2 ai2 |Ai2 | + · · · + (−1)i+j aij |Aij | + · · · + (−1)i+n ain |Ain |que se puede expresar matricialmente as´ ı: (−1)i+1 |Ai1 |   (−1)i+2 |Ai2 |   . .  .   = (ai1 , ai2 , · · · , aij , · · · , ain )   = |A|    (−1)i+j |Aij |   . .   .  i+n (−1) |Ain | Ahora vamos a hacer la siguiente observaci´n: o Si k = i, la suma Σ = (−1)i+1 ak1 |Ai1 |+(−1)i+2 ak2 |Ai2 |+· · ·+(−1)i+j akj |Aij |+· · ·+(−1)i+n akn |Ain | corresponde aldesarrollo del determinante de la matriz obtenida cambianndo la fila i-´sima de A por la fila k-´sima e ey dejando esta ultima igual, es por tanto, el desarrollo del determinante de una matriz que tiene las ´filas i-´sima y k-´sima iguales, que es cero. Lo cual matricialmente se puede escribir as´ e e ı: (−1)i+1 |Ai1|    (−1)i+2 |Ai2 |   . .  .   (ak1 , ak2 , · · · , akj , · · · , akn )  =0    (−1)i+j |Aij |   . .   .  (−1)i+n |Ain | Por tanto tenemos en una sola expresi´n: o (−1)i+1 |Ai1 |     a11 · · · a1i · · · a1k · · · a1n 0   . .  .  . ··· ··· ··· ··· ··· . .  . . . 0        ai1 · · · aii · · · aik · · ·  ain    i+j (−1) |Aii |    |A|   . .  .   0   . ··· ··· ··· ··· ··· .  . =   . .  .   .  i+j  . .   k1 · · · aki · · · akk · · · (−1) |Aik |    a akn    .     . .  . .   . ··· ··· ··· ··· ··· .  .   . . .  .  an1 · · · ani · · · ank · · · ann (−1)i+n |Ain | 0 Ahora, haciendo variar en la columna anterior el sub´ ındice i, tenemos: 106
  • 107. . . .    |A11 | . (−1)i+1 |Ai1 | . . (−1)k+1 |Ak1 | . . . |An1 | a11 .. a1i .. a1k .. a1n . .   . . . . . . . . . . . . . .  . .. .. . .. .. .. .   . . . . . . . .   . . . (−1) |A1i | . . (−1) |Aki | . (−1) |Ani |  i+1 k+1 n+i  ai1 .. aii .. aik .. ain   . |Aii | . .    . . .. .. .  .  . . . . . . . . . . . . . .  . .. .. .. .   . . . . . . .  . . .  ak1 .. aki .. akk .. akn    (−1)k+1 |A1k | . (−1)i+k |Aik | . . . |Akk | . (−1)n+k |Ank | .  . .   . .. .. .. .. .. .   . . . . . . . .  . . . . . . . . . . . .  an1 .. ani .. anj .. ann   . . . (−1)n+1 |A1n | . . |Ain | . (−1)k+1 |Akn | . . . |Ann |   |A| 0 ··· ··· 0 ··· 0 .. 0 . ··· ··· ··· ··· 0     0 · · · |A| 0 0 ··· 0      = . . .. . .   = |A|I.  . ··· ··· . ··· ··· .    0 · · · 0 · · · |A| ··· 0    . . ··· ··· ··· ...   0 . 0  0 ··· 0 ··· 0 · · · |A| Adem´s, del desarrollo del determinante por una columna, ten´ a ıamos: |A| = (−1)j+1 a1j |A1j | + (−1)j+2 a2j |A2j | + · · · + (−1)i+j aij |Aij | + · · · + (−1)j+n anj |Anj |que matricialmente se escribe as´ ı:   a1j  a2j   . .  .   j+1 j+2 i+j n+j ((−1) |A1j |, (−1) |A2j | · · · (−1) aij |Aij | · · · (−1) |Anj |)   = |A|    aij   .  .   . anj Tambi´n ocurre que si k = j, e 0 = (−1)j+1 a1k |A1j | + (−1)j+2 a2k |A2j | + · · · + (−1)i+j aik |Aij | + · · · + (−1)j+n ank |Anj | ya que esel determinante de la matiz obtenida de A sustituyendo la columna j-´sima por la coluna k-´sima, e e 107
  • 108. (tiene dos columnas iguales), que matricialmente se escribe as´ ı:   a1k  a2k   . .  .   ((−1)j+1 |A1j |, (−1)j+2 |A2j | · · · (−1)i+j |Aij | · · · (−1)n+j |Anj |)  =0    aik   .  .   . anky globalmente para todas las columnas se expresa: . . .  |A11 | . (−1)j+1 |Aj1 | . . (−1)k+1 |Ak1 | . . . |An1 |   . . . . . . .  a11 .. a1j .. a1k .. a1n . . . . . . . . . . . . . .  .  . .  .. .. .. .. .. .  . . . . . (−1)j+1 |A1j | . . (−1)k+j |Akj | . (−1)n+j |Anj |   aj1  . |Ajj | . . .. ajj .. ajk .. ajn    . . . . . . . . . . . . . .  . .   . .. .. .. .. .. .  . . . . . . .  . .  . . . . (−1)j+k |Ajk | . . (−1)n+k |Ank |   ak1 .. akj .. akk .. akn   k+1 (−1) |A1k | . . |Akk | .   . .   . . . . . . . . . . . . . . .. .. .. .. .. . .  . . . . . .  an1 .. anj .. ank .. ann  . . . (−1)n+1 |A1n | . . |Ajn | . (−1)k+1 |Akn | . . . |Ann |   |A| 0 ··· ··· 0 ··· 0 ...  0 ··· ··· ··· ··· 0     0 · · · |A| 0 0 ··· 0    = . .. .  = |A|I.   . . ··· ··· . ··· ··· .  .   0  ··· 0 ··· |A| · · · 0    . . ...   0 . ··· ··· ··· 0  0 ··· 0 ··· 0 · · · |A| Entonces, de estas igualdades, tenemos que llamando matriz cofactor de A a cof (A) = (cof (aij )) =((−1)i+j |Aij |) se verifica: A · t cof (A) = |A|I, t cof (A) · A = |A|Ilo que nos indica la f´rmula de la inversa de una matriz con determinante distinto de cero: o 1 t A−1 = ( cof (A)) |A| 108
  • 109. que ser´ inversa a la derecha y a la izquierda, y por tanto unica. a ´ Ejercicios: 4.6.1. Utilizando las matrices de cofactores, hallar las inversas de las matrices de los ejercicios3.4.1. que sean invertibles. Comprobar los resultados obtenidos utilizando el m´todo de Gauss para ecalcular la inversa. 4.6.2. Mostrar, usando la f´rmula de la inversa, que cuando una matriz es invertible, la traspuesta ode la inversa coincide con la inversa de la traspuesta. 4.6.3. Mostrar, usando la f´rmula de la inversa, que la matriz inversa de una matriz triangular osuperior invertible es tambi´n triangular superior. Y que lo an´logo ocurre para matrices triangulares e ainferiores. 109
  • 110. Regla de Cramer. Sea AX = b un sistema de ecuaciones, escrito de manera resumida, donde A es la matriz delos coeficientes de las inc´gnitas, X es la columna de las inc´gnitas, y b es la columna de t´rminos o o eindependientes; si A es una matriz invertible, multiplicando por la inversa de A a la izquierda,tenemos X = A−1 b, donde utilizando la f´rmula anterior para la inversa, tenemos: o 1 t X= ( cof (A))b |A|que desarrollada inc´gnita a inc´gnita da la regla de Cramer. Para cada inc´gnita xi , que es una fila o o ode la matriz X, tenemos: 1 xi = ((−1)i+1 A1i b1 + (−1)i+2 A2i b2 + · · · + (−1)i+n Ani bn ) |A|donde la expresi´n del par´ntesis es el desarrollo por la columna i-´sima del determinante de la matriz o e eobtenida de A (la matriz de los coeficientes) cambiando su columna i-´sima por la columna de los et´rminos independientes. e Ejercicios: 4.7.1. Utilizar la regla de Cramer para resolver los siguientes sistemas de ecuaciones:    2x +y +4z +8t = −1  x +2y −z = 7  2x +3y −5z − 2 = 0   x +3y −6z +2t = 3  a) 2x +y +z = 6 b) 3x −y +2z + 1 = 0 c) 3x −2y +2z −2t = 8  x −y +3z = −1 5x +4y −6z − 3 = 0    2x −y +2z = 4  Se pueden comprobar los resultados obtenidos sustituyendo o aplicando el m´todo de Gauss. e Sol: a) (5/3,8/3,0) b) (−1/5, 14/5, 6/5), c)(2, −3, −3/2, 1/2). 110
  • 111. Volviendo a los sistemas de ecuaciones, para los que hemos encontrado la regla de Cramer cuandoA es invertible, podemos demostrar que X = A−1 b, es soluci´n unica, ya que si hubiera dos soluciones o ´X y X’ para las inc´gnitas, de las igualdades AX = b = AX se tiene A(X − X ) = 0 de donde omultiplicando por la izquierda por A−1 tenemos X − X = A−1 0 = 0, es decir, X = X . La unicidad de la soluci´n de los sistemas AX=b se puede reducir a la unicidad de soluci´n del sistema AX=0, ya o oque ´ste es un caso particular de los anteriores y si hay dos soluciones distintas de AX=b para alg´n b, la diferencia e u(distinta de cero), es soluci´n no nula de AX=0. o (Un sistema de la forma AX=0 se llama sistema homog´neo y dado un sistema de la forma AX=b, al sistema eAX=0 se le llama sistema homog´neo asociado al sistema dado.) e Se nos plantea la pregunta sobre qu´ podemos decir de los sistemas AX = b cuando A es una ematriz no invertible e incluso cuando A no es una matriz cuadrada. Teorema de Rouch´-Frobenius. e Cuando A no es invertible (p. ej. si no es cuadrada) en el cap´ ıtulo primero hemos enunciado elTeorema de Rouch´-Frobenius relativo a los escalones de las matrices escalonadas a las que quedan ereducidas A y A|b. Ahora vamos a expresar num´ricamente el teorema de Rouch´-Frobenius con la definici´n de e e orango de una matriz, por medio de determinantes de submatrices suyas. Para expresar num´ricamente este teorema definiremos el rango de una matriz no necesaria- emente cuadrada como el m´ximo de los ordenes de las submatrices cuadradas de A con determinante a ´distinto de cero. Recordemos que, denotando por E(A|b) la matriz escalonada que se puede obtener de la matrizampliada del sistema y por E(A) la matriz escalonada a la que queda reducida A, el teorema deRouch´-Frobenius enunciado relativo a los escalones de las matrices escalonadas a que se pueden ereducir la matriz de los coeficientes del sistema y la matriz ampliada era: El sistema es incompatible si el n´mero de escalones de E(A|b) (o n´mero de filas no nulas de u uE(A|b)) es distinto del n´mero de escalones de E(A) (o n´mero de filas no nulas de E(A)). u u El sistema es compatible si los dos n´meros anteriores son iguales, siendo compatible determinado usi todos los escalones de E(A) son de longitud una columna y siendo compatible indeterminado si hayalg´n escal´n en E(A) de m´s de una columna. En el primer caso el n´mero de escalones de las dos u o a umatrices escalonadas o n´mero de filas no nulas coincide con el n´mero de columnas, es decir, con el u un´mero de inc´gnitas; En el segundo caso el n´mero de filas no nulas de las dos matrices escalonadas u o uanteriores es menor que el n´mero de columnas o inc´gnitas. u o 111
  • 112. Veamos cu´l es el rango de una matriz escalonada. En una matriz escalonada, cada fila distinta ade cero determina un escal´n. Al n´mero distinto de cero del angulo del escal´n se le llama pivote. o u ´ oCada fila distinta de cero determina un pivote y rec´ ıprocamente cada pivote pertenece a una filadistinta de cero. Tambi´n cada pivote determina una columna con ese pivote; entonces, si en la esubmatriz formada por las columnas que tienen pivote, suprimimos las filas nulas, obtenemos unasubmatriz cuadrada, ya que tiene tantas filas y tantas columnas como pivotes. Adem´s es una matriz atriangular superior (de orden igual al n´mero de filas no nulas de la matriz escalonada o n´mero u ude escalones), cuyos elementos en la diagonal son los pivotes, todos distintos de cero; por tanto sudeterminante es no nulo. De ello se deduce que el rango de una matriz escalonada es mayor o igualque su n´mero de filas no nulas, pero una submatriz de mayor orden tendr´ que incluir filas nulas, u ıay su determinante ser´ nulo, por lo que el rango de una matriz escalonada coincide con el n´mero ıa ude sus filas no nulas o n´mero de escalones. u As´ podemos dar un primer paso y enunciar el teorema de Rouch´-Frobenius diciendo que el ı, esistema es incompatible cuando los rangos de las matrices escalonadas a las que se reducenla matriz de los coeficientes del sistema y la matriz ampliada son distintos. Y que escompatible determinado cuando adem´s de ser los dos rangos iguales, lo son al n´ mero a ude inc´gnitas, siendo en otro caso indeterminado. o Si ahora comprobamos que el rango de una matriz es invariante por operaciones elementales,podemos suprimir en el enunciado anterior la frase: ”las matrices escalonadas a las que se reducen”;quedando el teorema de Rouch´-Frobenius antes escrito en letra negrita en su enunciado cl´sico. e a Invariancia del rango por transformaciones elementales. En efecto, vamos a ver que se conserva el orden de las submatrices con determinante distinto decero, y por tanto su m´ximo, al realizar cada uno de los tipos de operaciones elementales. Para ello avemos que si hay un menor de un determinado orden distinto de cero en la matriz que resulta deuna dada por una transformaci´n elemental hay otro menor del mismo orden, distinto de cero (que opuede coincidir con el primero) en la matriz dada. 1.) Hagamos en una matriz un intercambio de filas. Si en la matriz resultante hay un menor distinto de cero, es decir, una submatriz de determinanteno nulo, puede ocurrir que no interseque las filas intercambiadas, en cuyo caso aparece tal cual en laprimera matriz y su determinante es el mismo. O que contenga a las dos filas intercambiadas, en cuyo caso haciendo el cambio de filas inversoen la submatriz obtenemos otra submatriz de la matriz dada con determinante cambiado de signo 112
  • 113. respecto a la primera submatriz considerada, pero tambi´n distinto de cero. e O que contenga s´lo una fila de las intercambiadas y en este caso permutando esta fila con las ootras para intercalarla en el lugar en que aparec´ en la matriz dada obtenemos una submatriz de ıala primera matriz en la que aparece el trozo correspondiente de la fila de la que proven´ siendo ıasu determinante igual o cambiado de signo respecto al menor considerado, pero siempre distinto decero. Luego el orden de los menores distintos de cero se conserva en el primer tipo de operacioneselementales. 2.) Multipliquemos una fila por un n´mero distinto de cero. u Dado un menor distinto de cero en la matriz modificada, es decir, una submatriz con determinantedistinto de cero, si esta submatriz no interseca la fila multiplicada, aparece tal cual en la matriz daday si aparece la fila multiplicada su determinante es un m´ltiplo distinto de cero del determinante ude la submatriz de las mismas filas y las mismas columnas en la matriz dada, que por tanto ha deser tambi´n distinto de cero. Entonces, el orden de los menores distintos de cero se conserva por el esegundo tipo de operaciones elementales. 3.) Sumemos a una fila otra fila multiplicada por un n´mero. u Un menor distinto de cero de la matriz resultante puede ser el determinante de una submatrizque no contenga la fila modificada y entonces aparece tal cual en la primera matriz, siendo ya antesdistinto de cero. Si la submatriz contiene la fila modificada y la fila sumada, su determinante es igual al de lasubmatriz de las mismas columnas y an´logas filas en la matriz dada, que por tanto era distinto de acero. Si la submatriz contiene la fila modificada pero no la sumada, descomponemos su determinante enla suma de los dos determinantes de las dos submatrices formadas, primero, por las mismas columnasy las filas an´logas de la primera matriz y segundo por la submatriz obtenida de ´sta sustituyendo a ela fila modificada por la sumada multiplicada por el n´mero. u Si la submatriz primer sumando tiene determinante no nulo, se ha conservado el orden de losmenores no nulos; si este ultimo determinante es nulo, el otro determinante sumando ha de ser no ´nulo, pero el otro es m´ltiplo de un menor del mismo orden en la matriz dada (aunque con filas upermutadas), que ha de ser de valor no nulo, por lo que tambi´n queda igual el orden de los menores edistintos de cero. De aqu´ se deduce que el rango de la matriz modificada por operaciones elementales es menor o ıigual que el rango de la matriz dada. Como la matriz dada tambi´n se obtiene de la matriz modificada epor las operaciones elementales inversas, tenemos que los dos rangos son iguales. Con esto queda establecido el teorema de Rouch´-Frobenius en la versi´n de rangos. e o 113
  • 114. Apliquemos ahora el teorema de Rouch´-Frobenius al sistema AX=b cuando A es una matriz cuadrada invertible ede orden n. Como |A| = 0 tenemos el rango de A igual a n y como A es una submatriz de A|b, el rango de A|b esmayor o igual que el de A, pero tambi´n es siempre menor o igual al n´mero de sus filas, que es n, por tanto coinciden e uel rango de A y el de A|b. Entonces, el sistema es compatible. Tambi´n tenemos que estos rangos son iguales a n, que ees el n´mero de inc´gnitas, por tanto la soluci´n es unica, cualquiera que sea b (los t´rminos independientes). u o o ´ e Si la soluci´n del sistema es unica para todo b, tambi´n lo es cuando b = 0. Entonces A es invertible porque si A o ´ eno fuera invertible, ser´ |A| = 0 por lo que al ser A cuadrada, tendr´ ıa ıamos que el mayor orden de los menores distintosde cero es menor que n por lo que el rango de A ser´ menor que n, pero al ser igual al rango de A|0, porque una ıacolumna de ceros no aumenta el orden de los menores distintos de cero, seg´n el Teorema de Rouch´-Frobenius, el u esistema ser´ compatible indeterminado, por tanto, la soluci´n no ser´ unicamente la trivial seg´n hab´ ıa o ıa ´ u ıamos supuesto. Con los mismos razonamientos tambi´n se puede demostrar el e Teorema 4: Dada una matriz cuadrada A, A es invertible si y s´lo si el sistema AX=0 otiene unicamente la soluci´n trivial. ´ o Este teorema se sigue de la equivalencia entre la unicidad de la soluci´n del sistema AX=0 y la odel sistema AX=b, cualquiera que sea b. Ejercicios: 4.8.1. Estudiar la compatibilidad y determinaci´n de los sistemas siguientes aplicando el teorema ode Rouch´-Frobenius seg´n el c´lculo del rango de las matrices correspondientes a los sistemas e u asiguientes:    x1 +2x2 −x3 = 1  2x1 +x2 = 5  x1 −3x2 +x3 = 2  x2 +x3 = 2 x1 −x2 = 1 3x1 −8x2 +2x3 = 2 x1 +3x2 = 3 x1 +2x2 = 0 2x1 −5x2 +x3 = 3    4.8.2. Hallar los valores de a para que los sistemas    ax +y +z = 1  (a + 1)x +y +2z = −2  −x +ay +az = 0  x +ay +z = 1 2x +y +(a + 1)z =3 ax −y +az = 0 x +y +az = 1 x +(a + 1)y +2z = −2 ax +ay −z = 0    sean compatibles indeterminados. 4.8.3. Estudiar los valores de a y b que hacen compatibles los sistemas: 114
  • 115.   bx −ay −az −at = a bx −ay −az = a    −bx −az −at = a   −bx −az = a   −bx −by −at = a−bx −by =a  −bx −by −bz = a   −bx −by −bz = b    −bx −by −bz −bt = b  115
  • 116. Producto Vectorial. El producto vectorial de dos vectores a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ) se escribe simb´licamente oas´ ı: i j k a×b= a1 a2 a3 b1 b2 b3lo cual representa el vector de coordenadas: a2 a3 a a a a a2 a3 a1 a3 a1 a2 ,− 1 3 , 1 2 =i −j +k b2 b3 b1 b 3 b1 b2 b2 b3 b1 b3 b1 b2donde i, j y k son los vectores unitarios en la direcci´n de los ejes coordenados. o Este vector tiene las siguientes caracter´ ısticas: 1) Es perpendicular a cada uno de los vectores (a1 , a2 , a3 ) y (b1 , b2 , b3 ) de los que es producto. 2) Su m´dulo es igual al ´rea del paralelogramo que tiene por lados los vectores factores. o a 3) Su sentido es el de avance de un sacacorchos que gira desde la recta engendrada por el vectorprimer factor hacia la recta engendrada por el vector segundo factor. Demostraci´n de la propiedad 1): Veamos que a b cosα = a1 b1 + a2 b2 + a3 b3 , donde α es el oangulo que forman los dos vectores a y b.´ En efecto, seg´n el dibujo, u  f   f   f   f   f   f b senα   f b     b-a f f   f   f         6 I   α   a   116
  • 117. 2 b−a = ( b senα)2 + ( b cosα − a )2 = b 2 sen2 α + b 2 cos2 α + a 2 −2 a b cosα = 2 2 b + a − 2 a b cosα. Desarrollando ahora los t´rminos iniciales y finales de la desigualdad anterior, e (b1 − a1 )2 + (b2 − a2 )2 + (a3 − b3 )2 = b2 + b2 + b2 + a2 + a2 + a2 − 2 a 1 2 3 1 2 3 b cosαdonde desarrollando de nuevo, los cuadrados del primer miembro y simplificando, llegamos a laigualdad deseada en 1. (Compru´bese como ejercicio.) e De aqu´ se deduce que dos vectores son perpendiculares si y s´lo si la suma de los productos de ı olas coordenadas del mismo ´ ındice es cero. Esta suma de productos de coordenadas para los vectoresa y a × b es el determinante de una matriz que tiene dos filas formadas por las coordenadas de a yotra fila formada por las coordenadas de b, siendo por tanto cero. Lo an´logo ocurre para los vectores ab y a × b. Por lo que los vectores a y b son perpendiculares al vector a × b. Las aplicaciones del producto vectorial en matem´ticas son numerosas: (adem´s de ser usado en a af´ ısica.): a) Dada una recta como intersecci´n de dos planos: o Ax + By + Cz = D Ax+By+C z = Dya que sabemos que dos vectores perpendiculares a dichos planos son correspondientemente: (A, B, C)y (A , B , C ), y que por tanto, son perpendiculares a la recta, el producto vectorial de estos vectoreses un vector en la direcci´n de la recta. o b) Dada una curva como intersecci´n de superficies, el vector tangente a la curva en un punto es ola intersecci´n de los planos tangentes a las superficies en ese punto y puede hallarse utilizando el oresultado anterior. Ejercicios: 4.9.1. Hallar el vector de direcci´n de la recta de R3 dada por las ecuaciones: o 2x + y + 2z = 0 x + 2y + z = 0 4.9.2. Hallar la recta perpendicular com´n a las dos rectas determinadas por las dos parejas de upuntos: {(3, 1, 0), (1, 1, 3)} y {(0, 1, 0), (−1, 0, 0)}. 117
  • 118. Demostraci´n de la propiedad 2): Para probar que el m´dulo del producto vectorial a × b es igual o oal ´rea del paralelogramo de lados a y b tenemos en cuenta que a (Ar(a, b))2 = a 2 b 2 sen2 α = a 2 b 2 (1 − cos2 α) = a 2 b 2 − a 2 b 2 cos2 α = (a2 + a2 + a2 )(b2 + b2 + b2 ) − ( a b cosα)2 = 1 2 3 1 2 3 (a2 + a2 + a2 )(b2 + b2 + b2 ) − (a1 b1 + a2 b2 + a3 b3 )2 = 1 2 3 1 2 3 2 2 2 a2 a3 a a a a + 1 3 + 1 2 b2 b3 b1 b3 b1 b2f´rmula muy util en R3 , donde es laborioso el c´lculo directo de la altura de un paralelogramo o de o ´ aun tri´ngulo. a Consecuencia de ello es que si el producto vectorial de dos vectores es cero, uno de los dos esm´ltiplo del otro. (O sea que est´n en la misma recta). Al ser nula el ´rea del paralelogramo u a asubtendido por ellos. Ejercicios: 4.10.1. Comprobar que el ´rea del cuadrado que tiene tres v´rtices en los puntos {(1, 1), (2, 1), (1, 2)} a edel plano, hallada haciendo el producto de base por altura es la misma que el area hallada usando el ´producto vectorial. 4.10.2. Hallar el area de un paralelogramo que tiene tres v´rtices en los puntos: ´ e a) (1, 1), (2, 3), (3, 4)}. b) {(0, 1, 0), (1, 2, 1), (1, 1, 1)}. 4.10.3. Hallar el area del cuadril´tero de v´rtices: {(−2, 0), (−1, −2), (2, 1), (0, 3)}. ´ a e 118
  • 119. La propiedad 3) se demuestra al final del cap´ ıtulo de movimientos utilizando m´s conocimientos adel curso. Otras propiedades interesantes son: Propiedad 4). Tambi´n se puede expresar el volumen de un paralelep´ e ıpedo cuyos lados son tresvectores como un determinante cuyas filas son las coordenadas de los vectores y que se llama productomixto de los tres vectores. Su demostraci´n se hace utilizando el producto vectorial. Ve´moslo: Si a, b y c son tres vectores no o acoplanarios, considerando que a y b determinan la base del paralelep´ ıpedo, el volumen es el productodel ´rea de la base por la altura. a T €€   €€ a×b   €€ €€ €€     €€       €   €€     €     c       p(c)                   b I  €€     €€    €       €€  € €€ €€a     €€ € €  q El area de la base es el m´dulo del producto vectorial a × b . La altura es el m´dulo de la ´ o oproyecci´n p(c) del vector c sobre la perpendicular al plano engendrado por a y b (a × b): o c · (a × b) c · (a × b) p(c) = c cosang(c, a × b) = c = c a×b a×bresultando a2 a3 a a a aV ol(paralpedo)(a, b, c) = a×b (c·(a×b)/ a×b ) = c·(a×b) = c1 −c2 1 3 +c3 1 2 = b2 b3 b1 b3 b1 b2 c1 c2 c3 a1 a2 a3 = a1 a2 a3 = b1 b2 b3 b1 b2 b3 c1 c2 c3 119
  • 120. Del volumen del paralelep´ ıpedo se deduce el volumen de un prisma triangular como la mitad delvolumen del paralelep´ıpedo y el volumen de una pir´mide como el tercio del volumen del prisma. aVe´nse los dibujos siguientes: a €   €€€   €€ €   € €   €       €     €                                                           €€€     € €€     €€ € €      €€   €€ €   € €     ¡¢ ¡ €    ¢ € ¡   €   ¡¢   4   ¡ 4    4    ¡ 4   ¢   4   ¡ ¢   44     ¡ ¢  4     ¡  44     ¡ ¢ 4   4   4 ¡   ¢       ¢       €€ ¢   €€ €€ ¢    €   €¢   €     ¡ €€   ¡¢ ¡ ¡   ¡ ¡¢ ¢ ¡ €€ ¡   € €   ¡ ¢¡ ¡ ¢   4€   ¡ ¢ ¡¢   4 € ¢ ¡ 4 44     ¡ ¡ ¡   4   ¢ 4 44  ¡ ¢ ¡  44 4   ¡ ¢   ¡ ¡ ¡ ¢ 4 44     ¢  4 ¡ ¡¢  4 ¡ ¢ 4     ¡ ¡¢ ¡ 44  4   4 4     ¡   ¡4¢ ¡¢ 4   ¢¡ ¢ 4       ¢ ¢   €€ ¢   €€ €€ ¢ ¢   € ¢ € ¢  ¢   120
  • 121. Ejercicios: 4.11.1. Hallar el volumen de un paralelep´ ıpedo que a) Tiene como aristas los vectores: {(1, 2, −1), (0, 1, 2), (1, 2, −3)}. b) Tiene un v´rtice en uno de los puntos: {(1, 0, 1), (1, 1, 2), (1, 1, 1), (2, 0, 2)} y los otros tres epuntos adyacentes al v´rtice escogido. e 4.11.2. Hallar el volumen de un prisma triangular con una base determinada por los puntos:{(1, 0, 1), (0, 1, 1)(1, 1, 0)} y con un v´rtice de la base opuesta en (1, 1, 1)). e 4.11.3. Los cuatro puntos {(0, 0, 0), (1, 0, 0), (0, 1, 0)(0, 0, 1)} determinan un tetraedro. Hallar: a) Su volumen. b) El area A de la cara que no est´ contenida en ning´n plano coordenado. ´ a u c) Su altura h referida a esta cara. d) Comprobar que el volumen obtenido utilizando determinantes es igual al volumen obtenidopor la f´rmula: V = 1/3(A × h). o 4.9.4. Los cuatro puntos {(3, 1, 0), (2, 0, 0), (0, 1, 0)(1, 1, 3)} determinan un tetraedro. Hallar la altura del v´rtice (3,1,0) respecto al area de la cara de v´rtices {(2, 0, 0), (0, 1, 0)(1, 1, 3)} e ´ eutilizando el producto vectorial y los determinantes. 121
  • 122. Propiedad 5). El producto vectorial se usa para calcular el vector normal (perpendicular) a unasuperficie en un punto y por ello, para calcular las integrales en superficies, entre ellas, las ´reas de alas superficies curvadas. Para ello es necesario saber cual es la relaci´n entre las ´reas de distintos paralelogramos de lados o aconocidos, contenidos en el mismo plano, cuando sabemos la relaci´n entre los lados. Esta relaci´n o ose usa al hacer cambios de coordenadas en las integrales. Es suficiente ver dicha relaci´n para vectores del plano coordenado z = 0, lo cual no restringe la ogeneralidad: dadas dos parejas de vectores {a, b} y {u, v} del plano donde u = c1 a+c2 b, v = d1 a+d2 bse cumple: c1 d 1 Ar(u, v) = Ar(a, b) c2 d 2 Demostraci´n: observemos que si a = (a1 , a2 , 0) y b = (b1 , b2 , 0), la f´rmula del area como el o o ´m´dulo del producto vectorial da o a1 a2 u1 u2 Ar(a, b) = y Ar(u, v) = b1 b2 v1 v2 Ya que es u = (u1 , u2 ) = (c1 a1 + c2 b1 , c1 a2 + c2 b2 ) y v = (v1 , v2 ) = (d1 a1 + d2 b1 , d1 a2 + d2 b2 ), c 1 a1 + c 2 b 1 c 1 a2 + c 2 b 2 Ar(u, v) = = d1 a1 + d2 b1 d1 a2 + d2 b2 c1 c2 a1 a2 c1 c2 a1 a2 c1 d 1 = = Ar(a, b) d1 d2 b1 b2 d1 d2 b1 b2 c2 d 2 Esta relaci´n se usa al hacer cambios de coordenadas en las integrales. Cuando se vea el cambio ode base entre espacios vectoriales se podr´ observar que el determinante que relaciona las dos areas a ´es el determinante de cambio de base entre la base {a, b} y la base {c, d}. 122
  • 123. BIBLIOGRAFIA (A) Algebra Lineal y aplicaciones. J. Arves´ Carballo, R. Alvarez Nodarse, F. Marcell´n Espa˜ol. u a nEd. S´ıntesis Madrid. 1999. (FB) Algebra lineal. J. B. Fraleigh y R. A. Beauregard. Ed. Addison- Wesley /Iberoamericana,1989. [G] Matem´ticas 2 Bachillerato. Carlos Gonzalez Garc´ Jes´s Llorente Medrano. Maria Jos´ a ıa. u eRuiz Jim´ez. Ed. Editex. 2009. n (H) Algebra y Geometr´ Eugenio Hern´ndez. Ed. Addison- Wesley / UAM, 1994. ıa. a [L] Linear Algebra for Mathematics, Science, and Engineering. E. M. Landesman, M. R. Hestenes.Prentice-Hall International, Inc. 1992. [S] Introduction to Linear Algebra. G. Strang. Wellesley-Cambridge Press 1993. 123
  • 124. 124
  • 125. ESPACIOS VECTORIALES. Introducci´n. o Consideremos el plano. Fijado un origen O y dado un punto P, uniendo el origen con ese puntopor el camino m´s corto obtenemos un segmento orientado que se llama vector. a Los vectores que empiezan en el mismo origen se pueden sumar dando otro vector con el mismoorigen y se pueden multiplicar por un n´mero real dando otro vector con el mismo origen: dos uvectores dados se suman por la regla del paralelogramo: trazando por el extremo del primer vectorotro vector paralelo al vector que queremos sumar y considerando el extremo de este ultimo como ´el extremo de la suma. Respecto a la suma son un grupo conmutativo y la otra operaci´n, que se ollama operaci´n externa, es distributiva respecto a la suma de vectores y a la suma de n´meros, es o uasociativa respecto al producto de n´meros y el producto de 1 por cualquier vector v deja invariante ua este v. Toda esta estructura recibe el nombre de espacio vectorial real. Por otra parte, en el plano podemos trazar dos rectas perpendiculares pasando por el origen,(normalmente, una horizontal y otra vertical), llamarlas ejes y llamar origen al punto en que seencuentran. Tambi´n podemos fijar un segmento como unidad de medida. A este conjunto de eelementos lo llamamos sistema de referencia. Trazando dos rectas paralelas a los ejes por el extremo de un vector que empiece en el origenobtenemos sobre los ejes, segmentos que medidos con la unidad fijada dan dos n´meros llamados ucoordenadas del vector o del punto extremo del vector. As´ hemos establecido otra correspondencia ıbiyectiva entre los puntos del plano y las parejas de n´meros reales, es decir, entre los puntos del uplano y R × R = R2 . (3,2) Q Es de observar que las coordenadas del vector suma de dos vectores dados, son la suma de lascoordenadas de los vectores sumandos. 125
  • 126. (x1 + y1 , x2 + y2 ) ¨ ¨ ¨ ¨  ¡ ¡ ¨   ¡ ¨¨ ¨   ¡ ¨¨   ¡ ¨ (y1 , y2 ) ¨   ¡ ! ¡   ¡ ¡   ¡ ¡   ¡ ¡   ¡ ¡   ¡ ¡   (x1 , x2 ) ¨¡ B ¡   ¨¨ ¡   ¨ ¡   ¨¨¨ ¡   ¨ ¡ ¨¨ ¨ ¨ ¡   Tambi´n al multiplicar un vector del plano por un n´mero real obtenemos un vector de su misma e udirecci´n y de longitud la que ten´ el vector multiplicada por el n´mero, (si el n´mero es negativo o ıa u ucambia de sentido), quedando las coordenadas del vector multiplicadas por el n´mero. u Como las operaciones de los vectores se trasmiten a las operaciones de R×R al coger coordenadasde los vectores, la estructura de R × R debida a la suma y a la operaci´n de multiplicaci´n por un o on´mero real, se llama espacio vectorial real. u Podemos hacer lo an´logo en el espacio trazando tres rectas perpendiculares dos a dos que se acortan en un punto del espacio llamado origen: asociar a cada punto un vector que empiece en elorigen y fijada una unidad de medida, asociar a cada punto tres coordenadas. En el espacio podemos sumar por la regla del paralelogramo y multiplicar un vector por unn´mero, lo cual est´ en correspondencia con las dos operaciones en las ternas de n´meros reales u a u 3(R = R × R × R): suma y multiplicaci´n por un n´mero real. La suma es una operaci´n interna. o u oLa multiplicaci´n por un n´mero real es una operaci´n externa. Estas dos operaciones tienen las o u omismas propiedades que las operaciones an´logas de R2 , por eso R3 tambi´n tiene estructura de a eespacio vectorial real. La estructura de estos conjuntos con estas operaciones puede encontrarse tambi´n en otros con- ejuntos utilizados en Geometr´ y en An´lisis y por ello se estudia de manera abstracta para poder ıa aaplicar sus resultados a todos los conjuntos con la misma estructura. Adem´s, la introducci´n del concepto de dimensi´n en los espacios vectoriales permite comparar a o olos conjuntos de soluciones de distintos sistemas de ecuaciones y determinar cu´ndo son coincidentes. a 126
  • 127. Tambi´n se puede simplificar el c´lculo del rango de una matriz sin tener que calcular todos sus e amenores utilizando el concepto de dimensi´n. o Pasamos ahora a una descripci´n precisa. o Cuerpo. Propiedades. En un espacio vectorial gen´rico, la operaci´n externa est´ definida por los elementos de un e o acuerpo. Por eso, antes de definir un espacio vectorial necesitamos la definici´n de cuerpo: o Definici´n 1: Cuerpo es un conjunto con dos operaci´nes internas que llamamos suma y producto o ocon las siguientes propiedades: 1) La suma es: a) Asociativa. b) Tiene elemento neutro (cero). c) Todo elemento tiene elemento opuesto. d) Conmutativa. 2) El producto es: α) Asociativo. β) Tiene elemento neutro (unidad). γ) Todo elemento distinto del elemento neutro de la suma tiene elemento inverso (opuesto respectoa la multiplicaci´n). o δ) El producto es distributivo respecto a la suma (a los dos lados). Si el producto es conmutativo, el cuerpo se llama cuerpo conmutativo. Los cuerpos utilizadospara los espacios vectoriales son cuerpos conmutativos. Por eso en nuestros cuerpos tambi´n se da ela propiedad: γ) Conmutativo. La existencia de la suma con las propiedades a), b), c) configura al conjunto K en grupo aditivo.La propiedad d) lo hace adem´s grupo aditivo conmutativo. a La otra operaci´n llamada multiplicaci´n o producto estructura a K − {0}, en un grupo multi- o oplicativo. El conjunto de los n´meros reales es un cuerpo, que denotamos por R. Tambi´n el conjunto de u elos n´meros complejos, que denotamos por C es un cuerpo y el conjunto de los n´meros racionales, u uque denotamos por Q. 127
  • 128. Estamos tan acostumbrados a que el producto del cero por cualquier otro elemento sea cero quepodemos pensar que este resultado es evidente, pero no lo es a partir de los axiomas establecidos enla definici´n de cuerpo. o Denotando por e al elemento neutro de la suma para que deje de parecer tan trivial, vamos aestablecer: e · x = e ∀x ∈ K En efecto: e · x = (e + e) · x = e · x + e · x Sumando ahora a los dos miembros de esta igualdad el elemento x opuesto de ex, tenemos: e = x + e · x = x + e · x + e · x = e + e · x = e · x es decir, e = e · x. Otras propiedades interesantes son: El elemento neutro de un grupo es unico: Suponiendo la existencia de dos elementos neutros ´e y e , llegamos a su igualdad: tendr´ ıamos e = e + e = e . De aqu´ tenemos la unicidad no s´lo del elemento neutro de la suma sino tambi´n la unicidad ı o edel elemento neutro de la multiplicaci´n sin m´s que cambiar el signo + por el signo ·. Usualmente, o arepresentaremos por 1 el elemento neutro de la multiplicaci´n. o El elemento opuesto de uno dado x de un grupo es unico: suponiendo la existencia de dos ´elementos opuestos x y x de x, tenemos: x = x + e = x + (x + x ) = (x + x) + x = e + x = x . Propiedad importante es que λ1 λ2 = e implica λ1 = e o λ2 = e. ´ En efecto: si λ2 = e, λ2 tiene un inverso respecto a la multiplicaci´n. Sea λ−1 este inverso, o 2entonces, seg´n la primera propiedad anterior, u e = eλ−1 = (λ1 λ2 )λ−1 = λ1 (λ2 λ−1 ) = λ1 . 2 2 2 128
  • 129. Espacio Vectorial. Definici´n 2: Un conjunto V es un Espacio Vectorial sobre un cuerpo K si o 1) Est´ dotado de una operaci´n interna llamada suma respecto de la cual es grupo conmutativo. a o 2) Tiene una multiplicaci´n externa por los elementos de un cuerpo K, es decir, existe una oaplicaci´n del conjunto K × V → V que asocia a cada par (λ, v) el elemento denotado por λv con olas siguientes propiedades: a) λ(v1 + v2 ) = λv1 + λv2 . (Distributividad respecto a la suma de V). b) (λ1 + λ2 )v = λ1 v + λ2 v. (Distributividad respecto a la suma en K). c) (λ1 λ2 )v = λ1 (λ2 v). (Asociatividad mixta). d) 1v = v donde 1 es el elemento neutro del cuerpo para la multiplicaci´n y v es cualquier vector ode v. El espacio vectorial se representa por VK . En los espacios vectoriales se verifica, si e es el elemento neutro del cuerpo, que e · v = 0 paracada vector v del espacio. Propiedad an´loga a la de los cuerpos, cuya demostraci´n es tambi´n a o eexactamente an´loga. a Tambi´n, si λ ∈ K y 0 es el elemento neutro de la suma de V, se verifica λ · 0 = 0. En efecto, ellamando v al elemento opuesto de λ · 0, tenemos 0 = v + λ · 0 = v + λ · (0 + 0) = v + (λ · 0 + λ · 0) = (v + λ · 0) + λ · 0 = 0 + λ · 0 = λ · 0 Otra propiedad interesante: si 1 es la unidad del cuerpo y −1 es el opuesto de 1 en K, el producto(−1)v es el opuesto de v en V. Se deduce de la igualdad: v + (−1)v = 1 · v + (−1) · v = (1 + (−1))v = e · v = 0y de la unicidad del elemento opuesto. Adem´s, si un vector v es distinto de cero, la igualdad λv = 0 implica λ = 0, ya que si λ = 0, a ıamos 0 = λ−1 (λv) = (λ−1 λ)v = 1 · v = v, en contra de loexistir´ el inverso de λ : (λ1 ) y tendr´ ıasupuesto. Se puede comprobar f´cilmente que el conjunto de matrices 2 × 2 de n´meros racionales es un a uespacio vectorial sobre Q. 129
  • 130. Es interesante observar que R tiene estructura de espacio vectorial sobre R y que cada cuerpo Ktiene estructura de espacio vectorial sobre K. Tambi´n se verifica que C tiene estructura de espacio vectorial sobre R y R tiene estructura de eespacio vectorial sobre Q. Es f´cil comprobar que el conjunto de polinomios de grado ≤ n con coeficientes reales es un aespacio vectorial sobre R y que el conjunto de polinomios de grado ≤ n con coeficientes complejoses un espacio vectorial sobre C. A los espacios vectoriales sobre R, se les llama espacios vectorialesreales. A los espacios vectoriales sobre C se les llama espacios vectoriales complejos. Son espacios vectoriales reales el conjunto de matrices con entradas reales de m filas y n columnas,Mm×n (R), el conjunto de funciones reales de variable real, el conjunto de las sucesiones de n´meros ureales... Son espacios vectoriales complejos el conjunto de matrices con entradas complejas de m filas y ncolumnas, Mm×n (C), el conjunto de sucesiones de n´meros complejos... u El conjunto de las aplicaciones definidas en un conjunto con imagen en un cuerpo es un espaciovectorial sobre ese cuerpo, sea este R, C o Q. Ejercicios 5.1.1. Indicar por qu´ el conjunto de todas las matrices de n´meros reales de todas las dimensiones e ucon n´meros reales no es un espacio vectorial real. u 5.1.2. Comprobar que el conjunto de funciones reales continuas de variable real son un subespaciovectorial real. 130
  • 131. Un ejemplo en el que se ve la importancia del cuerpo en la estructura de espacio vectorial es el conjunto C delos n´meros complejos. C tiene estructura de espacio vectorial sobre R y estructura de espacio vectorial sobre C. uPero son dos estructuras distintas; Como espacio vectorial complejo, fijado un elemento no cero, todo elemento deC se puede obtener multiplicando el elemento fijo por otro del cuerpo. Pero como espacio vectorial real, fijado unelemento distinto de cero s´lo los elementos de la recta geom´trica con direcci´n el elemento fijado se pueden obtener o e omultiplic´ndolo por elementos del cuerpo. a La estructura de espacio vectorial es importante porque permite el concepto de dimensi´n que oclasifica a estos espacios y establece diferencias entre los subconjutos de los espacios vectorialesllamados subespacios vectoriales. Se ver´ como ejercicio que la dimensi´n de C no es la misma a ocuando se considera espacio vectorial complejo que cuando se considera espacio vectorial real. Subespacios Vectoriales. Definici´n 3: Un Subespacio vectorial de un espacio vectorial V sobre un cuerpo K es un osubconjunto S no vac´ de V que es un espacio vectorial sobre el mismo cuerpo con las leyes de ıocomposici´n inducidas por las leyes de V (con el mismo cuerpo). o El espacio vectorial R contenido en el espacio vectorial C es un subespacio suyo si se considera en C la operaci´n oexterna por los elementos de R, pero no es un subespacio vectorial, si se considera en C la operaci´n externa por los oelementos del mismo C. El cuerpo sobre el que se considera el espacio vectorial es importante a la hora de considerarsubespacios: fijado un origen, hemos visto que los puntos del plano dan lugar a un espacio vectorialreal formado por los vectores que tienen el mismo origen 0 y que este espacio vectorial se puede hacercoincidir con el espacio vectorial real R × R introduciendo un sistema de referencia. El conjunto delos vectores horizontales, con origen en el punto prefijado, son un subespacio vectorial real del primerespacio vectorial y correspondientemente, el conjunto de las parejas {(a, 0)|a ∈ R}, es un subespaciovectorial de R × R. Pero tambi´n, se pueden poner los puntos del plano en correspondencia con los n´meros complejos e uy trasmitirles la estructura de espacio vectorial complejo de C. En este caso, como el subconjunto delos n´meros reales no es subespacio vectorial del espacio de los n´meros complejos cuando el cuerpo u uque se considera es C, la recta horizontal, que es la que corresponde a R no es un subespacio delespacio de los puntos del plano con la estructura vectorial compleja. Para que un subconjunto S no vac´ de un espacio vectorial sea subespacio vectorial se tendr´ que ıo averificar que la suma del espacio vectorial sea una operaci´n del subconjunto, asociativa, con elemento oneutro, tal que todo elemento del subconjunto tenga su elemento opuesto en el conjunto, conmutativa 131
  • 132. y adem´s que la multiplicaci´n externa por los elementos del mismo cuerpo sea otra operaci´n del a o osubconjunto con las propiedades distributivas y asociativa mixta y tal que 1 × v = v ∀v ∈ S. Pero hay algunas de estas propiedades, como la asociatividad, la distributividad y la conmutativi-dad, que por verificarse en V, se verifican en cualquier subconjunto S, y por ello, para comprobar queun subconjunto S es subespacio vectorial, s´lo hay que comprobar que las operaciones se mantienen odentro del subconjunto, (se dice que sean cerradas en el subconjunto), y que el subconjunto contieneel elemento neutro de la suma. Podemos ahorrarnos comprobaciones estableciendo: Proposici´n 1: El subconjunto S es un subespacio vectorial de un espacio vectorial V si: o i) S es cerrado respecto a la suma de V. (∀v1 , v2 ∈ S, v1 + v2 ∈ S). ii) S contiene el elemento neutro de la suma de V. iii) S es cerrado respecto a la operaci´n externa. (∀v ∈ S, ∀λ ∈ K, λv ∈ S) o En efecto, si S es cerrado respecto a la suma, S est´ dotado de esta operaci´n. Como S tambi´n a o etiene el elemento neutro por ii), y la operaci´n es asociativa en S (por serlo en V) lo unico que le o ´falta a S para ser grupo es que para cada v el elemento opuesto: −v pertenezca a S; Por ser cerradorespecto a la operaci´n externa, −v = (−1)v pertenece a S. Por lo que tenemos que S es un grupo oaditivo. La conmutatividad de la suma en S viene heredada de la conmutatividad de la suma en V. Luego 1) S es un grupo aditivo conmutativo. Adem´s, si S es cerrado respecto a la operaci´n externa de V, existe la aplicaci´n K × S → S a o oque asocia a cada par (λ, v) el elemento λv de S con las propiedades: a), b), c), d), de la definici´n o2. heredadas de las de V. Es decir, 2) S est´ dotado de la operaci´n externa por ser cerrado respecto a ella. Y las restantes a opropiedades de las operaciones de un espacio vectorial quedan heredadas. Hay que a˜adir la condici´n ii) porque el conjunto vac´ verifica i) y iii) pero no es subespacio n o ıovectorial. Sin embargo, podemos simplificar a´n m´s las condiciones a cumplir por un subespacio vectorial u ay establecer la Proposici´n 2: El subconjunto S es un subespacio vectorial de un espacio vectorial V si: o i) S contiene el elemento neutro del espacio vectorial respecto a la suma. ii) Dados λ1 , λ2 cualesquiera de K y dados v1 , v2 cualesquiera en S, λ1 v1 + λ2 v2 est´ en S. a 132
  • 133. Demostraci´n: o Veamos primero que si se cumplen las condiciones de la proposici´n 2, se cumplen las condiciones ode la proposici´n 1. o La condici´n i) de la proposici´n 2 es la condici´n ii) de la proposici´n 1. o o o o Si se verifica ii) de la proposici´n 2, cogiendo λ1 = λ2 = 1, dados dos vectores v1 y v2 de S, el ovector 1 · v1 + 1 · v2 = v1 + v2 pertenece a S, luego S es cerrado respecto a la suma en V. Adem´s, cogiendo λ1 = λ, λ2 = e, v1 = v = v2 , tenemos que λ1 v + e · v = λv est´ en S, cualquiera a aque sea λ ∈ K y v ∈ S, luego S es cerrado respecto a la ley de composici´n externa. o Rec´ıprocamente, veamos que si se cumplen las condiciones de la proposici´n 1, se cumplen las ocondiciones de la proposici´n 2: o ii) Dados λ1 , λ2 de K cualesquiera, y dados v1 , v2 en S los vectores λ1 v1 y λ2 v2 pertenecen a S,por ser S cerrado respecto a la operaci´n externa y su suma pertenece a S por ser S cerrado respecto oa la suma. La condici´n i) de esta proposici´n no es superflua, porque en el caso de ser S vac´ se cumplir´ o o ıo ıala condici´n ii) pero no ser´ S un grupo aditivo al no contener el elemento neutro. o ıa En realidad, podemos establecer la Proposici´n 3: El subconjunto S es un subespacio vectorial de un espacio vectorial V si: o i) S es no vac´ ıo. ii) Dados λ1 λ2 cualesquiera de K y dados v1 , v2 cualesquiera en S, λ1 v1 + λ2 v2 est´ en S. a Ya que al ser S no vac´ existiendo v ∈ S, el vector cero 0 = e · v pertenece a S por ii), cogiendo ıo,λ1 = λ2 = 0 y v1 = v2 = v. Ejercicios: 5.2.1. Comprobar que el conjunto de vectores con origen en O cuyos extremos est´n en una recta aque pasa por el punto O es un subespacio vectorial del espacio vectorial real formado por todos losvectores con origen en O. 5.2.2. Explicar por qu´ el conjunto de vectores con origen en O cuyos extremos est´n en una e arecta que no pasa por un punto O no es un subespacio vectorial del espacio vectorial real formadopor todos los vectores con origen en O. 133
  • 134. 5.2.3. Comprobar que el subconjunto de R2 formado por las parejas (x, y) con x ≥ 0 no es unsubespacio vectorial de R2 . 5.2.4. Estudiar si son subespacios vectoriales de R2 los siguientes subconjuntos: a) S1 = {(x, y) ∈ R2 | y − x = 0}, b) S2 = {(x, y) ∈ R2 | y − x = 1}, c) S3 = {(x, y) ∈ R2 | xy = 0}, d) S4 = {(x, y) ∈ R2 | y = |x|}, e) S5 = {(x, y) ∈ R2 | |y| = |x|}. 5.2.5. Estudiar si son subespacios vectoriales de R3 los siguientes subconjuntos: a) S1 = {(x, y, z) ∈ R3 | y − x = 0}, b) S2 = {(x, y, z) ∈ R3 | y − x = 1}, c) S3 = {(x, y, z) ∈ R3 | xy = 0}, d) S4 = {(x, y, z) ∈ R3 | y = |x|}, e) S5 = {(x, y, z) ∈ R3 | |y| = |x|}. 5.2.6. Comprobar que aunque Q est´ contenido en R y sus operaciones est´n inducidas por las de a aR, Q no es subespacio vectorial de R. (La multiplicaci´n de elementos de Q por elementos de R no oes cerrada en Q (puede dar elementos de R no contenidos en Q)). Lo mismo ocurre con R respectoa C. 5.2.7. Estudiar si son subespacios vectoriales de C, considerado como espacio vectorial complejo,a) el conjunto de los n´meros reales. b) el conjunto de los n´meros imaginarios puros. u u 5.2.8. Comprobar que el conjunto de las matrices diagonales de orden n con elementos de uncuerpo K, es un subespacio vectorial del espacio vectorial sobre el cuerpo dado, de las matricescuadradas de orden n con elementos de ese cuerpo. 5.2.9. Comprobar que el espacio vectorial de las matrices 2 × 2 con n´meros racionales no es usubespacio vectorial del espacio vectorial real de las matrices 2 × 2 con n´meros reales. u 5.2.10. Estudiar si son subespacios vectoriales del espacio vectorial real de funciones reales devariable real los siguientes subconjuntos: S1 = {f |f (0) = 0}, S2 = {f |f (1) = 0}, S3 = {f |f (0) = 1}. 5.2.11. Averiguar si son subespacios vectoriales de los correspondientes espacios vectoriales lossiguientes subconjuntos: a) El subconjunto de los polinomios con coeficientes reales dentro del espacio vectorial real de lasfunciones reales de variable real. b) El subconjunto de los polinomios de grado ≤ n, con coeficientes reales, siendo n fijo, dentrodel espacio vectorial real de las funciones reales de variable real. c) El conjunto de los polinomios de grado n, siendo n fijo, con coeficientes reales como subconjuntodel espacio vectorial real de los polinomios de cualquier grado con coeficientes reales. d) El subconjunto de polinomios de grado ≤ 3 con coeficientes reales divisibles por x − 1 comosubconjunto del espacio vectorial real de los polinomios de grado ≤ 3 con coeficientes reales. 134
  • 135. 5.2.12. Averiguar si son subespacios vectoriales del espacio vectorial real de matrices de n´meros ureales de orden 2 × 2 los siguientes subconjuntos: a) El subconjunto de las matrices de n´meros reales de orden 2×2 de traza cero como subconjunto udel espacio vectorial real de las matrices de n´meros reales de orden 2 × 2. (Se llama traza de una umatriz a la suma de los elementos de su diagonal). b) El subconjunto de las matrices de n´meros reales de orden 2 × 2 de rango 1 como subconjunto udel espacio vectorial real de las matrices de n´meros reales de orden 2 × 2. u c) El subconjunto de las matrices de n´meros reales de orden 2 × 2 que conmutan con la matriz uB, siendo B una matriz fija 2 × 2, como subconjunto del espacio vectorial real de las matrices den´meros reales de orden 2 × 2 . u 5.2.13. Averiguar si son subespacios vectoriales de los correspondientes espacios vectoriales lossiguientes subconjuntos: a) El subconjunto de las matrices triangulares superiores n × n con elementos de un cuerpo comosubconjunto del espacio vectorial sobre ese cuerpo de las matrices cuadradas n × n con elementos delmismo cuerpo. b) El subconjunto de las matrices sim´tricas n × n con elementos de un cuerpo como subconjunto edel espacio vectorial sobre ese cuerpo de las matrices cuadradas n × n con elementos del mismocuerpo. c) El subconjunto de las matrices antisim´tricas n × n con elementos de un cuerpo como subcon- ejunto del espacio vectorial sobre ese cuerpo de las matrices cuadradas n × n con elementos del mismocuerpo. 5.2.14. Averiguar si es subespacio vectorial del espacio vectorial real de matrices de n´meros ureales de orden m × n el subconjunto de las matrices escalonadas de m filas y n columnas. Corolario 1:(de la proposici´n 2.) o La intersecci´n de una familia de subespacios vectoriales es un subespacio vectorial. La de- omostraci´n a partir de la proposici´n 2 es f´cil de ver y se deja como ejercicio. o o a Corolario 2: El conjunto de soluciones de un sistema homog´neo de ecuaciones lineales con coeficientes en un ecuerpo conmutativo es un subespacio vectorial. Demostraci´n: o Demostrando primero que el conjunto de soluciones de una ecuaci´n lineal es un subespacio ovectorial, la demostraci´n se sigue de la observaci´n de que el conjunto de soluciones del sistema es o ola intersecci´n de los subespacios soluciones de cada ecuaci´n. o o Respecto a lo primero, sea a1 x1 +a2 x2 +· · ·+an xn = 0 una ecuaci´n con coeficientes en un cuerpo oK conmutativo y sea S el conjunto de sus soluciones. Entonces: i) (0,0,...,0) es soluci´n de la ecuaci´n lineal. o o 135
  • 136. ii) Sean λ1 y λ2 elementos del cuerpo K y (u1 , u2 , · · · , un ), (v1 , v2 , · · · , vn ), soluciones de laecuaci´n, o λ1 (u1 , u2 , · · · , un ) + λ2 (v1 , v2 , · · · , vn ) = (λ1 u1 + λ2 v1 , λ1 u2 + λ2 v2 , · · · , λ1 un + λ2 vn ) es tambi´n esoluci´n de la ecuaci´n porque: o o a1 (λ1 u1 + λ2 v1 ) + a2 (λ1 u2 + λ2 v2 ) + · · · + an (λ1 un + λ2 vn ) =(por la distributividad del producto) = a1 (λ1 u1 ) + a1 (λ2 v1 ) + a2 (λ1 u2 ) + a2 (λ2 v2 ) + · · · + an (λ1 un ) + an (λ2 vn ) =(por la asociatividad del producto) = (a1 λ1 )u1 + (a1 λ2 )v1 + (a2 λ1 )u2 + (a2 λ2 )v2 + · · · (an λ1 )un + (an λ2 )vn =(por la commutatividad del producto) = (λ1 a1 )u1 + (λ2 a1 )v1 + (λ1 a2 )u2 + (λ2 a2 )v2 + · · · + (λ1 an )un + (λ2 an )vn =(por la commutatividad de la suma) = (λ1 a1 )u1 + (λ1 a2 )u2 + · · · + (λ1 an )un + (λ2 a1 )v1 + (λ2 a2 )v2 + · · · + (λ2 an )vn =(por la asociatividad del producto) = λ1 (a1 u1 ) + λ1 (a2 u2 ) + · · · + λ1 (an un ) + λ2 (a1 v1 ) + λ2 (a2 v2 ) + · · · + λ2 (an vn ) =(por la distributividad del producto respecto a la suma) = λ1 (a1 u1 + a2 u2 + · · · + an un ) + λ2 (a1 v1 + a2 v2 + · · · + an vn ) = (por ser (u1 , v2 , · · · , un ) y (v1 , v2 , · · · , vn ) soluciones de la ecuaci´n) o = λ1 0 + λ2 0 = 0 porque estos n´meros pertenecen a un cuerpo. u Un subespacio vectorial ha sido dado hasta ahora por una condici´n que han de cumplir sus ovectores, pero tambi´n puede darse por una familia de vectores, a partir de los cuales se obtienen etodos los dem´s. p. ej. los vectores horizontales de R3 son un subespacio de R3 dados por la condici´n a o 136
  • 137. de ser horizontales, pero tambi´n se pueden expresar: {(x1 , x2 , 0) = x1 (1, 0, 0) + x2 (0, 1, 0)}, es decir, eque se pueden obtener a partir de {(1, 0, 0), (0, 1, 0)} multiplicando por n´meros reales y sumando. u Se introduce el concepto de combinaci´n lineal para expresar un vector a partir de otros. o Definici´n 4: se llama combinaci´n lineal de los vectores {v1 , v2 , ..., vm } ⊂ VK a cualquier o ovector v que se pueda escribir v = λ1 v1 + λ2 v2 + ... + λm vm donde los λi pertenecen al cuerpo K. El vector cero es combinaci´n lineal de cualquier familia de vectores, ya que tomando λ = 0, se oobtiene λv = 0, cualquiera que sea v. D´monos cuenta de que si S es subespacio vectorial de V , por la propiedad asociativa de la suma, edados m vectores: {v1 , v2 , ..., vm } de S, el vector v = λ1 v1 + λ2 v2 + ... + λm vm (donde los λi pertenecenal cuerpo) permanece en S. Podemos decir que un subespacio vectorial es un subconjunto no vac´ de un espacio vectorial que ıocoincide con las combinaciones lineales de todos sus elementos. Pero investigaremos la posibilidad dedeterminar un subespacio por un subconjunto de sus vectores, (cuantos menos mejor), como conjuntode las combinaciones lineales de este subconjunto. Un ejemplo son los conjuntos de soluciones de un sistema homog´neo de ecuaciones, que se pueden eexpresar como combinaciones lineales de un n´mero finito de vectores. Lo veremos m´s adelante en u ael ejemplo usado para establecer el Teorema 2. Lema 1: El conjunto de las combinaciones lineales de m vectores fijos de un espacio vecto-rial es un subespacio vectorial del dado con las operaciones inducidas. (Su comprobaci´n se deja ocomo ejercicio). Se llama subespacio vectorial engendrado por los m vectores. Representaremospor L{v1 , v2 , ...vm } al subespacio vectorial engendrado por {v1 , v2 , ..., vm }. Llamamos a este con-junto de vectores un sistema generador de dicho subespacio. Y a los vectores del conjunto, vectoresgeneradores. Como nos interesa la mayor simplicidad, nos interesan los sistemas generadores con el m´ınimon´mero de elementos y por eso introducimos el concepto de vector linealmente dependiente: u Definici´n 5: Un vector v depende linealmente de los vectores {v1 , v2 , ..., vm } si se puede oexpresar como combinaci´n lineal de los vectores dados. o Observemos que el vector nulo siempre depende de cualquier conjunto de vectores: se expresacomo una combinaci´n lineal en la que todos los coeficientes son nulos. o La consideraci´n de los vectores linealmente dependientes est´ justificada por la proposici´n o a osiguiente: 137
  • 138. Proposici´n 4: Si un vector v depende linealmente de los vectores {v1 , v2 . . . , vm }, los subespa- ocios vectoriales engendrados por {v1 , v2 . . . , vm } y por {v1 , v2 . . . , vm , v} coinciden. Demostraci´n: o Est´ claro que L{v1 , v2 , ...vm } ⊂ L{v1 , v2 , ..., vm , v}. a Rec´ıprocamente, si v = λ1 v1 + λ2 v2 + ... + λm vm , cualquier elemento de L{v1 , v2 , ..., vm , v} seescribe: α1 v1 + α2 v2 + ... + αm vm + αv = α1 v1 + α2 v2 + ... + αm vm + α(λ1 v1 + λ2 v2 + ... + λm vm ) = (α1 + αλ1 )v1 + (α2 + αλ2 )v2 + ... + (αm + αλm )vmEste ultimo es un elemento de L{v1 , v2 , ..., vm }. ´ Por ejemplo, = L{(1, 0, 0)(0, 1, 0)} = L{(1, 0, 0)(0, 1, 0)(1, 1, 0)} dentro de R3 . Definici´n 6: Se dice que los vectores {v1 , v2 , ..., vm } son linealmente dependientes si y s´lo o osi uno de ellos depende del resto. Si el vector cero es uno de los vectores vi , los vectores son linealmente dependientes. (Rel´ase la eobservaci´n posterior a la definici´n 5). o o Proposici´n 5: los vectores {v1 , v2 , ..., vm } son linealmente dependientes si y s´lo si el vector o ocero se puede expresar como combinaci´n lineal de los vectores dados utilizando alg´n coeficiente no o unulo. Demostraci´n: o ⇐). Sea 0 = λ1 v1 + λ2 v2 + ... + λm vmy sea λi = 0. Entonces, λi vi = −λ1 v1 − λ2 v2 − ... − λm vmdonde en el segundo miembro aparecen s´lo los vectores distintos del vi . o Como λi = 0 y K es un cuerpo, existe inverso de λi . Multiplicando por λ−1 tenemos: i vi = −λ−1 λ1 v1 − ... − λ−1 λm vm i idonde no aparece el vi en el segundo miembro, por tanto uno de ellos depende linealmente del resto. ⇒). Sea vi un vector que depende del resto de vectores. Entonces, 138
  • 139. vi = λ1 v1 + ... + λm vmdonde no aparece vi en el segundo miembro. Pas´ndolo al segundo miembro, tenemos a 0 = λ1 v1 + ... − vi + ... + λm vmEl coeficiente de vi en el segundo miembro es −1 porque vi antes no aparec´ en el segundo miembro. ıaHemos conseguido escribir el cero como combinaci´n lineal de los vectores dados siendo al menos oel coeficiente de vi (−1) distinto de cero. Luego, por la definici´n 6, los vectores son linealmente odependientes. Definici´n 7: Se dice que los vectores {v1 , v2 , ..., vm } son linealmente independientes si no oson linealmente dependientes. En este caso, por la prop. 5, no podemos encontrar una expresi´n: o 0 = λ1 v1 + λ2 v2 + ... + λm vmcon alg´n λi = 0, o lo que es lo mismo, en una expresi´n del tipo u o 0 = λ1 v1 + λ2 v2 + ... + λm vmtodos los λi han de ser nulos. En la pr´ctica, en los casos concretos, se comprueba si {v1 , v2 , ..., vm } son linealmente indepen- adientes viendo si la existencia de la expresi´n: o 0 = λ1 v1 + λ2 v2 + ... + λm vmimplica que todos los coeficientes sean nulos. Esta regla tambi´n nos da que un conjunto de vectores formado s´lo por el vector cero es depen- e odiente. Y que un conjunto formado s´lo por un vector distinto de cero es independiente. (V´anse o elas propiedades que se demostraron al principio del cap´ıtulo sobre las operaciones en un espaciovectorial). Ejercicios: 5.3.1. Estudiar si son independientes en su espacio vectorial correspondiente las siguientes familiasde vectores: a) {(1, 2, 0), (0, 1, 1)} ⊂ R3 , b) {(1, 2, 0), (0, 1, 1), (1, 1, 0)} ⊂ R3 , c) {(1, 2, 0), (0, 1, 1), (1, 1, −1)} ⊂ R3 , 139
  • 140. d) {(1, 2, 0), (0, 1, 1), (1, 1, 0), (3, 2, 1)} ⊂ R3 , e) {(i, 1 − i), (2, −2i − 2)} ⊂ C 2 , f) {(i, 1, −i), (1, i, −1)} ⊂ C 3 . 5.3.2. En los casos de las familias anteriores que sean dependientes, expresar uno de los vectorescomo combinaci´n lineal de los restantes. o 5.3.3. Estudiar si son independientes en su espacio vectorial correspondiente las siguientes familiasde vectores: a) 0 1 1 −1 −2 5 , , 0 −2 0 1 0 −8subconjunto de las matrices 2 × 2 de n´meros reales. u b) Los polinomios {1, x − 2, (x − 2)2 , (x − 2)3 } ⊂ PR [x]. 3 5.3.4. Demostrar que si {f1 (x), f2 (x), · · · , fk (x)} son funciones reales de variable real tales queexisten {a1 , a2 , · · · , ak } verificando f1 (a1 ) f2 (a1 ) · · · fk (a1 ) f1 (a2 ) f2 (a2 ) · · · fk (a2 ) . . . .. . . . =0 . . . . f1 (ak ) f2 (ak ) · · · fk (ak )son funciones independientes. 5.3.5. Utilizar el resultado anterior para a) Demostrar que cualquiera que sea n, los polinomios {1, x − 2, (x − 2)2 , · · · , (x − 2)n } ⊂ P n [x]son independientes considerados como vectores de dicho espacio vectorial. b) Demostrar que los polinomios: {1, x − a, (x − a)2 , · · · , (x − a)n } ⊂ P n [x], cualquiera que sean, y cualquiera que sea a, son independientes. 140
  • 141. La proposici´n 4 establece que en un conjunto de generadores de un subespacio se puede prescindir ode los que dependan linealmente de los otros. Introducimos el concepto de base para prescindir en el sistema generador de un subespacio de losvectores que dependan de los restantes. As´ obtenemos las bases como sistemas generadores con un ın´mero m´ u ınimo de vectores. Bases. Definici´n 8: Se llama base de un espacio vectorial a un sistema generador del espacio que a su ovez es linealmente independiente. Ejercicios 5.4.1. Comprobar que los siguientes conjuntos de vectores son bases de los correspondientesespacios vectoriales: (son las llamadas bases can´nicas) o a) {(1, 0, 0, · · · , 0), (0, 1, 0, · · · , 0), (0, 0, 1, · · · , 0), · · · , (0, 0, 0, · · · , 1)} ⊂ Rn . b) 1 0 0 1 0 0 0 0 , , , ⊂ M2×2 (R) 0 0 0 0 1 0 0 1 c) {1, x, x2 , · · · , xn } ⊂ PR (x). n 5.4.2. Estudiar si las siguientes familias de vectores son bases de los espacios vectoriales dados: a) {(1, 0, 0, 1), (1, 0, 1, 0), (0, 1, 1, 0), (0, 1, 0, 1)} ⊂ R4 , b) {(1, 0, 0, 1), (1, 0, 1, 0), (0, 2, 1, 0), (0, 1, 0, 1)} ⊂ R4 , c) 1 0 1 0 0 1 0 1 , , , ⊂ M2×2 (R), 0 1 1 0 1 0 0 1 d) 1 0 1 0 0 2 0 1 , , , ⊂ M2×2 (R), 0 1 1 0 1 0 0 1 e) 1 0 0 1 1 1 0 1 , , , ⊂ M2×2 (R), 1 1 1 1 1 2 1 0 141
  • 142. f) 1 0 0 1 1 1 0 1 , , , ⊂ M2×2 (R). 1 1 1 1 1 1 1 0 5.4.3. Encontrar bases de los siguientes subespacios vectoriales de M3×3 (R) : a) Las matrices diagonales. b) Las matrices triangulares superiores. c) Las matrices triangulares inferiores. d) Las matrices sim´tricas. e e) Las matrices antisim´tricas. e 5.4.4. Siendo {e1 , e2 , · · · , en } una base de Rn , demostrar que los vectores: u1 = e1 , u2 = e1 + e2 , · · · , un−1 = e1 + e2 + · · · + en−1 , un = e1 + e2 + · · · + enson otra base de Rn . Adem´s de ser una base un sistema generador m´ a ınimo, (por ser un sistema independiente), permitela definici´n de coordenadas que asocia a cada vector un conjunto de n´meros e identifica el espacio o uvectorial con un producto cartesiano del cuerpo K por s´ mismo un determinado n´mero de veces. ı u Definici´n 9: Se llaman coordenadas de un vector en una base a los coeficientes que hay que oponer a los vectores de dicha base para obtener una combinaci´n lineal que d´ el vector dado. o e Teorema 1: Las coordenadas est´n bien definidas. (Son unicas para un vector fijo en una base a ´fija). Demostraci´n: o Sean {x1 , x2 , ..., xn } y {x1 , x2 , ..., xn } dos conjuntos de coordenadas de un vector x respecto a unabase {e1 , e2 , ..., en } de V. Entonces, x1 e1 + x2 e2 + ... + xn en = x = x1 e1 + x2 e2 + ... + xn en de donde (x1 − x1 )e1 + (x2 − x2 )e2 + ... + (xn − xn )en = 0Como los vectores ei son independientes, los coeficientes xi − xi han de ser nulos. Entonces xi = xipara todo i. 142
  • 143. Observemos que si el sistema generador de un subespacio vectorial no es una base, los coeficientesque podemos poner a los vectores del sistema generador para obtener un vector dado no son unicos. ´En L{(1, 0, 0)(0, 1, 0)(1, 1, 0)} podemos escribir: (2, 1, 0) = 2(1, 0, 0) + 1(0, 1, 0) + 0(1, 1, 0) ´ (2, 1, 0) = 1(1, 0, 0) + 0(0, 1, 0) + 1(1, 1, 0) o Y no siempre le corresponder´ al vector cero las coordenadas (0, 0, 0) ya que tambi´n se tendr´ ıan e ıa(0, 0, 0) = −1(1, 0, 0) − 1(0, 1, 0) + 1(1, 1, 0) Por ello, las coordenadas de un vector en un sistema generador que no sea base no est´n bien adefinidas. Sin embargo, dada una base de n elementos en un espacio vectorial, cada vector del espacioqueda determinado por los n n´meros que son sus coordenadas en esa base. u Ejercicios: 5.5.1. Hallar las coordenadas del vector (3, 2, −1, 0) de R4 en la base de R4 dada en el ejercicio5.4.2 b). 5.5.2. Hallar las coordenadas de los vectores (n, n − 1, · · · , 2, 1) y (1, 2, · · · , n − 1, n) de Rn , en labase {u1 , u2 , ...un } dada en el ejercicio 5.4.4 cuando {e1 , e2 , ...en } es la base can´nica de Rn . o 1 1 5.5.3. Hallar las coordenadas de en la base 1 1 1 0 0 1 1 1 0 1 , , , ⊂ M2×2 (R) 1 1 1 1 1 2 1 0 5.5.4. Hallar las coordenadas de 1 + x + x2 en la base 1, x − 1, (x − 1)2 . 143
  • 144. Veremos c´al es la relaci´n entre las coordenadas de un vector en bases distintas pero antes u odemostraremos una serie de resultados encaminados a demostrar que si un espacio vectorial tieneuna base con n elementos, cualquier otra base tiene tambi´n n elementos. e Proposici´n 6: Todo conjunto formado por n vectores independientes de Rn forma una base de o nR . Demostraci´n: o Sea {v1 , v2 , v3 , · · · , vn } un conjunto formado por n vectores independientes. Entonces la expresi´n: oλ1 v1 + λ2 v2 + ... + λn vn = 0 s´lo se cumple cuando todos los coeficientes λi son nulos. o Si v1 = (v11 , v12 , ..., v1n ), v2 = (v21 , v22 , ..., v2n ), · · · · · · · · · vn = (vn1 , vn2 , ..., vnn ) (todos elementosde Rn ), el vector λ1 v1 + λ2 v2 + ... + λn vn es: (λ1 v11 + λ2 v21 + ... + λn vn1 , λ1 v12 + λ2 v22 + ... + λn vn2 , · · · · · · , λ1 v1n + λ2 v2n + ... + λn vnn ). Si los vectores dados son independientes, estos n´meros son todos a la vez nulos s´lo si los λi son u onulos, es decir si el sistema lineal homog´neo: e  λ1 v11 + λ2 v21 + ... + λn vn1 = 0   λ1 v12 + λ2 v22 + ... + λn vn2 = 0  ······ =0  λ1 v1n + λ2 v2n + ... + λn vnn = 0 s´lo tiene la soluci´n trivial. o o Esto es cierto si y s´lo si o   v11 v21 · · · vn1  v12 v22 · · · vn2  det   ··· =0 ··· ··· ···  v1n v2n · · · vnn Veremos que esta condici´n es suficiente para demostrar que los vectores dados son un sistema ogenerador, es decir, que L {v1 , v2 , ...vn } = Rn En efecto, dado cualquier vector: (x1 , x2 , ...xn ) de Rn , el sistema lineal  λ1 v11 + λ2 v21 + ... + λn vn1 = x1  λ1 v12 + λ2 v22 + ... + λn vn2 = x2  ······   λ1 v1n + λ2 v2n + ... + λn vnn = xn tiene soluci´n por el Teorema de Rouch´ Frobenius, ya que al ser el determinante de la matriz de sus o ecoeficientes (el anterior determinante) distinto de cero, el rango de la matriz de los coeficientes delsistema es igual al rango de la matriz ampliada. 144
  • 145. Cogiendo las soluciones encontradas para los valores de λi en la expresi´n: λ1 v1 + λ2 v2 + ... + oλn vn , obtenemos el vector dado (x1 , x2 , ...xn ). Esto nos dice que cualquier vector de Rn es unacombinaci´n lineal de los vectores dados, por tanto, formaban un sistema generador. Como tambi´n o e neran independientes, forman un sistema generador independiente, es decir, una base de R . El procedimiento seguido en esta demostraci´n establece tambi´n que: o e n n n n-uplas de R son una base de R si y s´lo si el determinante de la matriz cuyas columnas o (o filas)son las n-uplas dadas es distinto de cero. Ejercicios: 5.6.1. Encontrar los valores de a para los que los vectores {(a, 0, 1), (0, 1, 1), (2, −1, a)} formenuna base de R3 . 5.6.2. Dados dos vectores a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ) de R3 , se define el producto vectoriala × b como el vector simb´licamente expresado por o i j k a2 a3 a a a a a1 a2 a3 ≡ ,− 1 3 , 1 2 b2 b3 b1 b 3 b1 b2 b1 b2 b 3 Demostrar que si los vectores a y b son independientes, los vectores {a, b, a × b} son una base de 3R . 5.6.3. Hallar los n´meros complejos z para los cuales los vectores: u {(z + i, 1, i), (0, z + 1, z), (0, i, z − 1)}no forman base considerados como vectores del espacio vectorial complejo C 3 . 5.6.4. Los vectores {(z, 1, 0), (−1, z, 1), (0, −1, z)} ⊂ R3 , pueden considerarse contenidos en R3 o ´en C 3 , seg´n se permita a z variar en R o en C. A´n consider´ndose contenidos en C 3 , puede darse u ´ u aa ´ste conjunto estructura de espacio vectorial real y estructura de espacio vectorial complejo. Hallar elos valores de z que los hacen dependientes en cada uno de los tres casos. 145
  • 146. Se puede generalizar la proposici´n 6 a la siguiente proposici´n 7: Todo conjunto formado por o on vectores independientes de un espacio vectorial que tenga una base de n elementos forma una basede dicho espacio. Proposici´n 8: o Si un espacio vectorial VK tiene una base con n vectores, cualquier conjunto con m´s de n vectores aes dependiente. Demostraci´n: o Sean {e1 , e2 , ..., en } una base de V y {v1 , v2 , ..., vm } un conjunto de vectores, donde m > n.Expresemos los vectores por sus coordenadas en la base dada: v1 = (v11 , v12 , ..., v1n ) v2 = (v21 , v22 , ..., v2n ) ··············· vm = (vm1 , vm2 , ..., vmn ) Las coordenadas de una combinaci´n lineal de estos vectores: λ1 v1 + λ2 v2 + ... + λm vm son: o λ1 v11 + λ2 v21 + ... + λm vm1 λ1 v12 + λ2 v22 + ... + λm vm2 ······ λ1 v1n + λ2 v2n + ... + λm vmn La combinaci´n lineal es nula si y s´lo si sus coordenadas son nulas. El sistema lineal homog´neo: o o e  λ1 v11 + λ2 v21 + ... + λm vm1 = 0   λ1 v12 + λ2 v22 + ... + λm vm2 = 0  ······   λ1 v1n + λ2 v2n + ... + λm vmn = 0 tiene por el teorema de Rouch´-Frobenius, soluciones no nulas para todas las λi ya que como m > n, ehay m´s inc´gnitas que ecuaciones y por tanto el rango de la matriz de los coeficientes es menor que a oel n´mero de inc´gnitas. Estas soluciones pemiten poner el vector nulo como combinaci´n lineal de u o olos vectores dados con coeficientes no todos nulos, por tanto los vectores dados son dependientes. Con esta proposici´n llegamos al importante o 146
  • 147. Teorema de la Base. Si un espacio vectorial tiene una base con n vectores, cualquier otra base tiene el mismo n´mero ude vectores. Demostraci´n: Sea {e1 , e2 , ...en } una base de V. Sea {e1 , e2 , ...em } otra base de V. o Si m > n, seg´n la proposici´n anterior, los vectores {e1 , e2 , ...em } ser´ dependientes y no u o ıanpodr´ formar base. ıan Si m < n, tomando {e1 , e2 , ...em } como base de partida de V, tendr´ ıamos, tambi´n, seg´n la e uproposici´n anterior, que los vectores {e1 , e2 , ...en } ser´ dependientes y no podr´ formar base. o ıan ıan Luego m = n. Se llama dimensi´n del espacio vectorial al n´mero de vectores de una base. (Un espacio o uvectorial de dimensi´n finita es un espacio vectorial que admite una base de n vectores para alg´n o un ∈ N .) El Teorema de la Base demostrado garantiza que la dimensi´n del espacio vectorial es oindependiente de la base considerada, cuando el espacio es de dimensi´n finita. o Una aplicaci´n del concepto de dimensi´n nos sirve para distinguir el espacio vectorial formado o opor los complejos sobre el cuerpo complejo del espacio vectorial formado por los complejos sobre elcuerpo real: v´ase el siguiente ejercicio: e 5.7.1. Comprobar que una base de C considerado como espacio vectorial sobre C est´ formada apor {1}, pero una base de C considerado como espacio vectorial sobre R es {1, i}. Estos dos espaciosvectoriales tienen distinta dimensi´n. o Tambi´n se deduce de la proposici´n 8 que n vectores independientes de un espacio vectorial con e ouna base de n elementos son otra base, pues cualquier otro vector a˜adido a los dados es dependiente nde ellos, siendo por tanto el conjunto dado de vectores independientes un sistema generador delespacio vectorial. Dado que las bases contienen un menor n´mero de elementos, hacen los c´lculos m´s cortos y u a apor eso en el trabajo con espacios vectoriales son utiles las dos proposiciones siguientes: ´ Proposici´n 9: De todo sistema generador finito de un espacio vectorial se puede extraer una obase. Si el sistema generador no es una base es porque no es linealmente independiente y existe alg´n uvector que depende linealmente del resto. Por la proposici´n 4, el espacio de combinaciones lineales odel sistema generador coincide con el espacio de combinaciones lineales del conjunto de vectores quequeda al extraer del sistema generador el vector dependiente. Podemos repetir el proceso mientras elsistema generador sea dependiente hasta que se haga independiente (porque es finito). En el primermomento en que el conjunto de vectores no extraidos sea independiente ser´ tambi´n una base del a eespacio porque sigue siendo un sistema generador. 147
  • 148. Proposici´n 10: Todo sistema independiente de un espacio vectorial de dimensi´n finita se o opuede completar a una base. Sea n la dimensi´n de V y {v1 , v2 , ..., vr } un sistema de vectores independientes de V . o Por la proposici´n 8 no puede ser r > n. o Si L{v1 , v2 , ..., vr } = V , {v1 , v2 , ..., vr } son tambi´n un sistema generador de V y por tanto son ya euna base de V . Entonces, por el teorema de la base, r = n. Si L{v1 , v2 , ..., vr } = V , debe ser r < n y existir un vector w ∈ V − L{v1 , v2 , ..., vr }, que eslinealmente independiente de los dados. Llamemos vr+1 = w y a˜ad´moslo a los vectores dados. El n aconjunto {v1 , v2 , ..., vr , vr+1 } es un conjunto de vectores independiente, que ser´ una base de V si aL{v1 , v2 , ..., vr , vr+1 } = V , en cuyo caso r + 1 = n y ya hemos completado el conjunto de vectoresdado a una base. Si r + 1 < n, repetimos el proceso anterior para a˜adir un vr+2 independiente nde los anteriores y hasta un vn independiente de los anteriormente a˜adidos y en ese momento, el nsistema independiente es un sistema generador por la proposici´n 8, habiendo completado el sistema oindependiente dado a una base de V . El m´todo para llevar a cabo los hechos de las dos proposiciones anteriores en casos concre- etos se ver´ como aplicaci´n de la relaci´n entre el rango de una matriz y el n´mero de sus filas a o o uindependientes, m´s adelante. a Corolario 3: Dos subespacios vectoriales S1 y S2 son iguales si y s´lo si S1 ⊂ S2 y dimS1 = odimS2 . (S1 y S2 son intercambiables). Este corolario es cierto porque si S1 ⊂ S2 , una base de S1 puede completarse a una base de S2 ,pero al ser dimS1 = dimS2 , no podemos a˜adir ning´n vector porque todas las bases tienen el mismo n un´mero de elementos, lo cual implica que la base de S1 es ya una base de S2 , y por tanto, S1 = S2 . u Teorema 2: La dimensi´n del subespacio de soluciones de un sistema homog´neo de ecuaciones o elineales es igual al n´mero de inc´gnitas menos el rango de la matriz de los coeficientes de las u oinc´gnitas. o Como es m´s f´cil comprobar este teorema en un ejemplo y visto el ejemplo, el teorema resulta ob- a avio, a´n sabiendo que un ejemplo no es una demostraci´n, vamos a hallar la dimensi´n del subespacio u o ode soluciones del sistema siguiente:  3x1 +2x2 +x3 +x4 −x5 = 0  3x1 +2x2 +2x3 +3x4 =0 6x1 +4x2 +x3 −3x5 = 0  Una forma sistem´tica de resolver un sistema homog´neo de ecuaciones lineales, que se puede a eescribir en forma matricial por Ax=0, es reducir la matriz A a una matriz escalonada E por opera- 148
  • 149. ciones elementales y pasar en las ecuaciones de Ex=0, las inc´gnitas de las columnas que no dan oescal´n al segundo miembro. o Como hicimos en el cap´ıtulo del m´todo de Gauss: e  3x1 +2x2 +x3 +x4 −x5 = 0  3x1 +2x2 +x3 +x4 −x5 = 0 x3 +2x4 +x5 = 0 ≡ x3 +2x4 +x5 = 0 −x3 −2x4 −x5 = 0  Pasamos al segundo miembro las inc´gnitas x2 x4 y x5 : o 3x1 +x3 = −2x2 −x4 +x5 x3 = −2x4 −x5 Ahora, al recorrer las ecuaciones de arriba a abajo, las inc´gnitas del primer miembro van dismi- onuyendo de una en una, apareciendo s´lo una inc´gnita despejada en el primer miembro en la ultima o o ´ecuaci´n. Sustituyendo esta inc´gnita en la ecuaci´n anterior, podemos despejar otra inc´gnita m´s o o o o ay seguir as´ despejando hasta agotar las inc´gnitas de los primeros miembros. ı o En este ejemplo, sustituyendo el valor de x3 dado por la segunda ecuaci´n en la primera ecuaci´n o otenemos: 3x1 = −2x2 + x4 + 2x5 ,. Podemos considerar todas las inc´gnitas como funciones lineales de las variables pasadas al se- ogundo miembro, a˜adiendo xi = xi para estas ultimas variables. n ´ En este ejemplo, a˜adiendo x2 = x2 , x4 = x4 , x5 = x5 , obtenemos las condiciones: n x1 = − 2 x2 + 1 x4 + 2 x5 3 3 3 x2 = x2 x3 = −2x4 −x5 x4 = x4 x5 = x5Una soluci´n cualquiera es una 5-upla de valores, donde las inc´gnitas pasadas al segundo miembro o opueden variar arbitrariamente y las inc´gnitas del primer miembro est´n sujetas a las condiciones o adespejadas. Que expresamos por:    2   1   2  x1 −3 3 3  x2   1   0   0           x3  = x2  0  + x4  −2  + x5  −1           x4   0   1   0  x5 0 0 1 Haciendo ahora x2 = λ1 , x4 = λ2 , x5 = λ3 se escribe: 149
  • 150. 2 1 2         x1 −3 3 3   x2     1    0     0     x3  = λ1  0  + λ2  −2  + λ3  −1           x4   0   1   0  x5 0 0 1 El subespacio de soluciones del sistema es el subespacio de las combinaciones lineales de los tresvectores columna del segundo miembro. En este caso, ninguno de los vectores columna anteriores del segundo miembro de la igualdad essuperfluo a la hora de dar las combinaciones lineales soluciones. En nuestro caso, para comprobarque son independientes, mirar´ ıamos si una combinaci´n lineal de los vectores igual a cero es posible ocon coeficientes λi distintos de cero. Tendr´ que ser: ıa    2   1   2  0 −3 3 3  0   1   0   0           0  = λ1  0  + λ2  −2  + λ3  −1           0   0   1   0  0 0 0 1 Considerando la segunda, la cuarta y la quinta filas, tenemos: 0 = λ1 , 0 = λ2 , 0 = λ3 , lo queimplica que los vectores columna escritos son independientes. La dimensi´n del espacio de soluciones o ode este sistema es 5 − 2 = 3, (n de inc´gnitas menos rango de la matriz de los coeficientes). o Para demostrar el teorema 2 en forma general, tenemos en cuenta que la forma sistem´tica por el aM´todo de Gauss, de resolver un sistema homog´neo de ecuaciones lineales, escrito en forma matricial e epor Ax=0, es reducir la matriz A a una matriz escalonada E por operaciones elementales y pasaren las ecuaciones de Ex=0, las inc´gnitas de las columnas que no dan escal´n al segundo miembro. o oSe despejan las inc´gnitas que dan escal´n en funci´n de las que no lo dan y si n es el n´mero de o o o uinc´gnitas, las soluciones son las n-uplas de n´meros que se pueden escribir seg´n las expresiones o u uobtenidas al despejar, donde var´ arbitrariamente las inc´gnitas del segundo miembro. Poniendo ıan olas n-uplas soluciones en columna ordenada y desglosando sus expresiones seg´n las inc´gnitas varia- u obles, (que se pueden sustituir por param´tros), aparecen las soluciones como combinaciones lineales ede tantas columnas como inc´gnitas variables. Estas columnas son un sistema de generadores del oconjunto de soluciones del sistema. Los vectores generadores as´ obtenidos tienen el n´mero 1 en el sitio correspondiente a dicha ı ucoordenada y el n´mero 0 en el sitio correspondiente a las otras coordenadas pasadas al segundo umiembro. Por esta condici´n son independientes. o 150
  • 151. El n´mero de inc´gnitas que dan escal´n es igual al n´mero de escalones de E, igual a su vez u o o ual rango de la matriz de los coeficientes del sistema, (en t´rminos de determinantes), por tanto, se epasan al segundo miembro un n´mero de inc´gnitas igual al n´mero total de ellas menos el rango de u o ula matriz de los coeficientes. Por ello, la dimensi´n del conjunto de soluciones del sistema es no de oinc´gnitas menos rango de la matriz de los coeficientes. o Ejercicios: 5.8.1. Encontrar bases de los siguientes subespacios: x1 +x3 +2x4 = 0 ⊂ R4 x1 −x3 = 0 x1 +x2 +x3 +x4 +x5 = 0 3x1 −x2 +3x3 −x4 +3x5 = 0 ⊂ R5 ⊂ R5 x1 −x2 +x3 −x4 +x5 = 0 3x1 +x2 +3x3 +x4 +3x5 = 0 5.8.2. Encontrar una base del subespacio S ⊂ M2×2 (R) definido por a b 2a + b − c + d = 0 S= c d a+b+c−d =0 5.8.3. Encontrar una base del espacio vectorial de los polinomios de grado menor o igual que tresdivisibles por x − 1. 151
  • 152. Corolario 4: Dos subespacios vectoriales S1 y S2 dados respectivamente por las ecuacionesmatriciales A1 x = 0 y A2 x = 0 son iguales si y s´lo si el rango de A1 es igual al rango de A2 y oS1 ⊂ S2 . (S1 y S2 son intercambiables). Se pueden utilizar estos corolarios para averiguar si los conjuntos de soluciones de sistemas ho-mog´neos distintos son coincidentes. e Corolario 5: En el conjunto de ecuaciones Ax = 0 de un subespacio vectorial, podemos suprimirlas ecuaciones tales que al suprimir de A las filas de coeficientes correspondientes a tales ecuaciones,queda una matriz del mismo rango que A. Ejercicios: 5.9.1. Comprobar que el subespacio de R4 engendrado por {(1, 0, 1, −1), (1, −1, 1, −1)} coincidecon el espacio de soluciones del sistema: x1 +x3 +2x4 = 0 ⊂ R4 . x1 −x3 = 0 5.9.2. Comprobar que los subespacios S1 y S2 de R5 cuyas ecuaciones son los sistemas: x1 +x2 +x3 +x4 +x5 = 0 3x1 −x2 +3x3 −x4 +3x5 = 0 (1) (2) x1 −x2 +x3 −x4 +x5 = 0 3x1 +x2 +3x3 +x4 +3x5 = 0son iguales. 5.9.3. Dos subespacios vectoriales S1 y S2 dados respectivamente por las ecuaciones matricialesA1 x = 0 y A2 x = 0 son iguales si y s´lo si o A1 r = r(A1 ) = r(A2 ). A2(S1 y S2 son intercambiables). 152
  • 153. Cambio de base. Veremos aqu´ cu´l es la relaci´n entre las coordenadas de un vector en dos bases distintas. ı a o Sean B = {e1 , e2 , ...en }, B = {e1 , e2 , ...en } dos bases de un espacio vectorial de dimensi´n n. o Sean (x1 , x2 , ...xn ), (x1 , x2 , ...xn ) las coordenadas respectivas de un vector x en ambas bases. Entonces, x1 e1 + x2 e2 + · · · + xn en = x = x1 e1 + x2 e2 + · · · + xn en , lo que tambi´n se puede escribir: e     x1 x1  x   x  e1 e2 ... en  2  = x = (e1 , e2 , ...en )  2   ...   ...  xn xn Sean e1 = a11 e1 + a21 e2 + ... + an1 en e2 = a12 e1 + a22 e2 + ... + an2 en ··· en = a1n e1 + a2n e2 + ... + ann enlos vectores de la nueva base expresados en la antigua. Tambi´n los e podemos escribir globalmenteas´ ı:   a11 a12 ··· a1n  a21 a22 ··· a2n  e1 e2 ... en = e1 e2 ... en   ··· ··· , ··· ···  an1 an2 ··· annsustituyendo la expresi´n anterior de los {e } en la o expresi´n de x, tenemos: o    a11 a12 · · · a1n x1  a21 a22 · · · a2n   x2  x = e1 e2 ... en   ···   · · · · · · · · ·   ...  an1 an2 · · · ann xnque comparada con   x1  x2  x= e1 e2 ... en  ...  ,   xnya que las coordenadas de un vector en una base fija son unicas, da: ´ 153
  • 154.      x1 a11 a12 · · · a1n x1  x2   a21 a22 · · · a2n   x2   ...  =  · · · · · · · · · · · ·   ...       xn an1 an2 · · · ann xnExpresi´n de la relaci´n entre las coordenadas en las dos bases. o o Observemos que las columnas de esta matriz son las coordenadas de cada uno de los vectores dela nueva base expresados en la antigua. Ejercicios: 5.10.1. Hallar las matrices de cambio de base en R4 a) de la base dada en el ejercicio 5.4.2. b) a la base can´nica. o b) de la base can´nica a la base dada en el ejercicio 5.4.2. b) o 5.10.2. Siendo {v1 , v2 , v3 , v4 } = {(1, 1, 0, 0), (0, 1, 0, −1), (0, 1, 1, 0), (0, 0, 0, 1)} y {w1 , w2 , w3 , w4 } = {(1, 0, 0, 1), (1, 0, 1, 0), (0, 2, 1, 0), (0, 1, 0, 1)}, hallar: a) Las coordenadas del vector 3w1 + 2w2 + w3 − w4 en la base {v1 , v2 , v3 , v4 }. b) Las coordenadas del vector 3v1 − v3 + 2v2 en la base {w1 , w2 , w3 , w4 }. 5.10.3. Escribir las matrices de cambio de base en R4 entre las dos bases del ejercicio 5.10.2 ycomprobar los resultados de ese ejercicio. 5.10.4. a) Hallar las matrices de cambio de base en M2×2 (R) entre las siguientes bases: 1 0 1 1 0 1 1 0 , , , 0 1 0 0 1 0 0 0y −1 0 0 −1 1 1 1 1 , , , 1 1 1 1 0 −1 −1 0 b) Hallar las coordenadas de la matriz 1 1 1 1directamente en las dos bases anteriores y comprobar que est´n relacionadas por las matrices de acambio de base. 5.10.5. Escribir las matrices de cambio de base en el espacio de los polinomios de grado menor oigual que 3 con coeficientes reales entre las bases {1, x−1, (x−1)2 , (x−1)3 } y {1, x+1, (x+1)2 , (x+1)3 }. Hallar las coordenadas del polinomio 1 + x + x2 + x3 directamente en las dos bases y comprobarque est´n relacionadas por las matrices de cambio de base. a 154
  • 155. APLICACIONES DEL CONCEPTO DE DIMENSION A PROCESOS CONCRETOS. Independencia del n´ mero de escalones obtenidos escalonando una matriz. u Queremos aqu´ mostrar, sin usar determinantes, que el n´mero de escalones de la matriz escalona- ı uda E obtenida escalonando una matriz dada A es independiente del itinerario seguido para escalonarla(de las operaciones elementales utilizadas y del orden de ´stas). e Primero demostramos que las filas no nulas de una matriz escalonada con elementos de un cuerpoK, consideradas como elementos de K n son independientes: Sea   e11 e12 · · · e1n  e e22 · · · e2n  E =  21  ··· ··· ··· ···   em1 em2 · · · emnuna matriz escalonada. Seaλ1 (e11 , e12 , · · · , e1n )+λ2 (e21 , e22 , · · · , e2n )+· · ·+λi (ei1 , ei2 , · · · , ein )+λr (er1 , er2 , · · · , ern ) = (0, 0, · · · , 0)una conbinaci´n lineal nula de sus filas o Recordemos que por ser la matriz escalonada, si e1k es el primer n´mero distinto de cero de la uprimera fila eik = 0 para i > 1. Entonces, la k-´sima coordenada de la anterior combinaci´n lineal e ose reduce a λ1 e1k , pero si esta combinaci´n lineal es nula, λ1 e1k = 0. Como e1k = 0 y pertenece a un ocuerpo, existe e−1 y entonces tenemos λ1 = (λ1 e1k )e−1 = 0. 1k 1k Sea ahora e2l el primer n´mero no nulo de la segunda fila. Entonces, eil = 0 para i > 2. Como uλ1 = 0, la l-´sima coordenada de la combinaci´n lineal escrita es λ2 e2l , pero como la combinaci´n e o olineal es nula, λ2 e2l = 0 y concluimos que λ2 = 0, lo mismo que en el caso anterior. Vamos considerando las filas sucesivamente en orden creciente y llegamos a la conclusi´n de oque todas las λj son nulas ya que lo son las λi anteriores, y en cada fila no nula hay una primeracoordenada no nula tal que las coordenadas en ese lugar de las filas sucesivas son nulas. Por tanto,las filas no nulas de la matriz escalonada son independientes. Ahora, dada una matriz Am×n , llamamos {vi }i≤m ⊂ K n a los vectores que tienen por coordenadaslos elementos de las filas de la matriz A y llamamos espacio fila de A: (F(A)) al subespacio de K nengendrado por los vectores {vi }i≤m . 155
  • 156. El n´mero de escalones de la matriz escalonada E(A) obtenida de A es igual al n´mero de sus u ufilas no nulas. Veamos que este n´mero (el de filas no nulas de la matriz escalonada al que queda ureducida A) es la dimensi´n del subespacio vectorial F(A). Cuando lo hayamos visto, tendrenos que olos distintos n´meros de filas no nulas de distintas matrices escalonadas obtenidas de A son todos uiguales, por ser iguales a la dimensi´n de F(A). o Para ello, primero, se puede comprobar que en cada operaci´n elemental realizada en la matriz A opara hacerla escalonada, sus vectores filas se transforman en otros vectores que dependen linealmentede los anteriores, por lo que el subespacio de las combinaciones lineales de los vectores filas de la matrizobtenida est´ contenido en el subespacio fila de la matriz de la que proven´ y al final F (E(A)) ⊂ a ıaF (A). Como las operaciones elementales tienen como inversas, otras operaciones elementales; alvolver hacia atr´s desde E(A) a A, en cada operaci´n elemental ocurre lo mismo: el subespacio a oengendrado por los vectores filas est´ contenido en el anterior, por lo que F (A) ⊂ F (E(A))), luego aF (A) = F (E(A))). Despu´s, sean {ei = (ei1 , ei2 ....ein ) i ≤ m}, las filas de E(A) y {ei = (ei1 , ei2 ....ein ) i ≤ r} las filas no enulas de E(A); por lo anterior, F (A) = L{v1 , v2 , ..., vi , ...vm } =L {e1 , e2 , ..., ei , ...em } =L{e1 , e2 , ..., ei , ...er }ya que podemos prescindir de las filas nulas. Como los vectores filas no nulas de E(A) son independientes y forman un sistema generador delsubespacio L{e1 , e2 , ..., ei , ...er } = L{v1 , v2 , ..., vi , ..., vm }, son una base de este subespacio. Cualquiera que sea la forma en que escalonamos la matriz A, el n´mero de filas no nulas (y, porutanto, el n´mero de escalones) coincide con la dimensi´n del subespacio F(A). u o Dicho de otra manera, si escalonando de otra forma, obtenemos que L{e1 , e2 , ..., ei , ...er } =L{v1 , v2 , ..., vi , ..., vm }, como {e1 , e2 , ..., ei , ...er } y {e1 , e2 , ..., ei , ...er } son dos bases del mismo sub-espacio vectorial, han de tener el mismo n´mero de elementos, luego r = r . u En el transcurso de esta demostraci´n hemos hallado una base del subespacio vectorial engen- odrado por las filas de una matriz. Por tanto, si nos dan un subespacio vectorial por una familia degeneradores, una manera de obtener una base de ese subespacio es escribir la matriz formada por lascoordenadas de esos vectores en filas y escalonarla y los vectores correspondientes a las filas no nulasde la matriz escalonada obtenida, son una base del subespacio dado. Si queremos que la base sea un subconjunto del conjunto de generadores dado, seguimos elsiguiente procedimiento: Extracci´n de la base a partir de un sistema generador. o Se deduce de lo visto en la proposici´n 9 que para extraer una base de un sistema generador hay oque ir eliminando los vectores que dependan de los dem´s. Esto, a veces, puede hacerse a simple a 156
  • 157. vista, pero, en general, no. Veremos c´mo escoger un sistema generador independiente utilizando oel rango de la matriz que tiene por filas las coordenadas de los vectores generadores en una baseprefijada. El n´mero de vectores que tenemos que escoger es igual a la dimensi´n del subespacio considerado. u o Sea S = L{v1 , v2 , ..., vi , ...vm } donde cada vi = (vi1 , vi2 ....vin ) est´ expresado en una base prefijada adel espacio total. Llamamos A a la matriz que tiene por filas las coordenadas de cada vi y la reducimosa su forma escalonada a la que llamamos E(A). Sabemos (por el procedimiento de la demostraci´n odel teorema de Rouch´-Frobenius) que el n´mero de filas no nulas de una matriz escalonada E(A) a e ula que A se reduzca es igual al m´ximo de los ordenes de los menores distintos de cero de A, al que a ´vamos a llamar r. Hemos visto que este n´mero (el de filas no nulas de la matriz escalonada E(A)) ues la dimensi´n del subespacio vectorial engendrado por los vectores {vi }i≤m . Luego es r, el n´mero o ude vectores independientes que tenemos que escoger. Tenemos que decidir ahora cu´les pueden ser esos r vectores. Por la definici´n de rango, podemos a oescoger en A un menor de orden r distinto de cero; consideramos la submatriz formada por las rfilas de las dadas que intersecan con este menor distinto de cero. El rango de esta submatriz es r,por lo que el subespacio engendrado por esas filas es de dimensi´n r. Como este subespacio est´ o acontenido en el dado y es de su misma dimensi´n, coincide con el dado y podemos escoger las r filas ocorrespondientes a la submatriz considerada para formar una base del subespacio dado. Ejercicios: 5.11.1. Calcular la dimensi´n y extraer una base del subespacio de R5 engendrado por o {(1, 0, 1, 0, 1), (0, 1, 1, 0, 1), (1, 1, 3, 1, 1), (0, 0, 1, 1, 1), (0, −1, 1, 2, 1)} 5.11.2. Encontrar una base de R4 que contenga a los vectores {(0, 0, 1, 1), (1, 1, 0, 0)} 5.11.3. Calc´lese seg´n los valores de α, β, γ la dimensi´n del espacio vectorial: u u o S = L{(1, 1, 0), (2, 1, α), (3, 0, β), (1, γ, 1)} 5.11.4. Dado el subespacio vectorial de las matrices cuadradas 2 × 2 engendrado por 1 0 0 1 1 1 1 −1 , , , 0 1 1 0 1 1 −1 1extraer una base del subespacio considerado, de este sistema de generadores. 5.11.5. Dado el subespacio vectorial de los polinomios de grado 3 engendrado por los vectores:{x2 − 1, x2 + 1, x3 + 4, x3 } extraer una base de este sistema de generadores. 157
  • 158. Tambi´n, del procedimiento anterior se deduce que el rango de una matriz A es igual al n´mero e ude sus filas independientes, ya que siempre se puede extender un sistema independiente de vectoresa una base de F(A) y un n´mero de vectores superior al de la dimensi´n del subespacio F(A) es u odependiente. Y como el rango de A, como m´ximo de los ordenes de los menores distintos de cero de A, es a ´igual al rango de su traspuesta, este rango es igual al n´mero de filas independientes de t A, es decir, ual n´mero de columnas de A. u Aplicaci´n del rango a la obtenci´n de las ecuaciones cartesianas de un subespacio o odado por sus generadores. Para simplificar los c´lculos, se obtiene primero una base del subespacio dado. Una vez obtenida auna base del subespacio vectorial dado por sus generadores, la condici´n necesaria y suficiente para oque un vector (x1 , x2 , ..., xn ) sea del subespacio es que dependa linealmente de los vectores de la base,es decir, que el rango de la matriz que tiene por filas las componentes de los vectores de la base seaigual al rango de esta matriz aumentada con la fila (x1 , x2 , ..., xn ). Como el rango de la matriz que tiene por filas las coordenadas de los vectores de la base es igualal n´mero de estos, (llam´moslo r), podemos encontrar en ella un menor de orden r distinto de cero. u eAgrandamos la matriz formada por las coordenadas de los vectores de la base en filas con la fila(x1 , x2 , ..., xn ) debajo de las anteriores; completando ahora el menor encontrado de todas las formasposibles a un menor de orden r+1 en la matriz agrandada con las columnas que no aparecen endicho menor, obtenemos n-r expresiones lineales en las coordenadas que han de ser cero para que elnuevo vector (x1 , x2 , ..., xn ) pertenezca al subespacio. Estas n-r condiciones necesarias son tambi´n esuficientes para que el vector dependa linealmente de los de la base. Para darnos cuenta de ello,tengamos en cuenta que al ser el determinante de una matriz igual al de su traspuesta, el rango dela matriz, no s´lo es el n´mero de filas independientes, sino el n´mero de columnas independientes o u uy que la anulaci´n de cada una de las expresiones obtenidas indica que cada columna de la matriz oagrandada depende linealmente de las columnas del menor distinto de cero de orden r encontrado.Por ello aseguran que el n´mero de columnas independientes de la matriz agrandada es r; y tambi´n el u en´mero de sus filas, por lo que aseguran que la fila (x1 , x2 , ..., xn ) pertenece al subespacio considerado. u Ninguna de estas ecuaciones es superflua porque considerando la matriz de los coeficientes delsistema homog´neo formado por ellas, las n-r columnas formadas por los coeficientes de las inc´gnitas e oque no est´n debajo de las del menor distinto de cero tienen s´lo un elemento distinto de cero de a ovalor absoluto igual al del menor distinto de cero, permutado adem´s de tal forma que dan lugar a aun menor de orden n-r distinto de cero. Conviene comprobarlo con un ejemplo. As´ tenemos n-r ecuaciones que son necesarias y suficientes para que un vector (x1 , x2 , ..., xn ) ıpertenezca al subespacio. 158
  • 159. Hay una sola ecuaci´n cuando la dimensi´n del subespacio es n − 1; estos subespacios se llaman o ohiperplanos. El subespacio soluci´n de un sistema de ecuaciones homog´neo es una intersecci´n de o e ohiperplanos. Y seg´n hemos visto ahora, los subespacios engendrados por una base de r vectores son uintersecci´n de n − r hiperplanos. o Ejercicios: 5.12.1. Hallar las ecuaciones cartesianas de los siguientes subespacios de R4 : S1 = L{(1, 0, 1, 0)(2, 1, 0, −1)(1, −1, 3, 1)}, S2 = L{(3, 1, 0, −1)(1, 1, −1, −1), (7, 1, 2, −1)}, S3 =L{(0, 2, 5, 0)}. 5.12.2. Hallar las ecuaciones cartesianas de los siguientes subespacios de R5 : S1 = L{(1, 0, 1, 0, 1)(0, 1, 1, 0, 1)(1, 1, 3, 1, 1), (0, 0, 1, 1, 1)(0, −1, 1, 2, 1)}, S2 = L{(1, 0, 1, 0, 0)(2, 1, 0, −1, 1)(2, 0, 1, 0, 0), (3, 1, 0, −1, 1)}. 159
  • 160. C´lculo del rango de la matriz A y b´ squeda del menor distinto de cero de orden a uigual al rango. Seg´n la definici´n de rango de A como el m´ximo de los ordenes de los menores distintos de u o a ´cero, parece que habr´ que calcularlos todos, pero teniendo en cuenta que tambi´n es el n´mero de ıa e ufilas independientes de la matriz, no es necesario calcular los determinantes de todas las submatricesde A, seg´n el procedimiento que vamos a ver. u Veamos antes un ejemplo: calculemos el rango de la matriz:   0 1 −1 2 1  0 0  1 −3 −2    0 1 −1 −4 −3     0 2 1 −9 −6  0 1 0 −3 −2 Podemos prescindir de la primera columna de ceros, porque siempre que aparezca en un menor,este menor tiene determinante cero. Empezamos aqu´ por el primer 1 de la primera fila y la segunda columna, que da un menor de ıorden uno distinto de cero. Ahora, lo orlamos con elementos de la segunda fila y de la segunda columna para formar unmenor de orden 2. De esta forma, obtenemos: 1 −1 det =1=0 0 1 Entonces, el rango de la matriz primitiva es mayor o igual que dos y las filas 1a y 2a son inde-pendientes. Ampliamos este menor con la fila 3a y columna 3a , obteniendo:   1 −1 2 det  0 1 −3  = 0 1 −1 −4 a a y con la fila 3 y con la columna 4 obteniendo:   1 −1 1 det  0 1 −2  = 0 1 −1 −3 160
  • 161. Ya que la anulaci´n de estos dos determinantes implica la dependencia lineal de las dos ultimas o ´columnas de la matriz   0 1 −1 2 1  0 0 1 −3 −2  0 1 −1 −4 −3respecto a las dos primeras, se sigue de la anulaci´n de estos dos determinantes, la anulaci´n de o o   −1 2 1 det  1 −3 2  −1 −4 −3ya que sus tres columnas perteneces a un espacio de dimensi´n 2. Por tanto, no es necesario calcular oeste determinante. Al mismo tiempo, el n´mero de filas independientes de la matriz u   0 1 −1 2 1  0 0 1 −3 −2  0 1 −1 −4 −3es igual a su n´mero de columnas independientes igual a 2. u Como calcular el rango de la matriz total es calcular el n´mero de filas independientes, podemos uprescindir de la 3a fila en el c´lculo de las filas independientes y no tenemos que calcular ning´n a udeterminante de ning´n menor de orden mayor que 3 en el que aparezcan las tres primeras filas. u Ampliamos ahora el menor de orden 2 distinto de cero obtenido con elementos de la 4a fila y 3acolumna y obtenemos:   1 −1 2 det  0 1 −3  = −4 = 0 2 1 −9 Entonces, el rango es mayor o igual que 3 y las filas 1a , 2a y 4a son independientes. Para ver si la ultima fila es independiente de las anteriores, ampliamos el menor de orden 3 ´obtenido a un menor de orden 4, obteniendo:     1 −1 2 1 1 −1 2 1  0 1 −3 −2   = det  0  1 −3 −2  det  =0  2 1 −9 −6   0 3 −13 −8  1 0 −3 −2 0 1 −5 −3 Ya podemos concluir que el rango de la matriz es tres sin necesidad de calcular m´s menores. aPodr´ ıamos pensar que quiz´ otra submatriz de orden cuatro con otras filas pudiera tener determinante a 161
  • 162. distinto de cero. Pero lo que se deduce de que el anterior determinante es cero, es que la ultima fila ´depende de las otras, luego s´lo hay tres filas independientes. Entonces, el espacio engendrado por olas filas de la matriz es de dimensi´n 3 y cualesquiera que sean las cuatro filas que escojamos, por la oproposici´n 8, son dependientes, siendo por tanto el menor formado, nulo y el rango de A no superior oa 3. Nos hemos ahorrado el c´lculo de los determinantes: a 0 1 −3 −2 1 −1 2 1 1 −1 2 1 1 −1 2 1 1 −1 −4 −3 1 −1 −4 −3 0 1 −3 −2 0 1 −3 −2 , , , 2 1 9 −6 2 1 9 −6 1 −1 −4 −3 1 −1 −4 −3 1 0 −3 −2 1 0 −3 −2 1 0 −3 −2 2 1 9 −6 Estableciendo, en general, el procedimiento de c´lculo del rango de una matriz: a Podemos prescindir de las columnas nulas y de las filas nulas de la matriz porque no aumentanel orden de los menores con determinante distinto de cero. Hecho esto, despu´s de una permutaci´n de filas, (que no altera el rango), si es necesario, podemos e osuponer que a11 es distinto de cero. Entonces consideramos todos los menores de orden dos en los quefigura a11 con elementos de la segunda fila, si alguno de estos menores es distinto de cero, el rangode la matriz es mayor o igual que dos. En caso contrario, el rango de la matriz formada por las dosprimeras filas es 1. Entonces, la segunda fila es m´ltiplo de la primera, por ello podemos prescindir ude ella en el c´lculo de las filas independientes. Repetimos el proceso con las restantes filas hasta aencontrar, o bien que todas son m´ltiplos de la primera y entonces el rango es uno y hemos acabado. uO bien un menor de orden dos con determinante no nulo, y entonces, el rango es mayor o igual quedos y hemos encontrado dos filas independientes. Para averiguar si el rango es mayor que dos, consideramos los menores de orden 3 obtenidos alampliar el primer menor de orden dos con determinante distinto de cero encontrado, con elementoscorrespondientes de las columnas siguientes y de la fila siguiente. Si todos los determinantes delas submatrices de orden 3 con esta fila son cero, esa fila depende de las dos anteriores y podemosprescindir de ella en la formaci´n de m´s menores. Seguimos formando menores de orden 3 con las o afilas siguientes. Si todos los menores formados as´ salen con determinante cero, las filas siguientes ıdependen de las dos primeras. Al haber s´lo dos filas independientes, otro menor cualquiera de orden o3 es cero, el rango es dos y hemos acabado. Si hay un menor de orden 3 con determinante distinto de cero, el rango de la matriz es mayor oigual que 3 y hemos encontrado tres filas independientes. El procedimiento es an´logo para ver si el rango de la matriz es mayor que 3, ampliando el menor ade orden 3 distinto de cero encontrado con elementos de las columnas y de las filas siguientes. 162
  • 163. Seguimos aumentando el tama˜o de los menores tanto como sea posible con el mismo proce- ndimiento y cuando no podamos aumentar el tama˜o, hemos llegado al m´ximo orden de los menores n acon determinante distinto de cero en los que aparece parcial o totalmente la primera fila no nula. Podr´ıamos pensar que al formar submatrices que no empiecen en la 1a fila no nula, orl´ndolas luego acon elementos correspondientes de las otras columnas y otras filas se pudieran encontrar submatricesde orden superior al rango establecido anteriormente, con determinante distinto de cero. Pero enel procedimiento seguido hemos hallado el m´ximo n´mero de filas independientes. Este n´mero es a u ula dimensi´n del espacio vectorial engendrado por las filas, independiente del orden considerado al oformar las submatrices. Por tanto no tenemos que comprobar m´s determinantes de m´s submatrices. a a Adem´s, como el rango de la matriz es la dimensi´n del espacio engendrado por sus vectores filas a oy del espacio engendrado por sus vectores columnas, el orden de ´stas no influye en la dimensi´n. e oPor ello, podemos hacer un intercambio de filas o de columnas antes de empezar a calcular menoressi vemos que las operaciones van a resultar m´s f´ciles. a a Ejercicios: 5.13.1. Estudiar, seg´n el valor de λ, los rangos de las siguientes matrices: u     3 1 1 4   2 3 1 7 1 λ −1 2  3 7 −6 −2  ,  λ 4 10 1  ,  2 −1    1 7 17 3  λ 5 . 5 8 1 λ 1 10 −6 1 2 2 4 3 5.13.2. Estudiar, seg´n los valores de λ la compatibilidad de los sistemas AX = b donde la matriz uA|b es la dada a continuaci´n: o     3 2 5 1 λ 1 1 1  2 4 6 3 , 1 λ 1 1 . 5 7 λ 5 1 1 λ 1 Aplicaci´n al m´todo de Gauss. o e Las soluciones de un sistema homog´neo son un subespacio vectorial de dimensi´n igual al n´mero e o ude inc´gnitas menos el rango de la matriz del sistema y este rango se puede determinar calculando odeterminantes de menores de la matriz de coeficientes de la manera ordenada indicada. 163
  • 164. ´ SUMA E INTERSECCION DE SUBESPACIOS VECTORIALES. La intersecci´n de dos subespacios vectoriales es su intersecci´n conjuntista. El corolario 1 afirma o oque es otro subespacio vectorial. Se define la suma de dos subespacios vectoriales como el conjunto de los vectores que son suma devectores de los dos subespacios. Puede comprobarse como ejercicio, que es otro subespacio vectorialporque cumple las condiciones de la proposici´n 2. o La suma de dos subespacios vectoriales est´ engendrada por la uni´n de dos sistemas generadores a ode cada uno de los subespacios. Sus ecuaciones se obtienen a partir de este sistema generador,suprimiendo los generadores dependientes. Las dimensiones de la suma y de la intersecci´n de dos subespacios est´n relacionadas por la o af´rmula de las dimensiones para la suma y la intersecci´n de dos subespacios vectoriales. o o F´rmula de las dimensiones: o Si V1 y V2 son dos subespacios vectoriales, dim(V1 ) + dim(V2 ) = dim(V1 + V2 ) + dim(V1 ∩ V2 ). Cuando la intersecci´n de los dos subespacios es {0}, la suma se llama suma directa, o y se representa por V1 ⊕ V2 . Si adem´s de ser la suma, directa, V1 ⊕ V2 = V , los dos subespacios se llaman complementarios. a Demostraci´n de la F´rmula de las dimensiones. o o Sean V1 , V2 , los subespacios vectoriales de dimensiones n1 y n2 , respectivamente. Sea k la di-mensi´n de la intersecci´n. La base del subespacio intersecci´n se puede ampliar a una base de V1 y a o o ouna base de V2 ; podemos suponer que {e1 , e2 , ..., ek } es una base de V1 ∩ V2 , {e1 , e2 , ..., ek , ek+1 , ..., en1 }una base de V1 , {e1 , e2 , ..., ek , ek+1 , ..., en2 } una base de V2 . Nuestra f´rmula est´ demostrada si vemos que o a {e1 , e2 , ...ek , ek+1 , ...en1 , ek+1 , ek+2 , ...en2 }es una base de V1 + V2 . Desde luego, los vectores {e1 , e2 , ...ek , ek+1 , ...en1 , ek+1 , ek+2 , ...en2 }son un sistema generador de la suma. En cuanto a la independencia lineal, sea 164
  • 165. Σn1 λi ei + Σn2 −k λj ek+j = 0 i=1 j=1 Veamos que todos los coeficientes han de ser nulos. Escribamos: Σn1 λi ei = −Σn2 −k λj ek+j i=1 j=1 El vector del primer miembro de esta igualdad est´ en V1 y el vector del segundo miembro de la aigualdad est´ en V2 . Al ser iguales estos vectores, est´n en la intersecci´n de V1 y de V2 . Este vector a a ode V1 ∩ V2 se expresa de manera unica en cada una de las bases de V1 , V2 y V1 ∩ V2 . ´ Las coordenadas del vector en la base dada de V1 son las (λi )i≤n1 , de forma que si ha de estar enV1 ∩ V2 ha de ser λi = 0, para i tal que k < i ≤ n1 , y las {λi }i≤k son las coordenadas del vectoren la base de V1 ∩ V2 . La suma considerada: Σn1 λi ei + Σn2 −k λj ek+j = 0, queda, entonces, como una i=1 j=1combinaci´n lineal nula de los vectores de la base de V2 y por tanto sus coeficientes han de ser cero. o Se pueden sacar importantes consecuencias de la f´rmula de las dimensiones para la suma directa ode subespacios: Si V1 + V2 = V1 V2 , por ser la intersecci´n de los dos subespacios cero, la uni´n de las bases de o oV1 y de V2 es una base de su suma directa. (Basta observar la demostraci´n). o Si adem´s los espacios son complementarios, la uni´n de las dos bases es una base del espacio a ototal. Por eso, dado un subespacio V1 , los vectores que se puedan a˜adir a la base de V1 para dar nuna base del espacio total, constituyen una base de un espacio complementario de V1 . Aunque la condici´n para que dos espacios sean complementarios es que su intersecci´n sea el o ocero y su suma sea el total, s´lo es necesario comprobar una de estas dos condiciones y que la suma ode las dimensiones de los dos subespacios es la dimensi´n del espacio total, porque una de ellas se oda contando con la otra y la f´rmula de las dimensiones. Es decir: o a) Si V1 V2 = 0, V1 y V2 son complementarios si y s´lo si la suma de sus dimensiones es la odimensi´n del espacio total. o b) Si la suma de V1 y V2 es el espacio total, V1 y V2 son complementarios si y s´lo si la suma de osus dimensiones es igual a la dimensi´n del espacio total. o Veamos a): Si V1 V2 = 0, la f´rmula de las dimensiones implica que dim(V1 + V2 ) = dim(V1 ) + dim(V2 ); sea oV el espacio total, como V1 + V2 = V si y s´lo si tienen la misma dimensi´n, V1 + V2 = V si y s´lo si o o odim(V1 ) + dim(V2 ) = dimV . Veamos b): 165
  • 166. Si V1 +V2 = V , la f´rmula de las dimensiones da dim(V1 V2 ) = dim(V1 )+dim(V2 )−dim(V1 +V2 ); opor tanto V1 V2 = 0(≡ dim(V1 V2 ) = 0) si y s´lo si dim(V1 ) + dim(V2 ) − dim(V1 + V2 ) = 0, es odecir, si dim(V1 ) + dim(V2 ) = dim(V1 + V2 ) = dimV. Ejercicios: 5.14.1. Siendo S1 = L{(1, −5, 2, 0)(1, −1, 0, 2)} y S2 = L{(3, −5, 2, 1)(2, 0, 0, 1)}, hallar una basey las ecuaciones cartesianas de S1 + S2 y de S1 S2 . 5.14.2. Siendo S1 = L{(1, 0, 1, 0)(2, 1, 0, −1)} y S2 = L{(3, 1, 0, −1)(1, 1, −1, −1)}, hallar unabase y las ecuaciones cartesianas de S1 + S2 y de S1 S2 . 5.14.3. Sean S1 = L{(1, 0, 1, 0, 1)(2, 1, 0, −1, 0)(2, 0, 1, 0, 1)} y S2 = L{(3, 1, 0, −1, 0)(1, 1, −1, −1, −1)},comprobar que S1 + S2 = S1 y S1 S2 = S2 . 5.14.4. Siendo S1 = L{(1, 1, 2, 0)(−2, 0, 1, 3)} y S2 = L{(0, 2, 5, 0)(−1, 1, 3, 2)}, hallar una base ylas ecuaciones cartesianas de S1 + S2 y S1 S2 . 5.14.5. Siendo S1 = L{(0, 1, 1, 0)(1, 0, 0, 1)} y x1 +x2 +x3 +x4 = 0 S2 ≡ x1 +x2 = 0hallar una base y las ecuaciones cartesianas de S1 + S2 y S1 S2 . 5.14.6. Siendo x1 −x3 = 0 S1 ≡ x2 −x4 = 0y x1 +x2 +x3 +x4 = 0 S2 ≡ x1 +x2 = 0hallar una base y las ecuaciones cartesianas de S1 + S2 y S1 S2 . 5.14.7. Siendo F1 el plano de ecuaci´n x + 2y − z = 0 y F2 la recta de ecuaciones o x −y +2z = 0 −2x +2y +z = 0Averiguar si son complementarios. 5.14.8. Siendo V1 = L{(1, 1, 0), (1, 0, 1)} y V2 = L{(0, 1, 1)}. Averiguar si son complementarios. 5.14.9. Comprobar que son complementarios los subespacios de ecuaciones: −2x1 −5x2 +4x3 = 0 x1 +2x2 +x4 = 0 S1 ≡ S2 ≡ −2x1 +7x2 +4x4 = 0 x1 −2x2 +x3 = 0 5.14.10. Hallar una base y las ecuaciones cartesianas de un espacio complementario de 166
  • 167. a) S1 = L{(0, 2, 5, 0)(−1, 1, 3, 2)}. b) S2 = L{(1, 1, 0, 0)(1, 0, 1, 0)(0, 0, 1, 1)(0, 1, 0, 1)} 5.14.11. Hallar una base de S1 S2 donde 1 1 0 1 0 0 S1 = L , , 0 0 1 0 1 1 1 0 1 −1 0 1 S2 = L , , 1 0 0 0 −1 0 ¿C´al es S1 + S2 ?. u 5.14.12. Hallar una base de S1 S2 y de S1 + S2 , donde 1 1 0 0 S1 = L , 0 0 1 1 1 0 0 1 S2 = L , 0 1 1 0 Hallar tambi´n las ecuaciones cartesianas de S1 S2 y de S1 + S2 . e 5.14.13. En M2×2 (R) se consideran los subespacios que conmutan con cada una de las siguientesmatrices: 1 1 1 1 A= B= 0 2 1 1 a) Hallar una base de cada uno de ellos, de su suma y de su intersecci´n. o b) Hallar una base de un espacio complementario del subespacio de las matrices que conmutancon A. 5.14.14. Sea   1 0 0 M =  0 2 0 , 0 0 1y S1 = {A|AM = A}, S2 = {B|M B = B}. Encontrar dimensiones y bases de S1 S2 y de S1 + S2 . 5.14.15. Hallar los subespacios suma e intersecci´n de los siguientes subespacios de las matrices ocuadradas de orden n: a) El subespacio de las matrices triangulares superiores de orden n y el subespacio de las matricestriangulares inferiores. b) El subespacio de las matrices sim´tricas de orden n y el subespacio de las matrices antisim´tricas e ede orden n. 167
  • 168. 5.14.16. Hallar los subespacios suma e intersecci´n de los siguientes subespacios del espacio de olos polinomios de grado ≤ 3: S1 es el subespacio de los polinomios m´ltiplos de x + 1 y S2 es el usubespacio de los polinomios m´ltiplos de x − 1. u 5.14.17. En R4 sean U = L{u1 , u2 } y V = L{v1 , v2 } donde u1 = (1, 1, 2, −λ), u2 = (−1, 1, 0, −λ), v1 = (1, λ, 2, −λ), v2 = (2, 3, λ, 1) Hallar seg´n los valores de λ las dimensiones de U , V U + V , U u V. Ejemplos resueltos y m´s problemas propuestos en el cap´ a ıtulo 3 de (A), en el cap´ ıtulo 4 de (Gr),en el cap´ ıtulo 6 de (H) y en el cap´ ıtulo 3 de (S2). 168
  • 169. BIBLIOGRAFIA. (A) Algebra Lineal y aplicaciones. J. Arves´ Carballo, R. Alvarez Nodarse, F. Marcell´n u aEspa˜ol. Ed. S´ n ıntesis Madrid. 1999. (Gr) Algebra lineal con aplicaciones. S. I. Grossman. Ed. Mc Graw Hill 2001. [G] Matem´ticas 2 Bachillerato. Carlos Gonzalez Garc´ Jes´s Llorente Medrano. Maria Jos´ a ıa. u eRuiz Jim´ez. Ed. Editex. 2009. n (H) Algebra y Geometr´ Eugenio Hern´ndez. Addison- Wesley / UAM, 1994. ıa. a [M] Matem´ticas 2 Bachillerato. Ma Felicidad Monteagudo Mart´ a ınez. Jes´s Paz Fern´ndez Ed. u aLuis Vives. 2003. (S) Algebra lineal y sus aplicaciones. G. Strang Ed. Addison-Wesley Iberoamericana. 1990. (S2) Introduction to Linear Algebra. G.Strang Ed. Wellesley-Cambridge Press 1993. 169
  • 170. 170
  • 171. APLICACIONES LINEALES. Introducci´n. o Una aplicaci´n lineal entre espacios vectoriales sobre el mismo cuerpo es una aplicaci´n que o orespeta las operaciones de espacio vectorial, es decir, aplica la suma de vectores en la suma de susim´genes y el producto de un escalar por un vector en el producto del escalar por la imagen del avector, respectivamente. Definici´n: o Sean V1 y V2 dos espacios vectoriales sobre el mismo cuerpo y f una aplicaci´n de V1 en V2 . Se odice que f es una aplicaci´n lineal si o a) Dados dos vectores cualesquiera v y v de V1 , f (v + v ) = f (v) + f (v ). b) Dados un vector v de V1 y un elemento del cuerpo λ, f (λv) = λf (v). Las aplicaciones lineales se llaman tambi´n homomorfismos. e Las aplicaciones lineales nos permiten trasvasar los resultados encontrados en unos espacios vec-toriales a otros en los que la intuici´n es m´s dif´ o a ıcil. Adem´s, la importancia de la estructura de espacio vectorial est´ en que no s´lo la encontramos a a oen los conjuntos de vectores del plano o del espacio, sino en que se puede trasmitir a otros conjuntosque est´n en correspondencia biyectiva con alg´n Rn o alg´n C n , haciendo la biyecci´n una aplicaci´n a u ´ u o olineal. Consecuencia inmediata de la definici´n es: o 1) f (0) = f (0 · v) = 0 · f (v) = 0. 2) f (−v) = f ((−1)v) = (−1)f (v) = −f (v), ∀v ∈ V1 . Cuando el espacio original y el espacio final coinciden, el homomorfismo se llama endomorfismo. Un ejemplo de endomorfismos son las aplicaciones que resultan al multiplicar los vectores delespacio por un n´mero fijo: fα (v) = αv ∀v ∈ V . Estas aplicaciones se llaman homotecias. u Las proyecciones sobre una recta de R2 o de R3 y sobre un plano de R3 son aplicaciones lineales.(V´ase el dibujo siguiente). e 171
  • 172. v+v’ ¨ ¨¨¡¡gg ¨     ¨   ¡ ¨¨ g g ¨   ¡ ¨¨   ¡ ¨ g v’¡¨ !g     ¡ ¡ g ¡ g   ¡ g g ¡ g   ¡ g |p(v )| $ g ¡ g   ¡ $ ¡   g ¡ $$$ $$ g $$$ ¡  g v ¡ $ B$ ¨g gg$$$$ ¡   g ¨ g X $ ¡   g ¨¨ $$$ $$ ¡   ¨¨ g ¨ $$ $ $ X g $ p(v+v’) ¡   ¨ $g X $$ $$ p(v) ¡¨$$$$$  ¨¨ $ $$$ ¡ ¨  Las simetr´ respecto a rectas o planos en R3 son endomorfismos. (V´ase el dibujo siguiente). ıas e v+v’ ¢   ¢   ¢   ¢   ¢   ¢   ¢   ¢   ¢   ¢   ¢   ¢ v’    v T ¢ 0 ¢   ¢   s(v’) ¢   Q I s(v+v’) ¢   ¢   ¢   ¢   ¢   ¢   ¢   ¢   E   s(v)   172
  • 173. La aplicaci´n que hace corresponder a cada matriz cuadrada su traza es una aplicaci´n lineal o odefinida en cada espacio vectorial de matrices cuadradas de orden n con valores en el cuerpo del queson las entradas de la matriz. La aplicaci´n derivada hace corresponder a un polinomio de grado ≤ n otro polinomio de grado o≤ n − 1, por tanto es tambi´n una aplicaci´n del espacio vectorial de polinomios de grado ≤ n con e ocoeficientes reales en el espacio vectorial de polinomios de grado ≤ n − 1 con coeficientes reales. Sepuede comprobar que es una aplicaci´n lineal. o La aplicaci´n de R en R definida por f (x) = x + 1 no cumple la condici´n 1). Por tanto no es o olineal. A pesar de que la aplicaci´n de R en R definida por f (x) = x2 cumple la condici´n 1), no o ocumple la condici´n 2), por lo que tampoco es lineal. o Ejercicios: 6.1.1. Averiguar si son aplicaciones lineales las siguientes aplicaciones: a) La aplicaci´n del espacio vectorial de las matrices cuadradas de orden n en el espacio vectorial o 1de las matrices antisim´tricas de orden n dada por A(B) = 2 (B − t B). e b) La aplicaci´n traza definida en el espacio vectorial de las matrices cuadradas 3×3 con entradas oreales sobre R. c) La aplicaci´n del espacio vectorial de los polinomios de grado ≤ n en ´ste mismo conjunto o edada por T (p(x)) = p(x − 1). d) La aplicaci´n del espacio vectorial de los polinomios de grado ≤ n en ´ste mismo espacio o evectorial dada por T (p(x)) = p(x) − 1. e) La aplicaci´n del espacio vectorial de las matrices cuadradas de orden n en el mismo espacio ovectorial dada por P (A) = AB donde B es una matriz fija. f) La aplicaci´n del espacio vectorial de las matrices cuadradas de orden n en el mismo espacio odada por Q(A) = A + B donde B es una matriz fija. g) La aplicaci´n del espacio vectorial de las matrices cuadradas de orden n en el mismo espacio odada por C(A) = AB − BA donde B es una matriz fija. 173
  • 174. La suma de aplicaciones lineales es otra aplicaci´n lineal. El producto de una aplicaci´n lineal o opor un n´mero es una aplicaci´n lineal. Pueden comprobarse como ejercicio f´cilmente estas dos u o aafirmaciones y por tanto que el conjunto de las aplicaciones lineales definidas entre dos espaciosvectoriales es otro espacio vectorial, que denotamos por L (V1 , V2 ). Como consecuencia del p´rrafo asiguiente vamos a ver que L (V1 , V2 ) se puede equiparar a un espacio vectorial de matrices. Expresi´n matricial de una aplicaci´n lineal. o o Primero, queremos pasar del concepto de aplicaci´n lineal a ciertos n´meros que la determinen y o uluego obtener n´meros que la caractericen. u Fijada {e1 , e2 , ...en }, base de V1 , f est´ determinada por las im´genes de los elementos de esa a abase y fijada {u1 , u2 , ..., um }, base de V2 , estas im´genes est´n determinadas por sus coordenadas en a aesa base, como consecuencia, cada aplicaci´n lineal est´ determinada por una matriz m × n: o a Para determinarla, escribimos un vector x de V1 como x = x1 e1 + x2 e2 + ... + xn en y escribimosel vector y = f (x) de V2 como f (x) = y1 u1 + y2 u2 + ... + ym um . Entonces, si x es un vector de V1 , f (x) = f (x1 e1 + x2 e2 + ... + xn en ) = f (x1 e1 ) + f (x2 e2 ) + ... + f (xn en ) = por a) = x1 f (e1 ) + x2 f (e2 ) + ... + xn f (en ). por b) Si las coordenadas de f (e1 ) son (a11 , a21 , ..., am1 ), las de f (e2 ) son (a12 , a22 , ..., am2 )...,las de f (en )son (a1n , a2n , ..., amn ), en la base de V2 , las de y = f (x) son:            y1 a11 a12 a1n a11 a12 ··· a1n x1  y2   a21   a22   a2n   a21 a22 ··· a2n  x2  = x1  + x2  + · · · + xn  =             . .  . .  . .  . . . . . . .. . .  . .   .   .   .   .   . . . .  .  ym am1 am2 amn am1 am2 · · · amn xn La matriz   a11 a12 ··· a1n  a21 a22 ··· a2n  A=   . . . . ... . .   . . .  am1 am2 · · · amnse llama matriz de la aplicaci´n f en las bases dadas. Se escribe, de forma abreviada, una aplicaci´n o olineal por f (x) = Ax. Las columnas de esta matriz est´n formadas por las coordenadas de los avectores im´genes de los de la base del primer espacio expresados en la base del segundo espacio. a 174
  • 175. Dados dos espacios vectoriales y escogidas una base en cada uno de ellos, hemos visto que corres-ponde a cada aplicaci´n lineal entre los dos, una matriz A ∈ M m×n . Rec´ o ıprocamente, dados dosespacios vectoriales V1 y V2 de dimensiones respectivas n y m, y escogidas una base en cada uno deellos, a cada matriz A ∈ M m×n le corresponde una aplicaci´n lineal definida por f (x) = Ax, donde ox es la columna de las coordenadas de un vector de V1 en una base de ´ste y Ax es la columna de elas coordenadas de su imagen en una base correspondiente de V2 . Se comprueba f´cilmente que f es alineal utilizando las propiedades del producto de matrices. Es f´cil ver que esta correspondencia es biyectiva entre el espacio vectorial de las aplicaciones alineales entre V1 y V2 y M m×n (K) una vez fijadas las bases de estos, y que a su vez es una aplicaci´n olineal, que por ello identifica L (V1 , V2 ) con M m×n (K). La expresi´n abreviada Ax = f (x) nos recuerda la expresi´n abreviada Ax = b de un sistema o ode ecuaciones lineales. Nos indica que resolver el sistema Ax = b es encontrar un vector x delprimer espacio que se aplica en b por la aplicaci´n f de la misma matriz A. Si no existe este vector, oel sistema es incompatible, si existe s´lo un vector, es compatible determinado, si existen muchos ovectores cumpliendo esa condici´n, el sistema es compatible indeterminado. o Ejercicios: 6.2.1. Escribir la matriz de la simetr´ de R2 respecto a: ıa a) El eje coordenado OX. b) El eje coordenado OY. c) La diagonal del primer cuadrante. d) La diagonal del segundo cuadrante. 6.2.2. Escribir las matrices de las proyecciones ortogonales de R2 sobre las distintas rectas enuncia-das en el ejercicio anterior. 6.2.3. Escribir la matriz de un giro: a) de noventa grados en sentido positivo (contrario al de las agujas del reloj), alrededor del origenen R2 b) de angulo α en sentido positivo alrededor del origen en R2 . ´ 6.2.4. Escribir la matriz de la simetr´ de R3 respecto a: ıa a) El plano de ecuaci´n y = x. o b) El plano de ecuaci´n y = z. o c) El plano de ecuaci´n x = z. o d) La recta de ecuaciones y = x, z = 0. e) La recta de ecuaciones y = z, x = 0. 175
  • 176. f) La recta de ecuaciones x = z, y = 0. 6.2.5. Escribir las matrices de las proyecciones ortogonales de R3 sobre los distintos planos yrectas enunciados en el ejercicio anterior. 6.2.6. Determinar la matriz que corresponde en la base can´nica al endomorfismo de R3 que otransforma los vectores {(3, 2, 1)(0, 2, 1)(0, 0, 1)} en los vectores {(1, 0, 0)(1, 1, 0)(1, 1, 1)} respetandoel orden. (Se pueden calcular f´cilmente las im´genes de los vectores de la base can´nica). a a o 6.2.7. Hallar la matriz en las bases can´nicas de la aplicaci´n del espacio de los polinomios de o ogrado ≤ 3 en R4 dada por f(p(x))=(p(-1),p(1),p(-2),p(2)). 6.2.8. Hallar las matrices en las bases can´nicas de las siguientes aplicaciones: o a) La aplicaci´n A de R3 en R3 dada por A(x, y, z) = (x − y + 2z, x + y, 2x + 2y + z). o b) La aplicaci´n B de C 2 en C 2 dada por B(z1 , z2 ) = (iz1 + 2z2 , z1 − iz2 ). o c) La aplicaci´n C de R3 en R3 dada por C(x, y, z) = (x + z, y, x + y + z). o d) La aplicaci´n D de C 2 en C 3 dada por D(z1 , z2 ) = (iz1 + z2 , z1 + iz2 , z1 − iz2 ). o e) La aplicaci´n E de R2 en R4 dada por E(x, y) = (x, x + y, 2x, x + 2y) o 6.2.9. Hallar la matriz en las bases can´nicas de la aplicaci´n traza considerada en el espacio de o olas matrices cuadradas de orden 2 de n´meros reales con valores en R. u 176
  • 177. Como la matriz de una aplicaci´n lineal depende de las bases escogidas, no es un invariante ointr´ ınseco de la aplicaci´n lineal y por ello tenemos que ver qu´ le ocurre al cambiar las bases. o eVeamos c´mo est´n relacionadas las matrices que coresponden a una aplicaci´n lineal en las distintas o a obases. Cambio de base en la expresi´n matricial de una aplicaci´n lineal. o o Sean {e1 , e2 , ..., en } base de V1 , {u1 , u2 , ..., um } base de V2 y f un homomorfismo dado en estasbases por      y1 a11 a12 · · · a1n x1  y2   a21 a22 · · · a2n   x2  f (x) =  .  =  . .   .  ≡ Ax      .   . . . .. .  .   . . . . . . ym am1 am2 · · · amn xn Sean {e1 , e2 , ..., en } otra base de V1 , {u1 , u2 , ..., um } otra base de V2 y A la matriz de f en lasnuevas bases. Si (x1 , x2 , ..., xn ) son las coordenadas de x e (y1 , y2 , ..., yn ) son las coordenadas dey = f (x) en las nuevas bases, se tiene la relaci´n: o     y1 x1  y   x   2   2  f (x) =  .  = A  .   .  .  .  . ym xn Para ver la relaci´n entre A y A’ recordemos que las coordenadas de un vector x de V1 en las dos obases est´n relacionadas por a        x1 c11 c12 · · · c1n x1 x1  x2   c21 c22 · · · c2n   x   x   2   2   . = .  .  = C  .     . .. .  .   . . . . . . .  .  . .  .  . xn cn1 cn2 · · · cnn xn xn Las coordenadas de un vector y de V2 en las dos bases est´n relacionadas por a        y1 d11 d12 · · · d1m y1 y1  y2   d21 d22 · · · d2m   y2   y   2   . = = D .       . . .. .  .   .   . . . . . . .  .  . .  .  . ym dm1 dm2 · · · dmm ym ym Recordemos que las columnas de las matrices C y D son las coordenadas de los vectores de lasnuevas bases en las antiguas y que estas matrices son invertibles. 177
  • 178. Sustituyendo respectivamente estas relaciones en la expresi´n de o la aplicaci´n lineal, tenemos: o        d11 d12 · · · d1n y1 a11 a12 · · · a1n c11 c12 · · · c1n x1  d21 d22 · · · d2m   y   a21 a22 · · · a2n   c21 c22 · · · c2n   x2   2   .  .  =  .      . . ... . ... .  . . .. .  .   . . . . .  .   . . . . . . .  . . . . . . .  .  . . dm1 dm2 · · · dmm ym am1 am2 · · · amn cn1 cn2 · · · cnn xn De donde   −1     y1 d11 d12 · · · d1n a11 a12 ··· a1n c11 c12 · · · c1n x1   d21 d22 · · · d2m y2     a21 a22 ··· a2n  c21 c22 · · · c2n  x2  . = .      .   . . . .. . .   . . . . .. . .  . . . .. . . .  . .  . . . . .   . . . .  . . . .  .  ym dm1 dm2 · · · dmm am1 am2 · · · amn cn1 cn2 · · · cnn xn Esta es la expresi´n matricial de la aplicaci´n lineal en las nuevas bases. Por lo que A = D−1 AC. o o −1las columnas de D son las coordenadas de los vectores de la base primera en la base segunda dentrodel segundo espacio. Otra forma de ver la modificaci´n que sufre la matriz de la aplicaci´n lineal al realizar un cambio o ode base es darse cuenta de que la matriz A de una aplicaci´n lineal sirve para expresar los vectores o¨(f (e1 ), f (e2 ), ..., f (en )) en funci´n de los vectores (u1 , u2 , ...um ) seg´n la relaci´n: ¨ o u o   a11 a12 · · · a1n  a21 a22 · · · a2n  (f (e1 ), f (e2 ), ..., f (en )) = (u1 , u2 , ...um )  . .  = (u1 , u2 , ...um )A   . . . .. .   . . . . am1 am2 · · · amn La matriz A expresar´ los vectores ¨(f (e1 ), f (e2 ), ..., f (en )) en funci´n de los vectores (u1 , u2 , ...um ) ıa oseg´n la relaci´n: ¨ u o   a11 a12 · · · a1n  21 a22 · · · a2n   a  (f (e1 ), f (e2 ), ..., f (en )) = (u1 , u2 , ...um )  . . ... .  = (u1 , u2 , ...um )A  .. . . .  . am1 am2 · · · amn Como 178
  • 179.   c11 c12 · · · c1n  c21 c22 · · · c2n  (e1 , e2 , ..., en ) = (e1 , e2 , ..., en )    . . . .. . . .   . . . .  cn1 cn2 · · · cnnimplica   c11 c12 · · · c1n  c21 c22 · · · c2n  (f (e1 ), f (e2 ), ..., f (en )) = (f (e1 ), f (e2 ), ..., f (en ))    . . . .. . . .   . . . .  cn1 cn2 · · · cnny   d11 d12 ··· d1n  d21 d22 ··· d2m  (u1 , u2 , ...um ) = (u1 , u2 , ...um )    . . . . .. . .   . . . .  dm1 dm2 · · · dmm sustituyendo en la expresi´n en las nuevas bases tenemos o     c11 c12 · · · c1n d11 d12 ··· d1n  c21 c22 · · · c2n   d21 d22 ··· d2m  (f (e1 ), f (e2 ), ..., f (en ))   = (u1 , u2 , ...um )  A     . . . .. . . . . . . . .. . .  . . . .   . . . .  cn1 cn2 · · · cnn dm1 dm2 · · · dmmde donde (f (e1 ), f (e2 ), ..., f (en )) = (u1 , u2 , ...um )DA C −1obteni´ndose tambi´n A = DA C −1 . e e Si el homomorfismo es un endomorfismo, como coinciden el espacio original y el espacio final dela aplicaci´n, se utiliza normalmente la misma base en estos dos espacios y un cambio de base en ola matriz de la aplicaci´n lineal se refiere al mismo cambio de base en V considerado como espacio oinicial y como espacio final. Entonces C = D y A = C −1 AC. Todas las matrices correspondientesa un endomorfismo en distintas bases se llaman equivalentes. 179
  • 180. Como aplicaci´n del mecanismo de cambio de base en endomorfismos se puede hallar f´cilmente o ala matriz de las simetr´ ortogonales y de las proyecciones ortogonales que permiten escoger bases ıasen las que su expresi´n es muy f´cil. La expresi´n de estas aplicaciones en la base can´nica se o a o oencuentra haciendo el cambio de base necesario en cada caso desde la base que da la expresi´n f´cil o ade la aplicaci´n a la base can´nica. o o Aplicaci´n 1. o 1) Matriz de la simetr´ ortogonal de R3 respecto al plano de ecuaci´n x − y + z = 0: ıa o Esta simetr´ deja invariantes los vectores del plano y transforma en su opuesto el vector perpen- ıadicular al plano. Sean dos vectores independientes del plano e1 = (1, 1, 0), e2 = (1, 0, −1). Estos dos vectoresjunto al vector perpendicular al plano e3 = (1, −1, 1) forman una base de R3 en la que la matriz dela simetr´ es: ıa   1 0 0 A = 0 1 0 . 0 0 −1 Como la matriz de cambio de base de las coordenadas de la nueva base a las coordenadas de labase can´nica es o      x1 1 1 1 x1  x2  =  1 0 −1   x2  x3 0 −1 1 x3la matriz en la base can´nica de la simetr´ considerada es: o ıa    −1   1 1 1 1 0 0 1 1 1 1 2 −2 1 A= 1 0 −1   0 1 0  1 0 −1  =  2 1 2  3 0 −1 1 0 0 −1 0 −1 1 −2 2 1 Aplicaci´n 2. o Matriz de la proyecci´n ortogonal de R3 sobre la recta engendrada por el vector (1,1,1): o En esta proyecci´n el vector de la recta queda fijo y se aplican en cero los vectores ortogonales a ola recta. El vector de la recta e1 = (1, 1, 1) junto con dos vectores independientes ortogonales a ´l: e2 = e(1, −1, 0) e3 = (1, 0, −1) forman una base en la que la matriz de la aplicaci´n es: o   1 0 0 A =  0 0 0 . 0 0 0 180
  • 181. Como la matriz de cambio de base de las coordenadas de la nueva base a las coordenadas de labase can´nica es o      x1 1 1 1 x1  x2  =  1 −1 0   x2  x3 1 0 −1 x3la matriz en la base can´nica de la proyecci´n considerada es: o o    −1   1 1 1 1 0 0 1 1 1 1 1 1 1 A =  1 −1 0   0 0 0   1 −1 0  =  1 1 1  3 1 0 −1 0 0 0 1 0 −1 1 1 1 Ejercicios: 6.3.1. Dada la aplicaci´n de R2 en R4 por la matriz: o   1 0  0 1     1 0  0 1en las bases can´nicas, hallar la matriz de dicha aplicaci´n en las bases {(0, 1), (1, 1)} de R2 y o o{(1, 1, 0, 0), (0, 1, 1, 0), (0, 0, 1, 1)(0, 0, 0, 1)} de R4 . 6.3.2. Dada la aplicaci´n de R2 en R4 por la matriz: o   1 0  0 1     1 0  0 1en las bases {(0, 1), (1, 1)} de R2 y {(1, 1, 0, 0), (0, 1, 1, 0), (0, 0, 1, 1)(0, 0, 0, 1)} de R4 , hallar la matrizde dicha aplicaci´n en las bases can´nicas. o o 6.3.3. Hallar, haciendo un cambio de base, la expresi´n matricial en la base can´nica de la o o 3 3aplicaci´n lineal f de R en R tal que: f (1, 1, 0) = (1, 1, 1), f (1, 0, −1) = (0, 1, 1), f (1, −1, 1) = o(1, 2, 2). 6.3.4. Comprobar mediante un cambio de base, la matriz en la base can´nica obtenida para la oaplicaci´n lineal del ejercicio 6.2.6. o 6.3.5. Hallar la matriz de la aplicaci´n lineal del ejercicio 6.2.6. o a) en la base {(3, 2, 1)(0, 2, 1)(0, 0, 1)}. 181
  • 182. b) en la base {(1, 0, 0)(1, 1, 0)(1, 1, 1)}. c) Comprobar que las matrices obtenidas anteriormente est´n relacionadas con la matriz del aendomorfismo en la base can´nica por las matrices de cambio de base correspondientes entre las obases. 6.3.6. Utilizando cambios de base calcul´nse las matrices en las bases can´nicas de e o 3 a) La simetr´ ortogonal de R respecto a la recta engendrada por el vector (−1, 1, −1). ıa b) La proyecci´n ortogonal de R3 sobre el plano de ecuaci´n x + y + z = 0. o o c) Las rotaciones vectoriales de noventa grados de R3 respecto a la recta de ecuaciones: x + y = 0, z = 0. 182
  • 183. A pesar de que la expresi´n matricial no es una propiedad intr´ o ınseca de la aplicaci´n (porque odepende de las bases escogidas en los espacios), podemos llegar, utiliz´ndola, a la determinaci´n de a osubespacios asociados de manera intr´ ınseca a la aplicaci´n lineal. Estos subespacios son el n´cleo y o ula imagen de la aplicaci´n lineal. Sus dimensiones son n´meros independientes de la base escogida o usiendo por tanto, propiedades intr´ınsecas de dicha aplicaci´n. o N´ cleo de una aplicaci´n lineal: u o Es el conjunto de vectores del primer espacio que se aplican en el elemento neutro del segundoespacio. El n´cleo de una aplicaci´n lineal es un subespacio vectorial ya que u o Siempre contiene el cero por 1) y Si v1 , v2 ∈ N f y α1 , α2 ∈ K, f (α1 v1 + α2 v2 ) = α1 f (v1 ) + α2 f (v2 ) = 0. i. e. α1 v1 + α2 v2 ∈ N f . El subespacio n´cleo de la aplicaci´n lineal es independiente de su expresi´n matricial. u o o Fij´ndonos en la expresi´n matricial de la aplicaci´n lineal, vemos que fijada la base (e1 , e2 , ...en ) a o ode V1 , el n´cleo de la aplicaci´n lineal f es el conjunto de vectores de coordenadas (x1 , x2 , ...xn ) en u oesa base tales que      a11 a12 · · · a1n x1 0  a21 a22 · · · a2n   x2   0   .  =  .         ··· ··· ... .   .  ···  . . am1 am2 · · · amn xn 0 Por tanto, el n´cleo es el conjunto de soluciones del sistema homog´neo cuya matriz de coeficientes u ees la matriz de la aplicaci´n lineal. o Su dimensi´n es por tanto la dimensi´n del primer espacio menos el rango de la matriz de la o oaplicaci´n lineal. Llegamos, por ello, a que el rango de dicha matriz es siempre el mismo, cualquiera oque sean las bases escogidas en los espacios V1 y V2 . Es un n´mero invariante de la aplicaci´n y se u ole llama rango de la aplicaci´n.o Las ecuaciones cartesianas del n´cleo se obtienen eliminando en las ecuaciones AX = 0 del usistema, las ecuaciones cuyas filas dependan de las dem´s. a Una base del n´cleo se obtiene resolviendo el sistema homog´neo obtenido. u e Como ejemplo, hallemos el n´cleo de una aplicaci´n lineal f de R5 en R3 dada por la matriz: u o 183
  • 184.   3 2 1 1 −1 A= 3 2 2 3 0 . 6 4 1 0 −3 El n´cleo de f es el conjunto de vectores (x1 , x2 , x3 , x4 , x5 ) que verifican f (x) = 0, equivalente a uA(x) = 0, es decir,  3x1 +2x2 +x3 +x4 −x5 = 0  3x1 +2x2 +2x3 +3x4 =0 6x1 +4x2 +x3 −3x5 = 0  Este es el sistema del ejemplo 2 del cap´ıtulo sobre espacios vectoriales y repito aqu´ su resoluci´n. ı o Una forma sistem´tica de resolver un sistema homog´neo de ecuaciones lineales, que se puede a eescribir en forma matricial por Ax=0, es reducir la matriz A a una matriz escalonada E por opera-ciones elementales y pasar en las ecuaciones de Ex=0, las inc´gnitas de las columnas que no dan oescal´n al segundo miembro. o Como hicimos en el cap´ ıtulo del m´todo de Gauss: e  3x1 +2x2 +x3 +x4 −x5 = 0  3x1 +2x2 +x3 +x4 −x5 = 0 x3 +2x4 +x5 = 0 ≡ x3 +2x4 +x5 = 0 −x3 −2x4 −x5 = 0  Pasamos al segundo miembro las inc´gnitas x2 x4 y x5 : o 3x1 +x3 = −2x2 −x4 +x5 x3 = −2x4 −x5 Ahora, al recorrer las ecuaciones de arriba a abajo, las inc´gnitas del primer miembro van dismi- onuyendo de una en una, apareciendo s´lo una inc´gnita despejada en el primer miembro en la ultima o o ´ecuaci´n. Sustituyendo esta inc´gnita en la ecuaci´n anterior, podemos despejar otra inc´gnita m´s o o o o ay seguir as´ despejando hasta agotar las inc´gnitas de los primeros miembros. ı o En este ejemplo, sustituyendo el valor de x3 dado por la segunda ecuaci´n en la primera ecuaci´n o otenemos: 3x1 = −2x2 + x4 + 2x5 . Podemos considerar todas las inc´gnitas como funciones lineales de las variables pasadas al se- ogundo miembro, a˜adiendo xi = xi para estas ultimas variables. n ´ En este ejemplo, a˜adiendo x2 = x2 , x4 = x4 , x5 = x5 , obtenemos las condiciones: n 184
  • 185. x1 = − 2 x2 + 1 x4 + 2 x5 3 3 3 x2 = x2 x3 = −2x4 −x5 x4 = x4 x5 = x5Una soluci´n cualquiera es una 5-upla de valores, donde las inc´gnitas pasadas al segundo miembro o opueden variar arbitrariamente y las inc´gnitas del primer miembro est´n sujetas a las condiciones o adespejadas. Que expresamos por:    2   1   2  x1 −3 3