Importante: Visita regularmente
                                                                       http://www.dim.uchile.cl/∼docencia/algebra lineal.
                                        ı       ´
                                Ingenier´a Matematica                  Ah´ encontrar´s las gu´ de ejercicios y problemas, adem´s
                                                                          ı          a       ıas                                 a
                                FACULTAD DE CIENCIAS
                                F´SICAS Y MATEMATICAS
                                  I                 ´                  de informaci´n acerca de cu´l ser´ la din´mica del curso.
                                                                                   o              a     a       a
                                UNIVERSIDAD DE CHILE
                                ´
                                Algebra Lineal 08-2

                                                               SEMANA 1: MATRICES




                                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
                                                                                                                                                                         Usa estas notas al
                                                                                                                                                                         margen para con-
                                                                                                                                                                         sultar de manera
                                                                                                                                                                         m´s r´pida el ma-
                                                                                                                                                                           a a
1.     Matrices                                                                                                                                                          terial. Haz tam-
                                                                                                                                                                         bi´n tus propias
                                                                                                                                                                           e
1.1.                 ´
        Definiciones basicas                                                                                                                                              anotaciones.

Definici´n 1.1 (Matriz). Una matriz A, de m filas y n columnas con
         o                                                                                                                                                matriz
coeficientes en el cuerpo    Ã
                         (en este apunte ser´
                                            a          Ã       Ê
                                              o ) es una tabla de
                                              ´
doble entrada:

                            
    a11          ···     a1n
    .
     .
 A= .                    . ,
                          . 
                          .               aij ∈   Ã,   ∀i = 1, . . . , m, j = 1, . . . , n.
         am1    · · · ... amn

Notamos tambi´n la matriz como A = (aij ) y denominamos Mmn ( ) al
               e                                                                     Ã                               Mmn ( )                                        Ã
conjunto de todas las matrices de m filas y n columnas con coeficientes en
el cuerpo . Ã
Definici´n 1.2 (Igualdad de matrices). Dadas dos matrices A ∈ Mmn ( ), B ∈
         o                                                                                    Ã




                                                                                                                                     ´
        Ã
Mm′ n′ ( ), diremos que son iguales si y s´lo si:
                                          o                                                                                                              A=B

       (m = m′ ) ∧ (n = n′ ) ∧ (∀i ∈ {1, ..., m}, j ∈ {1, ..., n}, aij = bij )

Un caso especial de matrices son aquellas de n × 1. Estas matrices se lla-
    a                                     ıÃ
mar´n posteriormente vectores de n . As´ nuestros vectores ser´n matri-
                                                               a                                   vector de                                                        Ãn
ces de una sola columna.


                                                                                                                             ı
                                                                   Ã
Construimos una estructura algebraica sobre Mmn ( ) a partir de las ope-
                                    Ã
raciones definidas en el cuerpo . Se define la suma de dos matrices como                                                                                      A+B
sigue:
                                    Ã
                ∀A, B ∈ Mmn ( ), A + B = (aij + bij )
                   Ê
Por ejemplo, en ( , +, ·):

                1  2  3                 0 −1       2           1 1     5
                                    +                      =             .
                0 −1 −2                 3  1       2           3 0     0
Es f´cil verificar que
    a

                                Ã
Proposici´n 1.1. (Mmn ( ), +) tiene estructura de grupo Abeliano.
         o


             ´
Demostracion. La suma es asociativa y conmutativa, como herencia de
las mismas propiedades en el cuerpo .       Ã
El neutro aditivo es                                                                              0 ∈ Mmn ( )                                                       Ã
                                    
                          0 ... 0
                        .         .
                    0 =  . . . . .  ∈ Mmn ( ).
                           .       .                           Ã
                                0   ...     0

                                            1
El inverso aditivo de A = (aij ) es −A = (−aij ). Por ejemplo, en M23 ( ):                                                                                                   −A




                                                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
                                     i  0 0   −i 0 0
                                            +                              =
                                     1 −i 0   −1 i 0
                        i−i               0+0     0+0             0   0 0
                  =                                         =                      = 0.
                        1−1              −i + i   0+0             0   0 0
  Luego
                                     i  0 0                 −i 0 0
                             −                        =                        .
                                     1 −i 0                 −1 i 0


  Definici´n 1.3 (Producto de matrices). Dadas A = (aij ) ∈ Mmr ( ), B =
           o                                                                                       Ã
                  Ã
  (bij ) ∈ Mrn ( ) se define el producto C = AB como aquella matriz                                                                                                            A·B
              Ã
  C ∈ Mmn ( ) tal que
                                 r
                     cij =           aik bkj ,    i = 1, . . . , m, j = 1, . . . , n.
                             k=1

  Claramente C ∈ Mmn ( ).            Ã




                                                                                                                                               ´
Ejemplos:
          Ê
  1. En ( , +, ·),
                                                                                           
                                                          1 2                           −1 0
                  A=
                             1
                             1
                                     −1 0
                                      2 1
                                                          Ê
                                          ∈ M23 ( ), B = 0 2                           −1 0 ∈ M34 ( ) Ê
                                                          1 0                           −1 0
                                                     


                                                                                                                                       ı
                                            1 2 −1 0
     ⇒C = A·B =
                             1
                             1
                                     −1 0 
                                      2 1
                                            0 2 −1 0 =
                                                           1 0
                                                           2 6
                                                                                           0 0
                                                                                          −4 1
                                                                                                        Ê
                                                                                                  ∈ M24 ( ).
                                            1 0 −1 1

  2. En ( , +, ·),

                  A = (−i, i, 0) ∈ M13 ( )
                       
                        i
                  B = 1 ∈ M31 ( )
                        0
          ⇒       C = AB = −i · i + i · 1 + 0 · 0· = 1 + i ∈ M11 ( ).




    Observaci´n: La multiplicaci´n de matrices no es conmutativa.
              o                 o
    Por ejemplo en M22 ( ) :         Ê
          1   0       0 0                  0 0             0 0         1   0              0 0
                                     =         ,                                   =          .
          0   0       2 0                  0 0             2 0         0   0              2 0




                                                      2
Dos propiedades importantes de la multiplicaci´n son las siguientes:
                                              o




                                                                                                 Departamento de Ingenier´a Matematica - Universidad de Chile
Proposici´n 1.2.
          o
                                                 Ã
  1. Asociatividad: Si A ∈ Mmn ( ), B ∈ Mnq ( ), C ∈ Mqs ( ), en-        Ã              Ã
     tonces:
                      A(BC) = (AB)C ∈ Mms ( ).                           Ã
  2. Distributividad con respecto a la suma: Dadas A ∈ Mmn ( ), B, C ∈                  Ã
           Ã
     Mns ( ), entonces

                            A(B + C) = AB + AC ∈ Mms ( ).                    Ã
     De igual manera se tiene la distributividad por el otro lado.
              ´
Demostracion. Demostremos la distributibidad, quedando la asociativi-
dad de ejercicio. Denominando E = A(B + C), se tiene:                                           ◭ Ejercicio

                   n
          eij =         aik (bkj + ckj )       ∀i ∈ {1, ..., m}, j ∈ {1, ..., s}.
                  k=1

Como la multiplicaci´n distribuye con respecto a la suma en
                    o                                                              Ã:
                                     n




                                                                                                                                 ´
                            eij =          (aik bkj + aik ckj )
                                    k=1
                                     n                 n
                                =          aik bkj +         aik ckj .
                                    k=1                k=1

De la definici´n de multiplicaci´n matricial, se obtiene E = AB + AC.
             o                 o


Un caso particular muy importante es el de las matrices cuadradas, es                       matriz cuadrada              ı
                                                                     Ã
decir con igual n´ mero de filas y columnas. (Mnn ( ), ·) admite un neutro
                 u
multiplicativo, denominado matriz identidad:                                                                                                                    I
                            
                1 0 ··· 0
             0 1 ··· 0
         I =          ..     = (δij ), con δij = 0 si i = j
                         .                         1 si i = j.
                0 0 ··· 1

En efecto, dada A ∈ Mnn ( ) :    Ã
                                                                              
                                             1              0 ···          0
                        a11          ... a1n
                                          . 0               1 ···          0
                  AI =  .
                         .
                         .                .
                                          .
                                                               ..             
                                                                  .           
                        an1          ... ann
                                                0             0 ···          1
                            n
                       =(       aik δkj ) = (aij δjj ) = (aij ) = A.
                          k=1

Conclu´
      ımos entonces que

                                                3
Ã
Corolario 1.1. (Mnn ( ), +, ·) es un anillo con unidad (existe neutro para
                                                                                       Ã




                                                                                       Departamento de Ingenier´a Matematica - Universidad de Chile
·).                                                                             (Mnn ( ), +, ·) es
                                                                                 anillo con unidad

                  Ã
Dado que (Mnn ( , ·) tiene un elemento neutro I, ¿Tienen sus elementos
inverso?
          o                                              Ã
Definici´n 1.4 (Matriz invertible). A ∈ Mnn ( ) es invertible si y                                         invertible
                         Ã
s´lo si existe B ∈ Mnn ( ) tal que:
 o

                               AB = BA = I.                             (1.1)


Proposici´n 1.3. De existir una matriz B que satisfaga (1.1), esta es
          o
unica. Por ende la notaremos B = A−1 .
´                                                                                                                                                     A−1



          ´                                 Ã
Demostracion. Sean B1 , B2 ∈ Mnn ( ) que satisfacen (1.1). Luego

                            B1 = B1 I = B1 (AB2 ).

Usando la asociatividad de · tenemos,




                                                                                                                       ´
                               B1 = (B1 A)B2 ,

pero como B1 A = I, se concluye que

                               B1 = B2 .



Cabe se˜ alar que para que A sea invertible se requiere que exista una matriz
       n
                                                                                                               ı
B que sea a la vez inversa por izquierda y por derecha. Probaremos m´s     a
adelante que es suficiente que A tenga inversa por un solo lado.


   Ejemplos:
   No todas las matrices cuadradas tienen inverso multiplicativo. En
        Ê
   M22 ( ), la matriz
                         1 2
                         2 4
                                 no tiene inverso. En efecto, si existiese
   el inverso,
               x1 x2
   digamos           , deber´ verificarse:
                            ıa
               x3 x4

                         1 2       x1       x2       1   0
                                                 =
                         2 4       x3       x4       0   1

                          x1 + 2x3       x2 + 2x4            1   0
                 ⇔                                   =
                         2x1 + 4x3      2x2 + 4x4            0   1


                                        4
⇔        x1 + 2x3 = 1




                                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
                                         x2 + 2x4 = 0
                                         2x1 + 4x3 = 0
                                         2x2 + 4x4 = 1
  De la primera ecuaci´n multiplicada por 2, obtenemos: 2(x1 + 2x3 ) =
                      o
  2. Pero de la tercera ecuaci´n, 2x1 + 4x3 = 0. De esta contradicci´n
                              o                                     o
  conclu´
        ımos que el sistema no tiene soluci´n.
                                           o

  En otros casos s´ existe inverso, por ejemplo, en M22 ( ),
                  ı                                                               Ê
                                           −1
                                 0   1                  0 1
                                                =
                                 1   0                  1 0

  En efecto:
                             0 1          0 1                   1    0
                                                     =
                             1 0          1 0                   0    1
  O bien, en M22 ( ),
                                           −1




                                                                                                                                     ´
                               i  0                   −i        0
                                                =                        ,
                               0 −i                    0        i

  lo que se verifica r´pidamente.
                     a




                                                                                                                             ı
1.2.    Matrices Particulares
Definici´n 1.5. Diremos que A ∈ Mnn ( ) es:
       o                                            Ã
  1. Diagonal si y s´lo si aij = 0
                    o                               ∀i = j:                                                                       diagonal

                                                                            
                                     a11                             0
                                           a22                              
                            A=
                                                     ..                     .
                                                                             
                                                            .
                                      0                             ann

       En este caso la matriz es notada A = diag(a11 , a22 , . . . , ann ).           diag(a11 , a22 , . . . , ann )

  2. Triangular superior si y s´lo si aij = 0 si i > j:
                               o                                                           triangular superior

                                                                       
                               a11          a12       ···           a1n
                               0           a22       ···           a2n 
                            A= .
                               .                     ..             . .
                                                                     . 
                                .                        .           .
                                     0      ···         0           ann


  3. Triangular inferior si y s´lo si aij = 0 si i < j:
                               o                                                            triangular inferior



                                            5
                                   
                          a11         0              ···     0




                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
                         a21        a22     0       ···     0 
                      A=
                                     .              ..        .
                                      .
                                      .                 .    0 
                               an1   an2    ···      ···    ann


   Ejemplos:
                                  
            0    0 0           1 0 0
      A = 0     2 0  , I =  0 1 0  son matrices diagonales
            0    0 3           0 0 1
                               
         1 2     3         0 0 0
                                     son matrices triangulares, superior e inferior
   A = 0 0      1, B = 1 2 0
                                                  respectivamente.
         0 0     2         2 −1 3




                                                                                  ◭ Ejercicio




                                                                                                                  ´
  Ejercicio 1.1: Una propiedad que queda propuesta es que si A es
  diagonal con aii = 0, para i = 1, . . . , n entonces es invertible, y su
  inversa tambi´n es diagonal con (A−1 )ii = a1 .
               e                                ii




                                                                                                          ı
Notaci´n:
      o
                               Ã
Dada una matriz A ∈ Mmn ( ) notaremos su i-´sima fila como:
                                           e                                                                                                     Ai•

                           Ai• = (ai1 ai2 . . . ain )

y su j-´sima columna:
       e                                                                                                                                         A•j
                                      a         
                                         1j
                                       a2j      
                               A•j   = .
                                       .
                                                 
                                                 
                                         .
                                           amj
Podemos escribir entonces la matriz: A = (A•1 , A•2 , ..., A•n ), denominada
notaci´n por columnas. O bien:
      o
                
             A1•
            A2• 
       A =  . ,
            .             correspondiente a la notaci´n por filas.
                                                       o
              .
                Am•


                                                                                  ◭ Ejercicio



                                       6
Departamento de Ingenier´a Matematica - Universidad de Chile
  Ejercicio 1.2: Con respecto a esta notaci´n, es un buen ejercicio es-
                                            o
  tudiar c´mo el producto de matrices afecta las columnas y filas de las
          o
  matrices a multiplicar. M´s precisamente: Sean A ∈ Mmn ( ), B ∈
                           a                                                       Ã
         Ã
  Mnp ( ) y describamos B por sus columnas B = (B•1 , B•2 , ..., B•p ),
  demostrar que entonces

                              AB = (A(B•1 ), ..., A(B•p )) ,

  es decir la primera columna de AB es la matriz A por la primera
  columna de B, etc.



¿Qu´ hay de las filas de AB?
   e
Definici´n 1.6 (Matriz ponderada). Dada una constante λ ∈
        o                                                                                Ã, defi-
nimos la matriz A ponderada por λ:                                                                                                                                λA

                                         λA = (λaij ).




                                                                                                                                   ´
  Ejemplo:
  En M23 ( ): Ê
                                 1   −1 0                    3   −3 0
                           3·                          =
                                 2    2 1                    6    6 3
  Veamos ahora que sucede al multiplicar por la derecha o izquierda una
  matriz por otra diagonal:


                                                                                                                           ı
                                2    0         1       1 2           2   2 4
                       DA =                                      =
                                0    3         2       0 1           6   0 3

  constatamos que la primera fila aparece multiplicada por d11 = 2 y la
  segunda por d22 = 3.
                                        
                                  2 0 0
               ¯      1 1 2                     2 1 6
             AD =                 0 1 0 =
                      2 0 1                      4 0 3
                                  0 0 3

   Aqu´ la primera columna de A aparece multiplicada por 2, la segunda
       ı,
  por 1, la tercera por 3.

En general:

                          a                       λ1 a11             ···   λ1 a1p   
         λ1            0       11        ···   a1p
                                                .  =  λ2 a21            ···   λ2 a2p   
             ..
                   .       .
                            .                  .   .                            .     
                               .                .      .                          .     
                                                           .                       .
         0             λn    an1         ···   anp
                                                        λn an1            ···   λn anp




                                                   7
                                                                                                      
   b11         ···   b1n    λ1                       0      λ1 b11              λ2 b12        ···     λn b1n
   .                 .                  ..            = .                     .                     . 




                                                                                                                       Departamento de Ingenier´a Matematica - Universidad de Chile
    .
    .                 .
                      .                         .              .
                                                               .                   .
                                                                                   .                     .
                                                                                                         .
      bp1      ···   bpn          0                 λn                 λ1 bp1   λ2 bp2        ···     λn bpn

De forma m´s compacta,
          a

Proposici´n 1.4. Si D = diag(λ1 , . . . , λn ) ∈ Mnn ( ), A ∈ Mnp ( ), B ∈
         o                                                                       Ã                        Ã
         Ã
Mmn ( ), se tiene que
                                              
                                    λ1 A1•
                                . 
                        DA =  .  ,      .                          (1.2)
                                                         λn An•

                                  BD = (λ1 B•1 , ..., λn B•n ).                                                (1.3)


              ´
Demostracion. Probaremos (1.2), mientras que (1.3) queda propuesta
como ejercicio.                                                                                                        ◭ Ejercicio
                                                   




                                                                                                                                                       ´
                             λ1                 0
                                  ..                                                      λi        si i = j
         Sea     D=                   .             = (dij );          con dij =
                                                                                          0         si i = j
                             0              λn

luego,
                                                n
                           (DA)ij =                 dik akj = dii aij = λi aij ,



                                                                                                                                               ı
                                           k=1

y por lo tanto                                                                 
                                                λ1 a11       ...       λ1 a1p
                                                             .                 
                              AD =                           .
                                                              .                 .
                                                λn an1       ···       λn anp



Otra propiedad, que utilizaremos m´s adelante, es la siguiente:
                                  a

Proposici´n 1.5. El producto de matrices triangulares inferiores (superio-
            o
res) es triangular inferior (superior).


          ´
Demostracion. Verifiquemos el caso triangular superior. Sean
                                                                                                     
               a11         ···    ···           a1n           b11               ···      ···        b1n
               0          a22    ···           a2n         0                 b22      ···        b2n 
         T1 =  .
               .                 ..             .         
                                                 .  , T2 =  ..                         ..          . .
                                                                                                     . 
                .                    .           .             .                            .        .
                     0     ···        0         ann            0                ···       0         bnn



                                                         8
n
Luego C = T1 · T2 = (cij ), donde: cij =                   aik bkj . Como T1 y T2 son




                                                                                           Departamento de Ingenier´a Matematica - Universidad de Chile
                                                     j=1
triangulares superiores: (aiℓ = 0) ∧ (biℓ = 0) ∀ℓ < i. Supongamos j < i,
luego
                               i−1               n
                       cij =         aik bkj +         aik bkj .
                               k=1               k=i

En el primer t´rmino k < i ⇒ aik = 0. En el segundo t´rmino j < i ≤ k ⇒
              e                                        e
bkj = 0, luego ∀j < i cij = 0. Es decir, la matriz C es tambi´n triangular
                                                              e
superior.
Notemos adem´s que (T1 T2 )ii = aii bii es decir los elementos diagonales
               a
del producto de dos triangulares superiores es el producto de los elementos
diagonales correspondientes.


1.3.   Potencias, traspuestas e inversas
Definimos por recurrencia las potencias de una matriz cuadrada, como si-
gue:
Definici´n 1.7 (Potencias de una matriz). Dada A ∈ Mnn ( )
       o                                                                   Ã                                                                              An




                                                                                                                           ´
                     A0 = I, An = AAn−1 ,                  n ≥ 1.

  Ejemplo:
  Por ejemplo; dada A ∈ M33 ( ):     Ê
                                                      
                                        0 1          2
                                   A = 2 0          0,

                                                                                                                   ı
                                        1 1          2

  se tendr´
          a
                                                                    
                       0 1           2    0 1            2     4     2 4
           A2 = AA =  2 0           02 0              0 = 0     2 4
                       1 1           2    1 1            2     4     3 6
                                                                 
                     0         1    2    4 2           4      8 8 16
        A3 = AA2 =  2         0    00 2             4 =  8 4 8 .
                     1         1    2    4 3           6     12 10 20


Definici´n 1.8 (Traspuesta). Dada una matriz A = (aij ) ∈ Mmn ( ),
         o                                                                       Ã
se define la traspuesta de A como aquella matriz de n×m que denotaremos                  At , traspuesta
por At tal que (At )ij = aji .
Esto corresponde a intercambiar el rol de las filas y columnas. M´s clara-
                                                                 a
mente, la primera fila de At es la primera columna de A y as´ sucesiva-
                                                               ı
mente.




                                         9
Ejemplo:




                                                                                                            Departamento de Ingenier´a Matematica - Universidad de Chile
                                                                           
                                                                1      0    1
                             1 2        0 0
                                                            t 2       1    1
                        A = 0 1        0 1,              A =               .
                                                                0      0    0
                             1 1        0 1
                                                                0      1    1
                                                                          
                                                       1
                                                      −1 
                                                         
                          A = (1, −1, 0, 0, 1), At =  0  .
                                                         
                                                       0
                                                       1
                                                       
                               1 2 1               1 2 1
                         A =  2 0 1  , At =  2 0 1  .
                               1 1 4               1 1 4

En el ultimo caso vemos que A = At .
      ´
Definici´n 1.9 (Matriz sim´trica). Diremos que una matriz A ∈ Mnn ( )
        o                 e                                                                          Ã
es sim´trica si y s´lo si
      e            o                                                                                                              sim´trica
                                                                                                                                     e
                            A = At




                                                                                                                                            ´
Es f´cil verificar que A es sim´trica si y s´lo si:
    a                         e            o

                                 aij = aji         ∀i, j = 1, .., n

Algunas propiedades de la trasposici´n de matrices son las siguientes:
                                    o
Proposici´n 1.6.
           o

                                                                                                                                    ı
  1. (At )t = A, ∀A ∈ Mmn ( ).            Ã
  2. (AB)t = B t At .                                                                                    (AB)t = B t At

                         Ã
  3. Si D ∈ Mnn ( ) es diagonal, entonces Dt = D.
Demostracion. Probaremos 2: Sea C = AB, C t = (AB)t . En la posici´n
          ´                                                       o
                                                                                      n
(i, j) de la matriz C t aparece el t´rmino cji de la matriz C: cji =
                                    e                                                      ajk bki
                                                                                     k=1
                             t   t
Consideremos Z = B A . El t´rmino (i, j) de la matriz Z esta dado por:
                           e
            n                         n                    n
                    t        t
    zij =         (B )ik (A )kj =          bki ajk =           ajk bki = (AB)ji = (C t )ij ,
            k=1                      k=1               k=1

luego Z = C , y por lo tanto (AB) = B At .
                t                             t        t



Algunas propiedades elementales de matrices invertibles son las siguientes
Proposici´n 1.7.
          o
                         Ã
Sean A, B ∈ Mnn ( ) invertibles entonces:
  1. La inversa de A es invertible y (A−1 )−1 = A.                                                        (A−1 )−1 = A


                                                  10
2. El producto AB es invertible y (AB)−1 = B −1 A−1 .                      (AB)−1 = B −1 A−1




                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
  3. ∀n ≥ 0, (An )−1 = (A−1 )n .                                              (An )−1 = (A−1 )n

  4. At es invertible y (At )−1 = (A−1 )t .                                    (At )−1 = (A−1 )t

              ´
Demostracion. Veamos:
La propiedad 1 se prueba directamente de la definici´n y de la unicidad de
                                                   o
la inversa (Proposici´n 1.3).
                     o
Para 2 se tiene que,

          AB(B −1 A−1 ) = A(BB −1 )A−1 = AIA−1 = AA−1 = I.

De manera an´loga se prueba (B −1 A−1 )AB = I Como la inversa es unica
            a                                                    ´
(AB)−1 = B −1 A−1 .
Para 3, procederemos por inducci´n. Se verifica para n ∈ {0, 1}. Suponga-
                                  o
mos cierto el resultado para n ≥ 1 y veamos:

                  (An+1 )−1 = (An · A)−1 = A−1 (An )−1 ,

por hip´tesis de inducci´n
       o                o




                                                                                                                     ´
                   (An+1 )−1 = A−1 (A−1 )n = (A−1 )n+1 .

Para probar 4, notemos que AA−1 = I, as´ trasponiendo nos d´ (AA−1 )t =
                                       ı                   a
I t , lo que implica a su vez (A−1 )t At = I.
Igualmente se obtiene que At (A−1 )t = I. Finalmente, por unicidad de la
inversa: (At )−1 = (A−1 )t .


                                                                                     ◭ Ejercicio
                                                                                                             ı
  Ejercicio 1.3: En general el problema de saber si una matriz es in-
  vertible o no es un problema dif´  ıcil. Tendremos que esperar a saber
  resolver ecuaciones lineales para obtener un algoritmo eficiente que nos
  permitir´ decidir si una matriz en particular es invertible y obtener su
           a
  inversa.
  Por el momento nos contentaremos con el siguiente resultado, propuesto
  como ejercicio.
  Sea A = (aij ) una matriz de permutaci´n, es decir una matriz de
                                               o
  n × n con solo 0 y 1 tal que tiene un y s´lo un 1, por cada fila y
                                                 o
  columna.                                                                         permutaci´n
                                                                                            o
  Se tiene que A es invertible y su inversa es A−1 = At .




                                     11
´
                                   Ingenier´a Matematica
                                           ı
                                   FACULTAD DE CIENCIAS
                                                                                               Semana 1
                                   F´SICAS Y MATEMATICAS
                                     I                 ´
                                   UNIVERSIDAD DE CHILE
                                   ´
                                   Algebra Lineal 08-2

Ejercicios




                                                                                             Departamento de Ingenier´a Matematica - Universidad de Chile
1. Demuestre la asociatividad de la multiplicaci´n de matrices. Es decir, si
                                                o                                        Proposici´n 1.2
                                                                                                  o
              Ã                    Ã
   A ∈ Mmn ( ), B ∈ Mnq ( ), C ∈ Mqs ( ), entonces: Ã
                              A(BC) = (AB)C ∈ Mms ( ).     Ã
2. Pruebe que si A es diagonal (A = diag(a11 , . . . , ann ) ∈ Mnn ( )), en-Ã              Ejercicio 1.1
   tonces
             A es invertible ⇔ aii = 0, para i ∈ {1, . . . , n}.
   Demuestre adem´s que, en caso de ser invertible, su inversa es diagonal
                    a
   con (A−1 )ii = a1 .
                   ii

                    Ã                     Ã
3. Sean A ∈ Mmn ( ), B ∈ Mnp ( ) y describamos B por sus columnas                          Ejercicio 1.2
   B = (B•1 , B•2 , ..., B•n ), demuestre que entonces
                              AB = (A(B•1 ), ..., A(B•n )) .

4. Sea A = (aij ) una matriz de permutaci´n, es decir una matriz de
                                              o                                            Ejercicio 1.3
         Ã
   Mnn ( ) con s´lo 0’s y 1’s tal que tiene un y s´lo un 1, por cada fila y
                 o                                o
   columna. Pruebe que A es invertible y su inversa es A−1 = At .




                                                                                                                             ´
                               Ã
5. Se dice que P ∈ Mnn ( ) es una matriz de proyecci´n si P = P 2 .
                                                    o
   (a) Pruebe que si P es matriz de proyecci´n, entonces In − P es matriz
                                             o
       de proyecci´n, donde In es la matriz identidad en Mnn ( ).
                  o                                                       Ã
   (b) Pruebe que P es matriz de proyecci´n si y s´lo si P 2 (In − P ) = 0
                                         o        o
       y P (In − P )2 = 0.
                                   Ã
   (c) Encuentre P ∈ M22 ( ) tal que P = P 2 y P 2 (I2 − P ) = 0.

                                                                                                                     ı
       Indicaci´n: Considere matrices con coeficientes en {0, 1}.
               o


Problemas
                                  
             d1
            
P1. Sea D =         ..
                          .
                                   
                                                Ê
                                    ∈ Mnn ( ) diagonal, con d1 , . . . , dn distintos
                        dn
     y A, B, M, S ∈ Mnn ( ).   Ê
     (a) Pruebe que si M D = DM , entonces M es diagonal.
    (b) Sea S invertible, tal que S −1 AS y S −1 BS son diagonales. Pruebe
        que AB = BA. Indicaci´n: Recuerde que el producto de matrices
                                 o
        diagonales conmuta.
     (c) Sea S invertible tal que S −1 AS = D. Suponiendo que AB = BA,
         verifique que S −1 AS y S −1 BS conmutan y concluya que S −1 BS
         es diagonal.
P2. (a) Demuestre que si A, B y (A + B −1 ) son matrices invertibles, en-
        tonces (A−1 + B) tambi´n es invertible y su inversa es A(A +
                                e
        B −1 )−1 B −1 .

                                           12
(b) Sea la matriz de n y n columnas triangular superior a coeficientes




                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
        reales siguiente:
                                                         
                           1 1       0     0 ... ... 0
                          0 1       1     0 . . . . . . 0
                                                         
                          . ..     ..    ..   ..        .
                          ..    .     .     .    .      .
                                                         .
                          
                          .        ..    ..   ..   ..   .
                          .           .     .    .    . . .
                     C = .                              .
                          ..             ..              
                          .                 .  1    1 0
                                                         
                          .                              
                          . . . . . . . . . .       1 1
                          .                    0         
                            .
                            . ... ... ...
                            .                   0    0 1
         Sea N = C −I, donde I es la matriz identidad de n×n. Demuestre
         que N n = 0.
     (c) Demuestre que para las matrices C y N definidas en (b), se tiene
         que C es invertible y su inversa es:
                 C −1 = I − N + N 2 − N 3 + · · · + (−1)n−1 N n−1 .

                               Ê
P3. (a) Sea A = (aij ) ∈ Mnn ( ) una matriz cualquiera. Se define la traza




                                                                                                                ´
        de A, denotada por tr(A), como la suma de los elementos de la
        diagonal principal, es decir,
                                             n
                                   tr(A) =         aii .
                                             i=1

         Por otra parte, se define la funci´n f : Mnn ( ) →
                                          o                  Ê   Ê, donde
                                                     t
                                   f (A) = tr(AA ).

                                                                                                        ı
         Pruebe que:
         (1) Dadas A, B ∈ Mnn ( ), Ê
                                    tr(AB) = tr(BA).
                                     Ê
         (2) f (A) ≥ 0, ∀A ∈ Mnn ( ), adem´s muestre que
                                          a
                                   f (A) = 0 ⇔ A = 0,
             donde 0 es la matriz nula de Mnn ( ).       Ê
        (3) f (A) = tr(At A).
                        Ê
    (b) Sea M ∈ Mmn ( ) una matriz tal que la matriz (M t M ) ∈ Mnn ( )     Ê
        es invertible. Definamos la matriz P ∈ Mmm ( ) como   Ê
                            P = Im − M (M t M )−1 M t ,
         donde IM es la matriz identidad de orden m.
         Pruebe que:
         (1) P 2 = P . Muestre adem´s que P M = 0, donde 0 ∈ Mmn ( )
                                     a                                      Ê
             es la matriz nula.
         (2) La matriz (M t M ) es sim´trica y muestre que la matriz P es
                                       e
             tambi´n sim´trica.
                   e      e


                                     13
´
                               Ingenier´a Matematica
                                       ı
                               FACULTAD DE CIENCIAS
                               F´SICAS Y MATEMATICAS
                                 I                 ´
                               UNIVERSIDAD DE CHILE
                               ´
                               Algebra Lineal 08-2

                                                           SEMANA 2: MATRICES




                                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
1.4.   Matrices elementales
Como veremos la resoluci´n de sistemas de ecuaciones via eliminaci´n de
                         o                                          o
variables corresponde a premultiplicar (multiplicar por la izquierda) una
cierta matriz por matrices elementales que estudiaremos a continuaci´n.o
Hay dos tipos de matrices elementales: elemental de permutaci´n y de
                                                                  o                          matrices elementales
suma.
Definici´n 1.10 (Matriz elemental de permutaci´n). Una matriz ele-
        o                                               o
mental de permutaci´n tiene la siguiente estructura:
                     o                                                                                                                                               Ipq
                                                           
             1                                            0
               ..                                          
                  .                             0          
                      1                                    
                                                           
                        0 ··· ··· ··· 1                     fila p
                                                           
                        .
                         .                   .
                                             .              
                        .   1               .              
                                                           
    Ipq =                        1                        
                                                            
                        .
                         .                   .
                                             .              




                                                                                                                                      ´
                        .              1    .              
                                                           
                        1 ··· ··· ··· 0                     fila q
                                                           
                                                1          
                                                    ..     
                0                                      .   
                0                                                         1
La matriz Ipq se construye a partir de la identidad, permutando el orden


                                                                                                                              ı
de las filas p y q.

   Ejemplo:
            Ê
   En M44 ( ):
                                                                             
                       1   0   0   0                     0       0    1       0
                     0    0   0   1                  0        1    0       0
             I24    =               ,         I13   =                        .
                       0   0   1   0                     1       0    0       0
                       0   1   0   0                     0       0    0       1


Notemos que toda matriz elemental de permutaci´n es una matriz de per-
                                                o
mutaci´n, pero no al rev´s. ¿Puedes dar un ejemplo?.
       o                e                                                                             ◭ Ejercicio
Veamos ahora lo que sucede al multiplicar una matriz A, por la derecha
o izquierda, por una matriz elemental de permutaci´n Ipq : En el ejemplo
                                                   o
anterior, sea A = (aij ) ∈ M43 ( ) Ê
                                                                                        
      a11   a12     a13     1      0   0    0     a11      a12       a13     a11     a12   a13
     a21   a22     a23   0      0   0    1   a21      a22       a23   a41     a42   a43 
I24                    =                                            =                   .
      a31   a32     a33     0      0   1    0     a31      a32       a33     a31     a32   a33
      a41   a42     a43     0      1   0    0     a41      a42       a43     a21     a22   a23

                                           14
El resultado consiste en permutar las filas 2 y 4 de A. An´logamente, sea
                                                         a




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
           Ê
B ∈ M34 ( ):
                           1     0   0    0
                                                                              
     b11   b12   b13    b14                        b         b14     b13    b12
    b21                      0    0   0    1   11
           b22   b23    b24                   = b21       b24     b23    b22  .
                                0   0   1    0
     b31   b32   b33    b34                        b31       b34     b33    b32
                                0   1   0    0

la matriz resultante es B con las columnas 2 y 4 permutadas. En general,

Propiedad 1.1.
                    Ã               Ã
Dadas Ipq ∈ Mnn ( ), A ∈ Mns ( ) y B ∈ Mqn ( ):         Ã
  1. Ipq A corresponde a la matriz A con las filas p y q permutadas.                                                                                  Ipq A

  2. BIpq corresponde a las matriz B con las columnas p y q permutadas.                                                                              BIpq

               ´
Demostracion. Recordemos que, por ser una matriz de permutaci´n (Ejer-
                                                                   o
                                     a −1
cicio 1.3), Ipq es invertible y adem´s Ipq = Ipq . En efecto, el multiplicar
por la izquierda Ipq por si misma, corresponde a intercambiar sus filas p y
q, con lo cual se obtiene la identidad.




                                                                                                                      ´
                                        Ê
Tomemos ahora la matriz A ∈ M44 ( ) y sea:
                                                        
                                       1 0        0    0
                                     0 1         0    0
                          E2,4 (λ) =                    
                                       0 0        1    0
                                       0 λ        0    1


                                                                                                              ı
Esta matriz se construye a partir de la identidad colocando el valor λ en la
posici´n (4,2) (notar que s´lo la fila 4 es diferente de la identidad).
      o                    o
Al multiplicar por la izquierda A por E2,4 (λ):
                                                                          
              a11   a12   a13     1 0         0       0     a11    a12     a13
             a21   a22   a23   0 1         0       0   a21    a22     a23 
   E2,4 (λ)                  =                                            =
              a31   a32   a33     0 0         1       0     a31    a32     a33
              a41   a42   a43     0 λ         0       1     a41    a42     a43
                                                                
                       a11             a12               a13
                      a21             a22               a23     
                 =                                              
                       a31             a32               a33
                    λa21 + a41      λa22 + a42        λa23 + a43
 La matriz, E2,4 (λ)A es exactamente la matriz A, excepto por la fila 4, la
cual se obtiene de sumar la fila 4 de A m´s la fila 2 de A ponderada por λ.
                                        a
En general,




                                        15
Definici´n 1.11 (Matriz elemental). Definimos la matriz elemental Ep,q (λ) ∈
       o
     Ã
Mnn ( ) como:




                                                                                                         Departamento de Ingenier´a Matematica - Universidad de Chile
                                                                                                                                                Ep,q (λ)

                           col. p                   col. q
                                                                                
                             ↓                        ↓
           1                                                                    
                 ..                                                             
                      .                                       0                 
                                                                                
                            1                                                   
                                                                                
                                    ..                                          
           
           
Ep,q (λ) =                  .
                                          .                                      
                                                                                 
                                                                                 
                                                                                            λ∈
                                                                                                .
                                                                                                 Ã
                            .
                             .                 1                                           p<q
                                                                                
           0     ···        λ      ···               1                          
           .                .                                                   
           .                .                                                   
           .                .                                 1                 
           .                .                                      ..           
           ..               .
                             .                                           .       
             0    ···        0      ···       ···    ···      ···   0        1


Propiedad 1.2. Dada una      matriz A ∈ Mns ( ); se tiene:Ã                                              Ep,q (λ) · A
                                                  
                   1                             0                                                  
                    ..                                   a11                       ···   ···   a1s
                        .




                                                                                                                                         ´
                                            0            .                                     . 
                                                         .
                                                            .                                     . 
                                                                                                  . 
                            1                     
                               ···                  ap1                           ···   ···   aps 
                                                                                                  
                            .
                             .                            .
                                                            .                                     . 
                                                                                                  . 
C = Ep,q (λ)·A =            .        1                   .                                     . 
                                                  
                     0      λ ···      1            aq1                           ···   ···   aqs 
                                                                                                  
                                            1            .                                     . 
                                                         .
                                                            .                                     . 
                                                                                                  .
                                           ..     
                                               .


                                                                                                                                 ı
                                                           an1                       ···   ···   ans
                                                 1
                                                
                         a11      ···     a1s
                         .
                          .                .
                                           .     
                         .                .     
                                                
                   ap−11         ···    ap−1s 
                                                
                         .
                          .                .
                                           .     
               =         .                .            .
                                                
                   λap1 + aq1 · · · λaps + aqs  ← q
                                                
                         .                .     
                         .
                          .                .
                                           .     
                         an1      ···     ans
o, en notaci´n por filas:
            o
                                 Ci• = Ai•    ∀i = q
                                 Cq• = λAp• + Aq•

Se tiene entonces que el efecto, sobre A, de la premultiplicaci´n por Ep,q (λ)
                                                               o
es una matriz que s´lo difiere de A en la fila q: Esta es la suma de la fila p
                    o
ponderada por λ y la fila q.
Es importante observar que la matriz Ep,q (λ) es triangular inferior, que
tiene unos en la diagonal y adem´s:a


                                              16
Proposici´n 1.8. Ep,q (λ) es invertible. Su inversa es la siguiente:
         o                                                                         (Ep,q (λ))−1 =




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
                                                                                        Ep,q (−λ)
                                                                
                     1
                        ..                                      
                           .                        0           
                                                                
                              1                                 
                                   ..                           
                                      .                         
                                                                
               −1              .
                                .                                
     (Ep,q (λ)) =              .         1                      
                                                                
                   0 · · · −λ · · ·           1                 
                  .            .                                
                  .            .                                
                  .            .                    1           
                  .            .                         ..     
                  . .          .
                                .                            .   
                     0 ···     0 ··· ··· ··· ···           0 1

                                          ↑                     ↑
                                          p                     q


              ´
Demostracion. En efecto, sea C = Ep,q (−λ)Ep,q (λ). Se tendr´ que C es
                                                                a
la matriz cuya fila q es la suma de la fila p de Ep,q (λ), ponderada por −λ
y la fila q de Ep,q (λ). Es decir:




                                                                                                                      ´
           Cq• = −λ(0 . . . 0 1 0 . . . 0) + (0 . . . λ 0 . . . 0 β 0 . . . 0)
                                  ↑                         ↑            ↑
                                  p                         p            q

                = (0 . . . 0 − λ 0 . . . 0) + (0 . . . λ 0 . . . 0 1 0 . . . 0).
                                 ↑                      ↑            ↑



                                                                                                              ı
                                 p                      p            q



Luego: Cq• = (0..,0..,1..,0..,0) adem´s ∀i = q Ci• es la i-´sima fila de la
                                     a                     e
identidad. Es decir C = I, la matriz identidad


1.5.   Sistemas lineales y escalonamiento de matrices
Las matrices elementales son de gran utilidad en la resoluci´n de sistemas
                                                            o
de ecuaciones lineales.

  Ejemplo:
  Consideremos, a modo de ejemplo, el sistema de ecuaciones

                      x1 + 2x2 + x3 + x4 = 2                         (1)
                    −2x1 + 3x2 − x3      = −1                        (2)
                         x1           + x3 + x4 = 1                  (3)

   Para resolverlo, utilizamos la eliminaci´n de variables, pero en forma
                                           o
  ordenada, desde la primera variable de la izquierda y desde arriba hacia
  abajo:


                                           17
1. Eliminamos la variable x1 en las ecuaciones (2) y (3): para ello




                                                                              Departamento de Ingenier´a Matematica - Universidad de Chile
        multiplicamos la primera por dos y la sumamos a la segunda ob-
        teniendo:

                             x1 + 2x2 + x3 + x4 = 2
                                 7x2 + x3 + 2x4 = 3
                             x1           + x3 + x4 = 1

        Luego, multiplicamos la primera por −1 y la sumamos a la tercera:

                            x1 + 2x2 + x3 + x4 = 2
                                7x2 + x3 + 2x4 = 3
                                  −2x2            = −1

     2. Continuamos ahora con x2 , pero a partir de la segunda ecuaci´n.o
                                     2
        Multiplicando la segunda por 7 y sum´ndola a la tercera se obtiene:
                                            a

                            x1 + 2x2 + x3 + x4 = 2
                                  7x2 + x3 + 2x4 = 3




                                                                                                              ´
                                      2     4        1
                                        x3 + x4 = −
                                      7     7        7

        Ya no es posible eliminar m´s variables. Ahora, desde la ultima
                                    a                            ´
        hasta la primera ecuaci´n despejamos en funci´n de x4 :
                               o                     o
                 4     1           1
          x3 = − x4 − = −2x4 −
                 2     2           2

                                                                                                      ı
               1                   1     1            1
          x2 = (−x3 − 2x4 + 3) = (2x4 + − 2x4 + 3) =
               7                   7     2            2
                                      1       1                3
          x1 = −2x2 − x3 − x4 + 2 = −2 + 2x4 + − x4 + 2 = x4 +
                                      2       2                2
        Obteni´ndose la soluci´n:
              e               o
                                        3
                                   x1 =   + x4
                                        2
                                        1
                                   x2 =
                                        2
                                          1
                                   x3 = − − 2x4
                                          2
                                   x4 = x4


        As´ para cualquier valor real de x4 , obtenemos una soluci´n del
           ı,                                                      o
        sistema. Existen entonces, infinitas soluciones, dependiendo de la
        variable x4 . La variable x4 se denomina independiente o libres.

Veamos ahora, en general, qu´ es un sistema de ecuaciones,
                            e


                                     18
Definici´n 1.12 (Sistema de ecuaciones). Un sistema de m ecuaciones-
         o




                                                                                             Departamento de Ingenier´a Matematica - Universidad de Chile
 y n inc´gnitas consiste en el siguiente conjunto de ecuaciones en las va-
         o                                                                         sistema de ecuaciones
                    Ã
riables x1 , ..., xn ∈ :

                         a11 x1 + · · · + a1n xn = b1
                           .
                           .              .
                                          .         .
                                                    .
                           .              .         .
                        am1 x1 + · · · + amn xn = bm

en donde los coeficientes, aij , y el lado derecho, bj , son elementos del cuerpo
Ã.
Definiendo la matriz:
                                            
                        a11       ···    a1n
                    A=  .
                         .
                         .
                                          . 
                                          .
                                          .    ∈ Mmn ( )Ã
                        am1       ···    amn
la m-tupla (lado derecho) y la n tupla de inc´gnitas
                                             o
                                           
                        b1                    x1
                 b=      .        Ã
                      .  ∈ m, x =  .  ∈    .         Ãn




                                                                                                                             ´
                         .                     .
                       bm                     xn
Podemos escribir el sistema matricialmente:                                                                                                 Ax = b

                                   Ax = b,

Realizar el procedimiento de eliminaci´n de variables descrito en el ejem-
                                       o
plo precedente, con el fin de resolver el sistema, es equivalente a producir

                                                                                                                     ı
ceros en la matriz aumentada con la columna lado derecho, (A|b) ∈                    matriz aumentada,
          Ã
Mm(n+1) ( ). En el ejemplo anterior:                                                             (A|b)

                                                 
                                 1 2 1 1 2
                       (A|b) = −2 3 −1 0 −1 
                                 1 0 1 1 1
 Eliminar x1 de la segunda ecuaci´n es equivalente a producir un cero en
                                    o
la posici´n (2,1) de (A|b). Para ello se multiplica la primera fila por 2 y se
         o
suma a la segunda fila. Para eliminar x1 de la tercera ecuaci´n se multiplica
                                                             o
la primera fila por −1 y se suma a la tercera
                                                            
                       1 2 1 1 2               1 2 1 1 2
            (A|b) →  0 7 1 2 3  →  0 7 1 2 3 
                       1 0 1 1 1               0 −2 0 0 −1
Eliminar x2 en la tercera ecuaci´n a partir de la segunda es equivalente a
                                 o
multiplicar la segunda fila por 2 y sumarla a la tercera:
                               7
                                          
                           1 2 1 1 2
                     →  0 7 1 2 3  = (A|˜       ˜ b)
                                   2 4   1
                           0 0 7 7 −7

                                        19
As´ el sistema inicial es equivalente al sistema Ax = ˜
    ı,                                            ˜    b.




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
Conviene se˜ alar que en el procedimiento anterior la operaci´n de base ha
             n                                               o
sido:

   Sumar a una fila q, la fila p ponderada por un n´ mero λ ∈
                                                 u                            Ã
De la definici´n de matrices elementales sabemos que esto es equivalente
              o
a premultiplicar por la izquierda por la matriz Ep,q (λ). Veamos esto en el
mismo ejemplo.

   Ejemplo:

     1. Producir un cero en la posici´n
                                     o    (2,1) de (A|b):
                                                          
                                 1 0       0     1 2 1 1 2
               E1,2 (2)(A|b) =  2 1       0  −2 3 −1 0 −1 
                                 0 0       1     1 0 1 1 1
                                                                        .
                                                   
                                 1 2      1 1       2
                              = 0 7      1 2       3




                                                                                                                      ´
                                 1 0      1 1       1


     2. Producir un cero en la posici´n (3,1):
                                     o
                                                                       
                                       1 0 0      1 2             1 1   2
           E1,3 (−1)E1,2 (2)(A|b) =  0 1 0   0 7               1 2   3
                                     −1 0 1

                                                                                                              ı
                                                  1 0             1 1   1
                                                                              .
                                                            
                                       1 2 1        1 1
                                    = 0 7 1        2 3
                                       0 −2 0       0 −1


     3. Producir un cero en la posici´n (3,2) desde la posici´n (2,2):
                                        o                    o
                                                                    
                                             1 0 0      1 2 1 1 2
               2
        E2,3 ( 7 )E1,3 (−1)E1,2 (2)(A|b) =  0 1 0   0 7 1 2 3 
                                             0 2 1
                                               7        0 −2 0 0 −1
                                                                                  .
                                                                 
                                          1     2    1   1       2
                                       = 0     7    1   2       3
                                                     2   4
                                          0     0    7   7   −1
                                                              7



Se concluye entonces que la operaci´n de eliminaci´n de variable puede
                                      o               o
realizarse mediante la pre-multiplicaci´n de (A|b) por matrices elementales.
                                       o


                                     20
Hay casos en que tambi´n es necesario utilizar matrices de permutaci´n de
                         e                                          o




                                                                                         Departamento de Ingenier´a Matematica - Universidad de Chile
filas. Por ejemplo, si se tiene:
                                              
                                     1 1 1 1
                                   0 0 1 1
                           (A|b) =            
                                     0 1 0 1
                                     0 2 0 1
Vemos que, como a22 = 0, no es posible “producir” ceros en la segunda
columna, a partir de a22 . Luego intercambiamos el orden de las filas (cla-
ramente esto no cambia el sistema de ecuaciones asociado). Por ejemplo,
colocamos la cuarta fila en la segunda posici´n y la segunda en la cuarta.
                                               o
Esto es equivalente a premultiplicar por I24 :
                                                            
                   1 0 0 0         1 1 1 1            1 1 1 1
                 0 0 0 10 0 1 1 0 2 0 1
     I24 (A|b) =                              =             ,
                   0 0 1 0         0 1 0 1            0 1 0 1
                   0 1 0 0         0 2 0 1            0 0 1 1
lo cual nos permite seguir produciendo ceros. Consideremos ahora A ∈

      Ã
Mmn ( ), definimos la matriz escalonada asociada        a la matriz A, como                         ˜
                                                                                matriz escalonada, A
˜         Ã
A ∈ Mmn ( ), tal que:




                                                                                                                         ´
           a ˜11 a12 · · · a1i2 · · · · · · · · ·
                   ˜        ˜                           ···   a1n 
                                                              ˜
                           a2i2 · · · · · · · · ·
                            ˜                           ···   a2n 
                                                              ˜
                                       ..                      . 
                                          .                    . 
                                                               . 
       ˜=
      A                                                          
                                             asis
                                             ˜          ···   asn  .
                                                              ˜
                                                                 
                                                                 
                                                                 
               0                                               0

 donde los elementos a11 = 0, a2i2 = 0, ..., ˜ sis = 0, se denominan pivotes.
                      ˜        ˜             a                                                                   ı                      pivotes
Notar que hemos supuesto que la primera columna no tiene ceros. De no
ser as´ quiere decir que la primera variable no juega ningun rol, y por lo
      ı,
tanto si el sistema tiene soluci´n esta variable queda de inmediato libre.
                                o
Supondremos en lo que sigue que la primera columna no es cero.

  Observaci´n: No hay una unica manera de escalonar una matriz. En
              o               ´
  efecto en el ultimo ejemplo podr´
               ´                  ıamos haber permutado las filas 2 y 3
  en vez de las 2 y 4.
  Hay dos cosas que son importantes de resaltar a este respecto:
     1. Desde el punto de vista de sistemas de ecuaciones no hay diferen-
        cia entre un escalonamiento u otro: todos dan el mismo conjunto
        soluci´n (probablemente descrito de distinta manera).
              o
     2. Es preferible por otras razones (te´ricas, como son el c´lculo del
                                           o                    a
        determinante y la determinaci´n de matrices definidas positivas)
                                      o
        tratar de no utilizar permutaciones .



                                     21
˜
La matriz A se obtiene mediante la premultiplicaci´n de A por matrices
                                                  o




                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
elementales:
                            ˜
                           A = ( Ej )A,
                                     j

donde Ej es una matriz elemental de suma o de permutaci´n de filas.
                                                           o
Adem´s, recordemos que las matrices elementales son invertibles. Esta pro-
      a
piedad es crucial para probar que el sistema original, Ax = b, y el obtenido
despu´s del escalonamiento, Ax = ˜ son equivalentes (tienen id´ntico con-
      e                       ˜    b,                            e
junto de soluciones). En efecto:

Proposici´n 1.9. Dada una matriz C, invertible entonces:
         o

     a ∈ K n es soluci´n de Ax = b ⇔ a es soluci´n de (CA)x = Cb.
                      o                         o


               ´
Demostracion. La demostraci´n es simple:
                                 o
⇒) Si Aa = b, entonces C(Aa) = Cb y por ende (CA)a = Cb.
⇐) Supongamos (CA)a = Cb. Como C es invertible se tiene C −1 (CA)a =
C −1 (Cb), lo cual implica que Aa = b.




                                                                                                               ´
Como las matrices elementales son invertibles y el producto de matrices
invertibles tambi´n lo es, y por lo tanto podemos usar la Proposici´n 1.9
                 e                                                 o
con C = j Ej , para concluir que los sistemas Ax = b y Ax = ˜ son
                                                             ˜      b
equivalentes.




                                                                                                       ı




                                    22
´
                               Ingenier´a Matematica
                                       ı
                               FACULTAD DE CIENCIAS
                                                                                      Gu´a
                                                                                        ı
                               F´SICAS Y MATEMATICAS
                                                   ´
                                 I
                               UNIVERSIDAD DE CHILE                                   Semana 2
                               ´
                               Algebra Lineal 08-2

Ejercicios




                                                                                    Departamento de Ingenier´a Matematica - Universidad de Chile
1. Encuentre un ejemplo de una matriz que sea de permutaci´n, pero no
                                                          o                                                                   Pag. 12
   sea matriz elemental de permutaci´n.
                                    o
                        Ã                    Ã
2. Dadas Ipq ∈ Mnn ( ) y B ∈ Mqn ( ), pruebe que BIpq corresponde a               Propiedad 1.1
   las matriz B con las columnas p y q permutadas.
   Indicaci´n: Puede usar la parte 1 de la Proposici´n 1.1.
           o                                        o
3. Escriba los siguientes sistemas de ecuaciones en las variables xi , de forma
   matricial Ax = b, especificando claramente A, b y x con sus dimensiones:
       
       
                    2x1 + 4x2 − x3 + x5 = 0
       
          x1 − 16x2 + x3 + 3x4 + 6x5 = 2
   (a)            1
       
       
                 3 x2 − 10x3 + x4 − 6x5 = 2x3
                                      3
                      x1 − x3 − x4 + 4 x5 = 1
       
       
                             x4 + x1 = −3
       
          4x1 − 7x2 + πx3 − 12x4 = 1
   (b)
       
                                 −11 = x3
              1
               3 (x1 − x3 ) + x4 − x5 = 20
       
         x1 − (β − 1)x2 + x3 − αx4 = 2
                                                                        Ê




                                                                                                                    ´
   (c)                     −7αx2 + πx3 = α + β , con α, β ∈ .
                         β
                          3 x1 − x2 + x4  = β
                                            3
       
        2x1 = 1
       
       
          −4x2 = 2
   (d)
        9x3 = 0
        3
       
             2 x4 = −1




                                                                                                            ı
4. Escriba expl´
               ıcitamente las siguientes multiplicaciones de matrices:

                                 Ê
   (a) I12 E13 (1, −1), en M44 ( ). (d) E23 (0, 3i)−1 E12 (−1, i)E34 ( 1 , −3),
                                                                       2
   (b) I34 E23 (i, 2)I34 , en M44 ( ).    en M44 ( ).
                                       Ê
   (c) E12 (2, 1)E13 (1, −1), en M33 ( ).


Problemas
                                                                 
                                 1               ···    1          1
                    Ê           .
P1. Sea J ∈ Mnn ( ) tal que J =  .
                                  .
                                                 ..
                                                    .
                                                        .  y e =  . .
                                                        .
                                                        .         .
                                                                    .
                                         1       ···    1           1

     (a) Pruebe que Je = ne y J 2 = nJ.
                   1
     (b) Sea α =   n.   Calcule β tal que (I − αJ)−1 = I + βJ.
                   1
     (c) Sea α =   n,   verifique que (I − αJ)e = 0.
P2. (a) (1) Sean A, B matrices de n × m con coeficientes reales. Pruebe
            que

                                             Ê                  Ê
                A = B ⇔ ∀x ∈ Mm1 ( ), ∀y ∈ Mn1 ( ) xt Ay = xt By.

                                      23
Indicaci´n: Calcule et Aei donde ej = (Im )j• y ei = (In )i• . Im
                     o            j




                                                                                 Departamento de Ingenier´a Matematica - Universidad de Chile
             y In son las identidades de tama˜ os m y n respectivamente.
                                               n
         (2) Sean A, B matrices de n×n sim´tricas con coeficientes reales.
                                             e
             Pruebe que

                                                Ê
                       A = B ⇔ ∀x ∈ Mn1 ( ) xt Ax = xt Bx.

    (b) Demuestre que si una matriz cuadrada A verifica Ak = I, para
        alg´ n natural k ≥ 1, entonces A es invertible y determine su
           u
        inversa.
                                                      x y
    (c) Encuentre todas las matrices de la forma A =         que cum-
                                                      0 y
                                Ê
        plen A2 = I (x, y, z ∈ ).

P3. Considere el siguiente sistema lineal:

               −x1              +   x3     +   2x4   = 1,
               x1     −   x2    +   x3     −   2x4   = −1 ,
               −x1    −   2x2   +   x3     +   3x4   = 2,
               −x1    −   4x2   +   2x3    +   4x4   = 5.




                                                                                                                 ´
     (a) Escriba el sistema de forma matricial Ax = b. Especifique clara-
         mente A, b y x, junto con sus dimensiones.
    (b) Resuelva es sistema lineal escalonando la matriz aumentada (A|b).
P4. Considere el siguiente sistema lineal:

               x1     +   2x2   +   3x3    −   x4    = 1,


                                                                                                         ı
               −x1    +   x2               +   x4    = 1,
                          3x2   +   3x3              = 0,
               2x1    +   x2    +   3x3    − 2x4     = −2 .

     (a) Escriba el sistema de forma matricial Ax = b. Especifique clara-
         mente A, b y x, junto con sus dimensiones.
    (b) Resuelva es sistema lineal escalonando la matriz aumentada (A|b).




                                     24
´
                                Ingenier´a Matematica
                                        ı
                                FACULTAD DE CIENCIAS
                                F´SICAS Y MATEMATICAS
                                  I                 ´
                                UNIVERSIDAD DE CHILE
                                ´
                                Algebra Lineal 08-2

                                                        SEMANA 3: MATRICES




                                                                                             Departamento de Ingenier´a Matematica - Universidad de Chile
1.6.          ´
        Solucion general de sistemas lineales
Dado el sistema Ax = b, A ∈ Mmn ( ), b ∈ Ã           Ãm, x ∈ Ãn, al escalonarlo
(escalonando (A|b)) obtenemos:
                                                                    ˜1 
                 a11 · · ·
                 ˜            a1i2 · · · · · ·
                              ˜                        ···   a1n
                                                             ˜       b
                                                              .
                                                               .      . 
                                                                      . 
               0 · · · 0 a2i2˜                                .      . 
              
               .  .       .
                           .    .
                                .  ..                          .
                                                               .      . 
                                                                      . 
               .          .    .      .                       .      . 
              
       (A|˜ =  0 · · · 0
        ˜ b)
                                0  · · · asis
                                         ˜             ···   asn
                                                             ˜       ˜s  .
                                                                     b 
              
               0 ··· 0         0  ···     0           ···    0    ˜s+1 
                                                                   b
                                                                       
               .               .                              .      . 
               .  .            .
                                .                              .
                                                               .      . 
                                                                      .
                    0    ···        0    ···     0     ···    0     ˜m
                                                                    b

donde los elementos a11 , a2i2 , . . . , asis son no nulos. Claramente, si existe
                       ˜ ˜               ˜
un ´ındice j ≥ s + 1 tal que ˜j = 0, el sistema no tiene soluci´n, ya que se
                                b                                   o
tendr´ una ecuaci´n incompatible: 0 = b
      ıa            o                          ˜j = 0.




                                                                                                                             ´
Luego, el sistema tiene soluci´n si y solo si ˜k = 0 ∀k ≥ s + 1. En efecto, si
                                 o                b
˜k = 0, ∀k ≥ s + 1, se obtiene la(s) soluci´n(es) despejando desde la s-´sima
b                                              o                             e
ecuaci´n hasta la primera en funci´n de las variables independientes. En este
       o                               o
caso diremos que el sistema es compatible. Cada una de las diferencias en             sistema compatible
el n´ mero de columnas que son cero bajo las filas sucesivas, las llamaremos
    u
pelda˜ os o escalones . As´ el pelda˜ o que se produce entre la fila k y k+1
       n                       ı            n                                                                          pelda˜os
                                                                                                                            n
es ik+1 − ik . Notar que el ultimo pelda˜ o es: n + 1 − is , es decir los pelda˜ os
                            ´                n                                 n                                    escalones


                                                                                                                     ı
se miden en la matriz aumentada. La importancia de estos pelda˜ os es la  n
siguiente:

Proposici´n 1.10. Si existe soluci´n para el sistema Ax = b y en la ma-
           o                       o
     ˜
triz A hay alg´n pelda˜o de largo mayor o igual a dos, entonces existe m´s
              u       n                                                 a
de una soluci´n.
               o


               ´
Demostracion. En efecto. Como por cada fila no nula de la matriz es-
calonada podemos despejar a lo m´s una variable, tendremos entonces que
                                   a
dejar libres tantas variables como n´ mero de pelda˜ os, menos uno.
                                     u             n

Un corolario directo del resultado anterior es
Corolario 1.2. Si el sistema Ax = b es tal que n > m (n´mero de inc´gni-
                                                         u            o
tas mayor que el n´mero de ecuaciones), entonces tiene infinitas soluciones,
                  u
si es compatible.
             ´
Demostracion. En efecto, como n > m siempre existe en la matriz es-
          ˜ un pelda˜ o de largo superior o igual a dos. De no ser as´ se
calonada, A,        n                                                ı



                                        25
tendr´
     ıa                                       
                                     ···




                                                                                   Departamento de Ingenier´a Matematica - Universidad de Chile
                        a11
                        ˜      a12
                               ˜           a1n
                                           ˜
                       0      a22
                               ˜     ···   a2n 
                                           ˜
                                            . 
                    ˜  .
                    A= . .     0            . 
                                             . 
                       .       .     .      . 
                       . .     .
                                .     .
                                      .      . 
                                             .
                         0      0     0    amn
                                           ˜
de donde m = n.

Un caso particular importante es cuando el lado derecho del sistema es
nulo, b = 0. Hablamos entonces de un sistema homog´neo , Ax = 0.
                                                        e                   sistema homog´neo
                                                                                         e
Vemos que, en este caso, siempre existe al menos una soluci´n, la trivial
                                                           o
          Ã
x = 0 ∈ n . En otras palabras sabemos de antemano que todo sistema
homog´neo es compatible.
       e
Podemos resumir nuestro estudio de sistemas en el cuadro siguiente:

                       Sistema Homog´neo (b = 0)
                                    e               Sistema no-Homog´neo (b = 0)
                                                                    e
    Dimensiones        n≤m          n>m             n≥m           n>m
 N´ mero Soluciones
  u                     1, ∞          ∞             0, 1, ∞        0, ∞

  Ejemplo:




                                                                                                                   ´
  Resolvamos el sistema
                                       
                                    x1      
                     1 1     1 1 1            1
                                       x2 
                   −1 2     0 −1 0     0 
                                   x  =  
                     0 1     1 0 1  3       0
                                        x4
                     1 −1    1 1 0            1
                                        x5
  Escalonando:

                                                                                                           ı
                                                            
                1 1     1   1 1 1           1 1 1 1 1 1
              0 3      1   0 1 1       0 3 1 0 1 1 
      (A|b) →                      →                      1 →
                0 1     1   0 1 0           0 0 2 0 3 −3
                                                   3
                                                         2

                0 −2    0   0 −1 0          0 0 2 0 −1 3
                                                   3     3
                                                             2

                                                
                              1 1 1 1 1 1
                           0 3 1 0 1 1 
                         →                      
                                     2
                              0 0 3 0 2 −1 3   3
                              0 0 0 0 −1 1
  Obtenemos que los pelda˜ os medidos desda la fila 1 son sucesivamente:
                           n
  1,1,2,1. De la ultima ecuaci´n despejamos x5 = −1.
                 ´            o
  Con esta informaci´n en la tercera ecuaci´n dejamos libre x4 y des-
                      o                      o
  pejamos x3 . En la segunda ecuaci´n despejamos x2 y finalmente de la
                                     o
  primera despejamos x1 , para obtener.
          x5 = −1
          x4 :  libre
               3 1 2              1        1    1
          x3 = (− − x5 ) = − − x5 = − + 1 =
               2 3 3              2        2    2
               1                 1     1     1
          x2 = (1 − x3 − x5 ) = (1 − + 1) =
               3                 3     2     2
                                          1 1
          x1 = 1 − x2 − x3 − x4 − x5 = 1 − − − x4 + 1 = 1 − x4
                                          2 2
                                    26
La soluci´n general es: x1 = 1 − x4 , x2 = 1 , x3 = 2 , x4 = x4 , x5 = −1
            o                                 2
                                                       1




                                                                                       Departamento de Ingenier´a Matematica - Universidad de Chile
   Existen entonces infinitas soluciones, una por cada valor de la variable
   independiente x4 ∈ .   Ê
1.7.    Sistemas cuadrados y Algoritmo de Gauss
Supongamos que el n´ mero de ecuaciones es igual al n´ mero de inc´gnitas
                     u                               u            o
(n = m), en este caso el sistema se escribe:

                        Ax = b,             Ã
                                  A ∈ Mnn ( ), x, b ∈   Ãn
                             ˜
Escalonemos el sistema y sea A la matriz escalonada, sin considerar el nuevo
             ˜
lado derecho b:                                
                                 a11 · · · a1n
                                 ˜          ˜
                          ˜           ..      . 
                         A=             .    .
                                              .
                                  0         ann
                                            ˜
 donde entre los elementos de la diagonal, aii , podr´ haber algunos nulos.
                                             ˜       ıa
Se˜ alemos que en el caso de matrices cuadradas el proceso de escalona-
  n
miento se denomina
Algoritmo de Gauss. Un resultado importante, que relaciona matrices            Algoritmo de Gauss




                                                                                                                       ´
invertibles, soluci´n de sistemas y el algoritmo de Gauss, es el siguiente:
                   o


                                   Ã
Teorema 1.1. Sea A ∈ Mnn ( ), entonces las proposiciones siguientes
son equivalentes:
  1. A es invertible.


                                                                                                               ı
  2. ∀b ∈     Ãn, Ax = b tiene soluci´n unica.
                                     o ´
       n
  3.         aii = 0.
             ˜
       i=1




              ´
Demostracion. Utilizamos un argumento de transitividad para probar
solamente que:
(1 ⇒ 2). Si A es invertible consideremos entonces A−1 . As´ (A−1 A)x =
                                                            ı
A−1 b y luego x = A−1 b, por ende el sistema tiene soluci´n y claramente
                                                         o
esta es la unica.
           ´
                          Ã
En efecto si x1 , x2 ∈ n son soluciones, entonces Ax1 = Ax2 = b y se
tendr´ multiplicando por A−1 que (A−1 A)x1 = (A−1 A)x2 , pero entonces
      a
x1 = x2 .
               ˜
(2 ⇒ 3). Sea A la matriz escalonada asociada a A y supongamos que para
alg´ n i: aii = 0. Esto quiere decir que alguno de los escalones tiene largo
   u      ˜
mayor o igual que 2 y por lo tanto el sistema homog´neo Ax = 0 tiene
                                                           e
infinitas soluciones (por Proposici´n 1.10) lo que es una contradicci´n. Por
                                       o                               o
                                                               n
lo tanto para todo i = 1, . . . , n aii = 0 o equivalentemente i=1 aii = 0.
                                    ˜                              ˜



                                       27
n
(3 ⇒ 1). Supongamos             aii = 0, esto quiere decir que los elementos dia-
                                ˜




                                                                                    Departamento de Ingenier´a Matematica - Universidad de Chile
                       i=1
            ˜
gonales de A son todos no nulos.
              ˜
Notemos que A = ( j Ej )A, donde las matrices Ej son elementales y por
lo tanto invertibles. Podr´                                             ˜
                           ıamos ahora escalonar hacia arriba la matriz A
para obtener de manera similar una matriz diagonal D. Esto lo podemos
                                                          ˜
hacer de manera que D tenga por diagonal la misma que A. Es decir
                                            
                    a11 · · ·
                    ˜           0
                      .  ..     .  
            D= .     .     .   .
                                .   =       Ej  A       Fk ,
                     0 · · · ann
                              ˜           j            k

donde las matrices Fk son del mismo estilo que las matrices elementales
que hemos usado. Sabemos entonces que las matrices D, E = j Ej y F =
                                    −1
  k Fk son invertibles y como A = E    DF −1 concluimos que A tambi´n es
                                                                   e
invertible.

Como corolario importante de lo demostrado en esta parte es que:
Corolario 1.3. Una matriz triangular superior es invertible si y s´lo si
                                                                  o
todos sus elementos diagonales son distintos de cero.




                                                                                                                    ´
  Observaci´n: Notemos que pasando por la traspuesta se deduce que
              o
  si A es triangular inferior entonces es invertible si y solo si todos sus
  elementos diagonales son distintos de cero. M´s a´ n la inversa de una
                                                  a u
  triangular inferior es triangular inferior. En efecto, si aplicamos el al-
  goritmo de escalonamiento sin permutar obtendremos:
                                          
                           a11 · · ·    0         r



                                                                                                            ı
                    ˜        .   ..     . 
                   A= .     .      .   .
                                        .     =(    Ej )A,
                            0 · · · ann         j=1


  donde r es el n´ mero de pasos tomados por el algoritmo y las matrices
                 u
  elementales Ej son del tipo Epq (λ, 1). Notar que los pivotes son los
  elementos de la diagonal de A. Como la inversa de cada Ej es del
  mismo tipo se deduce que
                                         1
                                 A=(                   ˜
                                              (Ej )−1 )A.
                                        j=r

                                                         r
                                  ˜
                         ⇒ A−1 = (A)−1 (                      Ej ),
                                                        j=1
  y por lo tanto la inversa de A es triangular inferior y adem´s sus ele-
                                                              a
  mentos diagonales son 1/aii i = 1, .., n. Notar que el producto de las
  inversas en la expresi´n anterior est´ tomado en sentido opuesto:
                        o              a
                                 r                 1
                            (        Ej )−1 =           (Ej )−1 .
                             j=1                  j=r




                                             28
Departamento de Ingenier´a Matematica - Universidad de Chile
  Pasando por la traspuesta podemos deducir que la inversa de una trian-
  gular superior tambi´n es triangular superior.
                      e


1.8.    ´
       Calculo de la inversa
Supongamos que dada una matriz cuadrada A de tama˜ o n, buscamos una
                                                         n
matriz Z de n × n tal que AZ = I. Si describimos Z por sus columnas,
esto es Z = (Z•1 · · · Z•n ) entonces la ecuaci´n AZ = I es equivalente a los
                                               o
n sistemas

       AZ•i = ei ,       con i ∈ {1, . . . , n}, y ei la i-´sima columna de I.
                                                           e

Probemos ahora que,

Proposici´n 1.11. Si los n sistemas anteriores tienen soluci´n, entonces
          o                                                 o
A es invertible y adem´s A−1 = Z.
                      a


               ´
Demostracion. Para ello probemos primero que ∀b ∈              Ãn el sistema Ax =




                                                                                                                      ´
b tiene soluci´n.
              o
                                                        Ã
En efecto sea b = (b1 · · · bn )t un elemento de n , y consideremos a =
                          Ã
b1 Z•1 + · · · bn Z•n ∈ n . Utilizando las propiedades de la suma, multipli-
caci´n y ponderaci´n de matrices se obtiene que
    o                 o

 Aa = A(b1 Z•1 + b2 AZ•2 + · · · bn Z•n ) = b1 AZ•1 + b2 AZ•2 + · · · bn AZ•n



                                                                                                              ı
                                                             
                  1          0                0       b1
                0        1               0   b2              
                .        .              .  .                 
           = b1  .  + b2  .  + · · · bn  .  =  .
                .        .              .  .
                                                                     = b,
                                                                    
                0        0              0 b                  
                                                             n−1
                     0             0              1           bn
y por lo tanto a es una soluci´n del sistema Ax = b.
                              o
Si A no fuese invertible esto quiere decir que al escalonar A, se tendr´ que
                                                                       a
                                                    ˜
alg´ n aii = 0. Consideremos las filas i e i + 1 de A:
   u ˜
       .                                      .                               
        .
        .                                        .
                                                 .
     ˜                                                                        
  ˜  A•i                   0   ···   0    aii = 0 aii+1
                                             ˜         ˜           ···    ain
                                                                           ˜     
  A= ˜     =                                                                  .
     A•i+1                 0   ···   0       0    ai+1i+1
                                                     ˜             ···   ai+1n
                                                                         ˜       
        .
        .                                        .
                                                 .
        .                                        .
Si aii+1 = 0, ai+1i+1 = 0 habr´
   ˜          ˜                ıamos permutados las filas y por lo tanto
la matriz escalonada tendr´ un 0 en la posici´n (i + 1, i + 1), lo que es
                           ıa                 o
una contradicci´n. Si aii+1 = 0 entonces podemos utilizar este elemento
                o     ˜
para escalonar hacia abajo y por lo tanto ai+1i+1 = 0. En cualquier caso
                                          ˜
se deduce que ai+1i+1 = 0, y por un argumento de inducci´n que ann = 0,
              ˜                                          o       ˜

                                            29
˜
esto es toda la ultima fila de A debe ser 0. Consideremos ahora la matriz
                ´




                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
                             ˜
invertible C = Ej , donde A = CA, es decir la matriz que permite pasar
                j
       ˜
de A a A. Definamos                       
                                          0
                                        0
                                        .
                               b = C −1  .  .
                                        .
                                        0
                                      1
Si consideramos el sistema Ax = b tendremos que al escalonar la matriz
aumentada (A|b) se obtendr´ una matriz escalonada (usando las mismas
                           a
operciones elemementales)
                                              .
                                              .           .
                                                          .
                    (A|˜ = C(A|b) =
                     ˜ b)                     .           .    ,
                                           0 ···     0    1
lo que representa un sistema incompatible y por lo tanto Ax = b no puede
tener soluci´n. Hemos obtenido una contradicci´n y por lo tanto la unica
            o                                        o                     ´
posibilidad es que ∀i = 1, .., n aii = 0, y por lo tanto A es invertible. Ahora
                                 ˜
de AZ = I se obtiene premultiplicando por A−1 que Z = A−1 .




                                                                                                                  ´
Notemos que de paso se ha probado el siguiente resultado interesante
                                           Ã
Corolario 1.4. Una matriz A ∈ Mnn ( ) es invertible si y s´lo si todo
                                                          o
sistema Ax = b tiene soluci´n.
                           o
Lo que a su vez es equivalente a todo sistema Ax = b tiene soluci´n
                                                                 o
unica, por lo probado anteriormente.
´



                                                                                                          ı
                                                                                  ◭ Ejercicio

  Ejercicio 1.4: ¿Qu´ puede decir de una matriz cuadrada A para la
                       e
  cual todo sistema Ax = b tiene a lo m´s una soluci´n?. ¿Debe ser A
                                       a            o
  invertible?. Pru´belo.
                  e



Para saber si una matriz es invertible hemos entonces probado que basta
estudiar n sistemas lineales. Para el c´lculo de la inversa podemos ir un
                                       a
poco m´s lejos. Consideremos el siguiente ejemplo:
       a
   Ejemplo:
                                           
                                     0 1 1
                               A =  1 −1 2 
                                     1 1 0
   luego:                                                 
                                  0 1 1        1 0       0
                        (A|I) =  1 −1 2       0 1       0
                                  1 1 0        0 0       1


                                      30
Escalonando:




                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
                                                                
                  1 1 0 0 0 1        1 1 0 0                  0 1
        (A|I) →  1 −1 2 0 1 0  →  0 −2 2 0                 1 −1 
                  0 1 1 1 0 0        0 1 1 1                  0 0
                                        
                          1 1 0 0 0 1
                      →  0 −2 2 0 1 −1 
                          0 0 2 1 2 −1
                                   1
                                       2
  En este paso ya estamos en condiciones de resolver los tres sistemas. Pero
  podemos a´ n pivotear, ahora “sobre” la diagonal; sin alterar la soluci´n
            u                                                             o
  (ya que multiplicamos por matrices invertibles):
                                                              
              1 1 0 0 0 1                 1 0 1 0 2 1     1
                                                               2
             0 −2 2 0 1 −1  →  0 −2 2 0 1 −1 
              0 0 2 1 1 −1  2   2         0 0 2 1 2 −1    1
                                                               2
                                                                
               1 0 1 0 1 1    2   2        1 0 0 −2 1 3 1
                                                            4    4
          →  0 −2 0 −1 2 − 2  →  0 −2 0 −1 2 − 1 
                              1   1                         1
                                                                 2
                              1   1
               0 0 2 1 2 −2                0 0 2 1 2 −1     1
                                                                 2




                                                                                                               ´
  Finalmente, premultiplicando por la matriz invertible:
                                           
                                  1 0 0
                                      1
                           D =  0 −2 0 
                                  0 0 1   2

  Se tiene:                                      
                                 1 0          1 3
                                         0 −1 4 4


                                                                                                       ı
                                            2
                          ˜
                       (I|I) =  0 1     0 1 −1 4 
                                                1
                                            2 4
                                            1 1 1
                                 0 0     1 2 4 −4
  Obteniendo los sistemas de soluci´n trivial:
                                   o
               1               1              3
          x11       −2         x12         4      x13       4
      I  x21  =  1  , I  x22  =  1  , I  x23  =  1  ,
                      2                  −4                 4
                      1                    1
          x31         2        x32         4      x33     −14

  de donde:                            1 1         
                                                3
                                      −2 4      4
                          X = A−1   =  1 −4
                                        2
                                           1    1
                                                4
                                                    
                                         1   1  1
                                         2   4 −4
  En efecto:
                                1 1 3                     
                         0 1 1    −2 4 4          1        0 0
              AA−1   =  1 −1 2   1 − 4 1  =  0
                                    2
                                        1
                                           4               1 0
                                    1   1  1
                         1 1 0      2   4 −4      0        0 1


                                             Ã
Luego para calcular la inversa de A ∈ Mnn ( ) basta aplicar el Algoritmo
de Gauss sobre la matriz (A|I). Una vez que se ha obtenido la matriz


                                    31
˜
triangular superior A, realizar el mismo procedimiento para los elementos




                                                                                 Departamento de Ingenier´a Matematica - Universidad de Chile
sobre la diagonal. Finalmente, se premultiplica por una matriz diagonal
                                         ˜
para obtener la identidad en el lugar de A.
¿Qu´ sucede si una matriz A no es invertible?
    e
Sabemos que necesariamente aparecer´, al escalonar, un pivote nulo irre-
                                     a
parable.
  Ejemplo:
                                                                 
                   1  0 2 1 0 0            1       0 2 1 0        0
         (A|I) =  1  1 2 0 1 0 y 0              1 0 −1 1       0
                   1  0 2 0 0 1            0       0 0 −1 0       1
                                   
                         1            0
                 ˜             ˜
  y los sistemas Ax =  −1  , Ax =  0  son      incompatibles.
                        −1            1

Pero, en ocasiones, hay pivotes nulos “reparables”.
  Ejemplo:
                                                           




                                                                                                                 ´
              1 1      1 1    0   0       1 1 1 1 0         0
             1 1      0 0    1   0  →  0 0 −1 −1 1       0
              1 0      0 0    0   1       0 −1 −1 −1 0      1
  Ac´ el elemento a22 = 0, pero podemos, premultiplicando por la matriz
     a            ˜
  de permutaci´n I23 , intercambiar las filas 2 y 3 obteniendo:
              o
                                                                        
       1 1 1 1 0 0                1 0 0 0 0 1                  1 0 0 0 0 1


                                                                                                         ı
  →  0 −1 −1 −1 0 1  →  0 −1 −1 −1 0 1  →  0 −1 0 0 −1 1 
       0 0 −1 −1 1 0              0 0 −1 −1 1 0                0 0 −1 −1 1 0
                                                          
                1 0 0 0 0 1                         0 0 1
            →  0 1 0 0 1 −1  ⇒ A−1 =  0 1 −1  .
                0 0 1 1 −1 0                        1 −1 0



  Ejemplo y ejercicio importante: Descomposici´n LDU .
                                                    o                            ◭ Ejercicio
                                          Ã
  Supongamos que al escalonar A ∈ Mnn ( ) no encontramos pivotes nulos                      LU , LDU
  (¡no permutamos filas!). Se obtiene entonces
                                     
                       a11 · · · a1p
                       ˜          ˜
                            ..       
                               .      = ( Ej )A
                                               j
                          0         ann
                                    ˜
  donde cada una de las matrices Ej es de la forma:
                                          
                      1
                         ..               
                            .       0     
                  
                  
                  
                           λ 1
                                           
                                           , λ ∈
                                           
                                                      Ã
                  ··· ···          ..     
                                       .
                      0                  1
                                  32
Departamento de Ingenier´a Matematica - Universidad de Chile
  1. Pruebe que la matriz              Ej es invertible y su inversa es triangular
                                   j
     inferior con 1’s en la diagonal. Digamos:
                                                                                   
                                       1                                    0
                                  ℓ       ..                               .
                                                                            .       
                        −1         21        .                             .       
                ( Ej ) = L =  .                  ..                        .       
                  j
                                   .  .             .                      .
                                                                            .       
                                      ℓn1 · · · ℓnn−1                       1


Despejamos entonces A:
                                                                      
                                                 an
                                                 ˜    ···        a1n
                                                                 ˜
                                                       .
                  A=(              Ej )−1             .
                                                       .               
                            j                    0               ann
                                                                 ˜


  1. Concluya que si al escalonar A no se realizan permutaciones, A
     puede factorizarse como el producto de una matriz L, triangular




                                                                                                                                                ´
     inferior con unos en la diagonal, y una matriz U , triangular su-
     perior, donde los pivotes figuran en la diagonal. Esta factorizaci´n
                                                                      o
     se llama descomposici´n LU .
                           o
                            n
  2. Recordando que         i=1    aii = 0, demuestre que:
                                   ˜
                                                                                 a12
                                                                                    ˜               a1n
                                                                                                    ˜      
             1                                                         1
                                                                                   a11
                                                                                    ˜        ···    a11
                                                                                                    ˜
                  ..                         a11
                                               ˜                   0


                                                                                                                                        ı
       ℓ              .     0                                        .            ..               .     
        21
     A= .
                                            
                                                       ..
                                                             .        .
                                                                      .                 .           .
                                                                                                     .     
                                                                                                           .
        .                  ..                                                                   an−1n
                                                                                                   ˜       
          .                    .                0                 ann
                                                                  ˜                           1    an−1n
                                                                                                   ˜
        ℓn1       ···      ℓnn−1        1                                       0   ···             1
                                                                   (1.4)
      Es decir, A admite una factorizaci´n A = LDU , en donde L es
                                          o
     triangular inferior con unos en la diagonal, D es diagonal (forma-
     da por los pivotes del escalonamiento) y U es triangular superior
     con diagonal de unos. Esta factorizaci´n se llama descomposici´n
                                            o                        o
     LDU .
  3. Demuestre que si A admite la descomposici´n LDU de (1.5), en-
                                              o
     tonces la descomposici´n es unica.
                           o     ´

  4. Demuestre adem´s que si A es sim´trica, entonces L = U t .
                   a                 e
  5. Encuentre la descomposici´n LDU de
                              o
                                       
                                  1 1 1
                           A = 0 1 1 .
                                  1 2 0




                                            33
´
                                    Ingenier´a Matematica
                                            ı
                                    FACULTAD DE CIENCIAS
                                                                                                                                  Gu´a
                                                                                                                                    ı
                                    F´SICAS Y MATEMATICAS
                                                        ´
                                      I
                                    UNIVERSIDAD DE CHILE                                                                          Semana 3
                                    ´
                                    Algebra Lineal 08-2

Ejercicios




                                                                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
1. ¿Qu´ puede decir de una matriz cuadrada A para la cual todo sistema
      e                                                                                                                        Ejercicio 1.4
   Ax = b tiene a lo m´s una soluci´n?. ¿Debe ser A invertible?. Pru´belo.
                      a            o                                e
                                                               Ã
2. Supongamos que al escalonar A ∈ Mnn ( ) no encontramos pivotes nulos                                                                   LU, LDU
   (¡no permutamos filas!). Se obtiene entonces
                                      
                        a11 · · · a1p
                        ˜          ˜
                             ..       
                                .      = ( Ej )A
                                                                         j
                               0                   ann
                                                   ˜

   donde cada una de las matrices Ej es de la forma Epq (λ, 1), con λ ∈                                      Ã.
    a) Pruebe que la matriz                   Ej es invertible y su inversa es triangular
                                          j
        inferior con 1’s en la diagonal. Digamos:
                                                                                              
                                          1                                            0
                                      ℓ      ..                                       .
                                                                                       .       
                                       21       .                                     .       
                   ( Ej )−1 = L =  .                ..                                .       
                                       . .             .                              .
                                                                                       .       




                                                                                                                                                                ´
                     j
                                         ℓn1 · · · ℓnn−1                               1


   Despejamos entonces A:
                                                                                  
                                                         ˜
                                                         an        ···       a1n
                                                                             ˜
                                                                    .
                       A=(                Ej )−1                   .
                                                                    .              


                                                                                                                                                        ı
                                    j                      0                 ann
                                                                             ˜


    a) Concluya que si al escalonar A no se realizan permutaciones, A
       puede factorizarse como el producto de una matriz L, triangular
       inferior con unos en la diagonal, y una matriz U , triangular su-
       perior, donde los pivotes figuran en la diagonal. Esta factorizaci´n
                                                                        o
       se llama descomposici´n LU .
                             o
                                n
    b) Recordando que           i=1       aii = 0, demuestre que:
                                          ˜
                                                                                            a12
                                                                                               ˜                   a1n
                                                                                                                   ˜      
                1                                                                   1        a11
                                                                                               ˜        ···        a11
                                                                                                                   ˜
          ℓ          ..                                  a11
                                                           ˜                  0     .                              .     
                           .        0                                                          ..
           21
        A= .
                                                   
                                                                   ..
                                                                         .          .
                                                                                    .              .               .
                                                                                                                    .     
                                                                                                                          .
           .                      ..                                                                           an−1n
                                                                                                                  ˜       
             .                        .                    0                 ann
                                                                             ˜                           1        an−1n
                                                                                                                  ˜
                ℓn1   ···      ℓnn−1           1                                           0   ···                 1
                                                                       (1.5)
         Es decir, A admite una factorizaci´n A = LDU , en donde L es
                                              o
        triangular inferior con unos en la diagonal, D es diagonal (formada
        por los pivotes del escalonamiento) y U es triangular superior con
        diagonal de unos. Esta factorizaci´n se llama descomposici´n LDU .
                                           o                       o


                                                   34
c) Demuestre que si A admite la descomposici´n LDU de (1.5), en-
                                                  o




                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
        tonces la descomposici´n es unica.
                              o     ´
    d ) Demuestre adem´s que si A es sim´trica, entonces L = U t .
                        a                  e
    e) Encuentre la descomposici´n LDU de
                                o
                                         
                                    1 1 1
                             A = 0 1 1  .
                                    1 2 0

Problemas
                                                             
                                                   1 1 1
P1. (a) Sea la matriz de coeficientes reales A =  a b c . Demueste
                                                  a 2 b 2 c2
        que si la ecuaci´n Ax = 0 tiene una unica soluci´n entonces (a =
                        o                    ´            o
        b) ∧ (a = c) ∧ (b = c).
    (b) Considere el sistema lineal a coeficientes reales siguiente
                 −x1               +     αx3   + βx4       =   0,
                             x2    +     αx3   + βx4       =   0,




                                                                                                               ´
                  αx1   +   βx2                            =   0,
                  βx1   +   βx2    +     αx3               =   0.
         Determine las condiciones sobre los par´metros reales α y β que
                                                a
         garanticen que el sistema tenga una unica soluci´n.
                                             ´           o
                                                               Ê
P2. (a) Considere las matrices cuadradas A, B ∈ Mnn ( ). Demuestre
        que


                                                                                                       ı
         1) A es invertible si y s´lo si AAt es invertible.
                                  o
         2) Si A = A y B = I − A entonces B 3 = B.
                2

         Si A es invertible, utilice las condiciones dadas para calcular las
         matrices A y B.
                                               Ê
    (b) Considere los vectores u, v ∈ Mn1 ( )  {0}. Se define la matriz
                   Ê
        A ∈ Mnn ( ) por A = uv t .
                                       Ê
          1) Pruebe que ∀x ∈ Mn1 ( ), Ax = 0 ⇔ v t x = 0.
             Indicaci´n: Observe que v t x ∈ .
                     o                         Ê
          2) Encuentre el n´ mero de variables libres en la resoluci´n del
                           u                                        o
             sistema Ax = 0.
         ¿Es A invertible?
P3. Considere
                                                         
                      1        2   3  −1                 β
                    −1        1   0   1               β2 
                  A=
                    0
                                                  b =  .
                               3   3 α − 3            0
                      2        1   α  −2                −2
    Estudiaremos las soluciones del sistema Ax = b, con x ∈ M41 ( ).    Ê
    Encuentre los valores de α y β de manera que:

                                    35
El sistema no tenga soluci´n.
                          o




                                                                   Departamento de Ingenier´a Matematica - Universidad de Chile
El sistema tenga una unica soluci´n. Encuentre la matriz inversa
                      ´           o
de A y calcule la unica soluci´n del sistema.
                  ´           o
El sistema tenga infinitas soluciones y encuentre sus soluciones.
Determine adem´s el n´ mero de variables independientes.
                a     u




                                                                                           ı       ´




                         36
´
                                            Ingenier´a Matematica
                                                    ı
                                            FACULTAD DE CIENCIAS
                                            F´SICAS Y MATEMATICAS
                                              I                 ´
                                            UNIVERSIDAD DE CHILE
                                            ´
                                            Algebra Lineal 08-2

                                                                SEMANA 4: GEOMETR´A
                                                                                 I




                                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
2.     Geometr´a lineal en
              ı                                      Ãn
2.1.                  ´
         Definiciones basicas
Sea   Ã un cuerpo. Anotaremos los vectores de Ãn como columnas, es decir,
                                                                                          Ãn = Mn,1 (Ã)
                      x1
à n
              Ã      . 
                                                   Ã
     = Mn,1 ( ) = {  .  | xi ∈ , i = 1, . . . , n } .1
                       .
                      xn
                    Ã                       Ã
Recordar que en n = Mn,1 ( ) tenemos una suma (de matrices columna)
definida por: 
                                                               
          x1             y1                                x1 + y1
        . 
           .
                      . 
si x =  .  , y =  .  ∈.                      Ã
                                 , entonces x + y = 
                                                             .
                                                              .
                                                              .
                                                                   
                                                                   ,y
             xn                        yn                               xn + yn
                                                                                   
                                                                                  0
con ella resulta que (     Ãn , +) es un                                         . 
                                                 grupo Abeliano, con neutro 0 =  . 
                                                                                  .




                                                                                                                               ´
                                                                                  0
                                                   
                    x1                           −x1
                   .                            . .
y opuestos −x = −  .  = 
                     .                             . 
                                                   .
                    xn         −xn
Agregamos ahora la operaci´n Multiplicaci´n por Escalar definida como
                          o              o
sigue:
                            


                                                                                                                       ı
                          x1
                        . 
                           .                                Ã
Definici´n 2.1. Si x =  .  y λ ∈ , entonces se define una funci´n
        o                                                         o                           Ponderaci´n
                                                                                                       o
                                            xn
                                                       
                                      λx1
 Ã Ã
   ×     n
            →      Ã   n
                                      . 
                     , en donde λx =  . . Se le llama ponderaci´n
                                                                 o
  (λ, x)    → λx                       .
                                      λxn
o multiplicaci´n por escalar.
              o


    Observaci´n: Llamaremos vectores columna, o simplemente vectores,
               o
                               Ã
    a los elementos de n , y escalares a los elementos de . De aqu´ el
                                                                  ı   Ã
    nombre de esta operaci´n.
                          o




   1 Para fijar ideas puede pensar en lo que sigue en         =  Ã Ê
                                                                  y n = 2 o 3, que con
                                                                            ´
seguridad le ser´n familiares de sus cursos de C´lculo. Sin embargo, salvo cuando se diga
                a                               a
expl´ıcitamente lo contrario,      Ã
                                puede ser cualquier cuerpo, y n un natural mayor o igual
a 1.


                                                   37
Proposici´n 2.1. Se tienen las siguientes propiedades:
         o




                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
  1. (∀x ∈     Ãn ) 1 · x = x
  2.   (∀λ1 , λ2 ∈ Ã) (∀x ∈ Ãn ) λ1 (λ2 x) = (λ1 λ2 )x
  3.   (∀λ1 , λ2 ∈ Ã) (∀x ∈ Ãn ) (λ1 + λ2 )x = λ1 x + λ2 x
  4.   (∀λ ∈ Ã) (∀x, y ∈ Ãn ) λ(x + y) = λx + λy.
  5.   (∀λ ∈ Ã) (∀x ∈ Ãn ) λx = 0 ⇔ λ = 0 ∨ x = 0.


              ´
Demostracion. Las demostraciones de estos hechos son c´lculos elemen-
                                                           a                   ◭ Ejercicio
tales y quedan como un ejercicio muy simple para el alumnos.
Queda adem´s el lector encargado de verificar que esta ultima propiedad se
            a                                         ´
puede tambi´n obtener como consecuencia de las propiedades 1. a 4. , m´s
            e                                                          a
                    Ã
los hechos de que ( n , +) es un grupo Abeliano y       Ã
                                                     un cuerpo.

  Ejemplos: Caso        Ã = Ê.
                                              Ã    Ê
          n = 1: El conjunto de vectores es 1 = , la recta real, el + es la
          suma usual en  Ê y la multiplicaci´n por escalar es el producto en
                                            o




                                                                                                               ´
          Ê .
          n = 2: El conjunto de vectores es   Ã2 = Ê2, el “plano x1 − x2”.
                                                             x
                                                             1
                          x                             x=
                             2
                                                             x
                                                             2




                                                                                                       ı
                                                   x1




          Un vector x representar´ ambos, un punto del plano y una flecha
                                  a
          partiendo del origen que termina en dicho punto. La suma de ele-
                     Ê
          mentos de 2 corresponde entonces a la suma usual de flechas en
          el plano:

                                                            x+y
                                 y

                                                   x


          y del mismo modo se representa la ponderaci´n:
                                                     o


                                      38
Departamento de Ingenier´a Matematica - Universidad de Chile
                              2x
           x
                                            1/2 x           x




                                                                    x
               x

   0 x=0
                                   (-1) x


n = 3: La representaci´n de vectores en
                      o                     Ê3 se hace en el espacio
3-dimensional:




                                                                                                                  ´
                          x
                          3




                                                 x      1
                                              x= x      2
                                                 x      3




                     x
                                                                                                          ı
                      1




                                                    x
                                                    2




La ponderaci´n se represen-
              o
ta de modo similar al caso
plano, y la suma de vectores                                                x+y
tambi´n corresponde a la dia-
      e                                                         y
gonal del paralel´gramo defi-
                 o
nido por los sumandos:
                                                                        x




                              39
Observaci´n: A veces conviene (por ejemplo, para mayor claridad de
              o




                                                                                              Departamento de Ingenier´a Matematica - Universidad de Chile
  una figura) dibujar un vector como una flecha que parte de alg´n otro
                                                                u
  punto distinto del origen. A modo de ejemplo consideremos x, y ∈ 2                      Ê
  y sea v = y − x. Se ve f´cilmente que v ser´ una flecha partiendo en
                            a                 a
  el origen que tiene el mismo tama˜ o y apunta hacia el mismo lado que
                                   n
  una flecha que parta en x y termine en y. Dado ´sto, muchas veces
                                                     e
  no nos molestamos en dibujar v partiendo del origen, sino que s´loo
  dibujamos la flecha de x a y.
                                                         y

                                                     v
                                    y-x
                                                 x
                                0




2.2.   Rectas en        Ã   n

A partir de nuestra intuici´n geom´trica rescatamos del concepto de recta
                             o        e




                                                                                                                              ´
(en el plano o en el espacio) dos elementos importantes: que una recta define
una direcci´n de movimiento y que pasa por alg´n lugar.
           o                                     u
                                     p                                  L2
                                     Pasa por p                              La misma
            Direccion                                                        direcccion



                                                                                                                      ı
       L1
                                                             No pasa por p
                                                 q
Las rectas L1 y L2 del dibujo llevan la misma direcci´n, y lo que las di-
                                                      o
ferencia es que pasan por distintos puntos. De hecho L2 es L1 desplazada.
Intentamos entonces definir una recta en n como sigue:    Ã
                                                 Ã
Definici´n 2.2 (Recta). Sean d ∈ n  {0} un vector y p ∈ n un
         o                                                                            Ã                                                                      Recta
punto dado. La recta L que pasa por p y va en la direcci´n de d es el
                                                        o
siguiente subconjunto de n :    Ã
                 L = Lp,d = {v ∈          Ãn | v = p + td, t ∈ Ã}.




                                            40
p +t d




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
                                p

                                                 td
                 L
                                    d




Se dice que p es una posici´n de L y que d es un vector director de L.
                           o                                                       posici´n de L
                                                                                         o
                                                                             vector director de L

                                                                                     ◭ Ejercicio

  Ejercicio 2.1: Un par de observaciones importantes:
     1. Muchas posiciones definen la misma recta. Probar que, dado d ∈
        Ã n
             {0} fijo, se tendr´ q ∈ Lp,d ⇔ Lq,d = Lp,d . (Las posiciones
                               a
        de una recta L son sus puntos.)




                                                                                                                      ´
     2. Muchos vectores directores definen una misma recta. Probar que,
                  Ã
        dado p ∈ n fijo, se tendr´ Lp,d = Lp,d ⇔ (∃λ ∈  {0}) d =
                                   a                               Ã
        λd. (Los vectores directores de una misma recta son los m´ ltiplos
                                                                 u
        no nulos de un vector director dado.)




                                                                                                              ı
El Ejercicio 2.1.2 motiva la siguiente definici´n:
                                              o
         o                                                     Ã
Definici´n 2.3 (Vectores paralelos). Sean v, w ∈ n . El vector v se                                                         paralelo
                                                       Ã
dice paralelo a w (lo que se anota v w) ssi (∃λ ∈  {0}) w = λv.

Usando esta definici´n, el Ejercicio 2.1.2 puede ser replanteado como
                   o

                d es un vector director de Lp,d ⇐⇒ d d.


                                                                                     ◭ Ejercicio

  Ejercicio 2.2:                Ã            Ã
                     1. Si A ⊆ n y p ∈ n , definimos la traslaci´n de
                                                               o
       A en el vector p por p + A = {p + x | x ∈ A}. Mostrar que las
                                 Ã
       rectas que pasan por p ∈ n son exactamente las traslaciones en
       p de las rectas que pasan por el origen 0.




                                        41
Departamento de Ingenier´a Matematica - Universidad de Chile
                                            p




                              0




                     Ã
       2. Sean p, q ∈ n , con p = q. Mostrar que la recta de posici´n p y
                                                                   o
          vector director d = q − p es la unica recta que pasa por ambos
                                          ´
          puntos, p y q.


                                                      q
                                  p




                                                                                                                           ´
                                                q-p




  Observaci´n: La ecuaci´n
           o            o                                                      ecuaci´n vectorial de la
                                                                                     o
                                                                                                                   ı
                                                      Ã
                                                                                                  recta
                              v = p + λd,       λ∈

  que describe los puntos (vectores) de la recta Lp,d a medida que se
     ıa        Ã
  var´ λ ∈ se llama ecuaci´n vectorial de la recta Lp,d.
                             o



2.3.     Planos en    Ã   n

           Ã              Ã
Sean p ∈ n y d1 , d2 ∈ n  {0} vectores no paralelos. Apelando a nuestra
intuici´n en el espacio tridimensional, vemos que por p pasan las dos rectas
       o
distintas L1 = Lp,d1 y L2 = Lp,d2 , y ambas est´n contenidas en un mismo
                                                a
plano Π.




                                      42
Departamento de Ingenier´a Matematica - Universidad de Chile
                                                       L   1

                                                        p+sd + td  1      2




                                                               L   2
                                      p

                                              sd   1



                                      d   2




Observando la forma como los puntos de este plano se obtienen a partir de
p, d1 y d2 podemos dar la siguiente definici´n en n :
                                           o                   Ã
Definici´n 2.4 (Plano). El plano que pasa por p y tiene vectores direc-
         o                                                                                                                                                   Plano
tores d1 y d2 es el subconjunto de n :Ã
            Πp,d1 ,d2 = {v ∈   Ãn | v = p + sd1 + td2 , s, t ∈ Ã}




                                                                                                                              ´
                                                                                    ecuaci´n vectorial del
                                                                                          o
  Observaci´n:
           o                                                                                        plano

    1. v = p + sd1 + td2 , s, t ∈   Ã se llama ecuaci´n vectorial del plano
                                                     o
       Πp,d1 ,d2 .
    2. Sea E = d1 | d2 la matriz que tiene por columnas a los
       vectores directores d1 y d2 . Entonces juntando los par´metros s
                                                                a
                              s
                                              Ã
                                                                                                                      ı
                                       2
       y t en el vector r =         ∈    , la ecuaci´n vectorial queda
                                                    o
                              t

                 v = p + Er                                        ,r ∈   Ã2
                                                                   , s, t ∈ Ã
                                                       s
                     = p+        d1       | d2
                                                       t
    3. Notar la similitud con la ecuaci´n de una recta v = p+td, t ∈ .
                                       o                                        Ã
       En la recta hay un par´metro libre: t ∈
                               a                           Ã
                                                   (dimensi´n 1, esto se
                                                           o
       formalizar´ mas adelante) y en el plano dos: s, t ∈ (dimensi´n
                  a                                                  o    Ã
       2 ).



                                                                                              ◭ Ejercicio

  Ejercicio 2.3: Se deja como ejercicio para el lector probar las siguien-
  tes propiedades:
    1. q ∈ Πp,d1 ,d2 ⇔ Πq,d1 ,d2 = Πp,d1 ,d2 . (Cualquier punto de un
       plano sirve como su posici´n.)
                                 o



                                          43
à                        Ãn  {0}, con d1no paralelo a d2 y




                                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
       2. Si p ∈ n , y d1 , d2 , d1 , d2 ∈
          d1 no paralelo a d2 , entonces

                                                  Ã
          Πp,d1 ,d2 = Πp,d1 ,d2 ⇔ (∃A ∈ M2,2 ( ) invertible)        d1    | d2     =     d1   | d2                                    A

                     Ã
       3. Dado p ∈ n , todo plano que pasa por p es la traslaci´n en p de
                                                               o
          un plano que pasa por el origen, y si trasladamos en p un plano
          cualquiera que pasa por el origen, obtenemos un plano que pasa
          por p.
                                                        Ã
       4. Sean p, q, r tres puntos no colineales en n . Probar que si d1 =
          q − p y d2 = r − p, entonces Πp,d1 ,d2 es el unico plano que pasa
                                                       ´
          por p, q y r.



2.4.                     ´
         Ecuaciones parametricas y cartesianas de rectas y
         planos
2.4.1. Rectas




                                                                                                                                     ´
                                    
             p1                     d1
           . 
              .            Ã     . 
                                                       Ã
Sean p =  .  ∈ n y d =  .  ∈ n  {0}. Sea L = Lp,d .
                                     .
            pn                      dn
Recordemos que la ecuaci´n vectorial de L es v = p + td , t ∈ . Si
                   o                                                         Ã
                x1
              . 
anotamos v =  .  el punto que recorre L cuando t recorre , resulta:
                 .                                                       Ã
                                                                                                                             ı
                     xn
                       
                        x1
                               =    p1 + td1
                       
                        x2     =    p2 + td2
                       
                                .
                                .
                                                  ,    t∈   Ã.
                       
                               .
                       
                           xn   =    pn + tdn
Estas son las llamadas ecuaciones param´tricas de la recta L. (Notar que
                                                     e                                            ecuaciones
                                              Ã
p1 , . . . , pn , d1 , . . . , dn son constantes en , las coordenadas de la posici´n y
                                                                                  o             param´tricas
                                                                                                      e
de la direcci´n de L.)
                   o
Supongamos, para simplificar la notaci´n, que las primeras k componentes
                                                   o
d1 , . . . , dk de d son no nulas, y el resto todas nulas: dk+1 = dk+2 = . . . =
                                    d1 
                                      .
                                    . 
                                    d.k 
dn = 0, es decir d =  0 . Entonces las ecuaciones param´tricas de la   e
                                    
                                      .
                                      .
                                      .
                                      0
recta L son




                                         44
Departamento de Ingenier´a Matematica - Universidad de Chile
                       x1       =   p1 + td1
                                .
                                .
                                .
                       xk = pk + tdk 
                       xk+1 = pk+1  
                            .
                            .                     Constantes.
                            .        
                                     
                        xn  = pn
Despejando t en cada una de las primeras k ecuaciones, e igualando:
                 x1 −p1   x −p           x −p
                 d1 = 2d2 2 = · · · = kdk k (= t)
                
                
                 xk+1 = pk+1
                          .
                           .
                
                          .
                
                     xn   = pn
Este es un sistema de n − 1 ecuaciones lineales para las n inc´gnitaso    
                                                                        x1
                                                                      . 
x1 , . . . , xn , que son las componentes de un punto cualquiera v =  . 
                                                                         .
                                                                      xn
de L. Las ecuaciones se llaman ecuaciones Cartesianas de la recta L. ¿C´mo
                                                                       o       ecuaciones Cartesianas




                                                                                                                          ´
quedan las ecuaciones cuando k = 1?                                                              de L

   Ejemplos:
        n = 2: La ecuaci´n Cartesiana (notar que en este caso queda una
                         o
        sola) de L = L p1 ,“ d1 ” queda:
                      ( p2 ) d2

                               x1 − p1    x2 − p2

                                                                                                                  ı
                                        =         , si d1 , d2 = 0,
                                  d1          d2
                                     x2 = p2 , si d2 = 0, y
                                     x1 = p1 , si d1 = 0.




                       L                               L                  L


                 d,d =0
                   1       2
                                                 d =0
                                                   2
                                                                  d =01




        n = 3: Una recta queda descrita por dos ecuaciones Cartesianas:

                                 x1 − p1   x2 − p2   x3 − p3
                                         =         =
                                    d1        d2        d3
        (en caso que d1 , d2 , d3 = 0. Escribir las otras posibilidades.)



                                           45
2.4.2.   Planos (caso n = 3)




                                                                                 Departamento de Ingenier´a Matematica - Universidad de Chile
Para simplificar el an´lisis veremos s´lo el caso n = 3 para las ecua-
                       a              o
                                                                Ã
ciones Cartesianas de planos. Sea Π = Πp,d1 ,d2 un plano en 3 , donde
        p1
                  Ã
p =  p2  ∈ 3 es una posici´n de Π, y los vectores directores son los
                                o
        p3
                                                                 
                                            d11                 d12
                          Ã
vectores no paralelos en 3  {0}, d1 =  d21  y d2 =  d22 . La
                                            d31                 d32
      o                    a                                        Ã
ecuaci´n vectorial de Π est´ dada por v = p + sd1 + td2 , s, t ∈ , y des-
componi´ndola en sus 3 componentes resultan las ecuaciones param´tricas
         e                                                          e
de Π:
               
                x1 = p1 + sd11 + td12
               
                   x2 = p2 + sd21 + td22        , s, t ∈ . Ã
                   x3 = p3 + sd31 + td32
Pivoteando, es posible eliminar el par´metro s de dos de estas ecuaciones,
                                           a
y luego tambi´n t de una de ellas, de modo que nos quedamos con una
              e
ecuaci´n final con s´lo x1 , x2 , x3 (sin s y t) de la forma Ax1 +Bx2 +Cx3 = D,
      o            o
                      Ã
donde A, B, C, D ∈ , con A, B o C = 0. Esta es la llamada ecuaci´n          o




                                                                                                                 ´
Cartesiana del plano Π.

            o                                   Ã
  Observaci´n: Si el plano hubiese estado en n , con n ≥ 3, habr´
                                                                ıamos
  obtenido un sistema de n − 2 ecuaciones cartesianas para el plano.
  ¿Qu´ pasa en el caso n = 2? ¿Y qu´ puede decir de n = 1?
      e                            e




                                                                                                         ı
Sabemos del cap´ ıtulo de Sistemas Lineales que, rec´ıprocamente, un sistema
de una ecuaci´n y tres inc´gnitas, como la ecuaci´n Cartesiana de Π, tiene
              o            o                       o
dos variables libres (digamos x2 y x3 ) y sus soluciones son de la forma:
                                           
        x1         α1            β1            γ1
      x2  =  0  + x2  1  + x3  0               , x2 , x3 ∈ ,    Ã
        x3          0             0            1
                   
        β1         γ1
con  1  y  0  claramente no paralelos (¿por qu´?), as´ el
                                                       e        ı
        0          1
                                                 Ã
conjunto de soluciones representa un plano en 3 . Tenemos entonces que
              Ã
los planos en 3 son exactamente los conjuntos soluci´n de ecuaciones
                                                    o
cartesianas como la que escribimos arriba para Π.
   Ejemplo:
                                                
                                                
                                              1
                  Ê
   El plano Π ⊆ 3 que pasa por el punto p =  0  y con vectores direc-
                                          0
                1                 −1
   tores d1 =  −1  y d2 =  0  tiene por ecuaciones param´tri- e
                0                  1

                                     46

         x1 = 1 + s − t
                                                 Ê




                                                                                                   Departamento de Ingenier´a Matematica - Universidad de Chile
   cas     x2 =       −s       , s, t ∈     de las que se puede f´cilmente
                                                                 a
        
           x3 =        t
   eliminar s y t para obtener la ecuaci´n Cartesiana x1 + x2 + x3 = 1.
                                          o
   Por otra parte, si partimos de esta ecuaci´n, despejando x1 en t´rmi-
                                               o                      e
   nos de x2 y 3 resulta x1 = 1 − x2 − x3 , por lo que un punto cual-
                 x    
                   x1
                              Ê
   quiera v =  x2  ∈ 3 que satisfaga esta ecuaci´n tendr´ la forma
                                                        o       a
                x3                                             
       x1          1 − x2 − x3          1             −1            −1
    x2  =           x2       =  0  + x2  1  + x3  0 ,
       x3              x3               0             0              1
   con x2 , x3 ∈ Ê  tomando valores arbitrarios. El lector reconocer´ esto
                                                                     a
   como una ecuaci´n vectorial del mismo plano Π.
                    o




                                                                                                                                   ´
                             -1
                              0                               x+x+x=1
                                                               1 2 3
                              1




                                                                                                                           ı
                     1
                     0
                     0                            1
                                                 -1
                                                  0


2.5.                ´
         Geometr´a metrica en
                ı                           Ê    n

2.5.1.                               ´
          Definiciones y propiedades basicas
Incorporaremos ahora a nuestro estudio conceptos como distancia entre
puntos, ´ngulos, perpendicularidad, etc. Para ello debemos perder un poco
        a
de generalidad y restringirnos al cuerpo     =        Ã          Ê
                                                    de los n´ meros reales.
                                                            u
(Tambi´n se puede hacer todo esto con
       e                                              Ã
                                            = , los n´ meros complejos,
                                                        u
pero esto lo postergaremos para mas adelante.)
Definici´n 2.5 (Producto punto en
  x1
       o
                y1
                                                     Ê   n
                                                             ). Sean x, y ∈   Ên ,   con x =
   .
   .     , y=   .
                .     . Se define el producto punto x, y (tambi´n se anota
                                                              e                                producto punto
   .            .
  xn            yn
x • y) como el real                                                                               x, y , x • y
                                  n
                         x, y =         xi yi = xt y = yt x ∈        Ê.
                                  i=1


                                            47
Tenemos as´ una funci´n
          ı          o

                                          Ên × Ên                Ê




                                                                                                          Departamento de Ingenier´a Matematica - Universidad de Chile
                           <, > :                   −→
                                           (x, y)   −→           x, y

llamada producto punto.


Proposici´n 2.2. Se tienen las siguientes propiedades:
         o
  1. (∀x, y ∈   Ên )       x, y = y, x (Simetr´a).
                                              ı
                          Ê
  2. (∀x, y, x, y ∈ n ) x + x, y = x, y + x, y ∧ x, y + y = x, y +
      x, y (Bi–aditividad).

  3. (∀λ ∈ R) (∀x, y ∈        Ên )    λx, y = x, λy = λ x, y (Bi–homogeneidad).
  4. (∀x ∈   Ên )     x, x ≥ 0        ∧      x, x = 0 ⇔ x = 0 (Positividad).


          ´
Demostracion. La demostraci´n de estas propiedades quedan como ejercicio-
                           o
.                                                                                                         ◭ Ejercicio




                                                                                                                                          ´
                                                                                          n
El n´
    umero     x que aparece en la propiedad 4. es x, x =
             x,                                                                           i=1   x2 , si
                                                                                                 i
       x1
      ..    
x =  .      . Jugando con el Teorema de Pit´goras se puede verificar
                                             a
        xn
f´cilmente que si n = 2 ´ n = 3,
 a                      o           x, x corresponde a la longitud de la


                                                                                                                                  ı
flecha representada por el vector x.
                                                                             2
                                                                   2    2             2
                                                                 x1 + x2         + x3

                      2
                2    +x2
                x1                   x2

                                                        x1                       x3
                      x1

                                                             2      2
                                                                                  x2
                      n=2                                x1 + x2

                                                                       n=3

Aprovechando estos hechos, y con la esperanza de re–obtener el Teorema
                     Ê
de Pit´goras en n , para todo n, definimos
      a
Definici´n 2.6 (Norma Euclidiana). La norma Euclidiana (o, simple-
       o
                                               x1
mente, norma) de un vector x =                  .
                                                .
                                                .   ∈   Ên como         x =
                                                                                          n
                                                                                          i=1   x2 =
                                                                                                 i                                                              norma
                                               xn



                                              48
x, x (ra´z cuadrada ≥ 0).
            ı                                                                                                                                     x




                                                                                   Departamento de Ingenier´a Matematica - Universidad de Chile
Tenemos as´ la funci´n norma
           ı        o

                         :   Ên    −→            Ê          .
                             x     −→      x =       x, x


Proposici´n 2.3. Se tienen las siguientes propiedades:
         o
  1. (∀x ∈    Ên ) x ≥ 0 ∧ x = 0 ⇔ x = 0
  2.   (∀λ ∈ Ê) (∀x ∈ Ên ) λx = |λ| x
  3.   (∀x, y ∈ Ên ) x + y ≤ x + y    (Desigualdad Triangular.)                   Desigualdad
                                                                                   Triangular


             ´
Demostracion. Las demostraciones de 1 y 2 son elementales y se dejan
como un ejercicio f´cil para el lector. La prueba de la Desigualdad Trian-
                   a
gular depender´ del siguiente importante Lema:
               a
Lema 1 (Desigualdad de Cauchy–Schwartz).                                        Desigualdad de
                                                                              Cauchy–Schwartz
                                Ên) | x, y | ≤




                                                                                                                   ´
                     (∀x, y ∈                    x   y .

              ´
Demostracion. (Desigualdad de C–S) Notar que si x = 0 ∨ y = 0,
la desigualdad se verifica trivialmente (0 ≤ 0). Supondremos entonces que
                                                 Ê
ambos vectores x e y son no nulos. Para x, y ∈ n  {0} fijos, consideremos
ahora la funci´n ϕ :
              o      Ê Ê →
                                                            2
                               definida por ϕ(t) = tx − y . Claramente
                      Ê
ϕ(t) ≥ 0 para todo t ∈ (y adem´s, si y no es un m´ ltiplo de x, ϕ(t) > 0
                                  a                 u
               Ê
                                                                                                           ı
                                                                     2
para todo t ∈ ). Por otra parte, ϕ(t) = tx − y, tx − y = x t2 −
                2
2 x, y t + y . As´ ϕ es una funci´n polinomial de segundo grado en t,
                     ı,              o
                        2                        2
con coeficientes a = x , b = −2 x, y , c = y (notar que como x = 0,
la funci´n es efectivamente de segundo grado, y no de un grado menor).
         o
                                  Ê
Como ϕ(t) ≥ 0 para todo t ∈ , sabemos que el discriminante b2 − 4ac
ser´ menor o igual a 0 (a lo m´s una ra´ real de multiplicidad 2), es decir
   a                           a        ız
        2        2
4 x, y − 4 x       y ≤ 0, de donde x, y 2 ≤ x 2 y 2 , lo que implica la
                      2

desigualdad deseada.




  Observaci´n: Notar que si y no es m´ ltiplo de x, ϕ(t) > 0 para todo
              o                          u
       Ê
  t ∈ , luego b2 −4ac < 0, de donde se desprende que | x, y | < x y .
  De aqu´ que (a´ n en el caso x = 0 ∨ y = 0) se verifica la igualdad en
         ı       u
  Cauchy–Schwartz ssi alguno de los dos vectores es m´ ltiplo del otro.
                                                        u
  De modo similar se tiene que x, y = x y ssi alguno de los dos
  vectores es un m´ltiplo no negativo del otro.
                   u




                                      49
Podemos ahora probar la desigualdad triangular. Sean x, y ∈            Ên. Tenemos:




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
            2                                               2                   2
      x+y             =           x + y, x + y = x + 2 x, y + y
                                     2               2
                      ≤           x + 2 | x, y | + y

                    C.–Sch.
                       ≤           x 2+2 x y + y                2

                       =          ( x + y )2




  Observaci´n: De la observaci´n bajo la demostraci´n de la desigual-
             o                   o                   o
  dad de Cauchy–Schwartz podemos concluir que en la desigualdad trian-
  gular vale la igualdad ssi alguno de los dos vectores es m´ ltiplo no
                                                            u
  negativo del otro.


Usaremos ahora la norma de        Ên para definir la noci´n de distancia entre
                                                        o
puntos de este conjunto.
                                              Ê




                                                                                                                      ´
Definici´n 2.7. Sean p, q dos puntos en n . La distancia entre p y q es
        o                                                                                                     distancia
el n´mero real no negativo d(p, q) = q − p .
    u                                                                                                           d(p, q)



  Observaci´n:
           o
    1. Recordando que q − p se puede visualizar como el vector (flecha)
       que va de p hasta q, resulta que d(p, q) es la longitud de esta


                                                                                                              ı
       flecha, es decir, como esperar´
                                    ıamos, la longitud del trazo recto
       entre p y q.
    2. Podemos usar la distancia entre puntos para interpretar la de-
                                                Ê
       sigualdad triangular. Sean p, q, r ∈ n tres puntos que forman
                          Ê
       un tri´ngulo en n . Entonces: q − p = (q − r) + (r − p) ≤
             a
        q − r + r − p , es decir d(p, q) ≤ d(r, q) + d(p, r). En el
       tri´ngulo pqr esto significa que la longitud del lado pq es infe-
          a
       rior o igual a la suma de los otros dos lados ( rq + pr), lo que es
       un viejo teorema de geometr´ plana.
                                     ıa

                              q                                 r

                p                                                     q-r
                                                      r-p

                       q-p                                                  q
                                                  p             q-p




                                       50
El producto punto est´ ´
                      a ıntimamente ligado a la noci´n de angulo entre
                                                     o      ´




                                                                                         Departamento de Ingenier´a Matematica - Universidad de Chile
vectores. Recurramos nuevamente a nuestra intuici´n geom´trica para ver
                                                 o        e
algunos hechos que indican que esta afirmaci´n no es gratuita.
                                           o

       ´
Situacion 1:
Consideremos el siguiente diagrama:
                                                               x
                                     x-y

                     y

                                                           x+y
                                 0


                                                  -y

                                         Ê
Los vectores x e y son no nulos en n , y los hemos dibujado en el plano que
pasa por el origen y que los contiene. Supongamos que x es perpendicular a
                                                       Ê
y (vamos a suponer que esto tiene sentido en n , y que en el plano de x, y y




                                                                                                                         ´
0 se cumplen las propiedades usuales que conocemos de la geometr´ plana
                                                                    ıa
del colegio). Esperamos entonces que el tri´ngulo que tiene por v´rtices x,
                                            a                     e
y y −y sea is´sceles en x (la altura es la flecha x), y as´
              o                                          ı
  x−y = x+y           ⇐⇒          x − y, x − y = x + y, x + y
                      ⇐⇒          x 2 − 2 x, y + y 2 = x 2 + 2 x, y + y        2

                      ⇐⇒         4 x, y = 0


                                                                                                                 ı
                      ⇐⇒          x, y = 0.
Aprovechemos esto para definir perpendicularidad en                 Ên :
Definici´n 2.8 (Perpendicularidad). Dos vectores x, y ∈ n se dicen
        o                                                                  Ê
perpendiculares u ortogonales ssi x, y = 0. Lo anotaremos como x ⊥ y.              perpendicularidad
                                                                                                                                                        x⊥y

                                                                                         ◭ Ejercicio

  Ejercicio 2.4: Probar el Teorema de Pit´goras en
                                          a                        Ê   n
                                                         : Sean A, B, C ∈
  Ê n
      , con (B−C) ⊥ (C−A). Si a = d(C, B) = B − C , b = d(A, C) =
   C − A y c = d(B, A) = A − B son los tres lados del tri´ngulo    a
  ABC (tri´ngulo rect´ngulo en C, con a, b los catetos y c la hipotenusa),
             a        a
  entonces a2 + b2 = c2 .
                                             c             B
                         A


                             b                    a


                                     C




                                             51
´
Situacion 2:




                                                                             Departamento de Ingenier´a Matematica - Universidad de Chile
Queremos usar nuestra intuici´n geom´trica para descubrir una relaci´n
                             o        e                             o
                                                         Ê
que nos permita definir el ´ngulo entre dos vectores de n . Consideremos
                          a
el diagrama siguiente:
                                 x




                                                     y


                                           y


                    0

Todo transcurre en el plano que pasa por 0 y tiene a x e y como vectores
directores. El punto λy es la proyecci´n ortogonal del punto x sobre la
                                         o
recta que pasa por 0 y tiene a y como vector director, θ ser´ el ´ngulo de
                                                              a a
                                                 Ê
la flecha y a la x (si todo esto tiene sentido en n ). La cantidad λy − x
es la distancia de x a su proyecci´n. Las relaciones trigonom´tricas que
                                     o                          e




                                                                                                             ´
esperar´ıamos que se cumplan dicen: cos θ = λy = |λ|xy .
                                                x
Nos gustar´ eliminar λ de esta f´rmula. Para ello notemos que como
            ıa                       o
                                                            2
(λy − x) ⊥ y, entonces λy − x, y = 0, de donde λ y − x, y = 0,
                 x,y
y as´ |λ| = λ = y 2 . (El dibujo sugiere que λy apunta hacia el mismo lado
    ı
que y. Analizar lo que pasa si no. Notar que θ > π en dicho caso.) Luego
                                                   2
                                                                    Ê
cos θ = xx,yy . Usamos esto para definir el ´ngulo entre vectores de n :
                                             a

                 ´                                           Ê
Definici´n 2.9 (Angulo entre vectores). Sean x, y ∈ n  {0}. Defi-
        o                                                                                            ı
nimos el angulo entre x e y como aquel n´mero θ ∈ [0, π] tal que
         ´                              u
                                                                                                                                 angulo
                                                                                                                                 ´
                                        x, y
                            cos θ =          .
                                       x y

  Observaci´n:
           o
    1. Notar que la desigualdad de Cauchy–Schwartz asegura que −1 ≤
         x,y
        x y ≤ 1, as´ la definici´n anterior tiene sentido.
                     ı          o

    2. Esta definici´n entrega de manera trivial la famosa f´rmula
                   o                                       o
        x, y = x y cos θ.




                                      52
2.6.             ´
         Aplicacion a Rectas en        Ê   2
                                               y Planos en     Ê.  3




                                                                                            Departamento de Ingenier´a Matematica - Universidad de Chile
2.6.1.   Rectas en Ê2 .
                  ∈ Ê2 . Definamos el nuevo vector d⊥ =                      Ê
            x1                                                 −x2
Sea d =                                                                 ∈ 2.                                                                               d⊥
            x2                                                  x1
Es un ejercicio f´cil verificar que las siguientes propiedades se satisfacen:
                 a

  1.     d⊥ = d .
  2. d⊥ es ortogonal a d.
           ⊥
  3. d⊥        = −d.
  4. Si d = 0, entonces      (∀v ∈ Ê2) [v ⊥ d ⇔ (∃λ ∈ Ê) v = λd⊥ ].
  5. Si d = 0, entonces      (∀v ∈ Ê2 ) [v ⊥ d⊥ ⇔ (∃t ∈ Ê) v = td].




                        d




                                                                                                                            ´
                                                   d




Sea ahora p ∈   Ê2 y L = Lp,d =      v∈   Ê2   | v = p + td, t ∈   Ê   . Tenemos

                                                                                                                    ı
que
                       v∈L   ⇐⇒ v = p + td, t ∈        Ê
                                           Ê
                             ⇐⇒ (∃t ∈ ) v − p = td
                             ⇐⇒ v − p ⊥ d⊥
                             ⇐⇒ v − p, d⊥ = 0.
Si llamamos n = d⊥ (o cualquier otro vector paralelo a ´ste), hemos conclui-
                                                       e
                                                           Ê
do que v ∈ L ⇔ v − p, n = 0, es decir, L = v ∈ 2 | v − p, n = 0 .
La ecuaci´n
         o
                              v − p, n = 0
se llama ecuaci´n normal de L. El vector n (es decir, d⊥ o cualquier otro
                o                                                                  ecuaci´n normal de L
                                                                                         o
paralelo a ´l) se dice vector normal a L.
           e                                                                          vector normal a L




                                     53
Departamento de Ingenier´a Matematica - Universidad de Chile
                                              v-p
                                                            v
                 L
                                    p

                        n

                                                  d



De la ecuaci´n normal de L sale f´cilmente una ecuaci´n Cartesiana. Sean
            o                    a                   o
       n1           p1              x1
n=          ,p=           yv=           . Desarrollando:
       n2           p2              x2

v − p, n = 0 ⇔ v, n − p, n = 0 ⇔ n1 x1 + n2 x2 + (−n1 p1 − n2 p2 ) = 0,




                                                                                                                       ´
es decir

         ax1 + bx2 + c = 0,      con a = n1 , b = n2 y c = − p, n .      (2.1)


                                                                                       ◭ Ejercicio




                                                                                                               ı
  Ejercicio 2.5: Concluya que si (2.1) es una ecuaci´n Cartesiana de
                                                        o
                 Ê
  una recta de 2 , entonces un vector director de esta recta es d = −a .
                                                                     b




2.6.2.     Planos en   Ê3 .
                                                      Ê
Sean d1 , d2 vectores no nulos y no paralelos en 3 . M´s adelante se prueba
                                                      a
                                        Ê
que existe un vector n = d1 × d2 ∈ 3 con las propiedades:                                                                                             n

  1. n = d1            d2 |sen θ| = 0, con θ el ´ngulo entre d1 y d2 .
                                                a
  2. n ⊥ d1 ∧ n ⊥ d2 .
  3. (∀v ∈ Ê3) [v ⊥ d1 ∧ v ⊥ d2 ⇔ (∃λ ∈ Ê) v = λn].
  4. (∀v ∈ Ê3 ) [v ⊥ n ⇔ (∃s, t ∈ Ê) v = sd1 + td2 ].

Con estas propiedades, sea Π = Πp,d ,d el plano en Ê3 que pasa por un                                           Πp,d1 ,d2
punto p ∈ Ê3 y de vectores directores d1 y d2 . Entonces el lector puede
                                          1   2



demostrar f´cilmente que para cualquier v ∈ Ê3 , v ∈ Π ⇔ v − p, n = 0.
           a
Nuevamente, n (o cualquier vector paralelo a n) se dir´ vector normal a Π,
                                                      a                          vector normal a Π



                                        54
y la ecuaci´n
           o




                                                                                   Departamento de Ingenier´a Matematica - Universidad de Chile
                             v − p, n = 0
se llamar´ ecuaci´n normal de Π.
         a       o                                                        ecuaci´n normal de Π
                                                                                o
                                       Ê
De modo similar al caso de rectas en 2 , la ecuaci´n normal conduce di-
                                                  o
rectamente a la ecuaci´n Cartesiana Ax1 + Bx2 + Cx3 + D = 0 para Π.
                      o
              A
(Donde n = B y D = − p, n .)
                C




                                  n         d2

                                                 d1
                                                      v
                                           v-p
                              p




                                                                                                           ı       ´




                                  55
´
                                       Ingenier´a Matematica
                                               ı
                                       FACULTAD DE CIENCIAS
                                                                                                    Gu´a
                                                                                                      ı
                                       F´SICAS Y MATEMATICAS
                                                           ´
                                         I
                                       UNIVERSIDAD DE CHILE                                         Semana 4
                                       ´
                                       Algebra Lineal 08-2

Ejercicios




                                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
1. Pruebe las siguientes propiedades de la ponderaci´n por escalar:
                                                    o                                        Proposici´n 2.1
                                                                                                      o

   (a) (∀λ1 , λ2 ∈ Ã) (∀x ∈ Ãn) λ1 (λ2 x) = (λ1 λ2 )x.
   (b)   (∀λ ∈ Ã) (∀x, y ∈ Ãn ) λ(x + y) = λx + λy.
   (c)   (∀λ ∈ Ã) (∀x ∈ Ãn ) λx = 0 ⇔ λ = 0 ∨ x = 0.
2. Pruebe que:                                                                        Ejercicio 2.1, Ejercicio
                                                                                                           2.2
                        Ã
   (a) Dado d ∈ n  {0} fijo, se tendr´ q ∈ Lp,d ⇔ Lq,d = Lp,d . (Las
                                        a
       posiciones de una recta L son sus puntos.)
                       Ã
   (b) Dado p ∈ n fijo, se tendr´ Lp,d = Lp,d ⇔ (∃λ ∈  {0}) d = λd.
                                  a                                 Ã
       (Los vectores directores de una misma recta son los m´ ltiplos no
                                                            u
       nulos de un vector director dado.)
                 Ã                 Ã
   (c) Si A ⊆ n y p ∈ n , definimos la traslaci´n de A en el vector p
                                                  o                                                              traslaci´n
                                                                                                                         o
       por p + A = {p + x | x ∈ A}. Las rectas que pasan por p ∈ n                Ã
       son exactamente las traslaciones en p de las rectas que pasan por
       el origen 0.
                           Ã
   (d) Sean p, q ∈ n , con p = q. La recta Lp,q−p es la unica recta que
                                                        ´




                                                                                                                                  ´
       pasa por ambos puntos, p y q.
3. Pruebe que:                                                                                  Ejercicio 2.3

   (a) q ∈ Πp,d1 ,d2 ⇔ Πq,d1 ,d2 = Πp,d1 ,d2 . (Cualquier punto de un plano
       sirve como su posici´n.)
                           o
                       Ã
   (b) Dado p ∈ n , todo plano que pasa por p es la traslaci´n en p de
                                                            o


                                                                                                                          ı
       un plano que pasa por el origen, y si trasladamos en p un plano
       cualquiera que pasa por el origen, obtenemos un plano que pasa
       por p.
                                                               Ã
   (c) Sean p, q, r tres puntos no colineales en n . Probar que si d1 =
       q − p y d2 = r − p, entonces Πp,d1 ,d2 es el unico plano que pasa
                                                    ´
       por p, q y r.
4. Pruebe las siguientes propiedades del producto punto:                                     Proposici´n 2.2
                                                                                                      o

                               Ê
   (a) (∀x, y, x, y ∈ n ) x + x, y = x, y + x, y                    ∧   x, y + y =
        x, y + x, y (Bi–aditividad).
   (b) (∀λ ∈ R) (∀x, y ∈           Ên )   λx, y = x, λy = λ x, y (Bi–homogeneidad).
   (c) (∀x ∈   Ê   n
                       ) x, x ≥ 0         ∧     x, x = 0 ⇔ x = 0 (Positividad).
5. Pruebe las siguientes propiedades de la norma Euclidiana:                                 Proposici´n 2.3
                                                                                                      o

   (a) (∀x ∈   Ên ) x ≥ 0 ∧ x                 = 0 ⇔ x = 0.
   (b)   (∀λ ∈ Ê) (∀x ∈ Ên ) λx               = |λ| x .




                                               56
Problemas




                                                                                       Departamento de Ingenier´a Matematica - Universidad de Chile
                                      2             0             −1
P1. (a) Considere los puntos P =      1   ,Q =     −1   yR=        1       .
                                      2             1              5
        Verifique que son puntos no colineales y encuentre la ecuaci´n  o
        vectorial (o param´trica) y Cartesiana del plano Π1 que los con-
                          e
        tiene.
    (b) Dadas las rectas L1 y L2 definidas por
                         
                    1         1
            L1 : −1 + t −3 , t ∈       Êy L2 :
                                                      3x + y + 4 = 0
                                                        z+5=0
                                                                     .
                    1         0
        Verifique que L1 y L2 son paralelas y distintas y ecuentre la ecua-
        ci´n vectorial (o param´trica) y Cartesiana del plano Π2 que las
          o                      e
        contiene.
    (c) Encuentre la ecuaci´n vectorial de la recta L que se obtiene como
                             o
        la intersecci´n de los plano Π1 y Π2 (L = Π1 ∩ Π2 ).
                     o
    (d) Encuentre el punto S de intersecci´n de las rectas L1 y L, y veri-
                                           o
        fique que S satisface la ecuaci´n Cartesiana del plano Π1 .
                                       o
P2. (a) Verifique que las rectas




                                                                                                                       ´
                                                       
                3         −1                         2        2
          L1 : 4  + t  2  , t ∈   Ê,       L2 : 4 + s  1  , s ∈        Ê
                5         −5                         6       −5
         se intersectan en un unico punto. Encu´ntrelo.
                              ´                e
                                                              1                4
    (b) Sea Π el plano con vectores directores d1 =           2   y d2 =       0   ,
                                                              3                4
                                           0
         que pasa por el punto P =              , y sea L la recta con vector

                                                                                                               ı
                                          −2
                                           1
         director d =
                        1
                        b
                        0                               0
                                                          a
                          que pasa por el punto Q = 0 , donde a, b ∈           Ê.
         Encuentre los valores de los par´metros a, b tales que
                                         a
             L est´ contenida en Π (L ⊂ Π),
                   e
             L y Π no tengan puntos en com´ n (L ∩ Π = ∅). y
                                             u
             L ∩ Π contenga exactamente un solo punto.
P3. Sean Π1 el plano de ecuaci´n x + y + 2z = 1, Π2 el plano de ecuaci´n
                              o                                       o
                                                              0
    −x + y = 2 y L1 la recta que pasa por el punto P1 = 1 y cuya
                                                                       1
                            1
    direcci´n es D1 =
           o                0   .
                            0

    (a) Encuentre la ecuaci´n de la recta L2 , que se obtiene como la
                             o
        intersecci´n de los planos Π1 y Π2 . Entregue un vector director
                  o
        de dicha recta.
    (b) Encuentre el punto P2 de intersecci´n de la recta L1 y Π1 .
                                            o
    (c) Calcular el punto P3 de intersecci´n de L2 con el plano perpendi-
                                          o
        cular a L2 que pasa por el punto P2 .
    (d) Encuentre la ecuaci´n param´trica o vectorial de la recta conte-
                            o         e
        nida en Π2 que pasa por el punto P3 y es perpendicular a L2 .


                                    57
´
                                  Ingenier´a Matematica
                                          ı
                                  FACULTAD DE CIENCIAS
                                  F´SICAS Y MATEMATICAS
                                    I                 ´
                                  UNIVERSIDAD DE CHILE
                                  ´
                                  Algebra Lineal 08-2

                                                          SEMANA 5: GEOMETR´A
                                                                           I




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
2.7.    Producto cruz (o producto vectorial) en                         Ê   3

Utilizaremos la siguiente notaci´n, ya tradicional en las aplicaciones de la
                                 o
                                           Ê
geometr´ vectorial. Sean i, j, k ∈ 3 los siguientes vectores:
        ıa
                                                  
                         1            0             0
                  i =  0 , j =  1 , k =  0 .
                         0            0             1
                                                                                                                                       b b k
                                                                                                                                       i, j, b
Las siguientes afirmaciones son evidentes:

  1.    i = j = k =1                  (Estos vectores se dicen unitarios.)

  2. i ⊥ j ∧ j ⊥ k ∧ k ⊥ i                (Son ortogonales entre s´
                                                                  ı.)

  3.    ∀x =
                x1
                x2
                x3
                     ∈   Ê3   x = x1 i + x2 j + x3 k, y esta escritura es unica, es
                                                                          ´
       decir, si x1 i + x2 j + x3 k = y1 i + y2 j + y3 k, entonces x1 = y1 ∧ x2 =




                                                                                                                      ´
       y2 ∧ x3 = y3 .


  Observaci´n: Las propiedades 1. y 2. se abrevian diciendo que
              o
   i, j, k es un conjunto ortonormal en 3 .         Ê


                                                                                                              ı
                                   xk 3


                                                            x    1
                                                         x= x    2
                                                            x
                                          k                      3




                                  xi
                                  1                 j
                              i                            xj2




Mas adelante en el curso definiremos la noci´n de determinante, pero ahora
                                           o
consideraremos la siguiente
                                                                                                        ˛                                              ˛
                              Ê
Notaci´n: Si a, b, c, d ∈ , anotamos
       o
                                        a b
                                         c d
                                                = ad − bc ∈ .           Ê                               ˛ a
                                                                                                        ˛
                                                                                                        ˛ c
                                                                                                                                                     b ˛
                                                                                                                                                       ˛
                                                                                                                                                     d ˛
Con esto podemos dar la definici´n:
                                o



                                               58
Definici´n 2.10 (Producto cruz). Si x = x2 , y = y2 ∈ 3 ,
         o                                       x3          y3
                                                                  x1              y1
                                                                                            Ê    Producto cruz




                                                                                                   Departamento de Ingenier´a Matematica - Universidad de Chile
definimos el producto cruz o producto vectorial de x e y como el siguiente
          Ê
vector de 3 :
               i     j    k
                                           x2   x3        x1      x3         x1        x2
  x×y =       x1    x2    x3       =                 i−                 j+                  k.
                                           y2   y3        y1      y3         y1        y2
              y1    y2    y3

Es decir, resulta el vector de         Ê3 :                                                                                                                       x×y
                                                         
                                   x2 y3 − x3 y2
                         x × y =  x3 y1 − x1 y3  ∈              Ê3.
                                   x1 y2 − x2 y1

(Obviamente, esta ultima f´rmula no es muy f´cil de recordar, y es preferible
                   ´       o                 a
usar la notaci´n de la definici´n dada primero, cuya operatoria est´ ah´ mis-
              o               o                                    a ı
mo definida, para memorizar y calcular x × y.)
Hemos as´ definido una ley de composici´n interna × en 3 :
          ı                              o                               Ê
                          ×    :       Ê3 × Ê3       −→    3
                                                              Ê
                                                              .
                                        (x, y)       −→ x × y




                                                                                                                                   ´
Proposici´n 2.4. Se tienen las siguientes propiedades
         o
  1. ∀x, y ∈     Ê3 x × y ⊥ x ∧ x × y ⊥ y.
  2.    ∀x, y ∈ Ê3 x × y = −y × x (× es anti–conmutativo).

  3.    ∀x, y, z ∈ Ê3 x× (y + z) = x× y + x× z ∧ (x+ y)× z = x× z+ y × z


                                                                                                                           ı
       (× distribuye sobre +).
  4. ∀x, y ∈   Ê3    (∀λ ∈     Ê) (λx) × y = x × (λy) = λ(x × y).
  5. ∀x ∈     Ê3   x × x = 0.


             ´
Demostracion. La demostraci´n de estas propiedades b´sicas quedan
                           o                        a
propuestas como ejercicio.                                                                         ◭ Ejercicio


Notemos que con 2, 3, 4 y 5, m´s el simple c´lculo de
                              a             a

                          i × j = k, j × k = i, k × i = j,
se puede recuperar la f´rmula con que definimos originalmente el producto
                       o
cruz:


 x×y      =   (x1 i + x2 j + x3 k) × (y1 i + y2 i + y3 k)
          =   x1 y1 i× i+x1 y2 i× j+x1 y3 i× k+x2 y1 j× i+x2 y2 j× j+x2 y3 j× k
              +x3 y1 k× i+x3 y2 k× j+x3 y3 k× k
          =   0 + x1 y2 k + x1 y3 (−j) + x2 y1 (−k) + 0 + x2 y3 i + x3 y1 j + x3 y2 (−i) + 0
          =   (x2 y3 − x3 y2 )i + (x3 y1 − x1 y3 )j + (x1 y2 − x2 y1 )k.

                                                59
La siguiente es una f´rmula para el producto cruz de 3 vectores. Su demos-
                     o




                                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
traci´n es un simple c´lculo que omitimos.
     o                 a

                        (x × y) × z = x, z y − y, z x                          (2.2)

Notar que el producto cruz no es conmutativo (pero tiene la propiedad
parecida 2) y que desgraciadamente tampoco es asociativo. Para ilustrar
cu´n lejos est´ de serlo, est´ la llamada Identidad de Jacobi, que se puede
  a           a              a                                                          Identidad de Jacobi
probar f´cilmente a partir de la propiedad anterior:
        a

      ∀x, y, z ∈   Ê3   x × (y × z) + y × (z × x) + z × (x × y) = 0            (2.3)
Notemos que usando 2.3 y las propiedades anteriores resulta:

                   x × (y × z) − (x × y) × z = y × (x × z),

lo que indica que x × (y × z) no tiene por qu´ ser igual a (x × y) × z.
                                             e

Veamos mas propiedades de “×”:

Proposici´n 2.5.
         o

                         Ê3  {0}




                                                                                                                                ´
              ∀x, y ∈                 x×y = x          y |sen θ| ,

donde θ es el angulo entre x e y.
              ´


              ´
Demostracion. Esto saldr´ de la siguiente identidad, la que pedimos al
                              a
lector que tenga la paciencia de verificar (es un c´lculo simple pero tedioso):
                                                  a


                                                                                                                        ı
               ∀x, y ∈    Ê3   x, y   2
                                          + x×y   2
                                                      = x   2
                                                                y   2
                                                                        .

Una vez establecida esta identidad, y recordando que x, y = x               y cos(θ),
resulta:
                       2          2     2        2
                x×y        = x        y − x, y
                                  2
                           = x        y − ( x y cos(θ))2
                                        2

                           = x 2 y 2 (1 − cos2 (θ))
                           = x 2 y 2 sen2 (θ).



La siguiente propiedad muestra que el producto cruz representa a la direc-
ci´n ortogonal a los vectores participantes.
  o

Proposici´n 2.6. Sean x, y ∈
         o                          Ê3 {0} vectores no paralelos, y sea z ∈ Ê3.
Entonces

  1. z ⊥ x ∧ z ⊥ y =⇒ (∃λ ∈           Ê) z = λx × y.
  2. z ⊥ x × y =⇒ (∃s, t ∈      Ê) z = sx + ty.

                                          60
´
Demostracion. La demostraci´n es un ejercicio, explicado en m´s detalle
                           o                                 a




                                                                              Departamento de Ingenier´a Matematica - Universidad de Chile
a continuaci´n.
            o


                                                                              ◭ Ejercicio

  Ejercicio 2.6: El objetivo de este ejercicio es probar la Proposici´n 2.
                                                                     o
                         Ê
    1. Sean x, y, z ∈ 3 tres vectores no coplanares con el origen, es
       decir, que no existe un plano que pasa por el origen y que contiene
       a los tres vectores x, y y z. Pruebe que esto equivale a:

                           (∀s, t ∈   Ê)    x   = 0 + sy + tz
                                          ∧ y   = 0 + sx + tz
                                          ∧ z   = 0 + sx + ty

    2. Pruebe que la condici´n anterior es equivalente a
                            o

           (∀α, β, γ ∈   Ê) αx + βy + γz = 0 =⇒ α = β = γ = 0.        (2.4)

                         Ê
    3. Sea A ∈ M33 ( ) la matriz descrita por columnas como A =




                                                                                                              ´
         x | y | z . Pruebe que la propiedad 2.9 equivale a que el
                                      α                               α
       sistema homog´neo A β = 0 tiene como soluci´n unica
                       e        γ
                                                  o ´                 β
                                                                      γ
                                                                          =
       0, es decir, A es invertible.
                                                   Ê
    4. Concluya que tres vectores x, y, z ∈ 3 no son coplanares con el
       origen ssi la matriz A = x | y | z es invertible.



                                                                                                      ı
    5. Considere ahora x e y no nulos y no paralelos. Pruebe que los
       vectores x, y y x × y = 0 son no coplanares con el origen.
       Indicaci´n: Verifique la condici´n 2.9.
               o                      o
    6. Use la conclusi´n de la parte 2c para probar que
                      o

               ∀z ∈   Ê3     (∃s, t, λ ∈   Ê) z = sx + ty + λx × y.   (2.5)

    7. Pruebe, usando la propiedad 2.10, la Proposici´n 2.
                                                     o




  Observaci´n: La interpretaci´n geom´trica del resultado anterior es:
              o                   o       e
                                                       Ê
  Si x, y son vectores no nulos y no paralelos en 3 , x × y define la l´nea
                                                                      ı
  recta (que pasa por 0) de vectores perpendiculares a x y a y. Por otra
  parte los vectores perpendiculares a x × y son exactamente aquellos del
  plano que pasa por el origen y tiene a x e y como vectores directores.




                                           61
Departamento de Ingenier´a Matematica - Universidad de Chile
                                    x y
                                                  y
                     0,x,y

                                   0                  x




                                            L 0,x     y




Un par de propiedades geom´tricas m´s de “×”:
                          e        a

Proposici´n 2.7.
         o                              Ê
                     1. Sean x, y ∈ 3  {0} vectores no paralelos. En-




                                                                                                                ´
    tonces el area del paralel´gramo que definen es x × y .
              ´               o
                       Ê
    2. Sean x, y, z ∈ 3  {0} vectores no coplanares con 0. Entonces el
       volumen del paralelep´pedo que definen es | x × y, z |.
                            ı


            ´
Demostracion. (Deberemos confiar en los conceptos intuitivos de area y
                                                               ´


                                                                                                        ı
volumen que traemos de la geometr´ escolar).
                                 ıa

               y                        x y
                                                      z

                                                          H   y
                h
0
                             x                0                   x
    1. El ´rea del paralel´gramo es dos veces el ´rea del tri´ngulo cuyos
          a               o                       a          a
                                                1                      1
       v´rtices son x, y y 0. As´ Area = 2 · 2 · base · altura = 2 · 2 ·
        e                       ı,
                                                       1
        x h, con h = y sen θ. De aqu´ que Area = 2 · 2 · x y sen θ =
                                      ı
        x y sen θ = x × y .
    2. De la geometr´ de colegio, el volumen del paralelep´
                      ıa                                     ıpedo se calcula
       como el producto del ´rea de su base y su altura. De la parte (a), el
                              a
       ´rea de la base es x × y . Por otra parte la altura H es la proyecci´n
       a                                                                   o
       de z sobre la direcci´n perpendicular al plano de x e y, con lo que
                            o
       H = z cos(ϕ), donde ϕ es el ´ngulo entre x × y y z. Se obtiene
                                        a
       finalmente entonces que Vol = x × y z cos(ϕ) = | x × y, z |.

                                       62
Departamento de Ingenier´a Matematica - Universidad de Chile
Una ultima propiedad del producto cruz que es necesario indicar es la lla-
       ´
mada regla de la mano derecha.                                                  regla de la mano
De x × y conocemos que apunta en la l´   ınea perpendicular al plano de x                 derecha
e y, y que tiene por norma x y sen θ, con θ el ´ngulo entre x e y.
                                                       a
Estos datos nos dejan a´ n dos opciones posibles para x × y: hacia un lado
                         u
del plano de x e y o hacia el otro. La verdad es que hacia cu´l de estos
                                                               a
dos lados se dibuja depende de c´mo dibujamos los vectores ortonormales
                                  o
i, j, k (es decir, de c´mo dibujamos los tres ejes de coordenadas de 3 ).
                       o                                                    Ê
Generalmente se conviene en dibujarlos de modo que si en el plano de i, j
(el plano x1 − x2 ) hacemos los dedos de la mano derecha girar rotando de
i hacia j, k apunta en la misma direcci´n del pulgar.
                                       o

                                         k


                                 i                    j

                 o               e                              Ê
Con esta convenci´n resulta tambi´n que, si x, y ∈ 3 {0} son no paralelos




                                                                                                                     ´
y hacemos girar los dedos de la mano derecha en el plano definido por x e
y, desde x hacia y, el pulgar apunta en la direcci´n de x × y.
                                                  o
                                                                    x
              x y

                                     y                                  y



                                         x                x y
                                                                                                             ı
Hay que indicar, sin embargo, que si alguien prefiriese dibujar los ejes como:

                            x1                            x2

                                     i            j
                                              k
                                             x3


entonces los productos cruz cumplir´ una regla de la mano izquierda.
                                      ıan
Nosotros seguiremos la convenci´n universalmente aceptada, dibujando los
                                  o
ejes del primer modo que mencionamos, y nuestros productos cruz se dibu-
jar´n siempre seg´ n la regla de la mano derecha.
   a             u




                                             63
2.8.   Distancia entre un punto y un conjunto. Proyeccio-




                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
       nes.
Definici´n 2.11 (Distancia punto–conjunto). Sea A ⊆ n un subcon-
         o                                                       Ê
                  Ê                 Ê
junto no vac´o de n , y sea q ∈ n un punto. Definimos la distancia de q
            ı
al conjunto A como:                                                                                                      d(q, A)

                      d(q, A) = ´nf {d(q, x) | x ∈ A} .
                                ı



                      x
                                        d(q,x)
                          y
                                    d(q,y)
                   A
                                           d(q,A)
                                                             q
                                z         d(q,z)




                                                                                                               ´
                                                                               ◭ Ejercicio

  Ejercicio 2.7: Verifique que d(q, A) queda bien definida.


Cabe notar que no tiene por qu´ existir un punto r ∈ A tal que d(q, A) =
                                  e


                                                                                                       ı
d(q, r), y si tal r llega a existir, no tiene por qu´ ser unico (¡Construir
                                                    e     ´
ejemplos de estas afirmaciones!).

Estudiemos a modo de ejemplo el caso en que A = L es una recta Lp,x en
Ên (recta que pasa por p y tiene vector director x).
Supongamos que existe un punto r ∈ L tal que q − r es perpendicular a
L. Afirmamos (como nuestra intuici´n geom´trica lo indica) que d(q, L) =
                                 o      e
d(q, r). Probemos algo mejor:
                  (∀z ∈ L) z = r ⇒ q − z > q − r ,
de donde la distancia de q a L se alcanza en un unico punto r.
                                                   ´
En efecto, si z ∈ L, como q−r es normal a L, el tri´ngulo cuyos v´rtices son
                                                    a              e
z, r y q es rect´ngulo en r, y por Pit´goras (recuerde que usted demostr´ en
                a                     a                                 o
                                    Ê          2          2
el Ejercicio 2.4 que es v´lido en n ) q − z = q − r + r − z . Como
                         a
                         2
                                                                     2

z = r, entonces r − z > 0, y eso prueba la desigualdad.

                                                 r       L
                            z

                                                     q


                                          64
Veremos ahora que tal r ∈ L efectivamente existe.




                                                                                           Departamento de Ingenier´a Matematica - Universidad de Chile
          1
Sea x = x x (vector unitario en la direcci´n de x: claramente x = 1).
                                           o
Sea y = q − p el vector que conecta p con q, y sea w = y, x x. Notar que
w apunta en la misma l´ ınea que x, y que
                                           2
             w = | y, x | x = y        x       |cos(θ)| = y cos(θ),

donde θ es el ´ngulo entre x e y (que lo supondremos en 0, π para no
              a                                               2
preocuparnos del signo de cos(θ). Si este no es el caso, podemos usar −x
en lugar de x como vector director de L.)
Este vector w es lo que llamaremos proyecci´n del vector y sobre la direc-
                                            o
ci´n definida por el vector x. Notar que si en vez de x usamos otro vector
  o
director λx de L, resulta exactamente el mismo vector w.
                                                x
                                        r
                                 w
                                          u
                         p
                               y = q-p      q
Sea u = y − w = y − y, x x. Nuestra intuici´n nos har´ esperar que
                                           o         ıa
u ⊥ x. Verifiquemos que eso es correcto:




                                                                                                                           ´
                                                                  1
u, x = y − y, x x, x = y, x − y, x x, x = y, x − y,                 x    x = 0,
                                                                  x

de donde u ⊥ x.
Basta tomar ahora r = p + w =p + y, x x, es decir

                            r = p + q − p, x x,


                                                                                                                   ı
que tiene la propiedad deseada pues q − r = q − p − w = y − w = u ⊥ x,
luego q − r ⊥ L.
Definici´n 2.12 (Proyecci´n ortogonal sobre una recta). Llamamos
         o                  o                                                     Proyecci´n ortogonal
                                                                                          o
                                      Ê                          Ê
proyecci´n ortogonal del punto q ∈ n sobre la recta L ⊆ n , al punto
        o                                                                              sobre una recta
r ∈ L tal que q − r ⊥ L.

Acabamos de probar que dicha proyecci´n r existe y es el unico punto de L
                                        o                 ´
que minimiza la distancia a q, y dimos adem´s una f´rmula para calcular
                                              a       o
esta proyecci´n en t´rminos de q, la posici´n p de L y su vector director x.
             o      e                      o

Como segundo ejemplo, vamos a estudiar ahora en detalle el caso en que
n = 3 y A es un plano Π ⊆ 3 .Ê
                                                                                           ◭ Ejercicio

  Ejercicio 2.8: Desarrollar de manera similar, en paralelo, el caso en
                                  Ê
  que n = 2 y A es una recta en 2 . Notar que ese problema es un caso
  particular del que se resolvi´ antes, pero la soluci´n va por otro camino,
                               o                      o
  usando ecuaciones normales en vez de vectores directores.




                                      65
Sea L la recta que pasa por q y que es perpendicular a Π (es decir, que




                                                                                                 Departamento de Ingenier´a Matematica - Universidad de Chile
tiene por vector director un vector normal a Π). Veremos en un momento
que la intersecci´n entre Π y L consiste en un solo punto r. Nuestra in-
                 o
tuici´n geom´trica indica que d(q, Π) = d(q, r), y la demostraci´n de este
     o       e                                                  o
hecho sigue exactamente las mismas lineas de lo que hicimos al estudiar la
                                                  Ê
proyecci´n de un punto sobre una recta en n . (Se prueba la desigualdad
        o
(∀z ∈ Π) z = r ⇒ q − z > q − r , etc.)


                                  q




                                   r                        z



                                             L




                                                                                                                                 ´
Definici´n 2.13 (Proyecci´n ortogonal sobre un plano). Llamamos
         o                  o                                                           Proyecci´n ortogonal
                                                                                                o
                                       Ê                          Ê
proyecci´n ortogonal del punto q ∈ 3 sobre el plano Π ⊆ 3 , al punto
        o                                                                                     sobre un plano
r ∈ Π tal que q − r ⊥ Π.
Sabemos que dicho r es el unico punto de Π que minimiza la distancia a q.
                          ´
Lo que no hemos probado a´ n es que tal punto r realmente existe, y a eso
                            u
nos dedicaremos ahora.

                                                                                                                         ı
Sea n un vector normal a Π (por ejemplo, si Π = Πp,d1 ,d2 , n se puede tomar
como d1 ×d2 , o si tenemos una ecuaci´n Cartesiana Ax1 +Bx2 +Cx3 +D = 0
                                     o
                                    A
para Π, n se puede tomar como B ). La recta L que pasa por q y es
                                    C
perpendicular a Π tiene entonces por ecuaci´n vectorial:
                                            o
                          v = q + tn,             t∈   Ê.                       (2.6)
Sea p un punto (fijo) cualquiera de Π. Podemos entonces escribir la ecuaci´n
                                                                         o
normal de Π:
                               v − p, n = 0.                          (2.7)
                                  Ê
Buscamos L ∩ Π, es decir, los v ∈ 3 que satisfacen simultaneamente (2.6)
y (2.7). Pero esto es f´cil de resolver. En efecto, (2.7) equivale a v, n =
                       a
 p, n , y usando (2.6), obtenemos

                                              2                  p − q, n
     q + tn, n = p, n ⇔ q, n + t n                = p, n ⇔ t =         2    .
                                                                   n
Una vez que tenemos la inc´gnita real t despejada, en (2.6) resulta
                          o
                                            p − q, n
                         r=v=q+                    2    n                       (2.8)
                                              n

                                       66
como unica soluci´n de (2.6) y (2.7).
     ´            o




                                                                                                 Departamento de Ingenier´a Matematica - Universidad de Chile
Hemos de paso encontrado una f´rmula (2.8) para la calcular la proyecci´n
                                  o                                      o
de q sobre Π en t´rminos de un punto p de Π y un vector normal n a
                    e
Π. Podemos tambi´n calcular la distancia de q a Π: d(q, Π) = d(q, r) =
                     e
           | p−q,n |
 r−q =         n     . De aqu´ sale una famosa f´rmula para la distancia de
                             ı                  o
                         Ê
un punto a un plano en 3 . Supongamos que Π est´ descrito por la ecuaci´n
                                                 q1
                                                    a                    o
Cartesiana Ax1 + Bx2 + Cx3 + D = 0, y q = q      q2 . Entonces                          f´rmula para d(q, Π)
                                                                                         o
                                                         3


                                   |Aq1 + Bq2 + Cq3 + D|
                    d(q, Π) =         √                  .
                                        A2 + B 2 + C 2
                                       A
En efecto, podemos usar n =            B   como vector normal para Π. Con ello la
                                       C
                                                               x1
ecuaci´n normal de Π ser´ v − p, n = 0, donde v =
      o                 a                                      x2
                                                               x3
                                                                      es un punto que
recorre Π. Manipulando esta ecuaci´n normal se obtiene v, n − p, n =
                                   o
0, ´ Ax1 + Bx2 + Cx3 − p, n = 0, y por comparaci´n con la ecuaci´n
   o                                                 o             o
cartesiana de Π, deber´ tenerse que − p, n = D.
                      a
Como q, n = Aq1 + Bq2 + Cq3 , entonces

         | p − q, n | = | q, n − p, n | = |Aq1 + Bq2 + Cq3 + D| .




                                                                                                                                 ´
El resultado se sigue del c´lculo de n .
                           a
Cabe notar que hay otra manera, tal vez un poco menos eficiente, de calcular
la proyecci´n de q sobre Π, usando una ecuaci´n vectorial para Π en vez
            o                                     o
                                                 Ê
de la normal: v = p + λd1 + µd2 , λ, µ ∈ . Esto, junto a v = p + td1 × d2
que es la ecuaci´n vectorial de L, entrega el sistema lineal p + λd1 + µd2 =
                 o
                                                      λ



                                                                                                                         ı
q + td1 × d2 , o mejor d1 | d2 | d1 × d2              µ = q − p. Como d1 y
                                                      t
d2 son no nulos y no paralelos, d1 , d2 y d1 × d2 no son coplanares con el
origen, y entonces esta ecuaci´n tiene una soluci´n unica para λ, µ y t, lo
                               o                    o ´
que entrega la proyecci´n r = v.
                       o
Una tercera manera de proceder, tambi´n algo mas larga que la primera,
                                          e
es utilizar la f´rmula r = p + λd1 + µd2 (que no dice m´s que el hecho de
                o                                         a
que la proyecci´n r satisface la ecuaci´n vectorial de Π pues es un elemento
                 o                     o
de este plano) y recordar que r − q ⊥ Π, es decir, r − q ⊥ d1 ∧ r − q ⊥ d2 .
                                         d1 , p − q + λd1 + µd2 = 0
Se obtiene el sistema de ecuaciones                                      , o,
                                         d2 , p − q + λd1 + µd2 = 0
en su forma matricial:
               d1 , d1       d1 , d2         λ           d1 , q − p
                                                     =                  .
               d2 , d1       d2 , d2         µ           d2 , q − p

                                                             d1 , d1  d1 , d2
Se puede probar que d1 no es paralelo a d2 ssi la matriz
                                                             d2 , d1  d2 , d2
es invertible, luego el sistema anterior tiene una soluci´n unica para λ y µ,
                                                         o ´
lo que entrega la proyecci´n r.
                             o




                                           67
Departamento de Ingenier´a Matematica - Universidad de Chile
Observaci´n:
         o
  1. Notemos que la f´rmula (2.8) era f´cil de adivinar, pues si n =
                       o                 a
      1
      n  n es el vector unitario en la direcci´n de n, (2.8) se puede
                                              o
     escribir como r = q + p − q, n n


                         q
                                          p-q       <p-q,n>n

                             n
                                 r              p




    y recordando que p − q, n n es la proyecci´n (como vector) de
                                                o




                                                                                                          ´
    p − q en la direcci´n de n, el punto q + p − q, n n deber´ ser
                       o                                       ıa
    el lugar donde la recta que parte de q y va en la direcci´n de n
                                                             o
    encuentra al plano Π.
  2. En muchos problemas se puede argumentar de manera similar a la
     observaci´n 1) (es decir, proyectando sobre una recta vectores que
              o
     conectan un par de puntos dados, etc.) para llegar r´pidamente
                                                            a
     a una respuesta.

                                                                                                  ı




                                     68
´
                                      Ingenier´a Matematica
                                              ı
                                      FACULTAD DE CIENCIAS
                                                                                                     Gu´a
                                                                                                       ı
                                      F´SICAS Y MATEMATICAS
                                                          ´
                                        I
                                      UNIVERSIDAD DE CHILE                                           Semana 5
                                      ´
                                      Algebra Lineal 08-2

Ejercicios




                                                                                                   Departamento de Ingenier´a Matematica - Universidad de Chile
1. Demuestre las siguientes propiedades relacionadas con el produto cruz:

   (a)     ∀x =
                    x1
                    x2
                    x3
                           ∈   Ê3    x = x1 i + x2 j + x3 k, y esta escritura es unica,
                                                                                 ´
          es decir, si x1 i + x2 j + x3 k = y1 i + y2 j + y3 k, entonces x1 = y1 ∧x2 =
          y2 ∧ x3 = y3 .
   (b) ∀x, y ∈      Ê3 x × y ⊥ x ∧ x × y ⊥ y.
   (c)     ∀x, y, z ∈ Ê3 x×(y+z) = x×y+x×z ∧ (x+y)×z = x×z+y×z
          (× distribuye sobre +).
   (d) ∀x ∈       Ê3     x × x = 0.
   (e) ∀x, y, z ∈        Ê3    (x × y) × z = x, z y − y, z x.
2. El objetivo de este ejercicio es probar:                                                       Ejercicio 2.6


Sean x, y ∈   Ê3  {0} vectores no paralelos, y sea z ∈ Ê3. Entonces
     a)    z ⊥ x ∧ z ⊥ y =⇒ (∃λ ∈ Ê) z = λx × y.
           z ⊥ x × y =⇒ (∃s, t ∈ Ê) z = sx + ty.




                                                                                                                                   ´
     b)



   Para ello:
                              Ê
   (a) Sean x, y, z ∈ 3 tres vectores no coplanares con el origen, es decir,
       que no existe un plano que pasa por el origen y que contiene a los


                                                                                                                           ı
       tres vectores x, y y z. Pruebe que esto equivale a:

                                  (∀s, t ∈   Ê)x       = 0 + sy + tz
                                             ∧ y       = 0 + sx + tz
                                             ∧ z       = 0 + sx + ty

   (b) Pruebe que la condici´n anterior es equivalente a
                            o

              (∀α, β, γ ∈      Ê) αx + βy + γz = 0 =⇒ α = β = γ = 0.             (2.9)

                           Ê
   (c) Sea A ∈ M33 ( ) la matriz descrita por columnas como A = x | y                     | z .
       Pruebe que la propiedad 2.9 equivale a que el sistema homog´neo
                                                                  e
           α                                   α
       A β = 0 tiene como soluci´n unica β = 0, es decir, A es inver-
           γ
                                   o ´         γ
       tible.
   (d) Concluya que tres vectores x, y, z ∈               Ê3 no son coplanares con el
       origen ssi la matriz A = x | y |                     z   es invertible.
   (e) Considere ahora x e y no nulos y no paralelos. Pruebe que los
       vectores x, y y x × y = 0 son no coplanares con el origen.
       Indicaci´n: Verifique la condici´n 2.9.
               o                      o



                                                  69
(f ) Use la conclusi´n de la parte 2c para probar que
                       o




                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
               ∀z ∈   Ê3   (∃s, t, λ ∈   Ê) z = sx + ty + λx × y.         (2.10)

   (g) Pruebe, usando la propiedad 2.10, la proposici´n original.
                                                     o
3. Estudiar la proyecci´n ortogonal de un punto q ∈
                       o                                      Ê2 sobre una recta    Ejercicio 2.8
       Ê
   L ⊂ 2 , usando ecuaciones normales.


Problemas
P1. Se definen las rectas
                                                            
           −1          1                                 3         0
     L1 :  2  + t  2  , t ∈     Ê         y   L2 :  1  + s  1  , s ∈   Ê.
            1         −2                                −1        −2

    (a) Verifique que L1 y L2 no se intersectan.
    (b) Encuentre laecuaci´n normal del plano Π que contiene a la recta
                           o
        L1 y es paralelo a L2 .
                         




                                                                                                                     ´
                           3
    (c) El punto P =  1  pertenece a L2 . Encuentre la proyecci´n  o
                          −1
        ortogonal de P sobre el plano Π de la parte (b).
    (d) D´ la ecuaci´n del plano paralelo a Π que est´ a la misma distancia
         e          o                                a
        de L1 y L2 (Π es el plano de la parte (b)).
                                                  Ê
                                                                                                             ı
P2. (a) Sean P y Q puntos distintos en 3 . Demuestre que el conjunto
                    Ê
        A = {x ∈ 3 : ||x − P || = ||x − Q||} es un plano. Encuentre un
        punto que pertenezca a A y encuentre un vector normal al plano
        A.
    (b) En   Ê3 considere las rectas
                                                              
                 0       −1                                 1       2
           L1 : 5 + t −3 , t ∈        Ê       y   L2 : 2 + s 4 , s ∈   Ê.
                 1       2                                  3       1

         (1) Demuestre que L1 y L2 se intersectan y encuentre la inter-
             secci´n.
                  o
         (2) Encuentre el sistema de ecuaciones cartesianas que represen-
                                                  
                                                   1
             tan a la recta L que pasa por P = 1 y que es perpendi-
                                                   1
             cular al plano que contiene a L1 y L2 .
         (3) Determine las ecuaciones de los planos que son paralelos al
             plano que contiene a L1 y L2 , y que se encuentra a distancia
             1 del punto en que L1 y L2 se intersectan.



                                         70
   Ê      de               Ê
P3. (a) Sean L1 ⊆ 3 el eje las x y L2 ⊆ 3 larecta que pasa por los




                                                                            Departamento de Ingenier´a Matematica - Universidad de Chile
                 1       −1
                                                                 Ê
        puntos 2 y  3 . Encuentre una tercera recta L3 ⊆ 3 que
                 0       −1
        sea perpendicular a L1 y a L2 , y que adem´s intersecte estas dos
                                                  a
        rectas.
                          Ê
    (b) Sea Π el plano de 3 de ecuaci´n cartesiana x + z + y = 1 y sea P
                                      o
                     Ê                           Ê
        el origen en 3 . Calcular el punto Q ∈ 3 sim´trico de P , con
                                                      e
        respecto a Π.




                                                                                                    ı       ´




                                   71
´
                              Ingenier´a Matematica
                                      ı
                              FACULTAD DE CIENCIAS
                              F´SICAS Y MATEMATICAS
                                I                 ´
                              UNIVERSIDAD DE CHILE
                              ´
                              Algebra Lineal 08-2

                                   SEMANA 6: ESPACIOS VECTORIALES




                                                                                       Departamento de Ingenier´a Matematica - Universidad de Chile
3.     Espacios vectoriales
3.1.            ´
         Definicion
Las estructuras que hasta ahora se han estudiado est´n dotadas de opera-
                                                      a
ciones que actuan internamente sobre el conjunto donde est´n definidas. Es
                                                           a
decir, a un par de elementos del conjunto, se le asocia otro elemento del
mismo conjunto. Veremos ahora un tipo diferente de estructura algebraica,
donde la “multiplicaci´n” actua sobre un par de elementos de conjuntos
                       o
distintos. Esta estructura que estudiaremos est´ inspirada en la estructura
                                               a
           Ê
lineal de n . Para ello consideremos (V, +) un grupo Abeliano, es decir

       + es ley de composici´n interna
                            o
       + es asociativa y conmutativa.
       Existe un neutro, 0 ∈ V , tal que: ∀x ∈ V, x + 0 = 0 + x = x.
       ∀x ∈ V , existe un inverso aditivo, −x ∈ V , tal que




                                                                                                                       ´
       x + (−x) = (−x) + x = 0.

Sea   Ã un cuerpo y definamos una ley de composici´n denominada externa:-
                                                 o

                            Ã×V →V
                                                                                ley de composici´n
                                                                                                o
                                                                                          externa
                               (λ, v) → λv ∈ V.



                                                                                                               ı
Definici´n 3.1 (Espacio vectorial). Dado un grupo abeliano (V, +) y
          o                                                                      Espacio vectorial
               Ã
un cuerpo ( , +, ·), con una ley de composici´n externa. Diremos que V es
                                              o
un espacio vectorial sobre     Ã si y s´lo si la ley de composici´n externa
                                       o                         o
satisface ∀λ, β ∈ K, x, y ∈ V :
(EV1) (λ + β)x = λx + βx.
(EV2) λ(x + y) = λx + λy.
(EV3) λ(βx) = (λβ)x.
(EV4) 1 x = x, donde 1 es el neutro multiplicativo del cuerpo  Ã.
En tal caso, los elementos de V se denominan vectores y los de Ã, escalares.-                                             vectores
                                                                                                                  escalares


  Observaci´n: Se˜ alemos que en la definici´n anterior participan dos
             o       n                          o
  estructuras algebraicas diferentes; un grupo Abeliano, (V, +), y un cuer-
       Ã
  po, . En tal sentido, dos espacios vectoriales son iguales si y s´lo si
                                                                     o
  ambos est´n definidos sobre los mismos grupos y cuerpos y, adem´s
            a                                                            a
  con una ley de composici´n externa id´ntica.
                            o             e



                                      72
Ejemplos:




                                                                                            Departamento de Ingenier´a Matematica - Universidad de Chile
  1. Es directo de la definici´n anterior que
                             o                              Ãn es un espacio vectorial
     sobre . Ã
                  Ã
  2. Sea (Mmn ( ), +) el grupo Abeliano de las matrices de m filas y
                                             Ã
     n columnas con elementos en . Definamos la ley de composici´no
     externa:
                          Ã
                        × Mmn ( ) → Mmn ( )  Ã                  Ã
                                          (λ, A) → λA = (λaij )
     Es f´cil verificar que se cumplen las propiedades (EV1) a (EV4).
         a
    Por ejemplo:
                                                
                  a11 . . . a1n       b11 . . . b1n 
                      .           + .
     λ(A + B) = λ    .
                      .                  .
                                         .          
                                                     
                    am1 . . . amn     bm1 . . . bmn

                                                  λ(a + b ) . . . λ(a + b ) 
                       a11 + b11 . . . a1n + b1n         11   11            1n   1n
                            .              .     =        .                  .       




                                                                                                                            ´
                 = λ       .
                            .              .
                                           .               .
                                                            .                  .
                                                                               .       
                      am1 + bm1 . . . amn + bmn      λ(am1 + bm1 ) . . . λ(amn + bmn )

                                                       
                     λa11 . . . λa1n      λb11 . . . λb1n
                            .                .        .
                 =         .
                            .        +     .
                                             .        .
                                                      .    = λA + λB.
                    λam1 . . . λamn      λbm1 . . . λbmn


                                                                                                                    ı
                                                    Ã
           ımos entonces que Mmn ( ) es un espacio vectorial sobre
     Conclu´
    Ã.
             Ê
  3. Sea Pn ( ) el conjunto de los polinomios de grado menor o igual a
     n, con la suma de funciones reales y la multiplicaci´n por escalar
                                                         o
     definida por:

                                      Ê
                   ∀p, q ∈ Pn ( ), (p + q)(x) = p(x) + q(x)
                   ∀λ ∈    Ê,    (λp)(x) = λp(x)
                          n                         n
    o bien, si p(x) =           ai xi , q(x) =          bi xi
                          i=0                    i=0

                                n                                    n
             (p + q)(x) =             (ai + bi )xi ,     (λp)(x) =         (λai )xi .
                                i=0                                  i=0

                                                Ê
     Es directo verificar que Pn ( ) es espacio vectorial sobre .                        Ê
    Adem´s,
          a
         Ê         ÊÊ
    Pn ( ) ⊆ F( , ), lo cual, nos llevar´ m´s adelante, a definir la
                                        a a
    noci´n de subespacio vectorial.
        o


                                           73
Ã
       4. Tomemos ahora un cuerpo ( , +, ·) arbitrario. Claramente ( , +)     Ã




                                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
          es un grupo Abeliano. Adem´s, definamos la ley de composici´n:
                                    a                                o

                                           Ã×Ã→Ã
                                             (λ, v) → λ · v

                                                               Ã          Ã
             donde ” · ” es la multiplicaci´n en el cuerpo . Como es cuerpo,
                                           o
            se verifican las propiedades . Conclu´  ımos entonces que todo cuerpo,
            Ã , es espacio vectorial sobre si mismo. Dos ejemplos importantes
            son  Ê  y .
       5. Sea el grupo Abeliano ( , +) con la ley de composici´n externa:
                                                              o

                                     Ê×       →
                                  (λ, a + bi) → λ(a + bi) = λa + λbi

                                                                Ê
             Es claro que es un espacio vectorial sobre pero no es el mismo
            espacio vectorial definido sobre . Es decir, el espacio vectorial
               sobre    es distinto al espacio vectorial                  Ê
                                                            sobre , pues los
            cuerpos sobre los cuales est´n definidos son diferentes.
                                        a




                                                                                                                               ´
                                                                                               ◭ Ejercicio

  Ejercicio 3.1: Sea V un e.v. sobre              Ã. Probar que:
       1. 0v = v0 = 0, ∀v ∈ V, 0 ∈        Ã, elemento neutro aditivo de Ã.
       2. λ0 = 0λ = 0, ∀λ ∈  Ã, 0 ∈ V , elemento neutro aditivo de V .
       3.   λv = 0 ⇒ λ = 0 ∨ v = 0, λ ∈ Ã, v ∈ V .
                                                                                                                       ı

3.2.        Subespacios vectoriales
Definici´n 3.2 (Subespacio vectorial). Sea un espacio vectorial V so-
         o                                                                            subespacio vectorial
                   Ã
bre un cuerpo . Diremos que U = φ, es un subespacio vectorial (s.e.v) de                           (s.e.v.)
V si y s´lo si:
        o
  1. ∀u, v ∈ U, u + v ∈ U
  2. ∀λ ∈       Ã, ∀u ∈ U,   λu ∈ U.
Es decir, ambas operaciones, la interna y la externa, son cerradas en U .
La siguiente proposici´n nos entrega una forma m´s compacta de caracte-
                      o                         a
rizar a un s.e.v.

Proposici´n 3.1. Sea un espacio vectorial V sobre un cuerpo
           o                                                              Ã. U = φ,
es subespacio vectorial (s.e.v) de V si y s´lo si:
                                           o
                     ∀λ1 , λ2 ∈   Ã, ∀u1, u2 ∈ U,    λ1 u1 + λ2 u2 ∈ U.


                                             74
´
Demostracion. En efecto, si se verifica la primera definici´n entonces,
                                                            o




                                                                                              Departamento de Ingenier´a Matematica - Universidad de Chile
de la propiedad 2, λ1 u1 ∈ U y λ2 u2 ∈ U . De la propiedad 1 se concluye
λ1 u1 + λ2 u2 ∈ U .
En el otro sentido, basta tomar λ1 = λ2 = 1 para verificar la primera
propiedad y λ2 = 0 para verificar la segunda.


  Observaci´n: Si U es un s.e.v. de V entonces 0 ∈ U (basta tomar
             o
  λ = 0). Luego el subespacio vectorial m´s peque˜ o de V es {0}. El m´s
                                         a       n                    a
  grande es, obviamente, V .


  Ejemplos:

     1. El conjunto de los polinomios de grado menor o igual a n, Pn ( ),          Ê
                              ÊÊ
        es subespacio de F( , ).
     2. U = {(x, y)/ax + by = 0} es un subespacio vectorial de                Ê2. En
                                                         Ê
        efecto, sean (x1 , y1 ), (x2 , y2 ) ∈ U, λ1 , λ2 ∈ :

               λ1 (x1 , y1 ) + λ2 (x2 , y2 ) = (λ1 x1 + λ2 x2 , λ1 y1 + λ2 y2 )




                                                                                                                              ´
        Adem´s, a(λ1 x1 +λ2 x2 )+b(λ1 y1 +λ2 y2 ) = λ1 (ax1 +by1 )+λ2 (ax2 +
               a
        by2 ) = λ1 0 + λ2 0 = 0. Es decir, λ1 (x1 , y1 ) + λ2 (x2 , y2 ) ∈ U .
        El subespacio vectorial U est´ compuesto de todos los vectores de
                                       a
        Ê 2
            contenidos en la recta ax+by = 0. Es claro que, dado un vector
        (x, y) de dicha recta, λ(x, y), est´ en la misma recta as´ como la
                                            a                             ı
        suma de dos vectores sobre ella. De esto conclu´     ımos que cualquiera
                                                            Ê
                                                                                                                      ı
        recta que pasa por el origen es un s.e.v. de 2 .
                                     Ê
     3. Sea la matriz M ∈ Mmn ( ), el conjunto U = {x ∈ n /M x = 0}    Ê
                        Ê
        es un s.e.v. de n . En efecto:
                         Ê           Ê
        Dados λ1 , λ2 ∈ , x, y ∈ n . M (λ1 x + λ2 y) = λ1 M x + λ2 M y =
        λ1 0 + λ2 0 = 0, luego, λ1 x + λ2 y ∈ U.


Supongamos ahora que, dado un espacio vectorial V sobre un cuerpo                 Ã, se
tienen U, W s.e.v. de V . Es directo que
                       U ∩ W es tambi´n s.e.v de V.
                                     e
 En efecto, si x, y ∈ U ∩ W, λ1 , λ2 ∈ K, entonces como U, W son s.e.v. de                U ∩ W es s.e.v.
V , λ1 x + λ2 y ∈ U y λ1 x + λ2 y ∈ W .
Sin embargo, la uni´n no es necesariamente un s.e.v de V .
                   o
  Ejemplo:
                             Ê                                     Ê
  Tomemos U = {(x, y) ∈ 2 /x − y = 0}, W = {(x, y) ∈ 2 /y − 2x = 0}.
                                       Ê
  Es claro que ambos son s.e.v de 2 . Sin embargo, (1, 1) ∈ U, (1, 2) ∈ W
  pero (1, 1) + (1, 2) = (2, 3) ∈ U ∪ W , luego no es s.e.v. (grafique para
                                /
  cerciorarse).


                                        75
Esta constataci´n nos llevar´, m´s adelante, a definir una operaci´n en-
                o             a   a                               o
tre espacios vectoriales (la “suma”) tal que podamos hablar de “uniones”




                                                                                                             Departamento de Ingenier´a Matematica - Universidad de Chile
compatibles con la estructura de espacio vectorial.

3.3.    Combinaciones lineales
                                                    Ã
Sea V un espacio vectorial sobre un cuerpo , y una colecci´n de vectores
                                                                  o
v1 , v2 , ..., vn ∈ V , y de escalares λ1 , ..., λn ∈ K. Denominamos combina-
ci´n lineal a la suma ponderada de estos vectores:
  o                                                                                                   combinaci´n lineal
                                                                                                               o
                          n
                               λi vi = λ1 v1 + ... + λn vn
                         i=1
                                                               n
Claramente, por inducci´n sobre n, se prueba que
                       o                                            λi vi ∈ V .
                                                              i=1
Dado un conjunto fijo, v1 , ..., vn ∈ V de vectores, definimos el conjunto de
todas sus combinaciones lineales como sigue:                                                                {v1 , ..., vn }
                                                   n
                 {v1 , ..., vn } = {v ∈ V /v =          λi vi , λi ∈   Ã}.
                                                  i=1




                                                                                                                                             ´
Proposici´n 3.2. Sean V e.v. y v1 , ..., vn ∈ V . Entonces {v1 , . . . , vn } es
                o
un subespacio vectorial de V . Adem´s es el s.e.v. m´s peque˜o que contie-
                                           a                a       n
ne los vectores v1 , . . . , vn . Es decir, si otro s.e.v U los contiene, entonces
 {v1 , . . . , vn } ⊆ U .
Por ende, {v1 , . . . , vn } es llamado subespacio vectorial generado por
{vi }n .
     i=1




                                                                                                                                     ı
          ´
Demostracion. Para probar que es un subespacio vectorial de V , sean
                                                                   n                  n
u, v ∈ {v1 , . . . , vn } , α, β ∈ K. Tenemos que u =                  λi vi , v =          λ′ vi ,
                                                                                             i
                                                                i=1                   i=1
luego
                               n
                αu + βv =           (αλi + βλ′ )vi ∈ {v1 , ..., vn } .
                                             i
                              i=1
Para probar que es el m´s peque˜ o, basta notar que como U es s.e.v. de V
                        a        n
y contiene el conjunto {vi }n , entonces contiene todas sus combinaciones
                            i=1
lineales.

   Ejemplo:
                           Ê
   Tomemos v = (1, 1) ∈ 2 , el subespacio {v} = {λ(1, 1)/λ ∈ } corres-            Ê
   ponde a la recta que pasa por el or´  ıgen con direcci´n dada por el vector
                                                         o
   (1,1). Sean v1 = (1, 0), v2 = (0, 1),

                 {v1 , v2 } = {λ(0, 1) + β(1, 0) | λ, β ∈          Ê} = Ê2.
   En efecto, dado un vector arbitrario (a, b) ∈            Ê2, este puede escribirse
   como
   (a, b) = a(1, 0) + b(0, 1).


                                           76
3.4.    Dependencia e independencia lineal




                                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
Definici´n 3.3. Sea {vi }n ⊆ V , diremos que estos vectores son lineal-
       o                i=1
mente dependientes (ℓ.d.) si y solo si: existen escalares {λ1 , ..., λn }, no                      linealmente
                            n                                                 n              dependientes (ℓ.d.)
todos nulos, tales que           λi vi = 0. En caso contrario, es decir            λi vi =
                           i=1                                               i=1
0 ⇒ λi = 0 ∀i = 1, ..., n, diremos que el conjunto de vectores {vi }n es
                                                                    i=1
linealmente independiente (ℓ.i.).                                                                   linealmente
                                                                                             independiente (ℓ.i.)
   Ejemplos:

          {(1, 1), (2, 2)} es un conjunto linealmente dependiente:

                                    −2(1, 1) + (2, 2) = (0, 0).

          Dado un espacio vectorial arbitrario V sobre         Ã, {0} es linealmente
          dependiente pues: ∀λ λ0 = 0.
          En general, cualquier conjunto de vectores, {vi }n que contenga
                                                               i=1
          0 ∈ V es linealmente dependiente. Basta tomar la combinaci´n         o
          0v1 + 0v2 + . · · · + 0vn + 1 · 0 = 0, con escalares no todos nulos.




                                                                                                                                     ´
De manera similar a lo anterior es f´cil verificar que un conjunto depen-
                                     a
diente sigue manteniendo esta propiedad al agregarle vectores. Adem´s,  a
un conjunto independiente, mantiene la independencia al extraerle vecto-
res.
En efecto, sea {vi }p ⊆ V un conjunto de vectores ℓ.d, entonces existe una
                    i=1
combinaci´n lineal nula con escalares no todos nulos:
          o


                                                                                                                             ı
                                       p
                                            λi vi = 0.
                                      i=1

Luego ∀v ∈ V, {v} ∪ {vi }p es ℓ.d., ya que basta tomar la combinaci´n
                         i=1                                       o
lineal:
                                            n
                                   0v +          λi vi = 0.
                                           i=1
Supongamos, ahora que el conjunto {vi }p es ℓ.i., es directo de la de la
                                           i=1
definici´n que al sacar un vector, vk , el conjunto {vi }p  {vk } es ℓ.i.
       o                                                i=1

   Ejemplos:

                                                              Ê
       1. El conjunto {(1, 1, 1), (0, 1, 1), (1, 0, 0)} ⊆ 3 es ℓ.d. En efecto,
          (1, 1, 1) = (0, 1, 1) + (1, 0, 0), es decir (1, 1, 1) − (0, 1, 1) − (1, 0, 0) =
          (0, 0, 0) donde λ1 = 1, λ2 = −1, λ3 = −1.
                                      È Ê
       2. En el espacio vectorial 4 ( ), los polinomios 1, x son ℓ.i En efecto,
          tomemos una combinaci´n lineal nula λ1+βx = 0, pero si β = 0 se
                                  o
          tendr´ que λ + βx es un polinomio de grado 1, luego tiene a lo m´s
               a                                                             a
          una ra´ y el polinomio 0 tiene infinitas ra´
                 ız                                  ıces, luego λ = β = 0.


                                                77
3. Los vectores en          Ê4, {(1, 1, 0, 1), (1, 0, 1, 0), (0, 0, 1, 1), (0, 1, 1, 0)},




                                                                                                 Departamento de Ingenier´a Matematica - Universidad de Chile
        son ℓ.i. En efecto:

        λ1 (1, 1, 0, 1)+λ2 (1, 0, 1, 0)+λ3 (0, 0, 1, 1)+λ4 (0, 1, 1, 0) = (0, 0, 0, 0)

        es equivalente al sistema de 4 × 4:

                                                λ1 + λ2 = 0
                                              λ1 + λ4 = 0
                                         λ2 + λ3 + λ4 = 0
                                                λ1 + λ3 = 0

        en t´rminos matriciales
            e
                                                   
                          1 1             0    0     λ1     0
                       1 0               0    1   λ2   0 
                                                  =  
                          0 1             1    1     λ3     0
                          1 0             1    0     λ4     0

        Aplicando Gauss a la matriz aumentada:
                                                                                       




                                                                                                                                 ´
          1   1       0   0     0     1 1 0            0    0     1 1 0 0                 0
        1    0       0   1     0   0 −1 0           1    0   0 −1 0 1                0
                                 →                         →                           
          0   1       1   1     0     0 1 1            1    0     0 0 1 2                 0
          1   0       1   0     0     0 −1 1           0    0     0 0 1 −1                0

                                               
                      1 1 0 0                 0
                     0 −1 0 1                0
                   →                            ⇒ λ1 = λ2 = λ3 = λ4 = 0.

                                                                                                                         ı
                      0 0 1 2                 0
                      0 0 0 −3                0


                  Ã
En general en n , dado un conjunto de m vectores {v1 , ..., vm }, donde
vi = (v1i , ..., vni ),
i = 1, ..., m, podemos estudiar su dependencia o independencia lineal a
trav´s de un sistema de n ecuaciones y m inc´gnitas. En efecto:
    e                                       o

                                λ1 v1 + ... + λm vm = 0
                                            0
               v11        v12               v1m
                                                     .
              v21     v               v  . 
              .  + λ2  22  + ... + λm  2m  =  . 
        ⇔ λ1  . 
                .        . 
                           .
                           .               .  .
                                              .
                                              .    .
                                                     .
               vn1        vn2               vnm      0

                                                    0
            v11           v12    ···   v1m         λ1
                                                          .
           v21           v22    ···   v2m       λ2   . 
        ⇔  .
           .              .
                           .             . 
                                         . 
                                                        .
                                                    . =.∈
                                                    .  .             Ãm.
             .             .             .          .     .
                  vn1     vn2    ···   vnm         λm     0

                                              78
Ã




                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
Definiendo M = (vij ) ∈ Mnm ( ) (es decir poniendo los vectores originales
                    ¯  Ã
como columnas) y λ ∈ m como el vector de inc´gnitas, se tiene que para
                                                   o
analizar la dependencia o independencia lineal basta estudiar las soluciones
               ¯
del sistema M λ = 0.
          ¯
Si existe λ = 0 que satisface el sistema, entonces el conjunto de vectores
{vi }m es ℓ.d., en caso contrario es ℓ.i.. M´s a´ n, sabemos que si m > n el
     i=1                                    a u
sistema tiene m´s de una soluci´n, en particular una no nula luego {vi }m
                a               o                                        i=1
es ℓ.d..
As´ se ha probado:
   ı


Teorema 3.1. En    Ên, m > n vectores son siempre linealmente dependien-
tes.



                   o               n        Ã
  Observaci´n: Conviene se˜ alar que en n siempre es posible deter-
  minar n vectores independientes. Basta tomar el conjunto {ei }n , ei =
                                                                  i=1
  (0, ..., 1, ..., 0), donde la componente no nula es la i-´sima.
                                                           e




                                                                                                       ı       ´




                                    79
´
                                       Ingenier´a Matematica
                                               ı
                                       FACULTAD DE CIENCIAS
                                                                                        Gu´a
                                                                                          ı
                                       F´SICAS Y MATEMATICAS
                                                           ´
                                         I
                                       UNIVERSIDAD DE CHILE                             Semana 6
                                       ´
                                       Algebra Lineal 08-2

Ejercicios




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
1. Sea V un e.v. sobre  Ã. Probar que:                                               Ejercicio 3.1

   (a)   0v = v0 = 0, ∀v ∈ V, 0 ∈ Ã, elemento neutro aditivo de Ã.
   (b)   λ0 = 0λ = 0, ∀λ ∈ Ã, 0 ∈ V , elemento neutro aditivo de V .
   (c)   λv = 0 ⇒ λ = 0 ∨ v = 0, λ ∈ Ã, v ∈ V .
2. Determinar cu´les de las siguientes estructuras son espacios vectoriales:
                a
   (a)   Ê2 con la suma usual y la siguiente ponderaci´n: α ∈ Ê,
                                                      o           α(a, b) =
         (αa, b).
   (b)   Ê 2
             con la suma usual y la siguiente ponderaci´n: α ∈ , α(a, b) =
                                                       o                  Ê
         (αa, 0).
   (c)   Ê +
              con la “suma”: x ⊕ y = x × y y la ponderaci´n: αx = xα .
                                                         o
   (d)                                                      Ê
         El conjunto de las funciones de [a, b] en acotadas, con la suma y
         poderaci´n (por escalares en ) usuales.
                  o                             Ê
   (e)                                              Ê Ê
         El conjunto de las funciones f : → tales que f (−1) = f (1), con
         la suma y ponderaci´n usuales.
                              o
              Ê
3. Sea Pn ( ) el conjunto de los polinomios de grado menor o igual a n,




                                                                                                                      ´
   con la suma de funciones reales y la multiplicaci´n por escalar definida
                                                    o
   por:
                                        Ê
                  ∀p, q ∈ Pn ( ), (p + q)(x) = p(x) + q(x)
                                 Ê
                  ∀λ ∈ , (λp)(x) = λp(x).
                         Ê
    Pruebe que Pn ( ) es espacio vectorial sobre               Ê.
                                                                          Ê
4. Indique cu´les de los siguientes conjuntos son s.e.v. de P2 ( ) (conside-
             a


                                                                                                              ı
   rado como en la parte anterior) y cu´les no lo son. Pruebe su respuesta.
                                        a
   (a)   U   = {p(x) = a(x2 + x + 1) | a ∈ }.       Ê
   (b)   U   = {p(x) = ax2 + bx + b) | a, b ∈ }.     Ê
   (c)   U   = {p(x) = x2 + ax + b | a, b ∈ }.      Ê
   (d)   U   = {p(x) = ax2 + b | a, b ∈ }.     Ê
   (e)   U   = {p(x) = ax2 + b2 x + x + c | a, b, c ∈         Ê  {0}}.
5. Determine la dependencia o independencia lineal de cada uno de los
   siguientes conjuntos de vectores:

   (a)
              −3
               1
               0
                   ,
                         4
                         6
                        −5
                             ,
                                  −7
                                  −5
                                   5
                                          ⊆   Ê3.
             2         2         2
   (b) x + 1, x − 1, x + x + 1 ⊆ P2 ( ).             Ê
                    00        1 0       11            Ê
   (c) {( 1 0 ) , ( 1 1 ) , ( 1 1 ) , ( 1 1 )} ⊆ M22 ( )
          00

6. (a) Sean a, b, c tres vectores de un espacio vectorial V . Determine si el
       conjunto {a + b, b + c, c + a} es un conjunto l.i.
   (b) Sea {u1 , u2 , . . . , uk } un subconjunto l.i. de un espacio vectorial V .
       Pruebe que ∀α escalar, el conjunto:
                                  {u1 + αu2 , u3 , . . . , uk } es l.i.


                                               80
Problemas




                                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
             Ê
P1. Sea P3 ( ) el conjunto de polinomios de grado menor o igual a 3 con
                                                    Ê
    coeficientes reales. Sean p1 , p2 , p3 ∈ P3 ( ) tales que

             p1 (x) = 1 + 6x2 ,      p2 (x) = 4x,       p3 (x) = 1 + 3 + 5x2 .

                           Ê
    Demuestre que P2 ( ) = {p1 , p2 , p3 } .
P2. Sean E, F e.v. sobre un cuerpo        Ã. Sea T una funci´n T : E → F , que
                                                            o
    satisface:
    (1) T (0E ) = 0F . En donde 0E y 0F son los neutros aditivos en cada
        e.v.
    (2) ∀x ∈ E, ∀α ∈      Ã: T (αx) = αT (x).
    (3) ∀x, y ∈ E, T (x + y) = T (x) + T (y).
    Considere
                        T (E) = {y ∈ F | y = T (x), x ∈ E}.
    (a) Muestre que T (E) es un s.e.v. de F .




                                                                                                                               ´
    (b) Suponga adem´s que T satisface que:
                    a

                                ∀x ∈ E, T (x) = 0 ⇒ x = 0.

         Muestre que si {u1 , . . . , un } ⊆ E es l.i., entonces {T (u1), . . . , T (un )} ⊆
         F es l.i.
P3. Sean E y F espacios vectoriales sobre el mismo cuerpo               Ã.
                                                                                                                       ı
    (a) Pruebe que dotando al conjunto E × F de las leyes

               ∀(x, y), (u, v) ∈ E × F,       (x, y) + (u, v) = (x + u, y + v)

                    ∀α ∈ Ã, ∀(x, y) ∈ E × F,            α(x, y) = (αx, αy),
         ´ste resulta ser un e.v. sobre Ã.
         e
    (b) Pruebe que E × {0F } y {0E } × F son subespacios vectoriales de
        E × F . Determine 0E×F y pruebe que (E × {0F }) ∩ ({0E } × F ) =
        {0E×F }.
    (c) Sea {e1 , e2 , . . . , en } ⊆ E un conjunto l.i. en E y {f1 , f2 , . . . , fm } ⊆
        F un conjunto l.i. en F . Determine un conjunto l.i. en E × F , de
        tama˜ o n + m.
             n
P4. Sea E el espacio vectorial sobre       Ê de las funciones definidas sobre
    a valores reales:

                          E = {f | f :        →   Ê es funci´n}.
                                                            o




                                         81
(a) Sean a1 , a2 ∈Ê  con a2 = 0 y F0 el conjunto de las funciones




                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
    f ∈ E que verifican la condici´n:
                                 o

             ∀n ∈ , f (n) + a1 f (n − 1) + a2 f (n − 2) = 0.

    Pruebe que F0 es un s.e.v. de E.
(b) Sea ahora F1 el conjunto de las funciones f ∈ E que verifican la
    condici´n:
           o

             ∀n ∈ , f (n) + a1 f (n − 1) + a2 f (n − 2) = 1.

    Pruebe que F1 no es un s.e.v. de E.




                                                                                              ı       ´




                              82
´
                                   Ingenier´a Matematica
                                           ı
                                   FACULTAD DE CIENCIAS
                                   F´SICAS Y MATEMATICAS
                                     I                 ´
                                   UNIVERSIDAD DE CHILE
                                   ´
                                   Algebra Lineal 08-2

                                         SEMANA 7: ESPACIOS VECTORIALES




                                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
3.5.    Generadores de un espacio vectorial
Sea V un espacio vectorial sobre un cuerpo                Ã. Diremos que los vectores
{v1 , ..., vn } ⊆ V , generan V si y s´lo s´
                                      o    ı:                                             {v1 , ..., vn } ⊆ V
                                                                                                  generan V
                                    {v1 , ..., vn } = V

o de manera equivalente:
                                                                  n
              ∀v ∈ V, ∃{λi }n ⊆
                            i=1          Ã,       tal que    v=         λi vi .
                                                                  i=1

   Ejemplo:
   Tomemos el conjunto {(1, 0), (0, 1), (1, 1)}. Este genera 2 . En efecto, Ê
   (x, y) = x(1, 0) + y(0, 1) + 0(1, 1). Es decir {(1, 0), (0, 1), (1, 1)} = 2 .      Ê
   Pero, en este caso, la forma de escribir (x, y) no es unica:
                                                           ´




                                                                                                                                ´
                      (x, y) = (x − y)(1, 0) + y(1, 1) + 0(0, 1).
   En ambas combinaciones lineales “sobra” un vector. M´s a´n, constata-
                                                       a u
   mos que los tres vectores son l.d.:

                              (1, 1) − (1, 0) − (0, 1) = (0, 0)

   Esto nos lleva a la noci´n de conjunto generador de 2 con un n´ me-
                           o                                        u   Ê

                                                                                                                        ı
   ro m´ınimo de vectores linealmente independientes. En nuestro ejemplo
   anterior
                        {(1, 0), (0, 1)} ´ {(1, 1), (1, 0)}.
                                         o
   ¿Hay alguno m´s?.
                a

Definici´n 3.4 (Base). Dado un espacio vectorial V sobre , diremos
         o                                                                        Ã
que el conjunto de vectores {vi }n es una base de V si y s´lo s´:
                                 i=1                      o    ı                                                                                               base

(1) {vi }n es un conjunto l.i.
         i=1

(2) V = {v1 , ..., vn } .


   Ejemplos:

             Ã
       1. En n , el conjunto {ei }n , donde ei = (0, ..., 1, 0..,0) es base. En
                                  i=1
          efecto, ya probamos que son l.i., adem´s, dado x = (x1 , ..., xn ) ∈
                                                a
          Ãn , x =                                Ãn se denomina base can´nica.
                     n
                           xi ei . Esta base de                          o
                     i=1




                                            83
2. Estudiemos, en            Ê3
                                , si el conjunto de vectores, B =




                                                                                                 Departamento de Ingenier´a Matematica - Universidad de Chile
   {(1, 1, 0), (1, 0, 1), (0, 1, 1)}, es base. Veamos primero si B es ge-
                                            Ê
   nerador. Sea b = (b1 , b2 , b3 ) ∈ 3 y determinemos si existen esca-
   lares, {λ1 , λ2 , λ3 }, tales que: (b1 , b2 , b3 ) = λ1 (1, 1, 0) + λ2 (1, 0, 1) +
   λ3 (0, 1, 1). Esto es equivalente a estudiar el sistema de 3 × 3:
                                        
                            1 1 0           λ1           b1
                          1 0 1   λ2  =  b2  .
                            0 1 1           λ3           b3

   Para resolverlo tomemos la             matriz aumentada y escalaremos:
                                                                           
     1 1 0 b1           1 1                0     b1         1 1 0          b1
    1 0 1 b2  →  0 −1                   1 b2 − b1  →  0 −1 1       b2 − b1  ,
     0 1 1 b3           0 1                1     b3         0 0 2 b3 + b2 − b1

    de donde: λ3 = b3 +b2 −b1 , λ2 = b1 +b2 −b2 , λ1 =
                          2               3                     b1 +b2 −b3
                                                                           .   Es decir,
                Ê
                                                                     2
              3
   dado b ∈     , b es combinaci´n lineal de B:
                                 o
                       b1 + b2 − b3            b1 + b3 − b2            b2 + b3 − b1
   (b1 , b2 , b3 ) =                (1, 1, 0)+              (1, 0, 1)+              (0, 1, 1).
                            2                       2                       2




                                                                                                                                 ´
   Luego    Ê3 =       B . Para determinar que el conjunto B es l.i. (y por

   lo tanto base) basta resolver el sistema anterior para b = (0, 0, 0).
   En este caso se concluye λ1 = λ3 = λ3 = 0, y por lo tanto son l.i.

                                      Ê
3. En el espacio vectorial Pn ( ), el conjunto B = {1, x, x2 , ..., xn } es
   base. En efecto. Es claro que cualquier polinomio, q de grado ≤ n

                                                                                                                         ı
   se escribe como combinaci´n lineal de los vectores en B:
                               o
                                                n
                                    q(x) =            ai xi .
                                                i=0

   para verificar que estos son ℓ.i tomemos la combinaci´n lineal
                                                       o
                                       n
                                            λi xi = 0.
                                      i=0

   Se tiene que, si el polinomio de la izquierda tiene alg´ n coeficiente
                                                          u
   no nulo, entonces es un polinomio de grado entre 0 y n luego posee,
   a lo m´s, n ra´
          a      ıces. Pero el polinomio de la derecha (polinomio nulo)
   tiene infinitas ra´ıces. De esto se desprende que λi = 0, i = 0, ..., n.

   Otra manera de verificar la independencia lineal es mediante deri-
   vaci´n:
       o
                        n
                 d
                   (   λi xi ) = λ1 + 2λ2 x + ... + nλn xn−1 = 0
                dx i=0


                                       84
n
               d2
                  (   λi xi ) = 2λ2 + ... + n(n − 1)λn xn−2 = 0




                                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
              dx2 i=0
                 .
                 .
                 .                                                         .
                      n
               dn
                  (   λi xi ) = n!λn = 0
              dxn i=0
               ⇒ λn = 0 ⇒ λn−1 ⇒ ... ⇒ λ1 = 0 ⇒ λ0 = 0


4. Existen espacios vectoriales en los cuales ning´ n conjunto finito de
                                                  u
   vectores es base, por ejemplo, sea S el conjunto de las sucesiones,
   es decir:
                      S = {(un )/un ∈ , ∀n ∈ }.Ê          Æ
   Claramente, con la suma (un )+(vn ) = (un +vn ) y la multiplicaci´n
                                                                    o
                            Ê
   λ(un ) = (λun ), λ ∈ , S es un espacio vectorial sobre .            Ê
   Vemos que el conjunto finito de sucesiones Bn = {x , . . . , x(n) },
                                                                     (1)
          (i)
   donde xj = 1 si y s´lo si i = j (0 en otro caso), es linealmente
                        o
   independiente. En efecto:




                                                                                                                               ´
     n
         λi x(i) = (λ1 , λ2 , ..., λn , 0, 0...) = (0, ..., 0, ...) ⇒ λi = 0 ∀i = 1, ..., n.
   i=0

   Pero, siempre es posible agrandar este conjunto. Basta tomar
                                                   Æ
   Bn+1 = Bn ∪ {x(n+1) }. Adem´s ∀n ∈ , Bn no es generador pues
                                 a
   dado n fijo, el vector x(n+1) es linealmente independiente de los


                                                                                                                       ı
   vectores de Bn . Es decir, extendiendo adecuadamente las defini-
   ciones de l.i. y generador a conjuntos infinitos (lo cual se puede
   hacer, pero no lo haremos aqu´ la “base” ser´ B = n≥1 Bn ,
                                   ı),             ıa
   que es un conjunto infinito. Sin embargo, es posible probar que
   B tampoco puede generar a todas las sucesiones de S, es s´lo un
                                                               o
   conjunto l.i.


5. Observemos que el conjunto de las progresiones aritm´ticas, P A           e
   es un s.e.v. de S, y este tiene una base finita. En efecto ¯ =                     1
   (1, . . . , 1, . . . ), e = (1, 2, 3, . . . , n, . . . ) ∈ P A y adem´s son l.i.:
                                                                        a
       ¯
      λ1 + βe = (λ + β, λ + 2β, λ + 3β, ..., λ + uβ, ...) = (0, ..., 0, ...)

                 ⇒ (λ + β = 0) ∧ (λ + 2β = 0) ⇒ λ = β = 0.
   Adem´s son generadores: Sea (xn )n una progresi´n de diferencia
         a                                          o
   d entonces se tiene xn = x0 + nd y por lo tanto:

                                  (xn ) = x0 ¯ + de.
                                             1




                                      85
Una caracterizaci´n de base, que nos ser´ util m´s adelante, es la siguiente:
                 o                      a´      a




                                                                                        Departamento de Ingenier´a Matematica - Universidad de Chile
Proposici´n 3.3. Dado un espacio vectorial V , B = {vi }n ⊆ V es una
            o                                            i=1
base si y s´lo s´ ∀v ∈ V, v se escribe de manera unica como combinaci´n
           o    ı                                ´                   o
lineal de los vectores del conjunto B.


              ´
Demostracion. Demostremos esta propiedad:
⇒) Como B es base, B = V , luego v se escribe como combinaci´n lineal
                                                               o
de los vectores en B. Supongamos que esto puede hacerse de dos maneras:
                                  n                   n
                             v=         αi vi , v =         βi vi .
                                  i=1                 i=1

                    n
Se tiene entonces         (αi −βi )vi = 0. Como B es un conjunto l.i., conclu´
                                                                             ımos
                    i=1
que αi = βi para todo i.
⇐) Por hip´tesis, cualquier vector v ∈ V es combinaci´n lineal del conjunto
          o                                          o
                                                                      n
B, luego B es generador. Supongamos que B es l.d., entonces                 λi vi = 0
                                                                      i=1




                                                                                                                        ´
con escalares no todos nulos. Adem´s 0v1 + 0v + ... + 0vn = 0 luego el
                                    a
vector 0 se escribe de dos maneras distintas, lo cual es una contradicci´n.
                                                                        o
Conclu´ımos entonces que B es base.


  Observaci´n: Por convenci´n el conjunto vac´ φ es la base del espacio
              o               o                 ıo
  vectorial {0}. Esto pues por definici´n diremos que φ es l.i. y adem´s
                                      o                              a


                                                                                                                ı
  el subespacio m´s peque˜ o que lo contiene es {0}.
                  a       n


Otra propiedad importante es la siguiente:


Teorema 3.2. Si X = {v1 , . . . , vn } ⊆ V es un conjunto generador, en-
tonces es posible extraer un subconjunto B = {vi1 , . . . , vis } que es base de
V.


          ´
Demostracion. Procederemos de manera recursiva

  1. Elijamos vi1 ∈ B, el primer vector no nulo que encontremos (¿ Qu´ pa-
                                                                     e
     sa si todos son cero?). Hagamos B1 = {vi1 }. Claramente B1 es lineal-
     mente independiente.
  2. Preguntamos ¿X  B1 ⊆ B1 ?
      Si es cierto: Entonces B1 es base. En efecto, X  B1 ⊆ B1                   ⇒
                                                                       n
      ∀j = i1 , vj = λj vi1 . Como V = X ⇒ ∀v ∈ V, v =                      αk vk =
                                                                      k=1



                                            86
αk λk vi1 + αi1 vi1 = λvi1 ∈ B1 , con λ ∈    Ã lo que implica que




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
      k=i1
      V ⊆ B1 . Es decir V = B1 , luego B1 es l.i. y generador.
      Si no es cierto: Entonces ∃vi2 ∈ X  B1 , vi2 ∈ B1 . Hacemos B2 =
                                                    /
      B1 ∪ {vi2 } y repetimos el procedimiento anterior.
      En el k-´simo paso se habr´ generado, a partir de Bk−1 = {vi1 , ..., vik−1 },
              e                 a
      (que es linealmente independiente), el nuevo conjunto:

                        Bk = Bk−1 ∪ {vik },       vik ∈ Bk−1 .
                                                      /

      Bk es linealmente independiente: En efecto, sea:
                                     k
                                          λj vij = 0.
                                    j=1

                                         k−1
                                  1
      Si λk = 0 entonces vik = − λk            λj vij ∈ Bk−1 que es una contra-
                                         j=1
      dicci´n. Luego λk = 0 y, como Bk−1 es linealmente independiente,
           o
      λj = 0 ∀j = 1...k − 1.




                                                                                                                      ´
Finalmente, como el conjunto de vectores X es finito, en un n´ mero fi-
                                                                  u
nito de pasos determinamos un conjunto linealmente independiente Bs =
{vi1 , ..., vis }, tal que X  Bs ⊆ Bs y de manera an´loga a lo ya hecho se
                                                     a
prueba que es generador y por lo tanto base de V .

En la demostraci´n anterior, elegimos el “pr´ximo” vector, vik , para “en-
                 o                            o
trar” al conjunto Bk−1 , exigiendo solamente: vik ∈ Bk−1 . Obviamente
                                                    /


                                                                                                              ı
pueden existir varios vectores con tal propiedad. Esto permite afirmar que,
en general, a partir de B podemos determinar varias bases (a menos claro
que B mismo sea una base).

  Ejemplo:
  Si      B           =           {(1, 0), (0, 1), (1, 1)}, los subconjuntos
  {(1, 0), (0, 1)}, {(1, 0), (1, 1)} y {(0, 1), (1, 1)} son todos bases de
  Ê  2
       .
Daremos ahora una generalizaci´n del Teorema 3.1.
                              o


Teorema 3.3. Supongamos que tenemos B = {vi }n , base de V y un
                                                 i=1
conjunto arbitrario X = {wi }m ⊆ V . Si m > n, entonces el conjunto X
                             i=1
es l.d.


           ´
Demostracion. En efecto, como B es base: wi = λ1i v1 + ... + λni vn         1≤
i ≤ m. Tomemos una combinaci´n lineal de los vectores de X:
                            o

                            β1 ω1 + ... + βm ωm = 0,                       (3.1)

                                         87
reemplazando cada wi como combinaci´n lineal de B, 3.1 equivale a:
                                   o




                                                                                       Departamento de Ingenier´a Matematica - Universidad de Chile
                          m
                               βi [λ1i v1 + ... + λni vn ] = 0
                         i=1
                          m           n
                     ⇔         βi           λji vj = 0
                         i=1        j=1
                          n          m
                     ⇔         vj (         βi λji ) = 0
                         j=1          i=1

y como B = {vj }n es l.i., lo anterior es equivalente a
                j=1

                         m
                               λji βi = 0          1≤j≤n
                         i=1
                        ¯
o, de manera matricial Aβ = 0, donde
                                                
                     λ11 λ12 · · · λ1m          β1
                   λ21 λ22 · · · λ2m         β2 
             A= .         .              ¯
                                     . , β =  . .
                   . .    .
                           .         .
                                     .        . 
                                                 .




                                                                                                                       ´
                    λn1 λn2 · · · λnm           βm
 Del cap´ıtulo anterior sabemos que para m > n el sistema anterior tiene
m´s de una soluci´n (infinitas), luego al menos una no nula. Es decir existen
  a                  o
escalares β1 , ..., βm , no todos nulos, soluci´n de la ecuaci´n 3.1. De donde
                                               o              o
conclu´ımos que X es l.d.



                                                                                                               ı
De este resultado se desprende directamente el corolario siguiente que es
suma importancia:
Corolario 3.1. Si {vi }i=1 , y {ui }m son bases de V , entonces n = m.
                       n
                                    i=1

              ´
Demostracion. En efecto, si n > m, de la propiedad anterior conclu´
                                                                  ımos
{vi }n es l.d., lo cual es una contradicci´n.
     i=1                                  o

As´ si existe una base finita, de cardinal n, entonces cualquier otra base
  ı,
contiene exactamente n vectores.
Esto nos lleva a definir la dimensi´n de un espacio vectorial.
                                  o
Definici´n 3.5 (Dimensi´n). Diremos que un espacio vectorial V sobre
       o              o                                                                           dimensi´n
                                                                                                         o
à es de dimensi´n n (finita) si admite una base de cardinalidad n. En caso
               o
que no exista una base finita, hablaremos de espacio vectorial de dimensi´n
                                                                        o
infinita.                                                                         dimensi´n infinita
                                                                                        o
Notaremos dim V al cardinal de una base (dim V = ∞, si V no posee una
base finita). En particular dim{0}=0.

   Ejemplos:

      1. dim   Ên = n.
                                              88
2. dim S = ∞.




                                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
     3. dim P A = 2.
     4. dim Mmn = m · n.

  Verifiquemos esta ultima. Tomemos el conjunto de matrices de 0 y 1:
                   ´
       ¯
  B = {E[α, β] = (eαβ ), eαβ = 1 ⇔ (α, β) = (i, j) α ∈ {1, ..., m}, β ∈ {1, ..., n}}.
                   ij     ij

  Este conjunto corresponde a la base can´nica del espacio de las matrices.
                                         o
  Por ejemplo, para m = 2 y n = 3, el conjunto B est´ formado por las
                                                        a
  matrices:
     1 0   0        0   1 0        0     0 1           0 0    0         0 0     0       0 0   0
                ,              ,                 ,                ,                 ,             .
     0 0   0        0   0 0        0     0 0           1 0    0         1 0     0       0 0   1

   Volvamos al caso general, claramente B es l.i.
                                                                         
               m    n                   λ11 ...λ1n     0              ... 0
                                            .
                                             .     =                 . 
                                                                       .
                       λαβ E[α, β] =         .                         .
               α=1 β=1                 λm1 ...λmn      0              ... 0




                                                                                                                                      ´
                              ⇒        λαβ = 0       ∀α, β.
  Adem´s, dada A = (aij ) ∈ Mmn (K):
      a
                                   m     n
                              A=              aαβ E[α, β].
                                   α=1 β=1


  Luego, el conjunto {E[α, β]}α,β es base. Es decir dim Mmn (K) = mn.
                                                                                                                              ı
Algunas propiedades de los espacios de dimensi´n finita son las siguientes:
                                              o


Teorema 3.4.
  1. Sea dim V = n. Si {vi }i=1 es l.i. entonces {vi }n es base.
                            n
                                                      i=1

  2. Sea U un s.e.v de V , luego dim U ≤ dim V m´s a´n se tiene que
                                                a u
     dim U = dim V ⇒ U = V .


          ´
Demostracion.
  1. Basta probar que V = {v1 , ..., vn } . Supongamos ∃u ∈ {v1 , .., vn } ,
                                                              /
     luego
     B = {u, v1 , ..., vn } es l.i. y |B| = n + 1 > n. Lo que es una contra-
     dicci´n, pues todo conjunto de cardinal mayor que la dimensi´n debe
           o                                                        o
     ser l.d.



                                         89
2. Supongamos m = dim U > n = dim V , entonces existe {ui }m base
                                                                  i=1




                                                                                                        Departamento de Ingenier´a Matematica - Universidad de Chile
      de U , pero {ui }m ⊆ V es l.i., de cardinal mayor que la dimensi´n,
                       i=1                                              o
      lo cual contradice el hecho que el m´ximo conjunto de vectores l.i. es
                                          a
      de cardinalidad n.
        Para probar la ultima parte supongamos U = V . Sea {ui }n una
                        ´                                        i=1
        base de U . Como U = V y {u1 , ..., un } = U,
        ∃v ∈ V  U ⇒ B = {v} ∪ {ui }n es l.i. en V y |B| > dim V , que al
                                      i=1
        igual que antes da una contradicci´n.
                                          o

Un resultado importante es la posibilidad de que, en un espacio vectorial
V,
dim V = n, un conjunto de vectores linealmente independiente, pueda
completarse hasta formar una base de V .


Teorema 3.5 (Completaci´n de base). Dado V espacio vectorial so-
                              o                                                                Completaci´n de base
                                                                                                         o
bre à con dim V = n, y un conjunto de vectores l.i.; X = {v1 , . . . , vr }, r <
n, entonces existen vectores vr+1 , . . . , vn , tales que el conjunto {v1 , . . . , vn }
es base de V .




                                                                                                                                        ´
            ´
Demostracion. Sea U = {v1 , . . . , vr } , claramente U = V (justifique).
Luego ∃v ∈ V  U . Definiendo vr+1 = v, el conjunto {v1 , ..., vr , vr+1 } es l.i.
En efecto
                                     r+1
                                           λi vi = 0


                                                                                                                                ı
                                     i=1
                                                                 r
                                                 1
Si λr+1 = 0 entonces, se concluye que vr+1 = − λr+1                  λi vi ∈ {v1 , ..., vr }
                                                              i=1
lo cu´l es una contradicci´n ya que vr+1 ∈ U . Si λr+1 = 0 ⇒ λi = 0 ∀i =
       a                     o               /
1, ..., r pues los vectores de X son l.i. Si {v1 , ..., vr+1 } = V hemos termi-
nado, sino repetimos el procedimiento.

   Ejemplo:
   Consideremos, en      Ê4 el conjunto
                             X = {(1, 1, 0, 0), (0, 1, 0, 0)}.

   Claramente este conjunto es l.i. y adem´s (0, 0, 1, 0)      a                     ∈
                                                                                     /
    {(1, 1, 0, 0), (0, 1, 0, 0)} . Luego {(1, 1, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)} es
   l.i.
   An´logamente, el vector (0, 0, 0, 1) ∈ {(1, 1, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)}
        a                                /
   luego el conjunto B = {(1, 1, 0, 0)(0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} es l.i.
                                                       Ê
   y como contiene tantos vectores como dim 4 = 4, es base.




                                            90
3.6.    Suma de espacios vectoriales




                                                                                         Departamento de Ingenier´a Matematica - Universidad de Chile
Recordemos que la uni´n de subespacios de un espacio vectorial V , no es
                      o
necesariamente un espacio vectorial. Definamos una operaci´n entre subes-
                                                         o
pacios que nos permita determinar uno nuevo, que contenga a ambos. Sean
U, W subespacios de V , definimos la suma de subespacios vectoriales             suma de subespacios
como sigue:                                                                              vectoriales

                  U + W = {v ∈ V /v = u + w, u ∈ U, w ∈ W }.

 Es directo que U + W es un s.e.v de V . En efecto, sean x, y ∈ U + W, λ, β ∈                                                          U +W
K, luego x = u1 + w1 , y = u2 + w2 . Adem´s, λx + βy = (λu1 + βu2 ) +
                                             a
(λw1 + βw2 ) ∈ U + W ya que U y W son s.e.v.

   Ejemplo:
   Tomemos en      Ê2, los subespacios U =    {(1, 1)} , W = {(1, 0)}

                  U + W = {v = λ(1, 1) + β(1, 0)/λ, β ∈     Ê} = Ê2
   En efecto, (x, y) = y(1, 1) + (x − y)(1, 0)
              Ê
   Sean, en 3 , los subespacios U = {(1, 0, 0)} , W = {(0, 1, 0)}




                                                                                                                         ´
                       U + W = {(x, y, 0) | x, y ∈     Ê} = Ê3.
En general, es directo que U ⊆ U + W y W ⊆ U + W . Basta tomar los
elementos de la forma u + 0 y 0 + w, respectivamente.
Dado V = U + W , un vector no necesariamente admite una escritura unica
                                                                  ´


                                                                                                                 ı
en t´rminos de U y W .
    e

   Ejemplo:
   Si
                     U =< {(1, 0), (0, 1)} >, W =< {(1, 1)} >
   luego   Ê2 = U + W . Pero el vector (1, 1) se escribe de dos maneras:
                                 (1, 1) = (1, 1) + 0

   donde (1, 1) ∈ U y 0 ∈ W , pero adem´s
                                       a

                                 (1, 1) = 0 + (1, 1)

   donde esta vez 0 ∈ U y (1, 1) ∈ W .

En el caso particular, en que la descomposici´n de un vector de V sea unica
                                             o                        ´
en t´rminos de los subespacios, diremos que V es suma directa de U y
    e
W,
Definici´n 3.6 (Suma directa). Sea un espacio vectorial V y dos sub-
         o                                                                             suma directa
espacios vectoriales U, W de V . Diremos que el subespacio Z = U + W es
suma directa de U y W , notado U ⊕ W = Z, si ∀v ∈ Z, v se escribe de                    U ⊕W = Z


                                       91
manera unica como
       ´




                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
                       v = u + w,      u ∈ U, w ∈ W.

En el caso en que V sea suma directa de U y W , diremos que estos ultimos
                                                                  ´
son suplementarios.

   Ejemplo:
                                                   Ê
   Sean, por ejemplo, los subespacios de 2 , V =< {(1, 0)} >, W =<
   {(0, 1)} >
   Ê 2
       = U ⊕ W, pues (x, y) = x(1, 0) + y(0, 1) es unica.
                                                   ´

Una caracterizaci´n util de la suma directa es la siguiente:
                 o ´

Proposici´n 3.4. Dado V e.v. y U, W, Z s.e.v. de V , entonces
         o

              Z = U ⊕ W ⇔ (Z = U + W ) ∧ (U ∩ W = {0})


          ´
Demostracion. En efecto:




                                                                                                                ´
 ⇒) Como Z es suma directa de U y W , ∀v ∈ Z, ∃! u ∈ U, w ∈ W tal que
    v = u + w ⇒ v ∈ U + W , luego Z = U + W .
       Supongamos ahora v ∈ U ∩ W , entonces v = v + 0 = 0 + v. Es decir,
       v admite dos escrituras en U + W , luego necesariamente v = 0.
 ⇐) Como Z = U + W, ∀v ∈ Z, v = u + w, u ∈ U, w ∈ W . Veamos que
    esta descomposici´n es unica. Supongamos v = u + w y v = u′ + w′ ,
                     o     ´


                                                                                                        ı
    entonces u − u′ = w′ − w, donde u − u′ ∈ U y w′ − w ∈ W , luego
    u − u′ ∈ U ∩ W ⇒ u − u′ = 0 ⇒ u = u′ ⇒ w = w ′ .

Una propiedad interesante de la suma directa es:


Teorema 3.6. Si V = U ⊕ W y V es de dimensi´n finita, entonces dim
                                           o                                    dim U ⊕ W
V = dim U + dim W .


              ´
Demostracion. En efecto, si U o W corresponde al subespacio nulo, {0},
el resultado es directo.
Supongamos entonces U = {0} = W . Sea {ui }k base de U, {wi }m base
                                            i=1                      i=1
de W . Afirmamos que el conjunto B = {u1 , ..., uk , w1 , ..., wm } es base de
V:
  1. B es linealmente independiente:
                              k              m
                                   λi ui +         βi wi = 0
                             i=1             i=1



                                       92
k                 m
     Como           λi ui ∈ U,         βi wi ∈ W y el vector 0 se escribe de manera




                                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
            i=1                  i=1
     unica en U + W como 0 = 0 + 0, obtenemos:
     ´
                                       k                 m
                                               λi ui =           βi wi = 0
                                      i=1                i=1

     y por independencia lineal de {ui }i=1 , {wi }m conclu´
                                        k
                                                   i=1     ımos λ1 = ... =
     λk = β1 = ... = βk = 0.
  2. B es generador del e.v. V :

     Como V = U ⊕ W, ∀v ∈ V, v = u + w, u ∈ U, w ∈ W . Pero u ∈ U, w ∈
                                                                                 k
     W se escriben como combinaci´n lineal de sus bases: u =
                                 o                                                    αi ui ,
                                                                                i=1
           m
     w=          λi wi , de donde,
           i=1
            k             m
     v=         αi wi +         λi wi , luego B = V .
          i=1             i=1

De (1) y (2) es directo que dim V = k + m = dim U + dim W .




                                                                                                                                ´
Una pregunta importante es la siguiente: dado un s.e.v U de V , ¿ existe
un suplementario de U ?, es decir ¿ un s.e.v W tal que V = U ⊕ W ?
La respuesta es afirmativa, si U = V , basta tomar como suplementario
W = {0}. Si dim U < dim V , tomemos una base de U : X = {ui }k . Por
                                                                   i=1
el teorema de completaci´n de base, existen vectores {uk+1 , ..., un } tales
                           o
que B = X ∪ {uk+1 , ..., un } es base de V . Sea ahora

                                                                                                                        ı
W = {uk+1 , ..., un } . Afirmamos que V = U ⊕W . En efecto, como {u1 , ..., un }
es base de V , todo v ∈ V puede escribirse, de manera unica, como combi-
                                                       ´
naci´n lineal de esta base:
     o
                                        k                    n
                                v=             αi ui +             αi ui
                                       i=1               i=k+1

            k                              n
Como u =         αi ui ∈ U, w =                  αi ui ∈ W , tenemos que un vector v ∈ V
           i=1                         i=k+1
se escribe de manera unica como v = u + w.
                     ´

   Ejemplos:
   Tomemos V =        Ê3 y los subespacios
                U = {(1, 0, 0), (0, 1, 0)} , W = {(0, 1, 0), (0, 0, 1)}

   U ∩W = {(0, 1, 0)} . En efecto, si v ∈ U ∩W, v = α(1, 0, 0)+β(0, 1, 0) =
   γ(0, 1, 0) + δ(0, 0, 1). De donde, α = δ = 0, β = γ. Luego v = γ(0, 1, 0).
   Es decir
   U ∩W = {(0, 1, 0)} , De esto conclu´  ımos que U +W no es suma directa,


                                                   93
Ê
   sin embargo 3 = U + W =




                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
    {(1, 0, 0), (0, 1, 0), (0, 0, 1)} .
       Ê
   En 2 , cualquier par de rectas no colineales, que pasen por el origen,
   est´n asociados a subespacios suplementarios. Luego el suplementario de
      a
   un s.e.v. U no es unico.
                      ´
El siguiente resultado, propuesto como ejercicio, extiende el Teorema 3.6 al
caso en que la suma no es necesariamente directa.


Teorema 3.7. Supongamos que V = U + W , entonces dim V = dim U +               dim U + W
dim W − dim U ∩ W .


          ´
Demostracion. Propuesta como ejercicio. Ver la gu´ para indicaciones.
                                                 ıa                            ◭ Ejercicio




                                                                                                       ı       ´




                                          94
´
                                  Ingenier´a Matematica
                                          ı
                                  FACULTAD DE CIENCIAS
                                                                                          Gu´a
                                                                                            ı
                                  F´SICAS Y MATEMATICAS
                                                      ´
                                    I
                                  UNIVERSIDAD DE CHILE                                    Semana 7
                                  ´
                                  Algebra Lineal 08-2

Ejercicios




                                                                                        Departamento de Ingenier´a Matematica - Universidad de Chile
1. Averigue si el conjunto de polinomios {1 + x3 , 1 − x3 , x − x3 , x + x3 }
                                                Ê
   constituye una base de F = {p ∈ P( ) | gr(p) < 4}. Donde P( ) el es          Ê
   espacio de los polinomios a coeficientes reales.
                                            Ê
2. Sea W es subespacio vectorial de 4 generado por el conjunto
                              
                         1
                                   1     2 
                                     
                           1 −1 3
                                 , ,  .
                        1
                                   1     2 
                                            
                            1      −1     3
   (a) Determine una base de W y su dimensi´n.
                                           o
   (b) Extienda la base encontrada antes a una base de              Ê4 .
3. Se desea probar el siguiente resultado:                                             Teorema 3.7


  Supongamos que V = U + W , entonces dim V = dim U + dim W −
  dim U ∩ W .




                                                                                                                        ´
   Para ello:
   Considere U ∩ W como subespacio de U y W . Si se toma {z1 , ..., zk }
   base de U ∩ W , se puede extender a
                      BU = {z1 , ..., zk , u1 , ..., ul } base de U y
                      BW = {z1 , ..., zk , w1 , ..., wp } base de W.



                                                                                                                ı
    Se probar´ que B = {z1 , ..., zk , u1 , ..., ul , w1 , ..., wp } es base de V .
             a

   (a) Pruebe que B genera a V . Es decir, tome v ∈ V y pruebe que es
       combinaci´n lineal de los vectores de B. Use que V = U + W .
                o
   (b) Para probar que B es l.i., tome una combinaci´n lineal de B igual
                                                    o
       a cero:
            0 = α1 z1 + ... + αk zk + γ1 u1 + ... + γl ul + β1 w1 + ... + βp wp
        de donde
         −(β1 w1 + ... + βp wp ) = α1 z1 + ... + αk zk + γ1 u1 + ... + γl ul . (3.2)

        Pruebe que existen λ1 , . . . , λk ∈    Ã tales que
                       −(β1 w1 + ... + βp wp ) = λ1 z1 + ... + λk zk .

   (c) Demuestre que β1 = · · · = βp = λ1 = · · · = λk = 0.
   (d) Reemplace lo anterior en 3.2 y use que BU es base para probar que
       α1 = · · · = αk = γ1 = · · · = γl = 0.
   (e) Concluya que B es l.i. y por ende base de V .
   (f ) Concluya el resultado buscado.


                                           95
Problemas




                                                                                          Departamento de Ingenier´a Matematica - Universidad de Chile
P1. Considere los conjuntos W y U  definidos por:
                                       
                                a   b 0
                         Ê
    W = {M ∈ M33 ( ) | M =  b      e c ∧ a+e+i = 0, a, b, c, e, i ∈               Ê}.
                                0   c i
                                                
                                         0 r s
                                     Ê
                U = {M ∈ M33 ( ) | M = r 0 0 , r, s ∈ }.              Ê
                                         s 0 0
    (a) Demuestre que W y U son subespacios vectoriales de M33 ( ).             Ê
    (b) Encuentre bases y dimensiones para los subespacios U, W, U ∩ W
        y U + W , y decida (justificando) si la suma U + W es directa.
        ¿Cu´ntos vectores es preciso agregar a una base de U +W para ob-
            a
        tener una base de S = {M ∈ M33 (R) | M sim´trica}? Justifique
                                                       e
        encontrando una base de S.
                                                              Ê
P2. Sea m = 2n con n > 0 y considere el conjunto Pm ( ) de los polinomios
    reales de grado menor o igual a m. Si cada p ∈ Pm ( ) se escribe    Ê
    p(x) = a0 + a1 x + · · · + am xm , se define el conjunto
                                     Ê




                                                                                                                          ´
                 V = {p ∈ Pm ( ) | ∀i ∈ {0, . . . , m}, ai = am−i .}
    (a)                                                         Ê
          Probar que V es subespacio vectorial de Pm ( ) sobre los reales.
    (b)   Encontrar una base de V y deducir que su dimensi´n es n + 1.
                                                           o
    (c)                      Ê
          Probar que Pm ( ) = V ⊕ Pn−1 ( ).           Ê
    (d)   Se define
                             m
                                                  Ê
                                                                                                                  ı
            ′
          V = {p(x) =            ai xi ∈ Pm ( ) | ∀i ∈ {0, . . . , m}, ai = −am−i }.
                         i=0

                             Ê
          Probar que Pm ( ) = V ⊕ V ′ (asuma que V ′ es un subespacio
                             Ê
          vectorial de Pm ( )).
                   Ê
P3. Si A ∈ Mnn ( ) y V es un subespacio vectorial de            Ên, se define:
                                  A(V ) = {Ax | x ∈ V }.
                                                      Ê
    (a) (1) Pruebe que si A ∈ Mnn ( ) y V es s.e.v. de n entonces       Ê
            A(V ) tambi´n es s.e.v. de n .
                         e                            Ê
                                          Ê
        (2) Sean V, W s.e.v. de n tales que V ⊕ W = n . Pruebe que  Ê
                                 Ê
            si A ∈ Mnn ( ) es invertible entonces A(V ) ⊕ A(W ) = n .           Ê
                                         Ê
        (3) Sean V, W s.e.v. de n tales que V ⊕ W = n . Pruebe que  Ê
                                         Ê
            si A(V ) ⊕ A(W ) = n , entonces A es invertible.
                                                            Ê
            Indicaci´n: Pruebe que para todo z ∈ n el sistema Ax = z
                    o
            tiene soluci´n.
                        o
                                         Ê
    (b) (1) Sea W un s.e.v. de n y definamos E = {A ∈ Mnn ( ) | A( n ) ⊂     Ê       Ê
            W }. Muestre que E es un s.e.v. de Mnn ( ).         Ê
                                             Ê
        (2) Sea W = {(t, t) | t ∈ }. Calcule la dimensi´n de E = {A ∈
                                                        o
                     Ê           Ê
            M22 ( ) | A( 2 ) ⊂ W }.


                                             96
´
                                Ingenier´a Matematica
                                        ı
                                FACULTAD DE CIENCIAS
                                F´SICAS Y MATEMATICAS
                                  I                 ´
                                UNIVERSIDAD DE CHILE
                                ´
                                Algebra Lineal 08-2

                            SEMANA 8: TRANSFORMACIONES LINEALES




                                                                                             Departamento de Ingenier´a Matematica - Universidad de Chile
4.       Transformaciones lineales
4.1.               ´
         Introduccion
Sea la matriz A = ( 0 1 ) y multipliquemos los vectores de 2 por esta
                          10                                         Ê
matriz. Sea v = ( x1 ), se tiene entonces Av = ( x2 ), es decir el vector que se
                     x2                           x1
obtiene de intercambiar las coordenadas de v.
Si tomamos A = −1 −1 , al multiplicar por el vector v obtenemos Av =
                        0
                          0
    x1
− ( x2 ) , que es el vector sim´trico con respecto al or´
                               e                        ıgen.
Estos dos ejemplos nos dan funciones completamente distintas pero ellas
comparten propiedades que son fundamentales: la imagen de la suma de dos
vectores es la suma de las imagenes y la imagen de un vector ponderado por
un real es la imagen del vector ponderada por el mismo escalar. Funciones
que verifican estas propiedades son llamadas lineales y son el objeto de este
cap´ıtulo. Veamos un caso m´s general.
                               a
     Ê
En n consideremos T como la funci´n:    o
                                          Ên → Êm




                                                                                                                             ´
                                    T :
                                           v → Av

donde A ∈ Mmn ( )    Ê
Este tipo de transformaciones tiene dos propiedades fundamentales:
     1. T (u + v) = T (u) + T (v)         ∀u, v ∈   Ên
                                        Ê, v ∈ Ên
                                                                                                                     ı
     2. T (λv) = λT (v)       ∀λ ∈
En efecto, T (u + v) = A(u + v). Como la multiplicaci´n matricial distribuye
                                                     o
con respecto a la suma:

                      T (u + v) = Au + Av = T (u) + T (v)

Por otra parte, T (λv) = A(λv) = λAv = λT (v)

4.2.     Tranformaciones lineales
Definici´n 4.1 (Tansformaci´n lineal). Sean U, V dos espacios vecto-
         o                    o                                                    Transformaci´n lineal
                                                                                               o
                                    Ã
riales sobre el mismo cuerpo . Diremos que una funci´n T : U → V es
                                                         o
una transformaci´n (o funci´n) lineal si y s´lo si satisface:
                 o         o                o

                 1. ∀u1 , u2 ∈ U, T (u1 + u2 ) = T (u1 ) + T (u2 )
                                                                          (4.1)
                 2. ∀u ∈ U, λ ∈ K, T (λu) = λT (u)
 Se˜alemos que la propiedad 4.1 establece un homomorfismo entre los grupos
   n
(U, +) y (V, +).




                                           97
Ejemplos:




                                                                                                            Departamento de Ingenier´a Matematica - Universidad de Chile
  1. Cualquier funci´n T :
                    o         Ên → Êm, X → AX, es lineal.
  2.   El caso particular, f : Ê → Ê, x → ax, a ∈ Ê es lineal. En efecto,
       f (x + y) = a(x + y) = ax + ay = f (x) + f (y). Adem´s, f (λx) =
                                                             a
       a(λx) = λax = λf (x). Esta transformaci´n corresponde a una
                                                   o
       recta (l´
               ınea) que pasa por el or´
                                       ıgen con pendiente a.
          Ê Ê
  3. f : → , x → x2 , no es lineal. En efecto: f (x + y) = (x + y)2 =
     x2 + 2xy + y 2 = f (x) + f (y) + 2xy, luego no es lineal. En general
     cualquier funci´n real de grado superior a uno , trigonom´trica,
                     o                                             e
     etc´tera, no es lineal.
        e
                Ê         Ê
  4. f : P3 ( ) → 4 , p(x) = a0 + a1 x + a2 x2 + a3 x3 → f (p) =
     (a0 , a1 , a2 , a3 ), es lineal. En efecto; si q(x) = b0 + b1 x + b2 x2 + b3 x3 ,
     obtenemos
       f (p + q) = f ((a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + (a3 + b3 )x3 ) =
                 = (a0 + b0 , a1 + b1 , a2 + b2 , a3 + b3 ) = (a0 , a1 , a2 , a3 ) + (b0 , b1 , b2 , b3 )
                  = f (p) + f (q)




                                                                                                                                            ´
          f (λp) = f (λa0 + λa1 x + λa2 x2 + λa3 x3 ) = (λa0 , λa1 , λa2 , λa3 )
                 = λ(a0 , a1 , a2 , a3 ) = λf (p).


                ÊÊ
  5. Sea Fd ( , ) el conjunto de las funciones reales derivables. Es
     directo verificar que este conjunto es un s.e.v. de F( , ). Consi-   ÊÊ

                                                                                                                                    ı
     deremos la transformaci´n:
                              o

                                T : Fd ( ,Ê Ê) → F(Ê, Ê)
                                               f → T (f )
                         df
       donde T (f )(x) = dx (x) es la funci´n derivada. Es directo, de las
                                           o
       propiedades de derivaci´n que T es lineal.
                               o
  S ea V e.v sobre       Ã, V    = V1 ⊕ V2 y sean:

                              P1 : V → V1 ,         P2 : V → V2
            v = v1 + v2 → P1 (v) = v1              v = v1 + v2 → P2 (v) = v2
       Ambas funciones (¿porqu´ son funciones?) son lineales. Verifique-
                                 e
                                      Ã
       mos para P1 : sean λ, β ∈ v = v1 + v2 , u = u1 + u2 , vi , ui ∈ Vi , i =
       1, 2.
               P1 (λv + βu) = P1 (λv1 + βu1 ) + (λv2 + βu2 )) =
                              = λv1 + βu1 = λP1 (v) + βP1 (u)
       La funci´n, Pi , se denomina la proyecci´n de V sobre Vi .
               o                               o




                                          98
4.3.   Propiedades de transformaciones lineales




                                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
Proposici´n 4.1. Sea T : U → V una transformaci´n lineal. Se tiene
          o                                    o
entonces:
  1. T (0) = 0 ∈ V .
  2. T (−u) = −T (u).
  3. T es lineal si y s´lo si ∀λ1 , λ2 ∈ K, ∀u1 , u2 ∈ U
                       o
                       T (λ1 u1 + λ2 u2 ) = λ1 T (u1 ) + λ2 T (u2 ).


          ´
Demostracion. Demostremos estas propiedades:
  1. T (u) = T (u + 0) = T (u) + T (0)
     como V es espacio vectorial (V, +) es un grupo Abeliano, luego pode-
     mos cancelar T (u); de donde 0 = T (0).
  2. T (−u) = T (−1u) = −1T (u) = −T (u).
  3. ⇒) T (λ1 u1 + λ2 u2 ) = T (λ1 u1 ) + T (λ2 u2 ) = λ1 T (u1 ) + λ2 T (u2 ).
     ⇐) Tomando λ1 = λ2 = 1 se verifica la propiedad (1) de linealidad.




                                                                                                                               ´
     Considerando λ2 = 0, se obtiene la propiedad (2).




  Observaci´n: Note que las demostraciones de las propiedades 1 y 2
             o
  podr´ haber sido omitidas, ya que dichas propiedades son consecuen-
       ıan
  cias de que T sea morfismo entre los grupos (U, +) y (V, +).


Dada una combinaci´n lineal de vectores
                  o
                                                          n
                                                               λi xi ∈ U y la transformaci´n
                                                                                          o                            ı
                                                        i=1
lineal,
T : U → V . Se tiene, por inducci´n, que:
                                 o
                                n                   n
                           T(         λi xi ) =           λi T (xi )
                                i=1                 i=1

Si dim U = n y β = {ui }n es una base de U , sabemos que u ∈ U se escribe,
                        i=1
                                      n
de manera unica, como u =
          ´                               αi ui , donde los escalares α = (α1 , ..., αn )
                                    i=1
corresponden a las coordenadas de u con respecto a la base β. Aplicando a
este vector u la transformaci´n lineal T :
                             o
                                          n                n
                       T (u) = T (            αi ui ) =         αi T (ui )             (4.2)
                                      i=1                 i=1

De este c´lculo se desprende que: basta definir la transformaci´n T sobre
         a                                                       o
una base de U , es decir calcular s´lo {T (vi )}n . Para determinar el efecto
                                   o            i=1
de T sobre un vector u ∈ V arbitrario, basta aplicar la ecuaci´n 4.2.
                                                               o

                                                                                               ◭ Ejercicio
                                               99
Departamento de Ingenier´a Matematica - Universidad de Chile
  Ejercicio 4.1: Pruebe que entonces dada una base β = {ui }n de U
                                                              i=1
  y n vectores X = {vi }n no necesariamente ℓ.i. de V existe una unica
                        i=1                                       ´
  transformaci´n lineal T
               o
                            T :U →V
                                         u → T (u)
   tal que T (ui ) = vi i = 1, ..., n.



Consideremos ahora la transformaci´n:
                                  o
                        f :U → n  Ã
                           u → f (u) = α = (α1 , ..., αn )

 que a cada vector u le asocia las coordenadas con respecto a una base fija
β = {ui }n .
         i=1


Es claro que f es funci´n (representaci´n unica de un vector con respecto
                         o             o ´
a una base). Adem´s, es lineal. M´s a´ n f es biyectiva (verif´
                     a              a u                       ıquelo). Esto    ◭ Ejercicio




                                                                                                               ´
nos lleva a la siguiente definici´n.
                                o
Definici´n 4.2 (Isomorfismo). Sea T : U → V una transformaci´n
          o                                                       o            Isomorfismo
lineal, diremos que es un isomorf´
                                 ısmo si T es biyectiva.
Adem´s diremos que U y V son isomorfos si existe un isomorf´smo entre
       a                                                   ı
U y V , en cuyo caso lo denotaremos como U ∼ V .
                                            =

En nuestro ejemplo anterior f es un isomorf´            =          Ã
                                              ısmo y U ∼ n . Esto quiere

                                                                                                       ı
                                                                          Ã
decir que si U tiene dimensi´n finita n se “comporta” como si fuera n . Esta
                            o
isomorf´ no es unica, depende de la base elegida. Por el momento esto no
        ıa        ´
debe preocuparnos. Calculemos adem´s la imagen, a trav´s del isomorfismo
                                       a                 e

f , de la base {ui }n del espacio vectorial U .
                    i=1
                                                          0
                                                            .
                                                          .
                                                            .
         f (ui ) = f (0u1 + · · · + 1ui + · · · + 0un ) =  1  = ei ∈
                                                          .            Ãn
                                                            .
                                                            .
                                                          0

Luego, la base asociada a     {ui }n
                                   i=1   es la base can´nica de
                                                       o          Ãn .
4.4.             ´
        Composicion de funciones lineales
Consideremos U, V, W espacios vectoriales sobre el mismo cuerpo. Sean T :
U → V y L : V → W dos transformaciones lineales, la composici´n L ◦ T :
                                                                  o
U → W es f´cil ver que es una funci´n lineal. Si adem´s L y T son biyectivas
           a                       o                 a
        ısmos) entonces tambi´n lo es L ◦ T .
(isomorf´                      e
Otra propiedad importante es que si T : U → V es un isomorf´      ısmo ten-
dremos que la funci´n inversa, que existe pues T es biyectiva, tambi´n
                    o                                                     e

                                          100
es un isomorf´  ısmo. En efecto s´lo resta probar que T −1 es lineal, pues es
                                    o
                                                                       Ã




                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
claro que es biyectiva (¿por qu´?). Tomemos v1 , v2 ∈ V, λ, β ∈ . Sean
                                     e
T −1 (v1 ) = u1 , T −1 (v2 ) = u2 por lo tanto

             T (λu1 + βu2 )) = λT (u1 ) + βT (u2 ) = λv1 + βv2 ,

esto quiere decir que

          T −1 (λv1 + βv2 ) = λu1 + βu2 = λT −1 (v1 ) + βT −1 (v2 ),

entonces T −1 es lineal.
Una transformaci´n lineal importante es idU : U → U que es la transfor-
                   o
maci´n identidad. Como sabemos que es biyectiva se tiene que idU es un
     o
isomorf´ısmo.
Con todos estos ingredientes se puede concluir que la relaci´n entre espacios
                                                            o
vectoriales de ser isomorfos es una relaci´n de equivalencia.
                                          o

4.5.                                           ´
       Subespacios Asociados a una transformacion lineal
Definici´n 4.3 (N´ cleo). Sea una transformaci´n lineal T : U → V .
       o          u                          o                                                                                         N´cleo
                                                                                                                                        u
Definimos el n´ cleo de T como el conjunto:
             u




                                                                                                                     ´
                        KerT = {x ∈ U/T (x) = 0}.

Claramente, KerT = φ ya que como T (0) = 0 tenemos que siempre 0 ∈
KerT . M´s a´ n, KerT es un s.e.v. de U . En efecto, sean x, y ∈ KerT, λ, β ∈
        a u
à ;
               T (λx + βy) = λT (x) + βT (y) = λ0 + β0 = 0


                                                                                                             ı
luego, λx + βy ∈ KerT .
Otro conjunto importante en el estudio de transformaciones lineales es la
imagen:
Definici´n 4.4 (Imagen). Sea una transformaci´n lineal T : U → V .
       o                                    o                                                                                    Imagen
Definimos la imagen de T como el conjunto:

               ImT = T (U ) = {v ∈ V /∃u ∈ U : v = f (u)}

ImT es un s.e.v de V . En efecto, sean v1 , v2 ∈ ImT , existen entonces
                                                         Ã
u1 , u2 ∈ U tales que vi = T (ui ), i = 1, 2. Dados λ, β ∈ se tiene:

              λv1 + βv2 = λT (u1 ) + βT (u2 ) = T (λu1 + βu2 )
               ımos λv1 + βv2 ∈ ImT .
de donde conclu´
Definici´n 4.5 (Rango y nulidad). La dimensi´n de ImT se denomi-
         o                                         o                            Rango y nulidad
na el rango de la transformaci´n T y se nota r. La dimensi´n del KerT se
                              o                           o
llama nulidad y se suele denotar por la letra griega ν.




                                     101
Ejemplo:




                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
Desarrollemos un ejemplo. Sea la transformaci´n lineal:
                                             o

                             T :   Ê4 → Ê3
                               x1            x1 +x2
                               x2
                               x3    →       x2 −x3
                               x4            x1 +x3


o en t´rminos matriciales:
      e
                                                 x1 
                             1 1            0 0
                                                  x 
                   T (x) =  0 1           −1 0   2 
                                                    x3
                             1 0            1 0
                                                    x4
Determinemos los subespacios KerT y ImT . Tenemos que x ∈ KerT ⇔

T (x) = 0, lo que es equivalente a determinar la soluci´n general del
                                                       o
sistema homog´neo:
              e
                                    x1   
                    1 1        0 0             0
                                     x 
                   0 1       −1 0   2  =  0 




                                                                                                                ´
                                       x3
                    1 0        1 0             0
                                       x4

Escalonando:
                                                                 
    1 1    0 0     1  1  0 0       1 1                            0 0
  0 1 −1 0  →  0   1 −1 0  →  0 1                           −1 0  (4.3)
    1 0    1 0     0 −1  1 0       0 0                            0 0

De donde:
                                                      x1 = −x2                                          ı
                 x1 + x2 = 0                          x2 = x3
                                         ⇔
                 x2 − x3 = 0                          x3 = x3
                                                      x4 = x4
Lo cual permite escribir la soluci´n general en funci´n de dos par´metros:
                                  o                  o            a
                                                       
      x1 = −x3                         x1       −1         0
       x2 = x3                        x2     1        0
                        ⇔              = x3      + x4  
       x3 = x3                         x3        1         0
       x4 = x4                         x4        0         1




                                     102
Ê4 de dimensi´n dos.
                                   −1         0
                                    1         0




                                                                                                           Departamento de Ingenier´a Matematica - Universidad de Chile
Luego, KerT =                       1   ,     0             es un s.e.v de                    o
                                    0         1
                                                       y1
Determinemos ahora ImT . Sea                           y2
                                                       y3
                                                             ∈ ImT , es decir:


                                                   x1 
                         y1       1        1   0 0
                                                       x 
                        y2  =  0        1 −1 0   2 
                                                         x3
                         y3       1        0   1 0
                                                         x4
                                                              
                                          1          1           0
                                   = x1  0  + x2  1  + x3  −1 
                                          1          0           1
                               1        1          0
 Luego ImT =       0 , 1 , −1        .
                   1     0     1
Pero del resultado de escalonar la matriz que tiene como columnas a
              1    1      0       0
los vectores 0 , 1 , −1 y 0 , en 4.3 podemos extraer una ba-
                       1       0        1               0
               1           1        0        0                       1       1       0
se de     0 , 1 , −1 , 0         =      0 , 1 , −1        , tomando
          1    0     1      0           1      0     1
aquellos vectores asociados a columnas con pivotes de la matriz




                                                                                                                                           ´
escalonada (Importante: ver gu´ de ejercicios y problemas). Es decir,
                              ıa
   1       1
   0   ,   1       .                                                                                       ◭ Ejercicio
   1       0

Conclu´
      ımos entonces que ImT =
                                                             1
                                                             0
                                                             1
                                                                 ,
                                                                         1
                                                                         1
                                                                         0
                                                                                 es un s.e.v. de   Ê3 de
dimensi´n dos.
       o

Observemos en este ejemplo que 4 = dim 4 = dim KerT + dim ImT .      Ê
                                                                                                                                   ı
Adem´s T no es inyectiva ya que KerT contiene m´s de un vector, es
      a                                          a
                0
decir el vector 0 tiene m´s de una pre-imagen. Tampoco es epiyectiva
                         a
                                            Ê3 .
                           0
ya que dim ImT < 3 = dim




                                                   103
Departamento de Ingenier´a Matematica - Universidad de Chile
Teorema 4.1. Sea T : U → V una transformaci´n lineal entonces
                                           o
                         T es inyectiva ⇔ KerT = {0}


               ´
Demostracion. ⇒) Dado u ∈ KerT, T (u) = 0 = T (0). Como T es
inyectiva, se tiene u = 0.
⇐) Sea T (u1 ) = T (u2 ) ⇔ T (u1 − u2 ) = 0 luego u1 − u2 ∈ KerT = {0}, de
donde u1 = u2 .

De este resultado obtenemos el siguiente Corolario
Corolario 4.1. Una transformaci´n lineal T : U → V , es un isomorfismo
                                o
si y s´lo si KerT = {0} ∧ ImT = V , o equivalentemente dim ImT = dim V
      o
y dim KerT = 0.
              ´
Demostracion. Para probar la biyectividad de T , basta notar que KerT =
{0} (inyectividad) y ImT = V (epiyectividad). La otra equivalencia sale de
que ImT = V ⇔ dim ImT = dim V y KerT = {0} ⇔ dim KerT = 0.

La inyectividad de aplicaciones lineales (KerT = {0}) tiene una consecuen-




                                                                                                                      ´
cia muy importante sobre los conjuntos linealmente independientes.


Teorema 4.2. Si T : U → V es inyectiva, entonces {ui }k es ℓ.i. en
                                                      i=1
U ⇒ {T (ui )}k es l.i. en V .
             i=1



          ´
Demostracion. Sea la combinaci´n lineal nula:
                              o

                                                                                                              ı
                     n                            n
                           λi T (ui ) = 0 ⇔ T (         λi ui ) = 0
                     i=1                          i=1
                      n                                   n
                 ⇔         λi ui ∈ KerT = {0} ⇔                λi ui = 0
                     i=1                                 i=1

Como {ui }n es ℓ.i., λi = 0, i = 1, ..., n.
          i=1

Se puede probar que en efcto esta propiedad caracteriza las aplicaciones
lineales inyectivas (hacerlo!).

Finalizamos est´ secci´n mencionando un ejemplo interesante:
                a      o                                                   Ên+1   ∼
                                                                                  =
   Ê
Pn ( ). En efecto, sea
   Ê             Ê
T : n+1 → Pn ( ) tal que:
                         
                          a0
                         a1   n
                         
                         . →
                         .
                                  ai xi ∈ Pn ( )            Ê
                           .           i=0
                              an
Es f´cil verificar que T es lineal.
    a


                                         104
´
                                  Ingenier´a Matematica
                                          ı
                                  FACULTAD DE CIENCIAS
                                                                                                        Gu´a
                                                                                                          ı
                                  F´SICAS Y MATEMATICAS
                                                      ´
                                    I
                                  UNIVERSIDAD DE CHILE                                                  Semana 8
                                  ´
                                  Algebra Lineal 08-2

Ejercicios




                                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
1. El objetivo de este ejercicio es formalizar la t´cnica mencionada en la
                                                   e
   tutor´ para extraer, de un conjunto generador de un cierto subespacio
        ıa
   vectorial, una base. Esto en el contexto de n .   Ê
   Considere v1 , . . . , vm ∈Ê n
                               y U = {v1 , . . . , vm } . Sea adem´s la matriz
                                                                  a
                                                                       Ê
   A, escrita por columnas como A = (v1 , . . . , vm ) ∈ Mnm ( ). Denotamos
   por vij a la coordenada i del vector j y, por ende, a la componente (i, j)
   de A.
   Escalonando la matriz A, se obtiene:
                                                                                                                                                                             
          v11 v12 · · ·
          ˜     ˜
                                                                                                                                                                              
        0       0 · · · 0 v2j2˜                                                                                                                                               
                                                                                                                                                                              
                                    ..                                                                                                                                        
                         0      0      .                                                                                                                                      
                                                                                                                                                                              
                                                                                                                                                                              
                                     0           vkjk
                                                  ˜        vk(jk +1)
                                                           ˜               ···                                                                                                 
                                                                                                                                                                              
   ˜                                 0             0          ···         0     v(k+1)jk+1
                                                                                 ˜                                                                                             
   A=                                                                                                                                                                         
                                                                                                                                                                              
                                                                                             ..                                                                               
                                                                          0         0          .                                                                              
                                                                                                                                                                              
                                                                                                                                                                          vlm 




                                                                                                                                      ´
                                                                                             0     vljl
                                                                                                    ˜                                                                ···   ˜ 
                                                                                                                                                                              
                                                                                             0      0                                                               ···    0 
                                                                                                                                                                              
                                                                                              .
                                                                                              .                                                                             .
                                                                                                                                                                            .
                                                                                              .                                                                             .


   Los coeficientes encerrados en un rect´ngulo
                                        a                 vkjk
                                                          ˜          son los pivotes de



                                                                                                                              ı
                                                                    ˜
   la matriz escalonada. Notamos por vj a la columna j de la matriz A.
                                     ˜

   (a) Demuestre que el conjunto de vectores {v1 , vj2 , . . . , vjl }, es decir las
       columnas correspondientes a los pivotes, es un conjunto l.i.
       Indicaci´n: Estudie qu´ sucede si en la matriz original A s´lo hu-
               o                e                                             o
       biese puesto los vectores v1 , vj2 , . . . , vjl .
                                       ˜
   (b) Pruebe que las columnas de A que no contienen pivotes, que est´n             a
       entre la del pivote k y la del k + 1 (es decir vjk +1 , . . . , vjk+1 −1 ), son
                                                          ˜            ˜
       combinaci´n lineal de los vectores v1 , vj2 , . . . , vjk .
                 o                               ˜ ˜         ˜
       Indicaci´n: Use inducci´n en k.
               o                o
   (c) Dado un conjunto de vectores {u1 , . . . , um } ∈             Ên   y una matriz
                                    Ê
       invertible E ∈ Mnn ( ), demuestre que:

        u∈   Ên es combinaci´n lineal de u1, . . . , um
                            o                                  ⇔ Eu ∈      Ên es combinaci´n lineal de Eu1, . . . , Eum.
                                                                                          o

   (d) Use el resultado anterior para probar que, las columnas de A que
       no est´n asociadas a pivotes, entre la columna del pivote k y la del
             a
       k + 1 (es decir vjk +1 , . . . , vjk+1 −1 ), son combinaci´n lineal de los
                                                                 o
       vectores v1 , vj2 , . . . , vjk .
   (e) Concluya que {v1 , vj2 , . . . , vjl } es base de U .


                                         105
Ê
2. Sea un conjunto de vectores v1 , . . . , vm ∈ n , con U = {v1 , . . . , vm } y




                                                                                                    Departamento de Ingenier´a Matematica - Universidad de Chile
   dim(U ) < n. Muestre que, construyendo la matriz A del Ejercicio 1, “au-
                                               Ê
   ment´ndola” con la identidad en Mnn ( ) (es decir (A|I)) y aplicando
        a
   el mismo procedimiento, se consigue:
        Extraer una base de U , desde {v1 , . . . , vm }.
        Extender dicha base a una base de       Ên .
                                Ê3 generado por el conjunto
3. Sea U el subespacio vetorial de
                                                                         1
                                                                         0   ,
                                                                                    1
                                                                                   −1   ,
                                                                                            1
                                                                                            1   .
   Extraiga una base de U y exti´ndala a una base de Ê3 .
                                                                         1          2       0
                                e


Problemas
             Ê
P1. Sea P3 ( ) el conjunto de los polinomios de grado menor o igual a 3
                                                                     Ê
    con coeficientes reales. Se define la transformaci´n T : P3 ( ) → P3 ( )
                                                    o                              Ê
    por:

      T (a0 + a1 x + a2 x2 a3 x3 ) = a0 + (2a1 + a2 )x + (2a2 + a3 )x2 + 2a3 x3 .

     (a) Probar que T es una transformaci´n lineal.
                                         o




                                                                                                                                    ´
     (b) Probar que T es una transformaci´n biyectiva.
                                         o
     (c) Si id es la transformaci´n identidad del espacio vectorial P3 ( )
                                 o                                                 Ê
         pruebe que T − 2 id, (T − 2 id)2 , (T − 2 id)3 y T − id son transfor-
         maciones lineales.
         Indicaci´n: Recuerde que dada una funci´n f , f k = f ◦ f ◦ · · · ◦ f .
                 o                                  o
                                                                         k veces




                                                                                                                            ı
     (d) Encontrar bases y dimensi´n de Ker(T − 2 id), Ker(T − 2 id)2 y
                                  o
         Ker(T − 2 id)3 .
                           Ê
     (e) Probar que P3 ( ) = Ker(T − 2 id)2 ⊕ Ker(T − id).
P2. (a) Considere la funci´n T :
                          o          Ê4 → M22(Ê) definida por
                           x
                           y               x                y+w
                      T    z   =                                 .
                           w        2x + 2y + z + w        x+y+z

          (1) Demuestre que T es funci´n lineal.
                                      o
          (2) Determine bases y dimensiones para Ker(T ) e Im(T ).
     (b) Dada la transformaci´n lineal L :
                             o                 Ê3 → Ê2 se sabe que:
                                                        
                           1        1                       1
                            0 , 1                                1
             Ker(L) =                                  y   L 1 =      .
                                                                   −1
                              0      0                        1

          Encuentre en t´rminos de x1 , x2 y x3 , los valores de y1 y y2 que
                        e
                       x1     y
          satisfacen L x = ( y1 ).
                       x2
                                2
                          3




                                      106
P3. Sean V , W e. v.’s sobre   Ê. En V ×W se definen la suma y ponderaci´n
                                                                       o




                                                                                        Departamento de Ingenier´a Matematica - Universidad de Chile
    por escalar as´
                  ı:

      (v, w) + (v ′ , w′ ) =   (v + v ′ , w + w′ ) ,   ∀(v, w), (v ′ , w′ ) ∈ V × W ,
               λ(v, w)    =    (λv, λw) ,     ∀(v, w) ∈ V × W , ∀λ ∈ Ê.
     Con estas operaciones V × W         es un espacio vectorial sobre Ê (no lo
     pruebe).
     Dada una funci´n f : V → W se define su gr´fico por
                   o                          a

                     Gf    =    {(v, w) ∈ V × W : w = f (v)} .

     (a) Pruebe que f es lineal s´ y s´lo si Gf es subespacio vectorial de
                                 ı    o
         V × W.
    (b) Pruebe que {0V } × W es sub–espacio vectorial de V × W .
        Nota: 0V denota el neutro aditivo de V .
     (c) Sea f : V → W lineal. Pruebe que Gf ⊕ ({0V } × W ) = V × W .




                                                                                                                ı       ´




                                        107
´
                                Ingenier´a Matematica
                                        ı
                                FACULTAD DE CIENCIAS
                                F´SICAS Y MATEMATICAS
                                  I                 ´
                                UNIVERSIDAD DE CHILE
                                ´
                                Algebra Lineal 08-2

                            SEMANA 9: TRANSFORMACIONES LINEALES




                                                                                          Departamento de Ingenier´a Matematica - Universidad de Chile
4.6.   Teorema del Nucleo-Imagen (TNI)
                    ´
El prop´sito de est´ secci´n es probar el siguiente teorema.
       o           a      o



Teorema 4.3 (N´ cleo-Imagen). Sean U, V espacios vectoriales sobre
                 u                                                                          Teorema
           Ã
un cuerpo , T : U → V una transformaci´n lineal, dim U < ∞. Entonces:
                                      o                                          N´cleo-Imagen (TNI)
                                                                                  u

                        dim U = dim KerT + dim ImT.


                 ´
Demostracion. Daremos una demostraci´n constructiva de este teorema.
                                                 o
Sea {u1 , ..., uν } una base de KerT . Completemos esta base a una base de
U
                         βU = {u1 , ..., uν , uν+1 , ..., un }.
Probaremos que β ′ = {T (uν+1 ), ..., T (un )} es base de ImT . Sea v ∈ ImT es
decir v ∈ V y existe u ∈ U T (u) = v. Como βU es base de U se tendr´ que a




                                                                                                                          ´
               u = α1 u1 + .... + αν uν + αν+1 uν+1 + .... + αn un ,

de donde
                  v = T (u) = αν+1 T (uν+1 ) + .... + αn T (un ),
pues T (u1 ) = ... = T (uν ) = 0. Es decir v es combinaci´n de los elementos
                                                         o
de β ′ . Probemos ahora que son l.i., para ello consideremos

                      αν+1 T (uν+1 ) + .... + αn T (un ) = 0.
                                                                                                                  ı
Como T (αν+1 uν+1 + .... + αn un ) = αν+1 T (uν+1 ) + .... + αn un T (un ) = 0
se deduce que el vector αν+1 uν+1 + .... + αn ∈ KerT pero entonces existen
escalares λ1 , ..., λν tal que

                 αν+1 uν+1 + .... + αn un = λ1 u1 + .... + λν uν ,

o equivalentemente

               λ1 u1 + .... + λν uν − αν+1 uν+1 − ... − αn un = 0

Como los vectores u1 , ..., un son ℓ.i. se deduce en particular que

                              αν+1 = ... = αn = 0,

y por lo tanto β ′ = {T (uν+1), ..., T (un )} es base de ImT . Pero entonces
tenemos

            dim U = n = ν + (n − ν) = dim KerT + dim ImT.




                                       108
Es directo del TNI que: si dim U = n, y el rango de T es n se tiene




                                                                              Departamento de Ingenier´a Matematica - Universidad de Chile
dim KerT = 0, es decir T es inyectiva. Otra aplicaci´n directa es
                                                    o


Teorema 4.4. Sea T : U → V aplicaci´n lineal.
                                   o
  1. Si dim U = dim V entonces

                  T inyectiva ⇔ T epiyectiva ⇔ T biyectiva.

  2. Si dim U > dim V T no puede ser inyectiva.
  3. Si dim U < dim V T no puede ser epiyectiva.
  4. Como conclusi´n de (2) y (3)
                  o

                      U isomorfo a V ⇔ dim U = dim V.



             ´
Demostracion. Probemos s´lo (2), el resto queda de ejercicio. Del TNI
                          o
se tiene que




                                                                                                              ´
               dim U = dim KerT + dim ImT < dim V,
como dim KerT ≥ 0 se concluye que

                              dim ImT < dim V,

y por lo tanto ImT es un s.e.v. estrictamente m´s peque˜ o que V , es decir
                                               a       n
T no puede ser epiyectiva.


                                                                                                      ı
Es importante se˜ alar que en (1c), la implicancia ⇒ es consecuencia de (2)
                 n
y (3), mientras que ⇐ se obtiene del hecho de que todo espacio de dimensi´n
                                                                         o
                      Ã
finita n es isomorfo a n (ver ejemplo anterior a la Definici´n 4.2).
                                                             o


                                                                              ◭ Ejercicio

  Ejercicio 4.2: Probar que si T : U → V es lineal y W es un subespacio
  de U entonces
    1. T (W ) es subespacio de V.
    2. dim T (W ) ≤ dim U .
    3. Si T es inyectiva dim T (W ) = dim W .




                                    109
4.7.                                               ´
           Matriz Representante de una Transformacion Lineal




                                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
Vimos anteriormente que, dado un e.v V sobre , dimV = n, se ten´ Ã     ıa
       Ã
V ∼ n . Esto nos permite “llevar” el trabajo de cualquier espacio de di-
   =
mensi´n finita a un espacio de n-tuplas. Trataremos de extender esto para
      o
transformaciones lineales, reemplazando estas (en un sentido que precisa-
remos) por matrices.

                                                            Ã
Sean U, V espacios vectoriales sobre un cuerpo , dim U = p, dim V = q.
Sean βU = {u1 , ..., up }, βV = {v1 , ..., vq } bases de U y V respectivamente.
Consideremos finalmente una transformaci´n lineal T : U → V .
                                                 o

Sabemos que T queda completamente determinada por su acci´n sobre la
                                                         o
base βU
                                         q
                        T (uj ) =             aij vi    1≤j≤p
                                    i=1

o bien,
                     T (u1 ) = a11 v1 + a21 v2 + ... + aq1 vq
                     T (u2 ) = a12 v1 + a22 v2 + ... + aq2 vq
                           .




                                                                                                                               ´
                           .
                           .
                     T (up ) = a1p v1 + a2p v2 + ... + aqp vq

Es claro que la informaci´n importante que define T est´ contenida en las
                              o                                 a
coordenadas, (a1j , a2j , ..., aqj ) de cada vector T (uj ), con respecto a la base
βV , en el espacio de llegada. Esta informaci´n la guardamos en una matriz
                                                  o


                                                                                                                       ı
de q filas y p columnas, denominada matriz representante de T , con
respecto a las bases βU y βV :                                                        Matriz representante
                                                                                                      de T
                                a   a12 ...            a1p                                   MβU βV (T )
                                             11
                                 a21 a22 ...            a2p 
                                                                          Ã
                               
                 MβU βV (T ) =  .
                                .      .               .  ∈ Mqp ( )
                                   .    .
                                        .               . 
                                                        .
                                 aq1 aq2 ...            aqp

donde, q = dim U, p = dim V .

En la columna j-´sima de esta matriz, aparecen las coordenadas del vector
                  e
T (uj ) con respecto a la base βV :
                             a 
                                    1j
                                                            q
                              a2j 
                     A•j   =  .  ⇔ T (uj ) =
                              .                                aij vi
                                .                          i=1
                               aqj




                                                  110
Departamento de Ingenier´a Matematica - Universidad de Chile
Observaci´n: Una pregunta interesante es: ¿Qu´ sucede con esta
            o                                     e
matriz si cambiamos las bases?. Esto lo responderemos en breve.

Ejemplo:
Sea T :   Ê4 → Ê3, definida por
                                                              x1 
                                   1 1                   0 0
                                                               x 
                         T (x) =  0 1                   1 0 2 .
                                                                 x3
                                   0 0                   1 1
                                                                 x4
Consideremos β = βU = {e1 , e2 , e3 , e4 }, base can´nica de
                                                    o                                                    Ê4 ,
β ′ = βV =
                1
                1
                0
                    ,
                          1
                          0
                          1
                                  ,
                                      0
                                      1
                                      1
                                                  base de    Ê3. Se tiene entonces:
                               1              1          1       1        1          1           1        0
            T (e1 ) = T        0      =       0     =            1   +               0       −            1
                               0
                               0              0          2       0        2          1           2        1
                               0              1              1                   1                   0
            T (e2 ) = T        1      =       1     =1       1       +0          0       +0          1
                               0              0              0                   1                   1
                               0
                              0               0              1                1                  0




                                                                                                                                                        ´
           T (e3 ) = T        0       =       1    =0        1       +0       0          +1      1
                              1               1              0                1                  1
                              0
                              0               0          1       1           1       1           1         0
           T (e4 ) = T        0       =       0    =−            1       +           0       +             1
                              0
                              1               1          2       0           2       1           2         1

de donde:                                    1                   1      
                                              2     1 0          −2
                                                                        
                             
                Mββ ′ (T ) =                 1
                                                    0 0              1   
                                                                          ∈ M34 ( )          Ê
                                                                                                                                                ı
                                             2                      2   
                                           1                         1
                                          −2        0 1              2

Tomemos ahora, en         Ê3, la base can´nica, β′ =
                                         o
                                                                                         1
                                                                                         0
                                                                                         0
                                                                                             ,
                                                                                                     0
                                                                                                     1
                                                                                                     0
                                                                                                           ,
                                                                                                                0
                                                                                                                0
                                                                                                                1
                                                                                                                    :
                                              1
                          T (e1 ) =           0     = 1e′ + 0e′ + 0e′
                                                        1     2     3
                                              0
                                              1
                          T (e2 ) =           1     = 1e′ + 1e2 + 0e′
                                                        1
                                                              ′
                                                                    3
                                              0
                                              0
                          T (e3 ) =           1     = 0e1 + 1e′ + 1e′
                                                        ′
                                                              2     3
                                              1
                                              0
                          T (e4 ) =           0     = 0e′ + 0e′ + 1e′
                                                        1     2     3
                                              1

Luego,                                                                        
                                             1               1 0             0
                              Mββ ′ (T ) =  0               1 1             0
                                             0               0 1             1
¡Sorpresa!, esta matriz representante no s´lo es distinta de la anterior,
                                          o
sino que corresponde a la matriz que define T en forma natural. Con-
clu´
   ımos entonces que: la matriz representante depende de las bases ele-
gidas y que la matriz representante con respecto a las bases can´nicas
                                                                  o


                                                   111
es la matriz asociada a T . Esto ultimo lo podemos verificar en el caso
                                    ´
   general:




                                                                                                          Departamento de Ingenier´a Matematica - Universidad de Chile
        Consideremos                            TA :    Ãp → Ãq
                                                            x → Ax, A ∈ Mqp ( )            Ã
   Sea β = {e1 , ..., ep } la base can´nica de
                                      o                         Ãp y β′ = {e′1, ..., e′q } la base
   can´nica de q .
      o           Ã
   Se tiene entonces:
                                                                      
                                                                     0     a 
                                      a11 ...    a1j ...        a1p  . 
                                                                     ..       1j

                              
             TA (ej ) = Aej =          .
                                        .          .
                                                   .             .   1  =  a2j 
                                                                 .    . 
                                        .          .             .   .  .   .
                                      aq1 ...    aqj ...        aqp  . 
                                                                       .
                                                                               aqj
                                                                       0

   o bien:
                                                                           q
                      TA (ej ) = a1j e′ + ... + aqj e′ =
                                      1              m                         aij e′
                                                                                    i
                                                                         i=1




                                                                                                                                          ´
                  ımos Mββ ′ (TA ) = A.
   de donde conclu´

Veamos ahora como interactuan T y M = Mββ ′ (T ). Sea u ∈ U , entonces

                                u = α1 u1 + ... + αp up ,
                                 p                                                q
y por lo tanto T (u) =           j=1   αj T (uj ) pero T (uj ) =                  i=1   mij vi y por lo


                                                                                                                                  ı
tanto                       p           q                   q        p
                 T (u) =         αj          mij vi =            (       αj mij )vi .
                           j=1         i=1                 i=1 j=1

As´ las coordenadas de T (u) con respecto a β ′ son
  ı
                            p                           p
                                 αj m1j , . . . ,               αj mqj ,
                           j=1                        j=1

y por lo tanto si α = (α1 , ..., αp ) son las coordenadas de u entonces M α
son las de T (u). Esto permite trabajar con M en vez de T .
Ya tenemos una matriz que representa T , ahora deseamos “olvidarnos” de
T y trabajar s´lo con un representante matricial. Para hacer esto, en alge-
               o
bra acostumbramos establecer una isomorf´ en este caso, entre el espacio
                                              ıa,
                                                   Ã
vectorial de todas estas matrices, Mqp ( ), y aqu´l de todas las transforma-
                                                   e
ciones lineales. Para ello definamos primero este ultimo espacio.
                                                    ´
Definici´n 4.6. Sea U, V espacios vectoriales sobre
        o                                                                       Ã,      de dimensiones
dim U = p y dim V = q respectivamente.
Definimos

             LÃ (U, V ) = {T : U → V /T es transformaci´n lineal }
                                                       o

                                                112
Es directo que LÃ (U, V ), dotado de las operaciones:                                                      LÃ (U, V )




                                                                                          Departamento de Ingenier´a Matematica - Universidad de Chile
                                                     Ã
                (λT )(x) = λT (x), ∀λ ∈ , ∀T ∈ LÃ (U, V )
             (T + T ′ )(x) = T (x) + T ′ (x), ∀T, T ′ ∈ LÃ (U, V )
es un espacio vectorial sobre el cuerpo             Ã.
Tenemos entonces la propiedad buscada:

                               LÃ (U, V ) ∼ Mqp ( )
                                          =              Ã
En efecto, sean βU , βV bases de U y V respectivamente y definamos la
funci´n.
     o

                     ϕ : LÃ (U, V ) → Mqp ( )        Ã
                                    T → ϕ(T ) = MβU βV (T )
 Es decir, a una transformaci´n lineal arbitraria le asociamos su matriz
                               o
representante con respecto a las bases βU y βV .

  1. ϕ es una transformaci´n lineal. Sean βU = {u1 , ..., up }, βV = {v1 , ..., vq },
                          o




                                                                                                                          ´
     T, L ∈ LK (U, V ), A = MβU βV (T ), B = MβU βV (L).

     Calculemos ϕ(T + L) = MβU βV (T + L).

                     (T + L)(uj ) = T (uj ) + L(uj ) =
                          q                q                q
                     =         aij vi +         bij vi =         (aij + bij )vi


                                                                                                                  ı
                         i=1              i=1              i=1

      Luego, la j-´sima columna de MβU βV es el vector:
                  e
                                          
                                 a1j + b1j
                                    .
                                     .     
                                    .      = A•j + B•j
                                   aqj + bqj
     Se concluye entonces:
                                                                       
                                    a11 + b11 ...a1j + b1j ...a1p + b1p
                                    .                                  
       ϕ(T + L) = MβU βV (T + L) =  . .
                                                   .
                                                   .
                                                   .
                                                               .
                                                               .
                                                               .        
                                                    aq1 + bq1 ...aqj + bqj ...aqp + bqp


                  = A + B = MβU βV (T ) + MβU βV (L) = ϕ(T ) + ϕ(L)

      De manera an´loga se prueba que
                  a

                                   ϕ(λT ) = MβU βV (λT ).



                                           113
2. ϕ es biyecci´n. Sean T ∈ Ker(ϕ) ⇔ ϕ(T ) = MβU βV (T ) = 0 ∈
                 o
            Ã




                                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
     Mqp ( )
                       ⇔ T (uj ) = 0v1 + ... + 0vq = 0.
                                                     p
     Por otra parte, ∀u ∈ U, u =                          αj uj , de donde ∀u ∈ U, T (u) =
                                                    j=1
       p                   p
           αj T (uj ) =         αj 0 = 0, concluyendo T ≡ 0, la transformaci´n
                                                                            o
     j=1                  j=1
     nula. Luego, ϕ es inyectiva. Veamos la epiyectividad. Dada una matriz

                               Ã
     A = (aij ) ∈ Mqp ( ), le asociamos la transformaci´n lineal T , que
                                                       o
                                                           q
     a la base de U asocia: T (uj ) =                           aij vi . Es directo que ϕ(T ) =
                                                          i=1
     Mqp (T ) = A, luego ϕ es epiyectiva. De (1) y (2) conclu´
                                                             ımos que ϕ es
     un isomorfismo.
Directamente, de este resultado se tiene: dim LÃ (U, V ) = dim Mqp ( ) =                      Ã
pq = dim U dim V . Es decir, la dimensi´n del espacio de transformaciones
                                       o

lineales es finita y corresponde al producto de las dimensiones de U y V .




                                                                                                                                  ´
En el contexto del resultado anterior ¿que relaci´n existe entre la multipli-
                                                 o
caci´n de matrices y la composici´n de funciones lineales?.
    o                            o
Veamos que sucede al componer dos transformaciones lineales. Sean T :
U → V, L : V → W transformaciones lineales, luego L ◦ T : U → W es
tambi´n lineal. Ahora bien, sean dimU = p, dimV = q, dimW = r con
      e



                                                                                                                          ı
bases βU = {ui }p , βV = {vi }q , βW = {wi }r , respectivamente. Supon-
                                                               Ã
                i=1           i=1           i=1
gamos adem´s que MβU βV (T ) = B ∈ Mqp ( ),
            a
                           Ã
MβU βV (L) = A ∈ Mpr ( ). La pregunta es ¿cu´l es la expresi´n de MβU βW (L◦
                                            a               o
T )? Los “datos” del problema son:

                                          q
                          T (uk ) =            bjk vj           1≤k≤p
                                         j=1
                                          r
                          L(vj ) =             aij wi           1≤j≤q
                                         i=1
Calculemos ahora:
                                                                q
                (L ◦ T )(uk ) = L(T (uk )) = L(                      bjk vj ) =
                                                               j=1
                                     q                          q             r
                                =         bjk L(vj ) =               bjk (         aij wi )
                                    j=1                        j=1           i=1
                                     r         q
                                =         (        aij bjk )wi          1≤k≤p
                                    i=1 j=1


                                                   114
obteniendo




                                                                          Departamento de Ingenier´a Matematica - Universidad de Chile
                                    q                   q   
                                j=1      a1j bj1 ...a1j bjp 
                                                j=1         
                                             .              
             MβU βW (L ◦ T ) =               .              
                                q            .              
                                                 q          
                                     arj bj1 ...     arj bjp
                                    j=1                 j=1



                              = A · B = MβV βW (L) · MβU βV (T )

Hemos probado que la matriz representante de la composici´n de dos fun-
                                                               o
ciones lineales L ◦ T , es el producto de las matrices representantes.




                                                                                                  ı       ´




                                         115
Una aplicaci´n inmediata de este resultado es
            o




                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
                                                                                ◭ Ejercicio

  Ejercicio 4.3: T : U → V es una transformaci´n lineal y β, β ′ son
                                              o
  bases de U y V respectivamente entonces
       1. T es invertible ssi Mββ ′ (T ) es una matriz invertible.
       2. Si T es invertible,

                                (Mββ ′ (T ))−1 = Mβ ′ β (T −1 ).




Esto nos permite, cuando se estudian transformaciones lineales sobre espa-
cios vectoriales de dimensi´n finita, trabajar directamente en la estructura
                           o
matricial correspondiente, sumando o multiplicando matrices.

En base a lo anterior se tiene el resultado siguiente:




                                                                                                                ´
                                                    Ã
Teorema 4.5. Para toda matriz A ∈ Mnn ( ), las propiedades siguientes
son equivalentes
  1. A es invertible.
  2. TA :   Ãn → Ãn, v → TA(v) = Av es un isomorfismo.
  3.   El conjunto {A•j}n es base de Ãn .
                        j=1




              ´
Demostracion. Demostremos primero (2)⇔(3). Para ello recordemos que
                                                                                                        ı
A es la matriz representante de TA con respecto a las bases can´nicas:
                                                               o
TA (ej ) = Aej = A•j.
2 ⇒ 3) Como TA es isomorfismo, es en particular inyectiva, luego {TA (ej )}n
                                 Ã                 Ã
                                                                          j=1
es ℓ.i ⇔ {A•j }n es ℓ.i en n . Como dim n = n, este conjunto es base.
               j=1

3 ⇒ 2) Sabemos A•j = TA (ej ) para 1 ≤ j ≤ n, luego {A•j }n base, es
                                     Ã                                  Ã
                                                          j=1
decir {TA (ej )}n es base de n , luego ImTA =< {TA (ej )} >= n . Del
                j=1
TNI se tiene:

   dim    Ãn = n = dim ImTA + dimKerTA,             luego n = n + dim KerTA ,

entonces dim KerTA = 0 y por lo tanto KerTA = {0}.
Adem´s las dimensiones de los espacios de partida y llegada son iguales,
      a
luego TA es isomorfirmo.

(1)⇔(2) es consecuencia del Ejercicio 4.3, usando el hecho de que TA tiene
a A como matriz representante con respecto a las bases can´nicas.
                                                            o


                                          116
4.8.   Matriz de Pasaje o de Cambio de Base




                                                                                                         Departamento de Ingenier´a Matematica - Universidad de Chile
Cuando definimos la matriz representante vimos que esta depend´ de las
                                                                   ıa
bases elegidas. De esto surge el problema de la no unicidad de la represen-
taci´n: una misma transformaci´n lineal tiene asociada m´s de una matriz,
    o                            o                        a
dependiendo de las bases escogidas.

Sea entonces V un espacio vectorial sobre K, dimV = n, sean β = {vi }i=1
y β ′ = {vi }n dos bases de V . Claramente, los vectores de β ′ tienen una
          ′
             i=1
representaci´n unica en la base β:
             o ´
                            ′
                           v1 = p11 v1 + p21 v2 + ... + pn1 vn
                              .
                              .           .
                                          .                .
                                                           .
                              .           .                .
                            ′
                         vj = p1j v1 + p2j v2 + ... + pnj vn
                              .
                              .        .
                                       .               .
                                                       .
                              .        .               .
                          ′
                         vn = p1n v1 + p2n v2 + ... + pnn vn

Denominamos matriz de pasaje o de cambio de base de β a β ′ a la matriz:                       Matriz de pasaje o de
                                                                                                   cambio de base
                                    p11 ... p1j ... p1n
                                   .               . 
             P = Pββ ′ = (pij ) =  .        .




                                                                                                                                         ´
                                       .     .
                                             .      . 
                                                    .
                                                         pn1 ... pnj ... pnn
                                                                   ′
 cuya columna j-´sima corresponde a las coordenadas del vector vj , de
                  e
                  ′
la “nueva” base β , con respecto a la “antigua” base β. Es f´cil ver que
                                                            a
est´ matriz es exactamente
   a

                                            Mβ ′ β (idV ),

es decir la matriz representante de la identidad de V, colocando como base
de partida β ′ y de llegada β.
                                                                                                                                 ı
Por otra parte, sabemos que a un vector x ∈ V podemos asociarle de manera
                                                           Ã
biunivoca un vector α = (α1 , ..., αn ) ∈ n , correspondiente a sus coorde-
nadas con respecto a la base β. De manera an´loga le podemos asociar
                                                   a
        1        n   Ã
α′ = (α′ , ..., α′ ) ∈ n , sus coordenadas con respecto a la base β ′ .
Se tiene entonces:
                 n                    n            n                  n       n
            v=         α′ vj =
                        j
                           ′
                                            α′ (
                                             j           pij vi ) =       (       pij α′ )vi
                                                                                       j
                 j=1                  j=1          i=1                i=1 j=1

                       n
Pero, adem´s, v =
          a                 αi vi .
                     i=1
Como la representaci´n es unica, conclu´
                    o     ´            ımos:
                                       n
                             αi =            pij α′
                                                  j            1≤i≤n
                                      j=1

matricialmente: α = P α′ .

                                                   117
Esta ecuaci´n establece la relaci´n entre las coordenadas de un mismo vec-
           o                     o




                                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
tor v ∈ V con respecto a ambas bases.
¿Es posible “despejar” α′ ?. S´ lo es, y esto es equivalente a probar que P
                              ı
es invertible. Pero por ser la matriz representante de un isomorf´  ısmo es
entonces invertible. Adem´s P −1 es la matriz de cambio de base de β ′ a β:
                          a
Mββ ′ (idV ).

  Observaci´n: Cabe hacer notar que la notaci´n no es muy afortunada,
             o                                   o
  pues la matriz de cambio de base de β a β ′ es Mβ ′ β (idV ) es decir hay
  que expresar los vectores de β ′ en funci´n de los de β.
                                           o

Estudiaremos ahora la relaci´n que existe entre las distintas matrices re-
                               o
presentantes de una misma transformaci´n lineal. Esto lo deduciremos de
                                         o
la regla que tenemos para la matriz representante de una composici´n de
                                                                    o
aplicaciones lineales. Sea T : U → V lineal y consideremos cuatro bases:
                                    ˜
                                β, β bases de U
                                 ′ ˜′
                                β , β bases de V.




                                                                                                                                ´
 La pregunta es ¿c´mo se relacionan Mββ ′ (T ) y Mββ ′ (T )?.
                  o                               ˜˜
Todo sale de la observaci´n
                         o

                               idV ◦ T ◦ idU = T,

y por lo tanto

  Mββ ′ (T ) = Mβ β ′ (idV ◦ T ◦ idU ) = Mβ ′ β ′ (idV )Mββ ′ (T )Mββ (idU ).
   ˜˜           ˜˜                            ˜                    ˜            (4.4)


                                                                                                                        ı
Es decir la nueva matriz representante de T es la antigua multiplicada por
matrices de cambio de base. La mejor forma de recordar esto es con un
diagrama
                                    T
                                ˜
                             U, β −→ V, β ′˜
                              
                                         
                       idU          T          idV
                                            ′
                             U, β −→ V, β

Recorremos este diagrama de dos maneras distintas. para obtener la f´rmu-
                                                                       o
la 4.4. Notemos que cuando hacemos el recorrido por “abajo” el orden que
aparecen las matrices es reverso: la matriz m´s a la derecha en 4.4 es la que
                                             a
actua primero y as´ sucesivamente.
                   ı
Las matrices A = Mββ ′ (T ) y B = Mββ ′ (T ) est´n relacionadas por un par
                                      ˜˜        a
de matrices invertibles que denotaremos por P, Q:

                                   C = P AQ.

Diremos que entonces A y C son semejantes. Como ejercicio, probar que                   matrices semejantes
esta es una relaci´n de equivalencia. Un caso importante es cuando Q =
                  o                                                                             ◭ Ejercicio
P −1 , es decir
                              C = P AP −1 .

                                        118
En este caso especial diremos que A y C son similares. Esta tambi´n es  e      matrices similares




                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
una relaci´n de equivalencia.
          o
Se tiene que a diferencia de la semejanza no es f´cil saber cu´ndo dos
                                                      a            a
matrices son similares. Parte de este problema la estudiaremos en el pr´xima
                                                                       o
secci´n.
     o




                                                                                                             ı       ´




                                    119
´
                                  Ingenier´a Matematica
                                          ı
                                  FACULTAD DE CIENCIAS
                                                                                                       Gu´a
                                                                                                         ı
                                  F´SICAS Y MATEMATICAS
                                                      ´
                                    I
                                  UNIVERSIDAD DE CHILE                                                 Semana 9
                                  ´
                                  Algebra Lineal 08-2

Ejercicios




                                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
1. Sea T : U → V una transformaci´n lineal. Pruebe que
                                 o                                                                  Teorema 4.4

   (a) Si dim U = dim V entonces

                     T inyectiva ⇔ T epiyectiva ⇔ T biyectiva.

   (b) Si dim U < dim V T no puede ser epiyectiva.
   (c) U isomorfo a V ⇔ dim U = dim V.
2. Probar que si T : U → V es lineal y W es un subespacio de U entonces                             Ejercicio 4.2

   (a) T (W ) es subespacio de V.
   (b) dim T (W ) ≤ dim U .
   (c) Si T es inyectiva dim T (W ) = dim W .
3. T : U → V es una transformaci´n lineal y β, β ′ son bases de U y V
                                o                                                                   Ejercicio 4.3
   respectivamente entonces
   (a) T es invertible ssi Mββ ′ (T ) es una matriz invertible.




                                                                                                                                     ´
   (b) Si T es invertible,

                                (Mββ ′ (T ))−1 = Mβ ′ β (T −1 ).


Problemas
                 Ê
P1. Sean M22 ( ) el espacio vectorial de las matrices de 2×2 a coeficientes
                                Ê              Ê
                                                                                                                             ı
    reales sobre el cuerpo . Sea P2 ( ) el espacio vectorial de los polino-
    mios de grado menor o igual a 2 a coeficientes reales sobre el cuerpo
     Ê. Sea
      T:          Ê
             M22 ( ) −→ P2 ( )        Ê
                a b
                c d  −→ T ( a d ) = (a + d) + (b + c)x + (a + b + 2c + d)x2 .
                            c
                              b


     (a) Demuestre que T es una transformaci´n lineal.
                                            o
                                       Ê           Ê
    (b) Sean la bases de M22 ( ) y P2 ( ) siguientes:

                 βM = {( 1 0 ) , ( 0 1 ) , ( 0 0 ) , ( 0 0 )} ,
                         00        00        10        01           βP = {1, x, x2 }.

           Encuentre la matriz representante de T con respecto a las bases
           βM y βP .
                                       Ê           Ê
     (c) Sean la bases de M22 ( ) y P2 ( ) siguientes:
            ′
           βM = ( 1 0 ) ,
                  0 1
                             −1 0
                             0 1     ,(0 1),
                                       10
                                                  0 1
                                                 −1 0     ,       βP = {1 + x, x + x2 , 1 + x2 }.
                                                                   ′


           Encuentre la matriz representante de T con respecto a las bases
            ′    ′
           βM y βP .
    (d) Calule la dimensi´n del N´ cleo y la dimensi´n de la Imagen de T .
                         o       u                  o


                                           120
P2. Considere las funciones lineales f y g tales que




                                                                                        Departamento de Ingenier´a Matematica - Universidad de Chile
                    Ê
         f : M22 ( ) →      Ê3   y
                                      g:    Ê3    −→   2
                                                          Ê            x1 +x2 −x3
                                                x −→ g(x) =             2x1 +x3     .

     y las bases

         B1 =
                    1
                    3
                        2
                        4
                          ,
                             1 0
                            −1 2
                                 ,
                                   0 3
                                   0 −1
                                        ,
                                          2 5
                                          2 −4
                                                                        de M22 ( )  Ê
     y                            
                             2       0     1 
                        B2 =  1  , 1 , −2 de
                                              
                                                                   Ê3
                              −1      3     1
                     1 11 1
     Sea A =        −2 0 0 1     la matriz representante de la funci´n f con
                                                                    o
                                            Ê             Ê3.
                     2 1 1 −1
     respecto a las bases B1 en M22 ( ) y B2 en
     (a) Encuentre la matriz representante de B de la funci´n g con res-
                                                           o
                                                Ê     Ê
         pecto a las bases can´nicas de 3 y 2 respectivamente.
                              o
    (b) Obtenga la matriz representante de g ◦ f con respecto a la base
                        Ê
        B1 en M22 ( ) y a la base can´nica de 2 .         Ê




                                                                                                                        ´
                                     o
P3. Sea T : V → V una aplicaci´n lineal con V espacio vectorial de dimen-
                              o
    si´n finita. Demuestre que
      o

                   V = Ker(T ) ⊕ Im(T ) ⇔ Ker(T 2 ) = Ker(T ).

P4. Sea β = {1, x, x2 } la base can´nica
                                   o                               Ê
                                                del espacio P2 ( ). Considere


                                                                                                                ı
                                                    
                                      0         1 3
                               Q = 1           0 0 .
                                      1         0 1

                                            Ê
     (a) Encuentre la base β ′ de P2 ( ) tal que Q sea representante de la
                             Ê                    Ê
         identidad de P2 ( ) con β ′ en P2 ( )con β. Si le sirve, si denotamos
         por [p]β el vector de coordenadas de p con respecto a la base β,

                                 [p]β = Q[p]β ′               Ê
                                                    ∀p ∈ P2 ( ).

                        Ê        Ê
    (b) Sea T : P2 ( ) → 3 la transformaci´n lineal cuya matriz repre-
                                              o
                                                              Ê
        sentante con respecto a las bases β en P2 ( ) y can´nica en 3 es
                                                           o                        Ê
        la matriz                              
                                       0 1 0
                                A = 0 0 2  .
                                       0 0 0
          Calcule la matriz representante de T con respecto a las bases β ′
                   Ê                    Ê
          en P2 ( ) y can´nica en 3 , donde β ′ es la base encontrada en
                          o
          (a).



                                        121
´
                              Ingenier´a Matematica
                                      ı
                              FACULTAD DE CIENCIAS
                              F´SICAS Y MATEMATICAS
                                I                 ´
                              UNIVERSIDAD DE CHILE
                              ´
                              Algebra Lineal 08-2

         SEMANA 10: TRANSFORMACIONES LINEALES - VALORES Y




                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
                                        VECTORES PROPIOS


4.9.   Rango de una matriz y forma de Hermitte
                             Ã
Dada una matriz A ∈ Mqp ( ) definimos el rango de A, como el rango de            Rango de A
la transformaci´n lineal T (x) = Ax. Denotaremos por r(A) el rango de A.
               o
As´ r(A) es la dimensi´n de la imagen de A.
   ı                  o
Como Ax = x1 A•1 + ... + xp A•p si x = (x1 , ..., xp ), entonces la imagen de
A es generada por las columnas de A esto es:

                         ImA = {A•1 , ..., A•p } ,

por lo tanto el rango de una matriz es el n´ mero m´ximo de columnas l.i.
                                           u       a

                                                                                ◭ Ejercicio

  Ejercicio 4.4: Supongamos que A, B son semejantes es decir existen
  matrices invertibles P, Q tal que A = P BQ. Probar que entonces que
  A y B tienen el mismo rango:




                                                                                                                ´
                                 r(A) = r(B).



Nuestro prop´sito es probar la rec´
              o                    ıproca de lo anterior, esto es si dos ma-
trices de igual dimensi´n tienen el mismo rango entonces son semejantes.
                       o
Para ello necesitaremos lo que se llama la forma normal de Hermitte.

                                                                                                        ı
                          Ã
Consideremos A ∈ Mqp ( ), ella induce de forma natural una aplicaci´n     o
lineal T mediante: T (x) = Ax. Es claro que A = Mββ ′ (T ) donde β, β ′
                           Ã Ã
son las bases can´nicas de p y q respectivamente. Construiremos aho-
                  o
ra dos nuevas bases. Comencemos por una base de KerA: {u1 , ..., uν }, y
extend´mosla a una base de p
       a                    Ã
                         ˜
                         β = {w1 , ..., wr u1 , ..., uν }.

Notemos dos cosas: primero que hemos dado un orden especial a esta base
donde los vectores que agregamos van al principio; y segundo que del teo-
                                   Ã
rema del n´ cleo imagen p = dim p = dim ImA + dim KerA y por lo tanto
          u
necesitamos agregar tanto vectores como rango de A es decir r = r(A).
Tomemos ahora X = {v1 , ..., vr } donde vi = Awi , i = 1, ...r. Probaremos
que X es un conjunto l.i.. En efecto si

                           λ1 v1 + ... + λr vr = 0,

se tendr´ que
        a

            0 = λ1 Aw1 + ... + λr Awr = A(λ1 w1 + ... + λr wr ),



                                       122
es decir el vector λ1 w1 + ... + λr wr est´ en el KerA. Como lo hemos hecho
                                          a




                                                                                    Departamento de Ingenier´a Matematica - Universidad de Chile
ya varias veces de aqu´ se deduce que los coeficientes deben ser cero. En
                         ı
efecto, por estar en el KerA se debe tener que

                  λ1 w1 + ... + λr wr = α1 u1 + ... + αν uν ,

lo que implica que

                λ1 w1 + ... + λr wr − α1 u1 − ... − αν uν = 0,

y como los vectores son l.i. se tiene que λ1 = ... = λr = 0.
Extendamos ahora X a una base de q        Ã
                        ˜
                        β ′ = {v1 , ..., vr , vr+1 , ..., vq },

y calculemos la matriz representante de T con respecto a estas nuevas bases:

           Aw1 = v1 = 1v1 + 0v2 + ... + 0vr + 0vr+1 + ... + 0vq
           Aw2 = v2 = 0v1 + 1v2 + ... + 0vr + 0vr+1 + ... + 0vq
           .
           .
           .
           Awr = vr = 0v1 + 0v2 + ... + 1vr + 0vr+1 + ... + 0vq ,




                                                                                                                    ´
           Au1 = 0 = 0v1 + 0v2 + ... + 0vr + 0vr+1 + ... + 0vq
           .
           .
           .
           Auν = 0 = 0v1 + 0v2 + ... + 0vr + 0vr+1 + ... + 0vq

por lo tanto la matriz representante es:


                                                                                                            ı
                                               Ir    0
                           Mββ ′ (T ) =
                            ˜˜                            ,
                                               0     0

 donde Ir es una identidad de tama˜ o r y el resto son matrices de ceros de
                                  n
las dimensiones apropiadas. Usualmente esta matriz se denota por H y se
le conoce como la forma normal de Hermitte. Usando el teorema de cambio        Forma normal de
de base se encuentra que existen matrices invertibles P, Q tal que                    Hermitte

                                   A = P HQ.

                               Ã
Por otro lado si A, B ∈ Mqp ( ) tienen el mismo rango entonces se demues-
tra que existen matrices invertibles P, Q, R, S tal que

        A = P HQ, B = RHS, y por lo tanto A = P R−1 BS −1 Q,

como P R−1 , S −1 Q son invertibles se deduce que A, B son semejantes.

El rango de una matriz es el n´ mero m´ximo de columnas l.i., pero que
                              u          a
hay del n´ mero m´ximo de filas l.i., o lo que es lo mismo, el rango de At .
         u       a
Veremos acontinuaci´n que
                   o

                                 r(A) = r(At ).

                                         123
Usando la forma normal de Hermite, se deduce que existen matrices inver-
tibles P, Q tal que




                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
                      A = P HQ. At = Qt H t P t ,
que es la forma normal de Hermite para At . Adem´s es claro que r(H) =
                                                     a
r(H t ), pero entonces r(A) = r(H) = r(H t ) = r(At ). En particular se
concluye que r(A) ≤ m´   ınimo (p, q).
Un problema que se nos presenta es saber si hay una forma ’f´cil’de calcular
                                                             a
el rango de una matriz. La respuesta es si, y se obtiene mediante escalona-
miento. Notemos que la matriz escalonada de A que usualmente se denota
 ˜
A, tiene el mismo rango que A pues estas dos matrices son semejantes. En
         ˜
efecto A se obtiene por premultiplicaci´n de A por matrices elementales que
                                        o
                                    ˜
son invertibles. Pero el rango de A es f´cil de calcular, pues tiene tantas
                                          a
filas l.i. como filas no nulas tenga, y esto debido a la forma triangular de
 ˜                                                               ˜
A. Por lo tanto el rango de A es el n´ mero de filas no nulas en A.
                                       u
Tomemos, por ejemplo, el escalonamiento siguiente:
                                                                    
            1 1 1 1 1 0 0                       1 1 1 1 1 0 0
         −1 1 −1 1 1 0 1                   0 2 0 2 2 0 1 
                                        ˜                           
   A =  0 1 1 1 −1 0 1  → A =  0 0 1 0 −2 0 1  ,                 2 
                                           
            0 −1 −1 −1 1 1 0                    0 0 0 0 0 1 1




                                                                                                               ´
           −1 1 −1 1 1 0 1                      0 0 0 0 0 0 0


                                                                               ◭ Ejercicio

  Ejercicio 4.5: Probar que r(AB) ≤ r(A) y por lo tanto

                      r(AB) ≤ m´
                               ınimo (r(A), r(B)).


                                                                                                       ı
5.    Valores y vectores propios
En esta secci´n abordaremos el problema de saber cu´ndo para una apli-
              o                                       a
                 Ê      Ê
caci´n lineal L : n → n , es posible encontrar una base B con respecto
    o
a la cual la matriz representante de L sea diagonal. En forma equivalente,
¿cu´ndo una matriz A de n × n puede descomponerse de la forma
    a

                      A = P DP −1 con D diagonal ?                     (5.1)

Este problema de naturaleza puramente algebraica, tiene muchas aplicacio-
nes en otras ramas de la Matem´tica, por ejemplo en Ecuaciones Diferen-
                                a
ciales, Estad´ıstica, etc.
Tal vez el teorema m´s importante de este cap´
                        a                     ıtulo es el que dice que toda
matriz sim´trica puede representarse en la forma (5.1).
            e

Comenzamos con las nociones de valores y vectores propios de una aplica-
ci´n lineal L : V → V donde V es un espacio vectorial sobre ( =
  o                                                              ÃÃ Ê
o
´ ).

                                    124
Definici´n 5.1 (Vector y valor propio).
        o                                        Diremos que x ∈ V es un       Vector y valor propio




                                                                                         Departamento de Ingenier´a Matematica - Universidad de Chile
vector propio de L si:
 (i) x = 0
 (ii) ∃λ ∈ Ã tal que L(x) = λx.
En este caso el valor λ ∈ Ã que satisface (ii) se denomina valor propio
asociado a x.

Diremos que x ∈ V  {0} es un vector propio de A ∈ Mnn si es vector
propio de la aplicaci´n lineal L dada por L(x) = Ax. Es decir
                     o

                              ∃λ ∈   Ã,   Ax = λx.

De la misma manera decimos que λ es valor propio de A.
Para la transformaci´n lineal asociada a una matriz A mencionada ante-
                     o
riormente, se tiene:

                                          Ã
Proposici´n 5.1. Dada A ∈ Mnn ( ), son equivalentes:
         o
 (i) ∃x = 0 Ax = λx.




                                                                                                                         ´
 (ii) ∃x soluci´n no trivial del sistema (A − λI)x = 0.
               o
(iii) Ker(A − λI) = {0}
(iv) A − λI no es invertible.

                         a                    e               Ã
Necesitamos una forma f´cil de determinar qu´ valores de λ ∈ son valores


                                                                                                                 ı
propios. Para ello ser´ util que la condici´n (iv) pudiera expresarse como
                      ıa ´                 o
una ecuaci´n en λ. Veremos que el c´lculo de los valores propios se reduce a
          o                         a
estudiar un polinomio de grado n cuyos coeficientes dependen de la matriz
A.

Con este objetivo introduciremos una aplicaci´n llamada determinante,
                                             o
que a cada matriz cuadrada A con coeficientes en       Ã
                                                    le asigna un elemento
   Ã
de .
Para ello primero definiremos Aij la submatriz de A que se obtiene a partir
de A eliminado la fila i y la columna j.

   Ejemplo:
                         
               1    2   3
                                              5 6
          A = 4    5   6       A11 =            .
                                              8 9
               7    8   9

Con esto podemos definir el determinante de una matriz por un procedi-
miento inductivo de la siguiente forma.
Definici´n 5.2 (Determinante). Definimos el determinante de A como
       o                                                                              Determinante

 (i) Si A es de 1 × 1 |A| = a donde A = a.

                                      125
n
 (ii) Si A es de n × n |A| =          (−1)i+1 ai1 |Ai1 |.




                                                                             Departamento de Ingenier´a Matematica - Universidad de Chile
                                i=1

              a   b
As´, si A =
  ı                   ,   |A| = a11 |A11 | − a21 |A21 | = ad − cb.
              c   d

                                                                             ◭ Ejercicio

  Ejercicio 5.1: Obtener la f´rmula para una matriz de 3 × 3.
                             o



A continuaci´n daremos las propiedades m´s importantes de la funci´n
              o                             a                          o
determinante, sin dar demostraciones, las cuales se presentan (por comple-
titud) en el Ap´ndice.
                e




                                                                                                     ı       ´




                                        126
Proposici´n 5.2. Se tienen las siguiente propiedades:
         o




                                                                                          Departamento de Ingenier´a Matematica - Universidad de Chile
  1. El determinante es una funci´n lineal de las filas de A es decir
                                 o
                                                              
                                       A1•             A1•     A1•
                                     .              .     . 
                                     . .            . 
                                                        .     . 
                                                                .
          ∀t ∈ K, x, y ∈     Ãn             
                                  :  tx + y  = t
                                     . 
                                                           
                                                      x  +  y 
                                                      .     . 
                                                                   
                                     . .            . 
                                                        .     . 
                                                                .
                                       An•             An•     An•

  2. Si B se obtiene de A permutando dos filas entonces |A| = −|B|.
  3. Si A tiene dos filas iguales |A| = 0.
  4. |I| = 1 donde I es la identidad.Si A es triangular superior entonces
             n
     |A| =         aii .
             i=1

  5. Si a la fila i de la matriz A le sumamos la fila j ponderada por t
     entonces el determinante no cambia. Es decir
                   A1•                                 
                                                      A1•




                                                                                                                          ´
                     .
                      .                           . 
                     .                           . .
               A                                       
                    i−1•                         Ai−1• 
     Si B =                donde i = j y A =            entonces
               Ai• + tAj•                        Ai• 
                     .                           . 
                     .                           . .
                      .
                    An•                              An•
     |B| = |A|.


                                                                                                                  ı
        ˜
  6. Si A = (˜ij ) es una versi´n escalonada de A y Nσ , el n´mero de
              a                 o                             u
     permutaciones de filas realizadas para escalonar A. Entonces:
                                                         n
                                           ˜
                           |A| = (−1)Nσ · |A| = (−1)Nσ         aii .
                                                               ˜
                                                         i=1


  7. A es invertible si y s´lo si |A| = 0.
                           o
  8. Una permutaci´n del conjunto {1, 2, ..., n} es una funci´n σ : {1, 2, ..., n} →
                        o                                      o                       permutaci´n σ
                                                                                                o
                                                               1    2 ... n
     {1, 2, ..., n}, biyectiva. Se suele usar la notaci´n σ = σ(1) σ(2) ... σ(n) .
                                                       o
     Dada σ  permutaci´n del conjunto {1, 2, ..., n}, se define signo(σ) =
      eσ(1) una       o
        eσ(2)
       .  donde e1 , ..., en son las filas de la matriz identidad. De (2)
        .
        .
        eσ(n)
     y (4) se obtiene que signo(σ) ∈ {−1, 1}. Se tiene adem´s |A| =
                                                           a
                                                                             σ
     signo(σ) a1σ(1) a2σ(2) ...anσ(n) donde la suma se extiende sobre todas
     las n! permutaciones de {1, ..., n}.
  9. |AB| = |A||B|.


                                        127
10. Si A es invertible entonces |A−1 | = 1/|A|.




                                                                                                           Departamento de Ingenier´a Matematica - Universidad de Chile
 11. |A| = |At |. Adem´s de (4) si A es triangular inferior entonces |A| =
                      a
      n
           aii .
     i=1

 12. Para cualquiera i0 , j0 ∈ {1, . . . , n} fijos, se tiene:
                   n
      |A| =            (−1)i+j0 aij0 |Aij0 |        (C´lculo de |A|, usando la columna j0 )
                                                      a
               i=1

                       n
          |A| =              (−1)i0 +j ai0 j |Ai0 j |    (C´lculo de |A|, usando la fila i0 )
                                                           a
                       j=1


La propiedad (7) nos dice que λ es valor propio de A si y s´lo si |A−λI| = 0.
                                                           o
Esta ecuaci´n es un polinomio de grado n en λ.
           o
En efecto, usando la formula (8) se tiene
                                                                 n
                         |A − λI| =               signo (σ)           (A − λI)iσ(i)




                                                                                                                                           ´
                                            σ                   i=1

si σ es la permutaci´n identidad tendremos
                    o
                              n                         n
          signo (σ)                (A − λI)iσ(i) =            (aii − λ) = (−1)n λn + q(λ)
                             i=1                        i=1

donde q(λ) es un polinomio de grado ≤ n − 1.


                                                                                                                                   ı
Si σ es distinta de la permutaci´n identidad se tendr´ que existe un ´
                                o                    a               ındice
                                                                                  n
i ∈ {1, ..., n} tal que i = σ(i). De donde ℓ(λ) = signo(σ)                             (A − λI)iσ(i) =
                                                                                 i=1
signo (σ)               (aii − λ)                 aiσ(i) es un polinomio de grado ≤ n − 2
            i:σ(i)=i                   i:σ(i)=i
(este ultimo producto debe contener por lo menos dos t´rminos ¿por qu´?)
      ´                                               e              e
y por lo tanto

               |A − λI| = (−1)n λn + αn−1 λn−1 + ... + α1 λ + α0 ,

donde αn−1 , . . . , α0 dependen de A. Por ejemplo evaluando en λ = 0 se
tiene |A| = α0 .
¿Cu´nto vale el coeficiente de λn−1 ?.
    a
Definici´n 5.3 (Polinomio caracter´
        o                          ıstico). P (λ) = |A − λI| es llama-                                      Polinomio
do el polinomio caracter´
                        ıstico de A.                                                                     caracter´
                                                                                                                 ıstico


   Ejemplo:

                                                         4     −5
                                                A=
                                                         2     −3


                                                     128
¿Cu´les son los valores propios de A?. Para ello estudiemos A − λI.
      a




                                                                                         Departamento de Ingenier´a Matematica - Universidad de Chile
                         4       −5          λ    0        4−λ  −5
           A − λI =                     −              =
                         2       −3          0    λ         2  −3 − λ

   pero entonces 0 = |A−λI| = −(4−λ)(3+λ)+10 = −(12+λ−λ2 )+10 =
   λ2 − λ − 2. Los valores propios son λ1 = 2, λ2 = −1.

   Ejemplo:

                  0 −1                                −λ −1
          A=                     |A − λI| =                    = λ2 + 1 = 0
                  1 0                                  1 −λ
                             Ê
    no tiene soluci´n en , y por tanto A no tiene valores propios reales.
                   o
   Sin embargo si el cuerpo donde estamos trabajando es      entonces A
   tiene dos valores propios.

   Ejemplo:
          Ê
   Sea D( ) = { espacio de funciones infinitamente diferenciables de →          Ê
   Ê                                      Ê
     } se prueba f´cilmente que D( ) es un espacio vectorial sobre .
                  a                                                           Ê
   Consideremos




                                                                                                                         ´
                                         Ê
                             L : D( ) → D( )          Ê
                                              df ,
                                    f → Lf =
                                              dt
    es decir Lf es la funci´n derivada de f .
                           o

   As´ por ejemplo si f (t) = tn , g(t) = cos(t) se tendr´ Lf = ntn−1 ; Lg =
      ı                                                  a


                                                                                                                 ı
   −sen(t). Estudiemos si L tiene vectores propios:
   Lf = λf es decir df = λf . Esta es una ecuaci´n diferencial y una
                         dt                              o
   soluci´n es: f (t) = ceλt .
         o
                   Ê
   Luego todo λ ∈ es valor propio y un vector propio es ceλt , c = 0.

             o                                             Ã
De la definici´n v es vector propio si v = 0 y ∃λ ∈ tal que Av = λv. As´   ı,
λ es valor propio si y s´lo si existe una soluci´n no nula de la ecuaci´n
                        o                       o                      o

                                      (A − λI)v = 0

Cualquier soluci´n no nula de esta ecuaci´n es entonces un vector propio
                 o                           o
de A con valor propio λ.
Notemos que si v es vector propio tambi´n lo es 10v y en general αv para
                                           e
              Ã
cualquier α ∈ , α = 0.
Adem´s, si v es vector propio, el valor propio asociado es unico. Supongamos
     a                                                     ´
que L(v) = λ1 v = λ2 v entonces (λ1 − λ2 )v = 0 . Como v = 0 se tendr´ λ1 −
                                                                       a
λ2 = 0 y por lo tanto λ1 = λ2 .
Para cada valor propio λ de A, introduciremos el subespacio propio Wλ              Subespacio propio
que corresponde a Wλ = Ker(A − λI). Notar que este subespacio debe
contener vectores no nulos, pues λ es valor propio.



                                            129
Si A y B son similares es decir si existe P invertible tal que A = P BP −1 ,




                                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
entonces los valores propios de A y B son los mismos y m´s a´ n, el polinomio
                                                        a u
caracter´
        ıstico es el mismo. En efecto:

              A − λI = P BP −1 − λP P −1 = P (B − λI)P −1


           |(A − λI)| = |(P (B − λI)P −1 )|
                      = |P ||(B − λI)||P −1 | pero |P −1 | = 1/|P |
                      = |B − λI|
 luego A y B tienen el mismo polinomio caracter´
                                               ıstico, por lo tanto tienen
los mismos valores propios.

   Ejemplo:
              4 −5
   Sea A =             Sabemos que los valores propios son λ1 = 2, λ2 =
              2 −3
   −1. Calculemos los vectores propios asociados.
   λ1 = 2 La ecuaci´n de vectores propios es
                   o

                             x1        2 −5         x1         0




                                                                                                                                ´
                  (A − 2I)        =                       =
                             x2        2 −5         x2         0
                               5
   La soluci´n general es x1 = 2 x2 y su espacio propio es:
            o

                                                    5                  5
                                      x1                               2
         W2 = Ker(A − 2I) = {               /x1 =     x2 } =                       .
                                      x2            2                  1



                                                                                                                        ı
                                                                           5
   As´ v es vector propio asociado a λ1 = 2 si y solo si v = α
     ı                                                                     2           α = 0.
                                                                           1
   Para λ2 = −1
                          5 −5          5 −5
   A − (−1)I = A + I =             →              , luego la soluci´n general
                                                                   o
                          2 −2          0 0
   de la ecuaci´n (A + I)x = 0 es: x1 = x2 , y su espacio propio es
               o

                                                                   1
           W−1 = Ker(A − (−1)I) = Ker(A + I) =                                 .
                                                                   1




                                      130
´
                                       Ingenier´a Matematica
                                               ı
                                       FACULTAD DE CIENCIAS
                                       F´SICAS Y MATEMATICAS
                                         I                 ´
                                       UNIVERSIDAD DE CHILE
                                       ´
                                       Algebra Lineal 08-2

                             SEMANA 10: VALORES Y VECTORES PROPIOS




                                                                                            Departamento de Ingenier´a Matematica - Universidad de Chile
  ´
Apendice
Hemos definido el determinante de una matriz A de n×n en forma recursiva
de la siguiente manera | A |= (−1)j+1 aj1 | Aj1 |, donde Akℓ es la matriz
                                         j
de n − 1 × n − 1, que se obtiene de A elimin´ndole la fila k y la columna
                                            a
ℓ. Probaremos ahora las propiedades fundamentales de esta funci´n. Varias
                                                               o
de las propiedades pueden probarse por inducci´n, dejaremos al lector la
                                               o
tarea de completar estas demostraciones.

1. Si                                                                 
                                        a11          ···       a1n
                                        .
                                         .                            
                                        .                            
                          ˜ 
                          A =  ak1 + bk1            ···
                                                                      
                                                            akn + bkn  ,
                                   .                                 
                                   .
                                    .                                 
                                        an1          ···      ann
   entonces




                                                                                                                            ´
                                                                        
               a11          ···       a1n       a11          ···     a1n
              .                              .                          
              ..                             ..                         
         ˜ =  an1
        |A|                ···
                                             
                                      akn  +  bk1          ···     bkn
                                                                           
                                                                            = |A| + |B|.
              .                              .                          
              ..                             ..                         
               an1          ···       ann       an1          ···     ann


                                                                                                                    ı
   Por hip´tesis de inducci´n (sobre el tama˜ o de la matriz) se tiene
          o                o                n
                                    ˜
                                  | Aj1 |=| Aj1 | + | B j1 | .
             ˜
   Adem´s, | Ak1 |=| Ak1 |, luego
       a
                 n                               n
          ˜
        | A |=                 ˜ ˜
                       (−1)j+1 aj1 |Aj1 | =           (−1)j+1 aj1 {| Aj1 | + | B j1 |}+
                 j=1                            j=1
                                                j=k



                       (−1)k+1 (ak+1 + bk+1 ) | Ak1 |=| A | + | B |

   An´logamente se prueba que si
     a
                                                                
                              a11                     ···    a1n
                            .                                . 
                            .   .                            . 
                                                              .
                        ˜ 
                       A =  tak1                     ···
                                                                 
                                                            takn  ,
                            .                                   
                            .   .                               
                              an1                     ···   ann



                                                131
entonces                                               
                                               ···




                                                                                 Departamento de Ingenier´a Matematica - Universidad de Chile
                                      a11            a1n
                                     ..                 
                                     .                  
                             ˜                          
                           | A |= t  ak1      ···   akn  .
                                     .                  
                                     ..                 
                                      an1      ···   ann


   As´ visto como funci´n de las filas de A el determinante tiene la propie-
     ı                  o
   dad lineal siguiente
                                                             
                                    A1•             A1•       A1•
                                   A2•           A2•     A2• 
                                    .            .       . 
                                    .            .       . 
        ∀x, y ∈   Ã   n          
                        ,t ∈ K : 
                                     .    
                                          
                                  tx + y 
                                                   . 
                                               =t 
                                                   x 
                                                             . 
                                                         + 
                                                             y 
                                                                   .
                                  .              .       . 
                                  . .            . 
                                                     .       . 
                                                               .
                                    An•             An•       An•

   Es decir el determinante es lineal en cada una de las filas de la matriz.




                                                                                                                 ´
   Si estamos considerando matrices de dimensi´n n entonces diremos que
                                                o
   el determinante es n-lineal.

   Probaremos simult´neamente por inducci´n las propiedades (2) y (3):
                    a                    o
2. Si B se obtiene de A permutando dos filas entonces |B| = −|A|. Se dice
   que el determinante es una funci´n alternada.
                                   o


                                                                                                         ı
3. Si A tiene dos filas iguales entonces |A| = 0. Supongamos que A tiene

   las filas i y j iguales, es decir:
                                       
                                    A1•
                                   . 
                                   . 
                                   . 
                                   X  ←i
                                   . 
                                A= . 
                                   .      .
                                       ←j
                                   X 
                                   . 
                                   . 
                                     .
                                    An•
   Cada matriz Ak1 tiene dos filas iguales a menos que k = i o k = j de
   donde | Ak1 |= 0 si k = i k = j. Por lo tanto ⇒ | A |= (−1)i+1 ai1 |
   Ai1 | +(−1)j+1 aj1 | Aj1 |.

   Las matrices Ai1 y Aj1 de dimensi´n n−1×n−1 son iguales excepto que
                                       o
   la fila X esta en distinta posici´n. En Ai1 esta en la fila j −1. En Aj1 esta
                                   o
   en la fila i. As´ podemos llegar de la matriz Ai1 a la matriz Aj1 mediante
                  ı


                                        132
j −1−i permutaciones. Por cada permutaci´n hay un cambio de signo en
                                         o




                                                                          Departamento de Ingenier´a Matematica - Universidad de Chile
el determinante (de dimensi´n n − 1). Luego | Ai1 |= (−1)j−1−i | Aj1 |.
                           o
Adem´s ai1 = aj1 ⇒
      a

        | A | = ai1 {(−1)i+1 (−1)j−1−i | Aj1 | +(−1)j+1 | Aj1 |}
              = {(−1)j − (−1)j }ai1 | Aj1 |= 0
               ˜
Supongamos que A se obtiene de A permutando las filas i y j:
                                   
                                A1•
                               . 
                               . 
                                 .
                                   
                               Aj•  ← i
                               . 
                            ˜
                            A= .        .
                               . 
                                   ←j
                               Ai• 
                               . 
                               . 
                                 .
                                An•
Tomemos                                   
                                     A1•
                                    .
                                      .




                                                                                                          ´
                                    .
                                    
                          Ai• + Aj• 
                                     ←i
                              .
                               .     
                       B=     .          ,
                                    
                          Ai• + Aj•  ← j
                                    
                              .     
                              .
                               .     
                              An•


                                                                                                  ı
como B tiene dos filas iguales se deduce que

                                                        
                 A1•                 A1•           A1•     A1•
                 .
                  .                .
                                      .           .   . 
                 .     
                         
                                     
                                     .           .   . 
                                                    .       .
             Ai•           Aj•                          
                                              Ai•   Ai• 
              .             .                 .   . 
          
0 =| B |=     .
               .       +     .     =           .  +  . +
                              .                  .   . 
          A +A                    
                          Ai• + Aj•                       
           i•      j•                           Ai•   Aj• 
              .                               .   . 
              .        
                         
                               .
                               .
                                     
                                                 .   . 
                                                    .
               .               .                            .
              An•             An•                  An•     An•
                      A 
                 A1•        1•
               .   . 
                  .         . 
               .   . 
                      
               Aj•   Aj• 
                       . 
                              
            +  .  +  .  = 0 + |A| + |A| + 0,
               . .        . 
                                         ˜
                      
               Ai•   Aj• 
               .   . 
               .   .  . 
                  .
                 An•       An•

                                 133
y por lo tanto




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
                                          ˜
                                        | A |= − | A |


4. Sea In la identidad de n × n entonces |In | = 1. En efecto
                                      |In | = 1|In−1 | = 1.
   De manera m´s general se prueba que si A es triangular superior enton-
              a
               n
   ces |A| =         aii , esto tambi´n es cierto para una triangular inferior pero
                                     e
               i=1
   lo probaremos m´s tarde.
                  a
5. Si a la fila i le sumamos la fila j(i = j) amplificada por alg´ n factor,
                                                              u
   entonces el determinante no cambia. Sea
                                                     
                                             A1•
                                             .
                                              .   
                                             .   
                                                 
                                         Aj•     
                                                 ←j
                                   ˜       .
                                            .     




                                                                                                                      ´
                                   A=      .          ,
                                                 
                                      Ai• + tAj•  ← i
                                                 
                                           .     
                                           .
                                            .     
                                          An•
   entonces                                   
                                           A1•
                                          . 
                                          . 

                                                                                                              ı
                                          . 
                                          Aj• 
                                               ←j
                                            .
                            ˜ |=| A | +t  . 
                           |A             .        =| A |
                                              
                                          Aj•  ← i
                                              
                                          . 
                                          . 
                                            .
                                           An•

6. Las filas de A son l.d. ⇐⇒| A |= 0. Supongamos que las filas de A son l.d.
   es decir ∃λ1 , ..., λn no todos nulos tal que λ1 A1• +λ2 A2• +...+λn An• = 0
   podemos suponer sin p´rdida de generalidad que λ1 = 0
                              e
                                                         
                           λ1 A1• + λ2 A2• + ... + λn An•
                                    A2•                  
                       ˜
                       A=            .                   =
                                     .
                                      .                   
                                             An•
                          
                   0
                                                          n
                 A2• 
                                     ˜
              =  .  = (−1)1+1 0· | A11 | +
                   .                                                   ˜ ˜
                                                               (−1)j+1 aj1 |Aj1 |,
                 . 
                                                         j=2
                     An•

                                            134
˜                         ˜
  pero para j ≥ 2 la primera fila de Aj1 es cero luego las filas de Aj1 son




                                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
                    ˜           ı ˜
  l.d., por tanto | Aj1 |= 0. As´ | A |= 0. Adem´s
                                                a
                                                                            
                  A2•            Ak•                                         An•
                 A2•          A2•                                       A2• 
  0 = λ1 |A|+λ2  .  +....+λk  .  +...+λn
                 ..           . 
                                                                            .  = λ1 |A|,
                                                                            . 
                                  .                                           .
                  An•            An•                                           An•

  pero λ1 = 0 y por lo tanto | A |= 0.

  Si las filas son l.i. probaremos que |A| = 0. En efecto, mediante opera-
  ciones elementales sobre las filas de A (suma de filas y permutaci´n de
                                                                    o
  filas) se llega a
                                                                   
                             a11
                             ˜        a12
                                      ˜          ···            a1n
                                                                ˜
                            0        a22
                                      ˜          ···            a2n 
                                                                ˜
                                                                   
                         ˜  .
                         A= . .       0
                                                                    
                                                                    
                            .         .         ..                 
                            . .       .
                                       .              .             
                              0        0          0         0   ann
                                                                ˜




                                                                                                                                  ´
                                                                    n
                  ˜                        ˜
  pero entonces | A |= ± | A |. Dado que | A |=                           aii = 0 (ver (4)), se
                                                                          ˜
                                                                    i=1
  concluye que | A |= 0.

  Falta probar que |A| = |At |. Esta proposici´n no es f´cil, para ello
                                              o         a
  necesitamos la siguiente f´rmula:
                            o


                                                                                                                          ı
7. |A| =       (signo σ) a1σ(1) a2σ(2) ...anσ(n) donde la suma se extiende sobre
           σ
  todas las permutaciones de {1, ..., n} y signo(σ) se define como
                                                 
                                            eσ(1)
                                                 
                              signo (σ) =  .  ,
                                              .
                                              .
                                            eσ(n)
   donde {e1 , ...en } es la base can´nica de
                                     o                    Ên
  Ejemplo:


                                    1 2      3        ···       n
                             σ=
                                    2 1      3        ···       n

                                  eσ(1) = e2
                                  eσ(2) = e1
                                  eσ(i) = ei       i≥2




                                       135
                           
             0 1              0 ···         0




                                                                                                   Departamento de Ingenier´a Matematica - Universidad de Chile
           1 0               0 ···         0
                                             
signo(σ) =  0 0              1 ···         0  = (−1)3 | In−1 |= −1, luego signo
           .                   ..            
           ..                     .        0
                                            1
(σ) = −1

El t´rmino asociado a esta permutaci´n σ en la f´rmula (7) es:
    e                               o           o

                                   −1 a12 a21 a33 a44 ...ann

Notemos que cada t´rmino de la f´rmula (7) es el producto de una ele-
                   e            o
mento por fila y columna.

Demostremos la f´rmula. Dado que A1• = a11 e1 + a12 e2 + ... + a1n en se
                o
tendr´
     a                                  
                                     ek
                            n
                                   A2• 
                     | A |=   a1k  .  .
                                   . 
                                      .   k=1
                                                       An•




                                                                                                                                   ´
                               n
An´logamente A2• =
  a                                 a2ℓ eℓ , luego
                              ℓ=1

                                                                          
                                            ek                         ek
                ek
                                n            eℓ                       eℓ 
               A2•                                                      
               .  =                 a2ℓ    A3•  =            a2ℓ    A3•  .
               .                           .                        . 


                                                                                                                           ı
                 .             ℓ=1           .           ℓ=k          . 
                                               .                          .
                  An•
                                                 An•                       An•

Por lo tanto
                                   ek           
                                                                                     e        
                                                                                          k1
                                   eℓ           
                                                                                      ek2 
|A| =         a1k a2ℓ              Aj•           =                 a1k1 a2k2 ...ankn  . 
                                    .                                                 . 
        k=ℓ                         .                 k1 ,...,kn                        .
                                     .                  todos                            ekn
                            a1k1 a2k2 ...ankn          distintos

Esta suma es la suma sobre todas las permutaciones
                                           
                                        ek1
                 1 2 ··· n             . 
        σ=                         y  .  = signo (σ),
                                         .
                k1 k2        kn
                                        ekn

 lo que prueba la f´rmula deseada. Notemos que lo que se uso en probar
                   o
esta f´rmula es que el determinante es n-lineal y alternada. Por esto
      o
estudiaremos un poco como son este tipo de funciones.



                                                136
Supongamos que tenemos una funci´n F que asigna a cada matriz cua-
                                      o
                                  Ã




                                                                                        Departamento de Ingenier´a Matematica - Universidad de Chile
  drada de n × n un n´ mero de , de manera que es n-lineal y alternada
                      u
  en las filas de la matriz, entonces necesariamente:
                               F (A) = |A| · F (I)
                   Ã
  donde F (I) ∈ es el valor que toma para la identidad de tama˜ o n. Este
                                                               n
  resultado dice que toda funci´n n-lineal alternada debe ser un m´ ltiplo
                               o                                  u
  del determinante. De igual forma como lo hicimos para el determinante
  se prueba que
                                                        
                                                   eσ(1)
                                                        
                  F (A) =     a1σ(1) ...anσ(n) F  .  .
                                                     .
                                                     .
                            σ
                                                   eσ(n)
  Pero por ser F alternada se tendr´a
                                    
                               eσ(1)
                             . 
                          F  .  = ±F (I)
                                 .
                               eσ(n)
  el signo depende de si se necesitan un n´ mero par o impar de permuta-
                                           u
  ciones para llegar a la identidad pero




                                                                                                                        ´
                                         
                                    eσ(1)
                                   . 
                                   . 
                                      .
                                    eσ(n)
   es exactamente ±1 dependiendo de la paridad del n´ mero de intercam-
                                                         u
  bios necesarios para llegar a la identidad. Luego, F (A) = F (I) signo (σ)a1σ(1) ...anσ(n) =


                                                                                                                ı
                                                                 j
  F (I)|A|.
8. |AB| = |A||B|

  Sea
                                       Ã
                            F : Mnn ( ) →     Ã
                                        A → |AB|
  probemos que F es n-lineal. En efecto
                                            
                           A1•            A1•
                          .            . 
                          . 
                            .            . 
                                           .
                                            
                   C1 =  X       C2 =  Y 
                          .            . 
                          . 
                            .            . 
                                           .
                           An•            An•
                                              
                      A1•                 A1• B
                    .                     .   
                    . 
                       .                    .
                                             .   
               ˜ = X +Y 
               A               ˜ =  XB + Y B  ,
                                 AB             
                    .                     .   
                    . 
                       .                    .
                                             .   
                      An•                 An• B

                                      137
y por lo tanto




                                                                             Departamento de Ingenier´a Matematica - Universidad de Chile
                                 
                    A1• B     A1• B
                   .   . 
                   .   . 
                      .         .
      ˜     ˜                    
   F (A) = |AB| =  XB  +  Y B  = |C1 B|+|C2 B| = F (C1 )+F (C2 ).
                   .   . 
                   .   . 
                      .         .
                    An• B     An• B

   De igual forma se prueba que
                                                 
                             A1•                A1•
                           .                 . 
                           . 
                              .                . 
                                                 .
                                                 
                        F  tAi•  = tF        Ai•  .
                           .                 . 
                           . 
                              .                . 
                                                 .
                             An•                An•

   Si intercambiamos las filas i y j de A y definimos
                                                     
                        A1•                       A1• B
                       .                       . 
                       . 
                         .                       . 
                                                    .




                                                                                                             ´
                                                     
                       Aj•  ← i                Aj• B 
                       .                       . 
                    ˜
                    A= .                 ˜
                                           AB =  .  ,
                       .                       . 
                                                     
                       Ai•  ← j                Ai• B 
                       .                       . 
                       .                       . 
                         .                          .
                        An•                       An• B



                                                                                                     ı
           a ˜                                ˜
   se tendr´ |AB| = −|AB| por lo tanto F (A) = −F (A). Del resultado
   anterior concluimos que F (A) = |A|F (I) pero F (I) = |IB| = |B| por lo
   tanto |AB| = |A||B|


9. Si A es invertible entonces
                                              1
                                  |A−1 | =
                                             |A|
                                                                 1
   en efecto, |A−1 A| = |I| = 1 = |A−1 | · |A| luego |A−1 | =   |A| .


   Proposici´n 5.3. Sean σ y σ ′ dos permutaciones entonces signo(σ ◦
                o
   σ ′ ) = signo(σ) signo(σ ′ ).


             ´
   Demostracion. Sean
                                                      
                          eσ(1)                  eσ′ (1)
                                                      
                      A= . 
                            .
                            .                B= . 
                                                   .
                                                   .
                          eσ(n)                  eσ′ (n)

                                     138
                  
                                  eσ◦σ′ (1)      eσ(σ′ (1))




                                                                                          Departamento de Ingenier´a Matematica - Universidad de Chile
                                    .             .       
                              C=    .
                                     .       =     .
                                                     .       .
                                  eσ◦σ ′ (n)     eσ(σ ′ (n))


    Si escribimos A en t´rminos de sus columnas, tendremos que el 1 de la
                             e
    primera columna se ubica en la posici´n k (fila k) que hace que σ(k) = 1,
                                               o
    pero entonces k = σ −1 (1), por lo tanto A descrita por sus columnas es:
    A = (eσ−1 (1) eσ−1 (2) ...eσ−1 (n) ). Como
              0 j=k
    et ek =
     j                   , se tiene que la primera fila de BA tendr´ la forma:
                                                                  a
              1 j=k

                     (BA)1j = et ′ (1) eσ−1 (j) =          1   σ ′ (1) = σ −1 (j) ,
                               σ
                                                           0    sino
    es decir (BA)1• es un vector de la base can´nica, lo que debemos ave-
                                                      o
    riguar es en que posici´n tiene el ”1”, pero esto se deduce de la ecua-
                              o
    ci´n σ ′ (1) = σ −1 (j) pues entonces j = σ(σ ′ (1)) = σ ◦ σ ′ (1), luego
      o
    (B · A)1• = eσoσ′ (1) . As´ se obtiene:
                              ı
                                                    
                                           eσ◦σ′ (1)
                                         eσ◦σ′ (2) 
                                                    
                                  BA =       .      




                                                                                                                          ´
                                             .
                                              .      
                                           eσ◦σ′ (n)
     Por lo tanto C = B · A, de donde |C| = |B||A| y entonces
    signo(σ ◦ σ ′ )= signo(σ) signo(σ ′ ). En particular signo(σ −1 )= signo(σ)
    pues
                 signo(σ ◦ σ −1 ) = signo(id) = 1 = signo(σ) signo(σ −1 ),
    donde id es la permutaci´n identidad.
                            o
                                                                                                                  ı
10. Probemos ahora que |A| = |At |. En efecto:

                   |At | =            signo (σ) (At )1σ(1) (At )2σ(2) ...(At )nσ(n)
                              σ
                                                                                      ,
                        =          ( signo(σ))aσ(1)1 , aσ(2) ...aσ(n)n
                              σ
           n                 n
    pero         aσ(i)i =          aiσ−1 (i) lo que se obtiene reordenando el producto
           i=1               i=1
    de acuerdo a la primera coordenada. Luego

                    |At | =           ( signo(σ))a1σ−1 (1) a2σ−1 (2) ...anσ−1 (n) .
                                  σ

    Como signo(σ) = signo(σ −1 ) y la aplicaci´n σ → σ −1 es una biyecci´n
                                              o                         o
    se tiene:
                  |At | =   ( signo(ν))a1ν(1) ...a2ν(2) = |A|
                                        ν




                                                  139
Formula para A−1
    ´




                                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
                 Ã           Ã F (A) =
                                                  n
   Sea F : Mnn ( ) →                                  (−1)i+j aij |Aij | que corresponde a
                                              i=1
   desarrollar el determinante de A por la columna j.
   Se puede probar al igual que hicimos para el determinante que F es
   n-lineal y alternada luego F (A) = |A| · F (I) pero F (I) = 1, por tanto
   F (A) = |A|. Adem´s si se usa |A| = |At | se prueba que se puede calcular
                      a
                                                                 n
   |A| utilizando las filas de A esto es: |A| =                       (−1)i+j aij |Aij |
                                                             j=1


   Si |A| = 0 definamos B mediante:

                                            1
                                  bij =        (−1)i+j |Aji |.
                                           |A|
   Calculemos AB:
                                   n                   n
                                                            (−1)k+j
                 (AB)ij =               aik bkj =                   aik |Ajk |.
                                                              |A|
                                  k=1                 k=1




                                                                                                                                     ´
Analicemos ahora dos casos:
                            n
                       1
1. j = i   (AB)ii =   |A|         (−1)k+i aik |Aik | = 1
                            k=1

                       n
2. j = i (AB)ij =           (−1)k+j aik |Ajk |, que corresponde al determinante
                                    |A|
                      k=1
   de la siguiente matriz, calculado usando la fila j
                             
                               a11
                              .
                                            ···
                                             .
                                                       a1n
                                                        . 
                                                           
                                                                                                                             ı
                              ..            .
                                             .          . 
                                                        .
                                                          
                              ai1          ···        ain  ← i
                              .             .          . 
                              .             .          . 
                              .             .          . 
                              ai1                     ain  ← j
                              |A|        ······           
                                                       |A| 
                             
                              .             .          . 
                              ..            .
                                             .          . 
                                                        .
                               an1         ···         ann
                                                                       n
                                                                                    a
   Como las filas de esta matriz son l.d. se tiene                          (−1)k+j |A| |Ajk | = 0,
                                                                                    jk

                                                                      k=1
   y por tanto AB = I lo que implica que

                                           B = A−1 .

  Ejemplo:

  Sea
                                                  a     b
                                        A=                   .
                                                  c     d


                                             140
Se tendr´ que
        a




                                                                    Departamento de Ingenier´a Matematica - Universidad de Chile
                  |A| = ad − bc
                |A11 | = d |A12 | = c       |A21 | = b |A22 | = a
                                        t
                         1   d −c                1   d −b
                A−1 =                       =               .
                        |A| −b a                |A| −c a




                                                                                            ı       ´




                                  141
´
                                 Ingenier´a Matematica
                                         ı
                                 FACULTAD DE CIENCIAS
                                                                                      Gu´a
                                                                                        ı
                                 F´SICAS Y MATEMATICAS
                                                     ´
                                   I
                                 UNIVERSIDAD DE CHILE                                 Semana 10
                                 ´
                                 Algebra Lineal 08-2

Ejercicios




                                                                                    Departamento de Ingenier´a Matematica - Universidad de Chile
1. Suponga que A, B son semejantes, es decir, existen matrices invertibles
   P, Q tal que A = P BQ. Pruebe que A y B tienen el mismo rango:

                                       r(A) = r(B).

2. Probar que r(AB) ≤ r(A) y por lo tanto

                        r(AB) ≤ m´
                                 ınimo (r(A), r(B)).

3. Obtener la f´rmula del determinante de una matriz de 3×3.
               o
                                          Ê
4. Demuestre que si A, B ∈ Mnxn ( ), entonces P (A · B) = P (B · A) si A
   es invertible, y donde P (A) denota “el polinomio caracter´
                                                             ıstico de A”
5. Determinar los valores y los vectores propios correspondientes a las ma-
   trices siguientes:

                                       
                3        0     1     0                   
      2    1 0   0                        3  2 2     3 −2 1




                                                                                                                    ´
                           3     0     0 
     0    2 0 0                         −2 1 −6 2 1 −1
                           1     3     0
      0    0 3                              1 −1 4     2 −6 4
                  0        0     0     3

Problemas
                                                      Ã
P1. (a) Pruebe que una matriz A ∈ Mmn ( ) tiene rango 1 si y s´lo si
                                                                  o
                      Ã           Ã
                                                                                                            ı
        existen u ∈ m , v ∈ n , ambos no nulos tales que A = uv t .
    (b) Si α0 , α1 , ..., αn−1   ∈ Ê y n           2, probar por inducci´n que el
                                                                        o
        polinomio caracter´    ıstico de      la matriz
                                                              
                                     0        0 ... 0     −α0
                                   1         0 ... 0     −α1 
                                                              
                                                         −α2 
                             A = 0           1 ... 0          
                                   .         . . .        . 
                                   . .       . . .
                                              . . .        . 
                                                           .
                                        0 0      ... 1    −αn−1
                               n−1
          es igual a: (−1)n (         αk λk + λn ).
                                k=0

                          Ê
P2. Sean A, B ∈ Mn,n ( ) invertibles y α ∈            Ê, 0 < α < 1.
                                            ıstico de A−1 B. Pruebe que
     a) Sea PA−1 B (·) el polinomio caracter´

                                                                   α
                 |(αA + (1 − α)B)| = (1 − α)n |A|PA−1 B                 .
                                                                  α−1

    b) Demueste que existe 0 < α < 1 tal que (αA+(1−α)B) es invertible.


                                          142
P3. Sean A, B matrices de n×n con coeficientes reales tales que AB = BA




                                                                           Departamento de Ingenier´a Matematica - Universidad de Chile
    a) Pruebe que si Bv = 0 y v es vector propio de A asociado a λ
       entonces Bv tambi´n lo es.
                        e
    b) Muestre que si v es vector propio de A perteneciente a un espacio
       propio de dimensi´n 1, entonces v es vector propio de B.
                        o




                                                                                                   ı       ´




                                 143
´
                                 Ingenier´a Matematica
                                         ı
                                 FACULTAD DE CIENCIAS
                                 F´SICAS Y MATEMATICAS
                                   I                 ´
                                 UNIVERSIDAD DE CHILE
                                 ´
                                 Algebra Lineal 08-2

                        SEMANA 11: VALORES Y VECTORES PROPIOS




                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
       Ã       Ã
Sea L : n → n lineal y sea A la matriz representante de L con respecto
a la base can´nica B. Supongamos que existe B ′ = {v1 , . . . , vn } base de
             o
vectores propios, es decir B ′ es una base de n y               Ã
                             ∀ i ∃λi ∈      Ã Avi = λi vi .
¿Cu´l es la matriz representante de L con respecto a B ′ ?
   a

                   Av1 = λ1 v1 = λ1 v1 + 0v2 + · · · + 0vn
                   Av2 = λ1 v2 = 0v1 + λ2 v2 + · · · + 0vn
                      .
                      .
                      .
                   Avn = λn vn = 0v1 + 0v2 + · · · + λn vn

                                                      
                            λ1   0                   0
                                                    . 
                                                     . 
                           0    λ2                  .
         MB ′ B ′ (L) =    .          ..               = D que es diagonal.
                           .
                            .    0          .        0 




                                                                                                                  ´
                            0    0                  λn

Adem´s se tiene el diagrama
    a

                                                A
                                      B         →      B
                             P −1     ↓                ↑            P.


                                                                                                          ı
                                                D
                                      B′        → B′

Por lo tanto A = P DP −1

Algunas ventajas de conocer D:
(1) r(A) = r(D) = n´ mero de valores propios no nulos.
                   u

                                                                n
(2) |A| = |P DP −1 | = |P ||D||P −1 | = |D| =                         λi .
                                                                i=1


(3) |A| = 0 entonces ∀iλi = 0 y A−1 = P D−1 P −1 donde
                                                                            
                                            λ−1
                                             1                        0
                                                      ..                    
                             D−1 =                         .                .
                                                0                   λ−1
                                                                     n

    En efecto,

             A−1 = (P DP −1 )−1 = (P −1 )−1 D−1 P −1 = P D−1 P −1 ,


                                            144
   1                   
                       λ1             0




                                                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
                            ..            
      pero D−1 =                 .        
                                       1
                       0              λn

(4)
           Am = (P DP −1 )m = (P DP −1 )(P DP −1 ) · · · (P DP −1 )
                                             m                 
                                               λ1             0
                                                        ..      −1
                            = P Dm P −1 = P                .   P
                                                                  0                 λm
                                                                                     n

Como hemos visto A = P DP −1 donde P = MB ′ B (idÃn ) es decir tenemos
que expresar los vectores propios en t´rminos de la base can´nica, y por lo
                                             e                       o
tanto P = (v1 , v2 , . . . , vn ), donde los vectores vi son las columnas de P .
Definici´n 5.4 (Matriz diagonalizable). Diremos que A ∈ Mnn ( ) es
       o                                                                                  Ã                 Matriz diagonalizable
                       Ã
diagonalizable si n admite una base de vectores propios de A.


Teorema 5.1. A es diagonalizable si y s´lo si A es similar a una matriz
                                       o
diagonal.




                                                                                                                                                      ´
            ´
Demostracion.
(⇒) Hemos visto que si A es diagonalizable entonces
                                      
                           λ1        0
A = P DP −1 donde D =          ..     
                                   .
                                  0         λn
y P = (v1 , . . . , vn ). Luego A es similar a una diagonal.

(⇐) Supongamos que A es similar a una diagonal, es decir existe P inver-
tible tal que A = P DP −1 . De manera equivalente:
                                                                                                                                              ı
                                           AP = P D.
                                                                                         d1            0
Si suponemos que P = (v1 , . . . , vn ) (notaci´n por columnas) y D =
                                               o                                              ..            ,
                                                                                                   .
                                                                                         0             dn
entoces la igualdad anterior se escribe:
                                                             d1            0
                  A(v1 , . . . , vn ) = (v1 , . . . , vn )        ..            .
                                                                       .
                                                             0             dn

Y por propiedades de la multiplcaci´n de matrices esto equivale a:
                                   o
                       (Av1 , . . . , Avn ) = (d1 v1 , . . . , dn vn ).
Finalmente, la igualdad vista por columnas nos dice que ∀i ∈ {1, . . . , n} Avi =
di vi . Es decir, los vectores v1 , . . . , vn son vectores propios de A (son no nulos
pues P es invertibles), con valores propios respectivos d1 . . . , dn .
                                                Ã
Adem´s, son claramente una base de n , pues son las columnas de P que
         a
es invertible.



                                               145
Ã




                                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
Teorema 5.2. Sea A ∈ Mnn ( ) si {λi }i=1,...,k son valores propios de A
distintos y {vi }i=1...,k son vectores propios de A tal que Avi = λi vi , entonces
{vi }i=1,...,k es un conjunto l.i.


             ´
Demostracion. Por inducci´n sobre k. Para k = 1, la propiedad es ob-
                            o
viamente cierta. Supongamos

                                 α1 v1 + · · · + αk vk = 0,                              (5.2)

donde Avi = λi vi y λi i = 1, . . . , k son todos distintos. Entonces

         α1 λ1 v1 + · · · + αk λk vk = A(α1 v1 + · · · + αk vk ) = A0 = 0.

Multiplicado (5.2) por λk se tiene α1 λk v1 + · · · + αk λk vk = 0. Luego

                 α1 (λ1 − λk )v1 + · · · + αk−1 (λk−1 − λk )vk−1 = 0

como {v1 . . . , vk−1 } son l.i. se tiene αi (λi − λk ) = 0 i = 1, . . . ., k − 1. Como
λi = λk se debe tener que αi = 0 i = 1, . . . , k − 1 y de (5.2) se concluye que




                                                                                                                                     ´
αk = 0.

Antes de seguir, veremos la extensi´n natural del concepto de suma di-
                                            o
recta de m´s de dos subespacios vectoriales. Definamos primero, dados
                  a                                                                                                                                                 k
U1 , U2 , . . . , Uk s.e.v. de un espacio vectorial V , la suma de ellos como:                                                                                 + Ui
                                                                                                                                                               i=1

   k                                                k



                                                                                                                             ı
  + Ui = U1 + U2 + · · · + Uk                 v=         ui | ∀i ∈ {1, . . . , k}, ui ∈ Ui   .
 i=1
                                                   i=1

Esto es claramente un s.e.v. de V .
Definici´n 5.5 (Suma directa m´ ltiple). Sea V espacio vectorial y U1 , . . . , Uk
         o                             u
                                                              k
subespacios vectoriales de V . Decimos que el subespacio Z = +i=1 Ui es
                                                                                                                                                                    k
                                                                                                                                                                    L
suma directa de U1 , . . . , Uk , notado Z = k Ui = U1 ⊕ U2 ⊕ · · · ⊕ Uk ,
                                              i=1                                                                                                                       Ui
                                                                                                                                                               i=1
si para todo v ∈ Z, v se escribe de manera unica como
                                            ´
                         k
                    v=         ui ,    con ui ∈ Ui , ∀i ∈ {1, . . . , k}.
                         i=1

Las siguientes propiedades se tienen de manera an´loga al caso de dos
                                                 a
subespacios:

Proposici´n 5.4. Sea V espacio vectorial y Z, U1 , . . . , Uk subespacios vec-
           o
toriales de V , entonces:
                                                                                              
             k                        k                                           k
   1. Z =         Ui ⇔ Z =           + Ui    ∧ ∀j ∈ {1, . . . , k}, Uj ∩       + Ui  = {0}.
                                      i=1                                        i=1
            i=1                                                                  i=j


                                              146
k
  2. Si Z =    + Ui y Z es de dimensi´n finita, entonces son equivalentes:
                                     o




                                                                                                          Departamento de Ingenier´a Matematica - Universidad de Chile
               i=1

                    k
      (a) Z =           Ui .
                 i=1
      (b) (∀i ∈ {1, . . . , k})(∀ui ∈ Ui  {0}) {u1 , . . . , uk } es l.i.
      (c) La yuxtaposici´n de bases de los subespacios Ui es una base (y no
                        o
          s´lo un generador) de Z.
           o
                           k
      (d) dim(Z) =              dim(Ui ).
                          i=1



             ´
Demostracion. Probaremos (a) ⇔ (b) en la parte 2. El resto de las de-
mostraciones, quedan propuestas como ejercicio.                                                           ◭ Ejercicio
(b) ⇒ (a) Sea v ∈ Z y dos formas distintas de escribirlo:
                                k              k
                                                     ′               ′
                        v=           wi =           wi ,   con wi , wi ∈ Ui .
                               i=1            i=1




                                                                                                                                          ´
De aqu´ suponiendo sin p´rdida de generalidad que ∀i ∈ {1, . . . , k ∗ }, wi −
       ı,               e
 ′
wi = 0, sale que:
                                         k∗
                                                      ′
                                               (wi − wi ) = 0,
                                         i=1

lo cual es una combinaci´n lineal nula, con escalares no nulos (todos 1), de
                          o


                                                                                                                                  ı
                          ′
los vectores ui = wi − wi ∈ Ui  {0}. Pero esto es una contradicci´n con el
                                                                   o
hecho de que dichos vectores son l.i, por hip´tesis.
                                              o
As´ se tiene que la escritura es unica y por ende la suma es directa
   ı                             ´
                                                                 k
(a) ⇒ (b) Supongamos ahora que Z =                               i=1   Ui . Sea {u1 , . . . , uk }, con
ui ∈ Ui , ∀i ∈ {1, . . . , k}. Estudiemos
                                               k
                                                    αi ui = 0.
                                              i=1

Como para cada i ∈ {1, . . . , k}, Ui es un s.e.v., luego αi ui ∈ Ui . As´ hemos
                                                                         ı,
encontrado una forma de escribir al vector nulo como suma de elementos
de los subespacios Ui .
Por unicidad de dicha escritura,

                                    ∀i ∈ {1, . . . , k}, αi ui = 0.

Y esto implica, ya que ui = 0, que αi = 0, ∀i ∈ {1, . . . , k}. Es decir,
{u1 , . . . , uk } es l.i.




                                                     147
Departamento de Ingenier´a Matematica - Universidad de Chile
                               Ã
Teorema 5.3. Sea A ∈ Mnn ( ), λ1 , . . . , λk los valores propios (distintos)
de A y Wλi = Ker(A−λi I), i ∈ {1, . . . , k}. Si W = Wλ1 +Wλ2 +· · ·+Wλk ,
se tiene que
                  W = Wλ1 ⊕ Wλ2 ⊕ · · · ⊕ Wλk .
En particular, A es diagonalizable si y s´lo si
                                         o

                      Ãn = Wλ    1   ⊕ Wλ2 ⊕ · · · ⊕ Wλk .


          ´
Demostracion. Directa de la Proposici´n 5.4.
                                     o

                                                 Ã
Corolario 5.1. Supongamos que A ∈ Mnn ( ) y que p(λ) = |A − λI|, el
polinomio caracter´stico de A, tiene n ra´ces distintas en
                  ı                      ı                       Ã
                                                           : λ1 , . . . , λn ,
entonces
  1. Wλi = Ker(A − λi I) es de dimensi´n 1.
                                      o
  2. Sea vi ∈ Wλi con vi = 0 entonces {v1 , . . . , vn } es una base de vectores




                                                                                                                   ´
     propios.

                                                             Ã
Este teorema da un criterio simple para que A ∈ Mnn ( ) sea diagonizable,
´ste es que A tenga n valores propios distintos.
e

   Ejemplo:
   Sea                                    
                                   1 −1 −1

                                                                                                           ı
                             A=  −1 1 −1 
                                  −1 −1 1
                                                   
                                    1−λ    −1  −1
                p(λ) = |A − λI| =  −1    1−λ  −1 
                                     −1    −1 1 − λ

          = (1 − λ){(1 − λ)2 − 1} − 1{(1 − λ) + 1} − {1 + (1 − λ)}
          = (1 − λ)3 − (1 − λ) − (1 − λ) − 1 − 1 − (1 − λ)
          = (1 − 3λ + 3λ2 − λ3 ) − 3 + 3λ − 2
          = 3λ2 − λ3 − 4
   Ahora λ = 2 es una ra´ de p(λ). Por otro lado p(λ)÷λ−2 = −λ2 +λ+2
                          ız
                   ıces de p son λ = −1 y λ = 2. Por lo tanto p(λ) =
   As´ las otras ra´
      ı
   −(λ − 2)(λ + 1)(λ − 2) Se puede probar que A tiene una base de vectores
   propios por lo que no es necesario que todos los valores propios sean
   distintos para que A sea diagonalizable.




                                       148
Ejemplo:




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
                               
                       1 0 0
   Consideremos A =  2 2 0  los valores propios son λ1 = 1, λ2 =
                       0 0 2 
                                                      
                              1                    0      0 
   2, λ3 = 2 y W1 =         −2         W2 =         1,0      .
                                                            
                               0                        0   1   
                                                           1 0 0
       Ê
   As´ 3 = W1 ⊕ W2 , y A es diagonalizable similar a D =  0 2 0 
      ı
                                                           0 0 2

Definici´n 5.6 (Multiplicidad geom´trica). Sean A ∈ Mnn ( ) y λ
         o                              e                             Ã            Multiplicidad
un valor propio de A. Definimos la multiplicidad geom´trica de λ,
                                                         e                     geom´trica, γA (λ)
                                                                                   e
γA (λ), como la dimensi´n del espacio propio Wλ = Ker(A − λI).
                       o



                                       Ã
Teorema 5.4. Una matriz A ∈ Mnn ( ) es diagonalizable ssi la suma de
las multiplicidades geom´tricas de sus valores propios es n.
                        e




                                                                                                                      ´
               ´
Demostracion. Basta usar el Teorema 5.3 y el hecho de que si λ1 , . . . , λk
son los v.p.’s de A,
                                                k
                   dim(Wλ1 ⊕ · · · ⊕ Wλk ) =         γA (λi ).
                                               k=1



                                                                                                              ı
Definici´n 5.7 (Multiplicidad algebraica). Sean A ∈ Mnn ( ) y λ un
         o                                                        Ã                Multiplicidad
valor propio de A. Definimos la multiplicidad algebraica de λ, αA (λ),          algebraica, αA (λ)
como la m´xima potencia de (x − λ) que divide al polinomio caracter´stico
           a                                                       ı
de A, pA (x) = |A − xI|.


                                   Ã
Proposici´n 5.5. Sean A ∈ Mnn ( ) y λ0 un valor propio de A, entonces:
         o

                        1 ≤ γA (λ0 ) ≤ αA (λ0 ) ≤ n.


                                                                                     ◭ Ejercicio

  Ejercicio 5.2: Demuestre la Proposici´n 5.5. Para ello proceda de la
                                       o
  siguiente manera:
     1. Pruebe las desigualdades 1 ≤ γA (λ0 ) y αA (λ0 ) ≤ n.



                                    149
Departamento de Ingenier´a Matematica - Universidad de Chile
     2. Sea γ = γA (λ0 ). Considere una base βλ0 = {v1 , . . . , vγ } de Wλ0 =
        Ker(A − λ0 I).
     3. Extienda dicha base a una base β = {v1 , . . . , vγ , vγ+1 , . . . , vn } de
         Ã
         n
           .
     4. Calcule la matriz representante de T (x) = Ax, con respecto a la
        base β. Es decir, Mββ (T ).
     5. Pruebe que

                             pA (λ) = |A − λI| = (λ − λ0 )γ q(λ).

         En donde q(λ) es un polinomio de grado n − γ.
         Indicaci´n: Pruebe y use que A y Mββ (T ) son similares.
                 o
     6. Concluya el resultado.



                                      Ã
Corolario 5.2. Sea A ∈ Mnn ( ) y pA (λ) su polinomio caracter´stico. Se
                                                                   ı
tiene entonces que A es diagonalizable si y s´lo si pA (λ) se factoriza com-
                                             o




                                                                                                                                    ´
pletamente en    Ã
                 en factores lineales. Es decir:

        pA (λ) = cA · (λ − λ1 )αA (λ1 ) (λ − λ2 )αA (λ2 ) . . . (λ − λk )αA (λk ) ,

y adem´s, para todo valor propio λ de A, se tiene que γA (λ) = αA (λ).
      a

              ´
Demostracion. Supongamos que A es diagonalizable y sean λ1 , . . . , λk
                                                                                          Ã
                                                                                                                            ı
sus valores propios. Entonces, gracias al Teorema 5.3 tenemos que n =
  k
  i=1 Wλi .
Sea entonces la fatorizaci´n en
                          o           Ã
                                  del polinomio caracter´
                                                        ıstico de A:

     pA (λ) = cA · (λ − λ1 )αA (λ1 ) (λ − λ2 )αA (λ2 ) . . . (λ − λk )αA (λk ) q(λ),

con q(λ) un polinomio.
Pero, gracias a la Proposici´n 5.5,
                            o
                                      k              k                  k
          n = dim(   Ãn) = dim(            Wλi ) =         γA (λi ) ≤         αA (λi ).
                                     i=1             i=1                i=1

              k
De donde      i=1   αA (λi ) = n.
Ahora

n = gr(pA (λ)) = gr(cA · (λ − λ1 )αA (λ1 ) (λ − λ2 )αA (λ2 ) . . . (λ − λk )αA (λk ) ) + gr(q(λ))
                      k
                 =         αA (λi ) + gr(q(λ)).
                     i=1

                            n



                                            150
As´ gr(q(λ)) = 0. Es decir, es una constante y se tiene la fatorizaci´n
  ı,                                                                 o




                                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
buscada.

Ahora, supongamos que pA (λ) se factoriza completamente en                        Ã de la si-
guiente manera:

       pA (λ) = cA · (λ − λ1 )αA (λ1 ) (λ − λ2 )αA (λ2 ) . . . (λ − λk )αA (λk ) .
              k
De donde      i   αA (λi ) = n. Y, supongamos que A no es diagonalizable. Esto
implica que
                          k               k                     k
                  dim(         Wλi ) =         γA (λi ) < n =         αA (λi ).
                         i=1             i=1                    i=1

Lo cual contradice la hip´tesis de igualdad de las multiplicidades.
                         o

Corolario 5.3. A ∈ Mnn ( ) es diagonalizable si y s´lo si para todo valor
                                                   o
propio λ de A, se tiene que

                                     γA (λ) = αA (λ).




                                                                                                                        ı       ´




                                               151
´
                                         Ingenier´a Matematica
                                                 ı
                                         FACULTAD DE CIENCIAS
                                                                                                           Gu´a
                                                                                                             ı
                                         F´SICAS Y MATEMATICAS
                                                             ´
                                           I
                                         UNIVERSIDAD DE CHILE                                              Semana 11
                                         ´
                                         Algebra Lineal 08-2

Ejercicios




                                                                                                         Departamento de Ingenier´a Matematica - Universidad de Chile
1. Demostrar que dados V espacio vectorial y Z, U1 , . . . , Uk subespacios                          Proposici´n 5.4
                                                                                                              o
   vectoriales de V , entonces:
                                                                                            
               k                           k                                        k
   (a) Z =           Ui ⇔ Z =            + Ui      ∧ ∀j ∈ {1, . . . , k}, Uj ∩    + Ui  = {0}.
                                          i=1                                       i=1
               i=1                                                                  i=j
                     k
   (b) Si Z =      + Ui y Z es de dimensi´n finita, entonces son equivalentes:
                                         o
                   i=1
                         k
       (1) Z =               Ui .
                     i=1
       (2) (∀i ∈ {1, . . . , k})(∀ui ∈ Ui  {0}) {u1 , . . . , uk } es l.i.
       (3) La yuxtaposici´n de bases de los subespacios Ui es una base (y
                              o
           no s´lo un generador) de Z.
               o
                                k
       (4) dim(Z) =                   dim(Ui ).
                               i=1

                                               Ã
2. Pruebe que, dados A ∈ Mnn ( ) y λ0 un valor propio de A, entonces:                                Proposici´n 5.5
                                                                                                              o




                                                                                                                                         ´
                                     1 ≤ γA (λ0 ) ≤ αA (λ0 ) ≤ n.

   Para ello
   (a) Pruebe las desigualdades 1 ≤ γA (λ0 ) y αA (λ0 ) ≤ n.
   (b) Sea γ = γA (λ0 ). Considere una base βλ0 = {v1 , . . . , vγ } de Wλ0 =


                                                                                                                                 ı
       Ker(A − λ0 I).
   (c) Extienda dicha base a una base β = {v1 , . . . , vγ , vγ+1 , . . . , vn } de
       Ãn
          .
   (d) Calcule la matriz representante de T (x) = Ax, con respecto a la
       base β. Es decir, Mββ (T ).
   (e) Pruebe que
                                    pA (λ) = |A − λI| = (λ − λ0 )γ q(λ).
       En donde q(λ) es un polinomio de grado n − γ.
       Indicaci´n: Pruebe y use que A y Mββ (T ) son similares.
               o
   (f ) Concluya el resultado.


Problemas
                         Ê
P1. (a) Sea P2 ( ) el espacio vectorial de los polinomios a coeficientes
        reales de grado menor o igual a 2, y sea T : P2 ( ) → P2 ( ) la    Ê              Ê
        transformaci´n lineal definida por
                     o

                T (a0 + a1 x + a2 x2 ) = (a0 + 2a2 ) + a1 x + (2a0 + a2 )x2 .


                                                   152
(1) Verifique que la matriz representante de T con respecto a la
                                              Ê




                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
            base can´nica {1, x, x2 } de P2 ( ) (en dominio y recorrido)
                    o
            es                                  
                                         1 0 2
                                  A = 0 1 0 .
                                         2 0 1
        (2) Calcule A2n para cada n ≥ 1 natural, diagonalizando A.
        (3) Calcule T 2n (1 + x + x2 ), donde T 2n = T ◦ T ◦ · · · ◦ T .
                                                            2n
              Indicaci´n: Recuerde que la matriz representante de T 2n es
                      o
              A2n .
    (b) Encuentre los valores reales de   α y β de modo que la matriz
                                                 
                                 2 α      0 0 0
                               0 2       α 0 0
                                                 
                               0 0       2 0 0
                                                 
                               0 0       0 1 β
                                 0 0      0 0 1

        sea diagonalizable.




                                                                                                               ´
              Ê
P2. Sea a ∈ . Se define una sucesi´n de n´ meros reales (un )n∈Æ de la
                                    o       u
    siguiente manera: u0 = 1, u1 = a, (∀n ≥ 2) un = aun−1 − un−2 .
    Sean x0 = ( 1 ), (∀n ≥ 1) xn = ( uun ).
                0                     n−1


    (a) Demuestre que para todo n ≥ 0 se tiene que xn = An x0 con
        A = a −1 .
            1 0



                                                                                                       ı
    (b) Demuestre que si |a| = 2 entonces A no es diagonalizable.
    (c) Demuestre que si |a| > 2 entonces A es diagonalizable.
    (d) Asuma que |a| > 2 y denote λ1 , λ2 los valores propios de A.
        Demuestre que
        (1)    λ1y ( λ2 ) son vectores propios asociados a λ1 y λ2 , respec-
               1      1
            tivamente.
                              Æ                   λn+1 −λn+1
        (2) Para todo n ∈ se tiene que un = 1 λ1 −λ2 .   2




                      Ê
P3. Sean R, S ∈ Mnn ( ), con S invertible. Considere A = RS y B = SR.
                          Ê
    (a) Pruebe que v ∈ n es vector propio de A asociado al valor propio
        λ ∈ R ssi Sv es vector propio de B asociado al mismo valor propio
        λ. Concluya que A y B tienen los mismos valores propios.
    (b) Sean Wλ (A) = Ker(A− λI) el subespacio propio de A asociado al
        valor propio λ ∈  Êy Wλ (B) el subespacio propio de B asociado
        a λ. Pruebe que dim(Wλ (A)) = dim(Wλ (B)).
    (c) Pruebe que A es diagonalizable ssi B es diagonalizable.




                                   153
´
                                    Ingenier´a Matematica
                                            ı
                                    FACULTAD DE CIENCIAS
                                    F´SICAS Y MATEMATICAS
                                      I                 ´
                                    UNIVERSIDAD DE CHILE
                                    ´
                                    Algebra Lineal 08-2

                                                 SEMANA 12: ORTOGONALIDAD




                                                                                                       Departamento de Ingenier´a Matematica - Universidad de Chile
6.       Ortogonalidad
6.1.     Conjuntos ortogonales y ortonormales
Recordemos que la proyecci´n de u sobre v = 0 est´ definida por w = u,v v.
                           o                     a                  v,v
Este vector w es “el que est´ m´s cerca” de u en el espacio {v} . Es decir
                            a a
m´ u − λv = u − w .
 ın
λ∈   Ê
Notaremos por u⊥v si u, v = 0, es decir si u y v son ortogonales.                                                                                                     u⊥v

Definici´n 6.1 (Conjunto ortogonal/ortonormal). Un conjunto {v1 , . . . , vk }
         o                                                                                 Conjunto
de   Ê
     n
       se dice ortogonal si vi , vj = 0 i = j. Si adem´s vi = vi , vi =
                                                          a
                                                                          1
                                                                          2    ortogonal/ortonormal

1, diremos que el conjunto es ortonormal.
En el caso en que {v1 , . . . , vk } es adem´s base de un subespacio vectorial
                                            a
W , diremos que se trata de una base ortonormal de W .                                         Base
                                                                                             ortogonal/ortonormal
     Ejemplo:
                             Ên es una base ortonormal.




                                                                                                                                       ´
     La base can´nica de
                o
Veamos una propiedad util de los conjuntos ortogonales:
                     ´

Proposici´n 6.1. Sea {v1 , . . . , vk } ⊆
         o                                    Ên{0} ortogonal, entonces {v1, . . . , vk }
es l.i.



                                                                                                                               ı
                              k
                  ´
Demostracion. Sea i=1 αi vi una combinaci´n lineal nula de los elemen-
                                                           o
tos de {v1 , . . . , vk }. Sea j ∈ {1, . . . , k}, luego por propiedades del producto
interno:
                      k                           k
                           αi vi , vj   =0 ⇔           αi vi , vj = 0.
                     i=1                         i=1

Pero dado que el conjunto es ortogonal, luego vi , vj = 0 para i = j, de
manera que
                                           2
                       αj vj , vj = αj vj = 0.
Y como vj = 0, se deduce que αj = 0.
Como este procedimiento es v´lido para todo j ∈ {1, . . . , k}, se concluye
                               a
que {v1 , . . . , vk } es l.i.

Ahora, en el caso de conjuntos ortonormales, hay propiedades importantes
que motivan su b´ squeda.
                 u

Proposici´n 6.2. Sea W un subespacio vectorial de
          o                                                    Ên y {u1, . . . , uk } una
base ortonormal de W , entonces:


                                           154
1. Si x ∈ W ,




                                                                                                       Departamento de Ingenier´a Matematica - Universidad de Chile
                                           k
                                  x=                x, ui ui .
                                         i=1

  2. Si x ∈   Ên y definimos
                                     k
                                z=          x, ui ui ∈ W,
                                     i=1

     entonces (x−z)⊥w, ∀w ∈ W . Y en particular d(x, z) = m´ w∈W d(x, w),
                                                           ın
     de hecho ∀w ∈ W  {z}, d(x, z) < d(x, w).


          ´
Demostracion.
  1. Como {u1 , . . . , uk } es una base de W y x ∈ W , luego
                                                k
                                     x=                 αi ui .
                                               i=0

     Tomemos j ∈ {1, . . . , k} y calculemos el producto interno entre x y




                                                                                                                                       ´
     uj :
                                                    k
                                x, uj =                     αi ui , uj
                                                i=0
                                               k
                                      =             αi ui , uj .
                                           i=0



                                                                                                                               ı
     Como el conjunto {u1 , . . . , uk } es ortogonal, se tiene que ui , uj =
     0, ∀i = j, de donde
                           x, uj = αj uj , uj = αi · 1.
     Repitiendo este procedimiento para todo j ∈ {1, . . . , k}, se concluye
     que αj = x, uj
                                           k
                                  x=                x, ui ui .
                                         i=1

  2. Sea x ∈   Ên , z =   k
                          i=1   x, ui ui y w ∈ W , veamos:
                                                                k                  k
      x − z, w = x, w − z, w = x, w −                                x, ui ui ,         w, uj uj   ,
                                                               i=1                j=1

     la ultima igualdad gracias a que w ∈ W . As´ usando las propiedades
        ´                                       ı,
     del producto interno:
                                            k           k
                  x − z, w = x, w −                           x, ui w, uj         ui , uj
                                           i=1 j=1



                                         155
y como {u1 , . . . , uk } es ortonormal, ui , uj = 0, ∀i = j y




                                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
                                               k
                  x − z, w = x, w −                 x, ui w, ui ui , ui
                                              i=1
                                               k
                             = x, w −               x, ui w, ui
                                              i=1
                                                     k
                             = x, w −          x,            w, ui ui         = 0.
                                                    i=1

                                                              w


       Para probar que d(x, z) = m´ w∈W d(x, w), sea w ∈ W distinto de z,
                                   ın
                                                         Ê
       luego por el Teorema de Pit´goras en n , probado en el Ejercicio 2.4:
                                  a
                                     2               2                    2
                           x−z           + w−z            = x−w               .
                             2
       Pero como w − z           > 0, luego
                                           2                      2
                                    x−z        < x−w                  .




                                                                                                                                     ´
       De esta manera

                 ∀w ∈ W, d(x, z) = x − z < x − w = d(x, w),

       de donde se concluye.



                                                                                                                             ı
6.2.    Proyecciones Ortogonales
La Proposici´n 6.2 motiva la definici´n proyecci´n ortogonal sobre un sub-
            o                       o          o
                       Ê
espacio vectorial de n . Asumiremos por ahora el siguiente resultado, el
cual demostraremos en la Secci´n 6.4, que asegura la existencia de una
                                o
base ortonormal de cualquier subespacio vectorial de n .                  Ê
Proposici´n 6.3. Todo subespacio vectorial de
         o                                                        Ên posee una base orto-
normal.

Definimos entonces:
Definici´n 6.2 (Proyecci´n ortogonal sobre un s.e.v.). Sea W un
         o               o                                                                  Proyecci´n ortogonal
                                                                                                    o
                       Ê
subespacio vectorial n y {u1 , . . . , uk } una base ortonormal de W . Defi-
nimos la proyecci´n ortogonal sobre W como la funci´n
                   o                                        o

                  P:    Ên       −→ W
                                                     k
                           x −→ P (x) =                      x, ui ui ∈ W.
                                                    i=1




                                          156
Departamento de Ingenier´a Matematica - Universidad de Chile
  Observaci´n: Notemos que esta definici´n es correcta, es decir que
             o                                o
  P no depende de la base ortonormal considerada y que es funci´n.o
  Gracias a la Proposici´n 6.2.2, sabemos que independiente de la base
                         o
  ortonormal considerada para definirla, la proyecci´n es aquella que mi-
                                                     o
  nimiza la distancia de x a W . As´ si hubiese dos proyecciones z1 , z2 ,
                                     ı,
  asociadas a bases distintas y fuesen distintas, luego:

                             d(x, z1 ) < d(x, z2 ),

  lo cual contradice la propiedad que satisface z2 .
  De la misma manera se prueba que P es funci´n. o


Veamos ahora las propiedades de la proyecci´n ortogonal:
                                           o

Proposici´n 6.4. Sea W un subespacio vectorial de
           o                                               Ên y P su proyecci´n
                                                                             o
ortogonal asociada, entonces:
  1. P es una transformaci´n lineal.
                          o
  2. ∀x ∈    Ên, ∀w ∈ W,   (x − P (x))⊥w.




                                                                                                                           ´
  3. d(x, P (x)) = m´ w∈W d(x, w).
                    ın


             ´
Demostracion. 2 y 3 se deducen de la Proposici´n 6.2. La demostraci´n
                                              o                    o
de 1 queda de ejercicio.                                                                   ◭ Ejercicio


6.3.     Subespacio Ortogonal
Definici´n 6.3 (Subespacio ortogonal). Sea W un subespacio de
       o
definamos el ortogonal de W como:
                                                                            Ên    Subespacio ortogonal
                                                                                                                   ı                                      W⊥

                  W ⊥ = {u ∈   Ên | ∀w ∈ W            w, u = 0}.


Proposici´n 6.5.
         o
 (i) W ⊥ es un subespacio de    Ên .
 (ii)   Ên = W ⊕ W ⊥ .                                                                 Ên = W ⊕ W ⊥
(iii) dim(W ⊥ ) = n − dim(W ).


          ´
Demostracion.
                               Ê
 (i) Sea u, v ∈ W ⊥ y λ ∈ , debemos probar que λu + v ∈ W ⊥ . Sea
     w ∈ W:
                    w, λu + v = λ w, u + w, v = 0
        lo que es v´lido para todo w ∈ W . Luego λu + v ∈ W ⊥ por lo tanto
                   a
        W ⊥ es un subespacio vectorial de n .Ê
                                       157
Ê
 (ii) Es claro que W + W ⊥ ⊆ n . Para la otra inclusi´n, dado x ∈
                                                     o                     Ên ,




                                                                                            Departamento de Ingenier´a Matematica - Universidad de Chile
      basta notar que
                          x = P (x) + (x − P (x)).
       En donde P es la proyecci´n ortogonal sobre W . As´ P (x) ∈ W y
                                  o                          ı,
       x− P (x) ∈ W ⊥ (gracias a la Proposici´n 6.4), de donde x ∈ W + W ⊥ .
                                             o
       Nos basta entonces probar que W ∩ W ⊥ = {0}. En efecto si x ∈
       W ∩ W ⊥ , en particular es ortogonal a s´ mismo, es decir x, x = 0,
                                               ı
       de donde x = 0.
       Se concluye entonces que    Ên = W ⊕ W ⊥ .
(iii) Se deduce directamente de (ii).


6.4.     ´
        Metodo de Gram-Schmidt
El objetivo de esta parte es asociar de forma “can´nica” a un conjunto dado
                                                  o
   Ê
de n , una base ortonormal del subespacio generado por ´l. Este m´todo
                                                            e         e
es conocido con el nombre de M´todo de Gram-Schmidt.
                                  e
Probaremos el siguiente teorema:




                                                                                                                            ´
Teorema 6.1 (Gram-Schmidt). Dado un conjunto {v0 , . . . , vm } ⊆          Ên ,
existe un conjunto ortonormal {u0 , . . . , uk } tal que

                       {v0 , . . . , vm } = {u0 , . . . , uk } .




                                                                                                                    ı
             ´
Demostracion. La demostraci´n de este teorema es precisamente el m´to-
                                    o                                       e
do Gram-Schmidt, que entrega un procedimiento algor´       ıtmico para construir
el conjunto buscado. Sea entonces {v0 , . . . , vm } un conjunto de vectores y
definimos el conjunto {u0 , . . . , uk } mediante el Algoritmo 1.                   M´todo Gram-Schimdt
                                                                                    e
Probemos que esta definici´n del {u0 , . . . , uk } cumple lo pedido. Lo haremos
                          o
por inducci´n en m.
           o

       Caso base. Para m = 0, si v0 = 0 luego w0 = 0 y el algoritmo
       termina sin generar vectores uj . Esto es consistente con que la unica
                                                                        ´
       base de {0} es el conjunto vac´
                                     ıo.
       Si v0 = 0, por ende w0 = 0, se tiene el resultado ya que
                                                v0
                                        u0 =       ,
                                                v0

       que es claramente de norma 1 y adem´s, como es ponderaci´n de v0 ,
                                          a                    o
       se tiene que {u0 } = {v0 } .
       Paso inductivo. Supongamos que dado el conjunto {v0 , . . . , vm−1 },
       el conjunto {u0 , . . . , uk−1 } es ortonormal y tal que

                        {v0 , . . . , vm−1 } = {u0 , . . . , uk−1 } .


                                        158
Departamento de Ingenier´a Matematica - Universidad de Chile
Algoritmo 1 M´todo Gram-Schmidt
                e
                        v
 1: Partamos con w1 = v1 ∗.
                         1
 2: Luego, proyectamos v2 sobre el subespacio generado por u1 :

                                   z2 = v2 , v1 u1

      y restamos esta proyecci´n a v2 :
                              o

                                    w2 = v2 − z2




                                                                                                                   ´
                                                             w2
      perpendicular a {u1 } y normalizamos, u2 =             w2   ∗.
 3:   Luego podemos pasar a trabajar con v2

                            z3 = v3 , u1 u1 + v3 , u1 u2
                            w3 = v3 − z3 ,
                                                          w
      perpendicular a {u1 , u2 } y normalizamos, u3 = w3 ∗. 3




                                                                                                           ı
 4:   se sigue del mismo modo: una vez obtenidos {u1 , . . . , uk }, proyectamos
      vk+1 sobre {u1 , . . . , uk } y definimos
                                          k
                               zk+1 =         vk+1 , ui ui
                                        i=0
                              wk+1 = vk+1 − zk+1 ,
                                                                wk+1
      perpendicular a {u1 , . . . , uk } y normalizamos, uk+1 = wk+1 ∗.
 5:   El proceso termina cuando hemos procesado todos los vi .




                                        159
Con k = dim( {v0 , . . . , vm−1 } ).




                                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
Veamos los dos casos posibles:
                                    k−1
Si wk = 0, se tiene que vm =              vm , ul ul , de donde vk ∈ {u0 , . . . , uk−1 }
                                    l=0
y por ende
                       {v0 , . . . , vm } = {u0 , . . . , uk−1 } .
Y la base ortonormal generada es {u0 , . . . , uk−1 }.
Ahora si wk = 0, seg´ n el algoritmo, uk estar´ definido por:
                    u                         a
                                                    k−1
                     wk   1
                uk =    =                   vm −          vm , ul ul .
                     wk   wk
                                                    l=0

Veamos entonces, para cualquier i ∈ {0, . . . , k − 1}
                                             k−1
                              1
              uk , ui =               vm −          vm , ul ul       , ui
                              wk
                                              l=0
                                                 k−1
                           1
                       =             vk , ui −         vm , ul ul , ui
                           wk




                                                                                                                               ´
                                                 l=0

y por hip´tesis de inducci´n, ∀l = i, ul , ui = 0 y ui , ui = 1, luego
         o                o
                            1
              uk , ui =       ( vm , ui − vm , ui · 1)
                          wk
                       = 0.
Es decir, el conjunto {u0 , . . . , uk } es ortogonal, y como es claro que

                                                                                                                       ı
∀i ∈ {0, . . . , k} ui = 1, es adem´s ortonormal.
                                        a
Ahora, por construcci´n de uk se tiene
                     o
                                             k−1
                        vm = wk uk +                vm , ul ul
                                              l=0

es decir, vm es combinaci´n lineal de {u0 , . . . , uk }, lo que equivale a
                               o
vm ∈ {u0 , . . . , uk } . As´ gracias a la hip´tesis inductiva, se tiene que
                            ı,                o

                        {v0 , . . . , vm } ⊆ {u0 , . . . , uk } .                      (6.1)
Por otra parte, uk es combinaci´n lineal de vm y u0 , . . . , uk−1 , ya que
                               o
                                             k−1
                             1                      vm , ul
                       uk =    vm −                         ul .
                            wk                       wk
                                             l=0


                                                       Ê tales que
                                                                       k−1
                                                                              vm ,ul
Pero gracias a (6.1), existen α0 , . . . , αm ∈                                wk      ul =
                                                                        l=0
m
      αl ul . As´ uk ∈ {v0 , . . . , vm } y luego
                ı
l=0

                        {u0 , . . . , uk } ⊆ {v0 , . . . , vm } .

                                      160
Obteniendo lo buscado.




                                                                             Departamento de Ingenier´a Matematica - Universidad de Chile
Luego, por Principio de Inducci´n, se tiene el teorema.
                               o


  Observaci´n:
           o
       Notemos que como corolario del Teorema 6.1, se obtiene la Pro-
       posici´n 6.3.
             o
       Adem´s, el Teorema 6.1 puede ser aplicado en particular a una
             a
                               Ê
       base {v0 , . . . , vn−1 } de n .



  Observaci´n: ∗
              o
  Observar que si alguno de los vectores a normalizar, v1 o los wi , vale
  0, significa que el vi correspondiente no aportar´ un nuevo vector a la
                                                   a
  base, y simplemente se descarta, pas´ndose a trabajar con vi+1 .
                                         a
  Esto trae como consecuencia que el n´ mero de vectores ui sea menor
                                           u
  que el de los vj si estos ultimos son l.d.
                            ´
  En general, esto har´ que al procesar el k-´simo vk , estemos producien-
                       a                     e




                                                                                                             ´
  do un ui , con i < k, pero no hemos introducido esto en la descripci´no
  del algoritmo para no confundir la notaci´n.
                                             o


  Ejemplo:
                           
                    0         1       1       1 

                                                                                                     ı
                   
                      0  ,  1  ,  1  ,  0  en
                                                  
                                                          Ê3 .
                       1       0       1       1
                                                      
                   1
                                                       0
  u0 = v0 / v0 , v0 , como v0 , v0 = 1 se tiene u0 =  0 
                   2

                                                       1
                                   
                         1       1      0       0       1
              w1 =  1  −  1  ,  0   0  =  1  .
                         0       0      1       1       0
                                                      
                                                        1
                                          1        1
                  w1 , w1 = 2    ⇒ u1 = √ w1 = √  1 
                                           2        2 0

                                                          
          1       1       0     0       1         1                   1
                                               1                 1  
   w2 =  1  −  1  ,  0   0  −  1  , √   1               √   1
          1       1       1     1       1       2 0                 2 0
                              
          1     0                 1     0
                        1 1
      = 1 − 0 − √ √ · 21 = 0
          1     1        2 2      0     0


                                    161
1
  w2 = 0, por ende ignoramos                       1    y redefinimos w2 .




                                                                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
                                                   1
                                                  
            1       1       0     0       1         1         1
                                                 1       1  
     w2 =  0  −  0  ,  0   0  −  0  , √   1    √    1
            1       1       1     1       1       2 0       2 0
                                                     
            1     0              1      1       0        1       1
                          1 1       1  1 
        = 0 − 0 − √ √        1 = 0 − 0 −             1 =    −1 .
                           2 2 0                      2       2
            1     1                     1       1        0       0
                               1        1     1
     Como w2 , w2 =            4   +    4   = 2 , luego
                                                       
                                                       1
                                                    1
                                              u2 = √   .
                                                      −1
                                                     2 0



6.5.       Producto Herm´tico
                        ı
Ahora, extendemos el producto interno de ·, · :                            Ê n × Ên → Ê a      ·, ·   H   :       n
                                                                                                                      ×
 n
   → , de la siguiente forma.




                                                                                                                                                                  ´
                                                                                         u1               v1
Definici´n 6.4 (Producto Herm´
       o                    ıtico). Dados u =                                            .
                                                                                         .    ,v =            .
                                                                                                              .       ∈   Producto Herm´
                                                                                                                                       ıtico,
                                                                                         .                    .
                                                                                         un               vn                          u, v H
 n
     ,
                                                             n
                                            u, v   H   =         uj vj .


                                                                                                                                                          ı
                                                           j=1

                                                                                                                                  ◭ Ejercicio

                                            ıtico satisface: ∀λ ∈
  Ejercicio 6.1: Probar que el producto herm´
   , u, v, w ∈ n
         1. u, v   H   = v, u      H.

         2. λu + v, w      H   = λ u, w        H   + v, w        H.

         3. u, u   H   ∈   Ê, m´s a´n
                               a u             u, u    H   ≥ 0 y u, u        H   = 0 ⇐⇒ u = 0.
  De 2a y 2b, se deduce que

                            u, λv + w                ¯
                                                   = λ u, v           + u, w         .
                                              H                  H               H




  Observaci´n: Los conceptos de ortogonalidad, proyecci´n ortogonal,
             o                                         o
  subespacio ortogonal y el m´todo de Gram-Schmidt, pueden desarro-
                             e
  llarse tambi´n en n , como espacio vectorial sobre .
              e



                                                       162
´
                                    Ingenier´a Matematica
                                            ı
                                    FACULTAD DE CIENCIAS
                                                                                                 Gu´a
                                                                                                   ı
                                    F´SICAS Y MATEMATICAS
                                                        ´
                                      I
                                    UNIVERSIDAD DE CHILE                                         Semana 12
                                    ´
                                    Algebra Lineal 08-2

Ejercicios




                                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
1. Dado W un s.e.v. de n y P :  Ê         Ên → W su proyecci´n ortogonal asocia-
                                                            o                              Proposici´n 6.4
                                                                                                    o
   da. Probar que P es lineal.
2. Demuestre las siguientes propiedades del producto herm´
                                                         ıtico:                              Ejercicio 6.1

   (a) u, v   H   = v, u    H.
  (b) λu + v, w        H   = λ u, w   H   + v, w     H.
   (c) u, u   H   ∈   Ê, m´s a´n
                          a u         u, u   H   ≥ 0 y u, u    H   = 0 ⇐⇒ u = 0.


Problemas
                                                 Ê
P1. Sea W el subespacio vectorial de 4 generado por:
                              
                       1
                                 1     1    2 
                                      
                         1 −1 3 3
                              , ,   .
                      1
                                 1     1    2 
                                               
                          1      −1     3    3

    (a) Encuentre una base ortonormal de W y de W ⊥ .




                                                                                                                               ´
                                                           1
    (b) Encuentre la descomposici´n de v =
                                 o                         2
                                                           3       en W + W ⊥ .
                                                           4

                       Ê
P2. Sea A ∈ Mnn ( ) una matriz invertible y U un s.e.v. de                 Ên de simen-
    si´n 0 < k < n. Se define
      o

                              Ên | ∀u ∈ U, Ax, Ay = 0}.
                       W = {y ∈


                                                                                                                       ı
    (a)   Probar que W es s.e.v. de Ên y probar que W ∩ U = {0}.
    (b)   Sea V = {v ∈ Ên | ∃u ∈ U, v = Au}. Pruebe que V es s.e.v. de
          Ên.
     (c) Sea {v1 , . . . , vk } una base ortonormal de V . Probar que {u1 , . . . , uk }
         donde ui = A−1 vi , i ∈ {1, . . . , k}, es una base de U que verifica
         la propiedad: Aui , Auj = 0 si i = j y Aui , Auj = 1 si i = j.
    (d) Probar que

                        w ∈ W ⇔ ∀i ∈ {1, . . . , k}, Aw, Aui = 0.

          Donde {u1 . . . . , uk } es la base del punto anterior.

                                    Ên entonces z =
                                                          k
    (e) Probar que si v ∈                                          Av, Aui ui ∈ U y que
                                                          i=1
          v − z ∈ W.
                            Ê
    (f ) Deducir que n = U ⊕ W y calcular la dimensi´n de W .
                                                    o
                      
                    1
                          2 
                        
                      1 1
P3. (a) Sea W =          ,     .
                   1 1 
                             
                             
                       1   0

                                             163
(a.1) Encuentre una base ortonormal de W ⊥ .
                                   Ê




                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
    (a.2) Sean x1 , x2 , x3 , x4 ∈ . Encuentre (en t´rminos de x1 , x2 , x3 , x4 )
                                                    e
                                                             x1        y1
                                                             x2        y2
            los valores y1 , y2 , y3 , y4 que satisfacen T   x3   =    y3   ,
                                                             x4        y4
                       Ê       Ê
            donde T : 4 → 4 es una transformaci´n lineal para la
                                                    o
            cual Ker(T ) = W y, para todo x ∈ W ⊥ , T (x) = x.
(b) Sean U, V subespacios vectoriales de      Ên. Demuestre que
    (b.1)   (U + V )⊥ = U ⊥ ∩ V ⊥ .
    (b.2)   (U ⊥ )⊥ = U .
    (b.3)   (U ∩ V )⊥ = U ⊥ + V ⊥ .
    (b.4)             Ê
            U ⊕ V = n ⇔ U⊥ ⊕ V ⊥ =            Ên.




                                                                                                             ı       ´




                                   164
´
                                Ingenier´a Matematica
                                        ı
                                FACULTAD DE CIENCIAS
                                F´SICAS Y MATEMATICAS
                                  I                 ´
                                UNIVERSIDAD DE CHILE
                                ´
                                Algebra Lineal 08-2

                                                    SEMANA 13: ORTOGONALIDAD




                                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
6.6.                             ´
       Espectro de una matriz simetrica
               Ê
Sea A ∈ Mnn ( ) una matriz sim´trica entonces
                              e

                        ∀u, v ∈   Ên       Au, v = u, Av .                           (6.2)
                           t          t   t         t
En efecto, Au, v = (Au) v = u A v = u Av = u, Av
                                          Ê
Probemos ahora que si A ∈ Mnn ( ) satisface 6.2 entonces A es sim´trica.   e
Esto se deduce del siguiente hecho f´cil de probar: si {e1 , . . . , en } la base
                                    a
             Ê
can´nica de n y A es una matriz de n × n entonces
   o

                                  Aei , ej = aji .                                   (6.3)
Utlizando esta propiedad y 6.2 se obtiene que
                 aij = Aej , ei = ej , Aei = Aei , ej = aji ,
donde adem´s se usa el hecho que el producto interno en
          a                                                           Ên es sim´trico.
                                                                               e

Dada A ∈ Mnn ( ), definimos la matriz adjunta de A, A∗ , de la siguiente                       Adjunta, A∗




                                                                                                                                ´
forma:
                        ∀k, ℓ (A∗ )kℓ = aℓk .
   Ejemplo:

                             1  i                          1 2−i
                    A=                          A∗ =
                            2+i 3                          −i 3


     ∗          t
                     ıtica si A = A∗ , notar que si A ∈ Mnn ( ) entonces
Decimos que A es herm´                                                       Ê                               Herm´
                                                                                                                 ıtica  ı
A=A ⇔A=A.

De forma an´loga al caso sim´trico se prueba que
           a                e
                                  n
                      ∀u, v ∈             Au, v     H   = u, Av   H
                                                                         n
                      ıtica. As´ en particular, ∀u, v ∈
si y s´lo si A es herm´
      o                        ı,                                            Au, v       =
                       Ê
                                                                                     H
 u, Av H si A ∈ Mnn ( ) y A es sim´trica.
                                  e

                                              ıstico p(λ) = |A − λI| es
Sea A ∈ Mnn ( ) entonces el polinomio caracter´
un polinomio de grado n con coeficientes complejos y por lo tanto tiene n
ra´ en (con posibles repeticiones). Denotaremos por
  ıces
                        σ(A) = {λ ∈            /|A − λI| = 0}
al conjunto de las raices del polinomio caracter´
                                                ıstico. Este conjunto lo lla-
                                                    Ê
maremos el espectro de A. Como Mnn ( ) ⊆ Mnn ( ) podemos definir de                           espectro, σ(A)
igual manera el espectro de A, para A ∈ Mnn ( ).           Ê
En general el espectro de A es un subconjunto de , a´ n cuando A ∈
                                                            u
       Ê
Mnn ( ), como lo muestra el pr´ximo ejemplo.
                                 o

                                              165
Ejemplo:




                                                                                        Departamento de Ingenier´a Matematica - Universidad de Chile
                                        
                             0 1 0
                       B= −1 0 0 
                             0 0 1
                          
                 −λ 1   0
        B − λI =  −λ
                 −1     0      |B − λI| = (1 − λ){λ2 + 1}
                   0 0 1−λ
    Las ra´ ıces son λ = 1 λ = ±i. Si B es considerada como matriz de
                                                                      Ê
   coeficientes reales (es decir estamos trabajando en n ) B tiene un s´loo
   valor propio que es 1. Si el cuerpo considerado es       entonces B tiene
   3 valores propios 1, i, −i. En cualquier caso el espectro de B es σ(B) =
   {1, i, −i}.



Teorema 6.2. Sea A ∈ Mnn ( ) herm´tica entonces el espectro de A es
                                 ı
subconjunto de .Ê




                                                                                                                        ´
              ´
Demostracion. Sea λ ∈ σ(A) (en general λ ser´ complejo) entonces, |A−
                                                 a
λI| = 0, es decir A − λI no es invertible, luego debe existir v ∈ n , v = 0
tal que (A − λI)v = 0. Por lo tanto

                         Av, v   H   = λv, v   H   = λ v, v   H   ,



                                                                                                                ı
pero
                 Av, v       = v, Av         = v, λv         ¯
                                                           = λ v, v
                         H               H             H                  H
                                        ¯                     Ê
como v = 0 v, v H = 0 entonces λ = λ es decir λ ∈ . Se tiene que para A
herm´                           ıstico p(λ) = |A − λI| tiene todas sus ra´
     ıtica el polinomio caracter´                                        ıces
reales.

                                     Ê
Corolario 6.1. Si A ∈ Mnn ( ) es sim´trica entonces σ(A) ⊆
                                    e                                         Ê.

Teorema 6.3. Si A ∈ Mnn ( ) es herm´tica y λ1 = λ2 son valores propios
                                          ı
y v1 , v2 son vectores propios asociados a λ1 y λ2 respectivamente entonces
 v1 , v2 H = 0.



                ´
Demostracion. Consideremos Av1 , v2 H = λ1 v1 , v2 H = λ1 v1 , v2                  H,
pero Av1 , v2 H
                               ¯
= v1 , Av2 H = v1 , λ2 v2 H = λ2 v1 , v2 H pero λ2 ∈ y por tanto  Ê
(λ1 − λ2 ) v1 , v2 H = 0, como λ1 = λ2 , v1 , v2 H = 0.



                                         166
Ê
Notemos que si u, v ∈ n ⊆ n , entonces u, v           H   = u, v , por lo tanto se




                                                                                         Departamento de Ingenier´a Matematica - Universidad de Chile
obtiene el siguiente corolario importante.
                                                      Ê
Corolario 6.2. Vectores propios de A ∈ Mnn ( ), sim´trica, asociados a
                                                   e
valores propios distintos son ortogonales.

Definici´n 6.5 (Transformaci´n sim´trica). Sea W un subespacio de
       o                   o       e                                                 Transformaci´n
                                                                                                  o
Ên y L : W → W una aplicaci´n lineal, diremos que L es sim´trica (en
                           o                              e                                sim´trica
                                                                                              e
W ) si

                      ∀u, v ∈ W L(u), v = u, L(v)

               Ê       Ê
Lema 2. L : n → n es sim´trica si y s´lo si la matriz representante
                                e          o
                          o            Ê
con respecto a la base can´nica de n es sim´trica.
                                            e

             ´
Demostracion. Si A es la matriz representante de L con respecto a la
base can´nica entonces L(u) = Au de donde
        o

                   L(u), v = Au, v          u, L(v) = u, Av ,

luego L es sim´trica si y s´lo si A es sim´trica.
              e            o              e




                                                                                                                         ´
                                                                                         ◭ Ejercicio

  Ejercicio 6.2: Sea W subespacio vectorial de         Ên y L : W → W lineal,
  probar que:
     1. Si B = {u1 , . . . , un } es una base ortonormal de W , entonces

                       L sim´trica ⇔ MBB (L) sim´trica.
                            e                   e
                                                                                                                 ı
     2. Si B = {u1 , . . . , un } es una base de W y

                                 ϕ: W       −→   Ên         α1
                       x=
                              k
                                    αi ui   −→ ϕ(x) =        .
                                                             .   .
                              i=0                            .
                                                            αk

        Entonces x es vector propio de L asociado al v.p. λ si y s´lo si
                                                                  o
        ϕ(x) es vector propio de MBB (L) asociado al v.p. λ.



Ahora estamos en posici´n de probar uno de los teoremas m´s importantes
                       o                                 a
de la secci´n.
           o


                                            Ê
Teorema 6.4. Sea W subespacio de n , dim W ≥ 1 y L : W → W lineal,
sim´trica, entonces existe una base ortonormal de W de vectores propios
   e
de L.


                                        167
Departamento de Ingenier´a Matematica - Universidad de Chile
           ´
Demostracion. Por inducci´n sobre la dimensi´n de W . Si dim W = 1.
                          o                 o
Entonces W = {v} , con v = 0. Notemos que

                               L(v) ∈ W = {v} ,

luego existe λ ∈   Ê
                   tal que L(v) = λv. Es decir, λ es un valor propio de L
y v vector propio de L.
Definiendo
                                    1
                               v=
                                ˜      v,
                                    v
se tendr´ L˜ = λ˜ y adem´s {˜} es una base ortonormal de W . Esto prueba
        a v      v        a v
el caso en que la dimensi´n sea 1.
                         o

Supongamos que la propiedad es cierta para espacios de dimensi´n k−1, por
                                                              o
demostrar que es cierta para espacios de dimensi´n k. Sea W subespacio
                                                    o
de dimensi´n k y L : W → W lineal sim´trica. Sea B = {w1 , . . . , wk }
                  o                               e
base ortonormal de W , gracias al Ejercicio 6.2 la matriz MBB (L) ∈ k es      Ê
sim´trica, por lo que tiene todos sus valores propios reales.
     e
Sea λ0 un valor propio cualquiera, por lo tanto existe un vector z =




                                                                                                                        ´
(z1 , . . . , zk )t = 0, tal que MBB (L)z = λ0 z.
Sea v = z1 w1 + z2 w2 + · · · + zk wk ∈ W . Como v = 0 (pues z = 0 y
{w1 , . . . , wk } es l.i.), luego gracias a la parte 2 del Ejercicio 6.2, es vector
propio de L (ya que ϕ(v) = z).
      ˜
Sea W = {u ∈ W | u, v = 0} el ortogonal de {v} con respecto a W . Se
                                         ˜
tiene que k = dim W = 1 + dim W lo que implica que dim W = k − 1      ˜


                                                                                                                ı
Sea u ∈ W      ˜ ⇒ L(u), v = u, L(v) = u, λ0 v = λ0 u, v = 0, luego
   ˜          ˜
L(W ) ⊆ W . Tomemos
                ˜ ˜
                L:W →W ˜
                                                      ˜
                               (la restricci´n de L a W ),
                                            o
                       ˜
                   u → Lu = Lu
          ˜                                        ˜
 entonces L es lineal y sim´trica. Verifiquemos que L es sim´trica. Consi-
                           e                               e
deremos u, w ∈ W ˜

                ˜                                ˜
                L(u), w = L(u), w = u, L(w) = u, L(w) ,
          ˜                      ˜              ˜
es decir L es sim´trica en W . Como dim W = k − 1 se tiene por hip´tesis
                      e                                                         o
                                                        ˜
de inducci´n que existe una base ortonormal de W de vectores propios de
             o
˜ ˜              ˜                         ˜ ˜
L: {w1 , . . . , wk−1 }, es decir L(wi ) = L(wi ) = λi wi luego w1 , . . . , wk−1 son
                                                       ˜        ˜            ˜
vectores propios de L. Finalmente, consideremos
                                    v
                          B′ =        , w1 , . . . ., wk−1
                                        ˜             ˜
                                    v
es una base ortonormal de W , de vectores propios de L, y por lo tanto el
resultado queda demostrado.


                                        168
Ê
Corolario 6.3. Sea A ∈ Mnn ( ), sim´trica, entonces A es diagonalizable
                                      e




                                                                                              Departamento de Ingenier´a Matematica - Universidad de Chile
y m´s a´n, A = P DP t donde P = (v1 , . . . , vn ) y B ′ = {v1 , . . . , vn } es una
    a u                                                                                       A = P DP t
base ortonormal de vectores propios de A. D es la matriz diagonal de los
valores propios correspondientes.

              ´
Demostracion. Sea L(x) = Ax, entonces L es sim´trica. Por el teorema
                                                          e
anterior existe una base ortonormal B ′ = {v1 , . . . , vn } de vectores propios.
Luego A es diagonizable y m´s a´ n A = P DP −1 donde P = (v1 , v2 , . . . , vn )
                       a u
          λ1         0
y D=          ···     . Resta por demostrar que P −1 = P t . Calculemos
           0        λn

                                                       1   i=j
                   (P t P )ij = vi vj = vi , vj =
                                 t
                                                               ,
                                                       0   i=j

por lo tanto P t P = I.

Una matriz que satisface P −1 = P t se denomina ortogonal o unitaria.                  Matriz ortogonal o
                                                                                                 unitaria

                                                                                              ◭ Ejercicio




                                                                                                                              ´
  Ejercicio 6.3: Verificar que P es ortogonal si y s´lo si
                                                   o

                      ∀u, v ∈   Ên           P u, P v = u, v .



Entonces si P es ortogonal P u 2 = P u, P u = u, u = u 2, es decir, P


                                                                                                                      ı
preserva la norma.
Notemos que no hay unicidad en la base de vectores propios y por lo tanto
una matriz diagonalizable A puede descomponerse de la forma “P DP −1 ”
de muchas maneras. Lo que probamos para una matriz sim´trica es que se
                                                         e
puede tomar una base ortonormal de vectores propios y que para esta base
se tiene la descomposici´n “P DP t ”.
                        o

                                                                                              ◭ Ejercicio


  Ejercicio 6.4: Probar que Pθ =
                                              cosθ
                                             −senθ
                                                      senθ
                                                      cosθ
                                                             es unitaria en   Ê2 .


   Ejemplo:
                                                   
                                      2         0 0
                                 A = 0         2 0
                                      0         0 1
   los valores propios son λ = 2 y λ = 1 en efecto:



                                         169
                 
                   2−λ        0   0




                                                                            Departamento de Ingenier´a Matematica - Universidad de Chile
       |A − λI| =  0        2−λ  0  = (2 − λ)2 (1 − λ).
                    0         0  1−λ
Calculemos el espacio propio de λ = 2.
                                           
                                    0 0 0       x
                0 = (A − 2I)u =  0 0 0   y  ,
                                    0 0 −1      z
                         
             x             
luego W2 =  y  | z = 0 . Determinemos W1 :
                           
                z
                                          
                                    1 0 0      x
                 0 = (A − I)u =  0 1 0   y  ,
                                    0 0 0      z
                                
               x                  
es decir W1 =  y  | x = y = 0 . Por lo tanto una base de vectores
                                  
                  z
propios es:




                                                                                                            ´
                               
                          1         1     0 
                    B′ =  0  ,  1  ,  0 
                                              
                              0      0     1
                                               
                       1 1 0              1 −1 0
                P =  0 1 0  P −1 =  0 1 0 
                       0 0 1              0 0 1


                                                                                                    ı
                                               
                    1 1 0         2 0 0      1 −1 0
             A = 0 1 00 2 00 1 0
                    0 0 1         0 0 1      0 0 1
Pero A tambi´n posee una base ortonormal de vectores propios:
            e
                          
                      1        0      0 
                       0,1, 0
                                          
                         0      0      1
                                               
                  1 0 0        2 0 0       1 0 0
            A = 0 1 00 2 00 1 0.
                  0 0 1        0 0 1       0 0 1

Observaci´n: Cabe se˜ alar que en el caso de que si no hubiese sido
            o             n
sencillo obtener a simple vista una base ortonormal del subespacio propio
asociado a λ = 2, podemos utilizar el m´todo de Gram-Schmidt en dicho
                                         e
subespacio. En general, la base ortonormal de vectores propios de n  Ê
(que sabemos existe en el caso de A sim´trica) puede obtenerse utilizando
                                        e
Gram-Schmidt en cada subespacio propio.



                                 170
El Teorema 6.4 tambi´n es cierto para L(x) = Ax, con A herm´
                     e                                     ıtica, y la




                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
demostraci´n es an´loga.
          o       a
  Ejemplo:
  Veamos el caso de las proyecciones ortogonales.
                           Ê
  Dado W subespacio de n consideremos W ⊥ el ortogonal de W . Enton-
      Ê                                     Ê    Ê
  ces n = W ⊕ W ⊥ . Sea adem´s P : n → n , la proyecci´n ortogonal
                                a                       o
  sobre W .
  Esta funcion P verifica

     1. P 2 = P .
          En efecto: P (u) = w ∈ W luego w = w + 0 es la unica descompo-
                                                         ´
          sici´n, de donde
              o
                                P P (u) = P (w) = w.
          Se tiene adem´s P (I − P ) = 0.
                       a
     2. Im(P ) = W y Ker(P ) = W ⊥ .
          En efecto, es claro que Im(P ) ⊆ W . Por otro lado, si w ∈
          W P (w) = w, luego Im(P ) = W . Ahora si v ∈ W ⊥ v = 0 + v es
          la descomposici´n unica y por tanto P (v) = 0, as´ W ⊥ ⊆ Ker(P ).
                         o ´                               ı




                                                                                                               ´
          Sea v ∈ Ker(P ), luego P (v) = 0 y por tanto v = 0 + v es decir
          v ∈ W ⊥.
     3. P es sim´trica.
                e
          En efecto sean u1 = w1 + v1 , u2 = w2 + v2 , luego

            P (u1 ), u2 = w1 , w2 + v2 = w1 , w2 + w1 , v2 = w1 , w2 =


                                                                                                       ı
                               w1 + v1 , w2 = u1 , P (u2 )

     4. Los valores propios de P son 0 ´ 1.
                                       o
          Sea P (u) = λu, u = 0, entonces como P 2 = P se tiene P (u) =
          P 2 (u) = P (P (u)) = P (λu) = λP (u) = λ2 u. De donde (λ2 − λ)u =
          0. Como u = 0 λ2 − λ = 0 entonces λ = es 0 ´ 1.o


  Identificaremos P con su matriz representante respecto a la base can´ni-
                                                                     o
  ca. Dado que P es sim´trica P = ΓDΓt con Γ ortogonal y D satisface:
                        e
                                           
                      1
                         ..                           
                            .              
                                                 Ir 0
                              1                       
               D=                          =
                                 0         
                                    ..           0 0
                                       .   
                                          0

  Como P y D son similares tienen el mismo rango, as´ r = r(P ) =
                                                         ı
  dim(Im(P )) = dim(W ). Γ puede construirse de la siguiente forma: Γ =


                                      171
(Γ1 , . . . , Γn ). Escogemos {Γ1 , . . . , Γr } una base ortonormal de W , la cual
                                              Ê




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
completamos a una base ortonormal de n {Γ1 , . . . , Γn }.
Puede comprobarse directamente que I − P es la proyecci´n ortogonal
                                                       o
sobre W ⊥ .




                                                                                                              ı       ´




                                     172
´
                                  Ingenier´a Matematica
                                          ı
                                  FACULTAD DE CIENCIAS
                                                                                        Gu´a
                                                                                          ı
                                  F´SICAS Y MATEMATICAS
                                                      ´
                                    I
                                  UNIVERSIDAD DE CHILE                                  Semana 13
                                  ´
                                  Algebra Lineal 08-2

Ejercicios




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
1. Sea W subespacio vectorial de          Ên y L : W → W lineal, probar que:         Ejercicio 6.2

   (a) Si B = {u1 , . . . , un } es una base ortonormal de W , entonces

                             L sim´trica ⇔ MBB (L) sim´trica.
                                  e                   e

   (b) Si B = {u1 , . . . , un } es una base de W y

                                       ϕ: W       −→   Ên       α1
                             x=    k
                                         αi ui    −→ ϕ(x) =      .
                                                                 .     .
                                   i=0                           .
                                                                αk

         Entonces x es vector propio de L asociado al v.p. λ si y s´lo si ϕ(x)
                                                                   o
         es vector propio de MBB (L) asociado al v.p. λ.
2. Verificar que P es ortogonal si y s´lo si
                                     o                                               Ejercicio 6.3

                         ∀u, v ∈   Ên            P u, P v = u, v .


                                                                     Ê2 .




                                                                                                                      ´
                              cos θ      sen θ
3. Probar que Pθ =                                 es ortogonal en                   Ejercicio 6.4
                             − sen θ     cos θ

Problemas
P1. Considere la matriz A ∈ M33 ( )        Ê      siguiente,
                                                          


                                                                                                              ı
                                 2                 1     1
                           A = 1                  2 −1 .
                                 1                −1 2

     (a) Calcular los valores propios de A.
     (b) Calcular una base de vectores propios de A.
                                                     Ê
     (c) Encontrar una matriz P ∈ M33 ( ) y D ∈ M33 ( ), D diagonal,   Ê
         tal que A = P DP t .
     (d) ¿Es A una matriz invertible?, justifique su respuesta.

                             Ê
P2. (a) Sea A ∈ M33 ( ). Se sabe que A es sim´trica y que 0 es vector
                                                e
                                                              1
                                                                            0

        propio de A asociado al valor propio 2, y adem´s la dimensi´n del
                                                      a            o
        Ker(T ) es igual a 2. Calcular A.
                       1a 0
     (b) Sea A = 0 1 a , donde a es un par´metro real. Calcule los valores
                                          a
                  Ê
                 0 0 3
         de a ∈ para los cuales la matriz A es diagonalizable.
P3. Sean v1 , . . . , vk ∈   Ên   ortogonales y de norma 1, sean α1 , . . . , αk ∈
     Ê {0}, y
                                   t                    t
                      A = α1 · v1 v1 + · · · + αk · vk vk ∈ Mnn ( ).  Ê
                                            173
⊥
(a) Pruebe que Im(A) = {v1 , . . . , vk } , que Ker(A) = {v1 , . . . , vk }       ,




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
    y determine r(A), es decir el rango de A.
(b) Sea {w1 , . . . wn−k } base ortonormal del Ker(A). Demuestre que
                                                    Ê
    {v1 , . . . , vk , w1 , . . . wn−k } es una base de n de vectores propios
    de A. Especifique cu´l es el valor propio correspondiente a cada
                                    a
    uno de estos vectores propios.
                 5/4 −3/4
(c) Sea A = −3/4 5/4 . Determine {v1 , v2 } base ortonormal de           Ê2
                 Ê
    y α1 , α2 ∈ tales que
                                         t            t
                            A = α1 · v1 v1 + α2 · v2 v2 .




                                                                                                              ı       ´




                                   174
´
                                  Ingenier´a Matematica
                                          ı
                                  FACULTAD DE CIENCIAS
                                  F´SICAS Y MATEMATICAS
                                    I                 ´
                                  UNIVERSIDAD DE CHILE
                                  ´
                                  Algebra Lineal 08-2

                                                              ´
                                       SEMANA 14: FORMAS CUADRATICAS




                                                                                         Departamento de Ingenier´a Matematica - Universidad de Chile
7.                    ´
          Formas cuadraticas
7.1.                   ´
           Formas cuadraticas y matrices definidas positivas
En esta secci´n estudiaremos las formas cuadr´ticas inducidas por una ma-
             o                                 a
triz sim´trica. Las formas cuadr´ticas aparecen en varias aplicaciones en
         e                       a
matem´ticas. Una de ellas es la caracterizaci´n de m´
       a                                         o        ınimos o m´ximos
                                                                       a
para funciones de varias variables. Nosotros nos interesaremos en la carac-
terizaci´n de matrices definidas positivas. Al final del cap´
        o                                                  ıtulo estudiaremos
las c´nicas en 2 .
     o            Ê
Definici´n 7.1 (Forma cuadr´tica).
       o                  a                                        Ê
                                                 Dada A ∈ Mnn ( ) sim´trica,
                                                                     e             Forma cuadr´tica,
                                                                                              a
definimos:                                                                                     xt Ax
                    q: n→        Ê       Ê
                                   x → q(x) = xt Ax.
q es llamada una forma cuadr´tica en
                            a                      Ên .




                                                                                                                         ´
                              a                Ê
Notemos que una forma cuadr´tica en n es homog´nea de grado 2,
                                                 e
                    Ê
es decir, ∀x ∈ n q(λx) = λ2 q(x). En efecto, q(λx) = (λx)t A(λx) =
λxt Aλx = λ2 xt Ax = λ2 q(x).


     Ejemplo:


                                                                                                                 ı
     q:   Ê2 → Ê,   q(x1 , x2 ) = x2 + 2x1 x2 + x2 = (x1 , x2 )
                                   1             2
                                                                  1 1
                                                                  1 1
                                                                        x1
                                                                        x2
                                                                           .
     Se tiene q(1, −1) = 0, en realidad q(x1 , −x1 ) = 0.

Definici´n 7.2 ((Semi)Definida positiva/negativa). Sea A ∈ Mnn ( ),
         o                                                                     Ê      (Semi)Definida
sim´trica diremos que
   e                                                                                        positiva,
                                                                                      (Semi)Definida
          A es definida positiva si ∀x = 0      xt Ax > 0.                                   negativa

          A es semidefinida positiva si ∀x xt Ax ≥ 0.
          A es definida negativa ∀x = 0 xt Ax < 0.
          A es semidefinida negativa ∀x xt Ax ≤ 0.


Notar que A es definida (semidefinida) positiva ssi −A es definida (semide-
finida) negativa.




                                         175
Ejemplo:




                                                                                                Departamento de Ingenier´a Matematica - Universidad de Chile
              q(x) = 2x2 + 2x1 x2 + 2x2 = (x1 + x2 )2 + x2 + x2
                       1              2                  1    2
                                   2     1         x1
                      = (x1 x2 )
                                   1     2         x2
          2 1
  A =              es definida positiva, en efecto, si q(x) = 0                    ⇒ x2 =
                                                                                     1
          1 2
      2
  0, x2 = 0, luego x1 = x2 = 0.



                                                        Ê
Teorema 7.1. Supongamos que A ∈ Mnn ( ) es sim´trica. Entonces las
                                              e
siguientes proposiciones son equivalentes.
  1. ∀x = 0    x t Ax > 0 (A es definida positiva)

  2. Los valores propios de A son positivos.

  3. Sea                                                          
                                a11            a12      ···    a1n




                                                                                                                                ´
                               a21            a22      ···    a2n 
                            A= .
                               .
                                                                   
                                                                   
                                 .
                                       an1     an2      ···    ann

                                                                                   
                                                                   a11   a12    a13
                                   a11       a12
      A(1) = [a11 ]    A(2) =                           A(3)   =  a21          a23  . . .

                                                                                                                        ı
                                                                         a22
                                   a21       a22
                                                                   a31   a32    A33

                                         . . . A(n) = A
     entonces |A(1) | = a11 > 0              , |A(2) | > 0, · · · |A(i) | > 0 · · · |A(n) | =
     |A| > 0

  4. El m´todo de Gauss utilizando s´lo operaciones elementales del ti-
         e                           o
     po Epq (α, 1); p < q permite escalonar A y adem´s los pivotes son
                                                    a
     siempre positivos.


          ´
Demostracion. (1) ⇒ (2).
Sea λ un valor propio de A y v = 0 un vector propio correspondiente al
valor propio λ.

               0 < v t Av = v t (λv) = λv t v = λ v            2
                                                                   ⇒λ>0




                                             176
(2) ⇒ (1). Sabemos que por ser A sim´trica tiene la descomposici´n A =
                                        e                        o




                                                                                          Departamento de Ingenier´a Matematica - Universidad de Chile
P DP t , donde las columnas de P son una base ortonormal de vectores pro-
pios y D es la diagonal de los valores propios respectivos. As´
                                                              ı

                         xt Ax = xt P DP t x = (P t x)t DP t x,

entonces si definimos z = P t x se tendr´ que en t´rminos de estas nuevas
                                       a         e
variables la forma cuadr´tica queda
                        a

                     xt Ax = z t Dz = λ1 z1 + · · · + λn zn ≥ 0,
                                          2               2


pues los valores propios son positivos. M´s a´ n la unica forma en que esta
                                         a u        ´
suma de cuadrados sea cero es que z1 = · · · = zn = 0 es decir z = 0, pero
entonces P t x = 0 ⇒ x = P 0 = 0 (recordemos que P −1 = P t ).
                                                      a
                                                      0
(1) ⇒ (3). Sea a = 0 y definamos x =                     .
                                                        .    , entonces
                                                        .
                                                      0

                                       n                     n          n
                   0 < xt Ax =              xi (Ax)i =            xi         aij xj
                                      i=1                   i=1        j=1            .




                                                                                                                          ´
                                       2
                                    = a a11 , luego a11 > 0

Sea v = (v1 , . . . , vk )t ∈   Êk , tomemos x = (v1, . . . , vk , 0, . . . , 0)t ∈ Ên
                                n                   k
                  xt Ax =            xi xj aij =            vi vj aij = v t A(k) v
                            i,j=1                  i,j=1




                                                                                                                  ı
si v = 0 se tiene x = 0, luego v t A(k) v = xt Ax > 0 es decir A(k) es definida
positiva.

De donde A(1) , A(2) , . . . , A(n) = A son todas definidas positivas. Pero una
matriz definida positiva tiene todos sus valores propios positivos (por lo ya
demostrado). Como el determinante es el producto de los valores propios
entonces el determinante es positivo. Luego
|A(1) | > 0, . . . , |A(n) | > 0.

(3) ⇒ (4).
Por inducci´n sobre i
           o                a11 > 0 es el primer pivote. En la etapa i tendremos
                                                          
           a11 a12
                ˜                 ···       a1i · · · a1n
                                            ˜          ˜
                                  .
                                   .                     . 
                                                         . 
          0 a22˜                  .                     .
          .              ..                             .  
          .                 . ai−1i−1                   .                 
          .                    ˜                        .        B1 B2
                                                        .  
   A˜i =                                                . =               .
          0 ···          ···      0        aii
                                             ˜           . 
                                                          
                                                         .        B3 B4
          0 ···          ···      0       aii+1
                                           ˜             .
                                                         . 
         
          .                       .          .   ..     . 
          ..                      .
                                   .          .
                                              .      .   . 
                                                         .
             0     ···    ···          0        ain
                                                ˜                      ann
                                                                       ˜

                                              177
Donde B1 : i × i, B2 : i × n − i, B3 : n − i × i, B4 : n − i × n − i. Por hip´tesis
                                                                              o




                                                                                                        Departamento de Ingenier´a Matematica - Universidad de Chile
                             ˜
de inducci´n, se obtuvo Ai mediante el algoritmo de Gauss, sin utilizar
          o
permutaciones de filas pues todos los pivotes a11 , . . . , ai−1i−1 son positivos.
                                                   ˜         ˜
  ı, ˜
As´ Ai = ( Ek )A donde Ek son matrices simples del tipo Ep,q (α, 1) que
             k
                                                                            ˜
son invertibles y triangulares inferiores con diagonal 1. Por tanto A = C · Ai
donde C = ( Ek )−1 es tambi´n triangular inferior con unos en la diagonal.
                                e
                 k
As´ si C = C1 C2 donde C1 : i×i, C2 : i×n−i, C3 : n−i×i, C4 : n−i×n−i,
   ı         C3 C4
se tendr´ C2 = 0 y adem´s C1 es triangular inferior con diagonal 1, y por
         a                 a
lo tanto |C1 | = 1. Luego:
                                                                                     
            C1       0         B1   B2                 C1 B1                C1 B2
    A=                                =                                              .
            C2       C3        B3   B4            C2 B1 + C3 B3        C2 B2 + C3 B4
 Por lo tanto A(i) = C1 B1 , de donde 0 < |A(i) | = |C1 B1 | = |C1 ||B1 | =
                                                                                  i
|B1 |. Por otro lado B1 es triangular superior, luego |B1 | =                          ajj , pero
                                                                                       ˜
                                                                                 j=1
a11 , a22 , . . . , ai−1i−1 > 0 se concluye, aii > 0. As´ el m´todo de Gauss no
˜ ˜                 ˜                        ˜          ı     e
necesita intercambiar filas y adem´s todos los pivotes son > 0.
                                         a




                                                                                                                                        ´
(4) ⇒ (1).
Como todos los pivotes son positivos y no hay que hacer intercambios de
filas se tendra que A = LDU , con L triangular inferior D diagonal y U
triangular superior. U y L tienen 1 en la diagonal y dii = aii . Como A es
                                                           ˜
sim´trica U = Lt entonces
    e
                         √    √                       √


                                                                                                                                ı
            A = LDLt = (L D) ( DLt ) = RRt , con R = L D
y
                             √                                        
                               a11
                                ˜            √                   0
                          √                     a22
                                                 ˜                     
                           D=
                                                      ..              .
                                                                       
                                                            .
                                                                √
                                     0                           ann
                                                                  ˜
                  ˜
 Dado que |A| = |A| = a11 a22 , . . . , ann > 0 entonces 0 < |A| = |RRt | = |R|2
                       ˜ ˜              ˜
luego |R| = 0, y por lo tanto R es invertible y as´ su traspuesta.
                                                      ı

                     xt Ax = xt (RRt )x = (Rt x)t Rt x = Rt x 2 .
Si x = 0 ⇒ Rt x = 0 pues Rt es invertible luego Rt x                        2
                                                                                > 0 de donde
xt Ax > 0 si x = 0 es decir A es definida positiva.

Hemos probado de paso la que toda matriz definida positiva tiene la si-
guiente descomposici´n.
                    o
Definici´n 7.3 (Descomposici´n de Cholesky). Decimos que A ∈ Mnn ( ) Descomposici´n de
         o                       o                                              o                   Ê
admite una descomposici´n de Cholesky si existe R matriz triangular infe-
                          o                                                 Cholesky
rior, con diagonal estrictamente positiva tal que
                                         A = RRt .

                                             178
Notemos que A es definida positiva ssi ∃R triangular inferior con diagonal




                                                                                           Departamento de Ingenier´a Matematica - Universidad de Chile
no nula tal que:
                              A = RRt .

  Observaci´n: Hay que hacer una precisi´n sobre la propiedad 4 del
            o                                o
  teorema anterior. Es f´cil ver que la matriz
                        a

                                               2    1
                                     A=                     ,
                                               1    2

   es definida positiva, pero si al escalonar utilizamos E12 ( 1 , −1) obte-
                                                              2
  nemos la matriz escalonada
                                             2 1
                                                        ,
                                             0 −3
                                                2

   y los pivotes no son todos positivos!. Sin embargo si utilizamos
         1
  E12 (− 2 , 1) obtenemos
                           ˜     2 1
                           A=        3   .
                                 0 2




                                                                                                                           ´
   Por lo tanto es importante recordar que para estudiar si una matriz es
  definida positiva las operaciones elementales permitidas son Epq (α, 1).


7.2.              ´
        Formas canonicas
Sea q(x) = xt Ax una forma cuadr´tica. Como A es sim´trica, entonces
                                        a                          e
A = P DP t donde P = (v1 , · · · , vn ) con {v1 , · · · , vn } una base ortonormal

                                                                                                                   ı
de vectores propios de A y
                                                       
                                λ1                 0
                                      λ2               
                       D=                ..           ,
                                                        
                                              .
                                         0                      λn
 siendo λ1 , . . . , λn los valores propios de A.
Sea y = P t x entonces
                                                                     n
                     xt Ax = xt P DP t x = y t Dy =                              2
                                                                             λi yi
                                                                     i=1
As´ haciendo este cambio de variables la forma cuadr´tica tiene la expresi´n
  ı                                                 a                     o
                                   2       2               2
                       q (y) = λ1 y1 + λ2 y2 + · · · + λn yn .
                       ˜

   Ejemplo:

                                                                                 √
                                          √                              1        3
                 q(x) =   x2
                           1   +   2x2
                                     2   + 3x1 x2 = xt                √
                                                                       3
                                                                                 2    x.
                                                                      2          2


                                              179
Consideremos A la matriz que define esta forma cuadr´tica.
                                                   a




                                                                                                         Departamento de Ingenier´a Matematica - Universidad de Chile
                                                        √
                                                            3
                                             1             2
                                   A=        √
                                              3
                                                                    ,
                                             2             2
Calculemos los valores y vectores propios:
                                        √
                                         3
                           1−λ          2
                                                                                          3
         |A − λI| =        √
                            3
                                                       = (1 − λ)(2 − λ) −                   = 0.
                           2        2−λ                                                   4

Luego el polinomio caracter´
                           ıstico es
                                                       5
                                   λ2 − 3λ +             = 0,
                                                       4
cuyas raices son
                               √                                               5
                          3±    9−5   3±2                               λ1 =   2
                   λ=               =     =                                    1
                               2       2                                λ2 =   2

Calculemos los vectores propios:
    5
λ= 2
                                                 √                                 √
                                      5            3                     3           3
                   5               1−                                   −2




                                                                                                                                         ´
                 A− I =            √ 2            2             =        √          2
                   2                3                  5                  3          1
                                   2         2−        2                 2         −2
las filas son ℓ.d. (¿ por qu´?) luego
                           e
                                      √
              5                3        3                √
        (A − I)v = 0 ⇐⇒ − v1 +            v2 = 0 ⇔ v2 = 3v1 .
              2                2      2
                √
Sea v1 = 1, v2 = 3, un vector propio colineal de largo uno es:


                                                                                                                                 ı
                                             1       √1
                                   w1 =                         .
                                             2         3
     1
λ=   2
                                                                √
                                                      1          3
                              1                       2         2
                            A− I =                   √
                                                       3        3
                              2                       2         2
y por lo tanto
                                         √
          1                       1       3                 √
    (A − I)v = 0        ⇐⇒          v1 +     v2 = 0 ⇔ v1 = − 3v2 .
          2                       2      2
Un vector propio de largo uno es:
                                      √
                                  1 − 3
                           w2 =            ,
                                  2    1
y una base de ortonormal de vectores propios est´ formada por {w1 , w2 }.
                                                a
Se tiene que
                            √                              √                                    √
                             3               1              3            5                 1     3
             t        1     2                2         −   2             2     0           2    2
  A = P DP =          √                 =    √                                 1          √          .
                       3
                               2               3           1             0     2         − 23   1
                      2                      2             2                                    2



                                            180
Consideremos el cambio de variables:




                                                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
                                                                       √
                                                             1          3
                                y1            t              2         2        x1
                       y=                  =P x=            √                           .
                                y2                         − 23        1        x2
                                                                       2

    La forma cuadr´tica en t´rminos de y es q (y) = 5 y1 + 2 y2 . El cambio
                  a         e               ˜       2
                                                       2   1 2

   de coordenadas de x a y corresponde a una rotaci´n (¿en qu´ ´ngulo?).
                                                    o            ea

Volvamos al caso general. En el sistema y = P t x, la forma cuadr´tica se
                                                                 a
escribe como
                                 n                     p                    r
                                          2                     2                   2
                   q (y) =
                   ˜                  λi yi       =         λi yi +             λi yi
                                i=1                   i=1               i=p+1

donde:

   λ1 , . . . , λp son > 0,      λp+1 , . . . , λr son < 0,                 λr+1 = · · · = λn = 0.

Definamos
                                zi =       λi yi      i = 1, . . . , p
                            zi =        −λi yi        i = p + 1, . . . , r




                                                                                                                                                  ´
                                       zi = yi        i = r + 1, . . . , n
es decir,
     √λ                                                                                             0
          1   √
                 λ2                                                                                  
                      ..                                                                             
                           .                                                                         
                                                                                                     

                                                                                                                                          ı
                                     λp                                                              
                                                                                                     
                                                                                                     
                                             −λp+1                                                   
z=                                                          ..
                                                                                                       y = Qy.
                                                                                                      
                                                                  .                                  
                                                                      √                              
                                                                       −λr                           
                                                                                                     
                                                                                 1                   
                                                                                           ..        
                                                                                                .    
         0                                                                                           1

luego tenemos z = QP t x. En las nuevas variables z, es la forma cuadr´tica:
                                                                      a
                        2    2            2    2      2            2
               q (z) = z1 + z2 + · · · + zp − zp+1 − zp+2 · · · − zr ,
               ˆ

 donde r corresponde al rango de A. El n´ mero 2p − r = n´ mero de valores
                                         u                u
propios positivos menos el n´ mero de valores propios negativos, es llamada
                            u
la signatura.

El cambio de coordenadas y = P t x corresponde a una rotaci´n de sistemas
                                                           o
de coordenadas. El cambio z = Qy corresponde a dilatar y contraer ciertas
direcciones (homotecia).
                                      5                        1
En nuestro ejemplo z1 =               2 y1         z2 =        2 y2


                                                   181
Departamento de Ingenier´a Matematica - Universidad de Chile
                   2    2               5 2          1 2     5 2 1 2
                  z1 + z2 = (             y1 ) + (     y2 ) = y1 + y2
                                        2            2       2    2


Para ubicar el nuevo sistema, con respecto al inicial, consideremos el pro-
blema en dos etapas. En el cambio y = P t x, el eje correspondiente a “y1 ”
est´ en la direcci´n “x” tal que
   a              o
                                            
                             1                 1
                           0               0
                   P t x =  .  luego x = P  .  = v1 ,
                           .               .
                             .                  .
                                    0                             0

 la primera columma de P que corresponde al primer vector propio. De igual
forma el i-´simo eje del sistema de coordenadas “y” es el i-´simo vector
            e                                                      e
propio vi . De igual forma el sistema de coordenadas “z” tiene sus ejes en
las direcciones v1 , . . . , vn , solamente que algunos ejes se han contra´ y
                                                                          ıdo
otros expandido.
Hemos probado el siguiente resultado




                                                                                                                                  ´
Teorema 7.2. Sea xt Ax una forma cuadr´tica, existe L invertible tal que
                                             a
si z = Lx, entonces en t´rminos de las variables z la forma cuadr´tica se
                         e                                              a
                      2            2     2              2
expresa como q (z) = z1 + · · · + zp − (zp+1 + · · · + zr ), donde r=rango A =
              ˆ
n´mero de valores propios = 0, p = n´mero de valores propios > 0.
  u                                     u



7.3.     ´
        Conicas en          Ê   2
                                                                                                                          ı
Una c´nica en
     o            Ê2 es el conjunto soluci´n de una ecuaci´n del tipo
                                          o               o

                           ax2 + by 2 + 2cxy + dy + f x = e
o en forma matricial
                   a   c        x                    x
         (x, y)                         + (d, f )             = e = v t Av + g t v = e,
                   c   b        y                    y

donde
                                a       c            x                 d
                       A=                   , v=              , g=
                                c       b            y                 f
                                                         λ1     0
Supongamos que A = P DP t , con D =                                    y P = (v1 v2 ). Entonces
                                                         0      λ2
la ecuaci´n de la c´nica es:
         o         o

                   e = v t P DP t v + g t v = v t P DP t v + gP P t v.




                                               182
Sea u = P t v. En este nuevo sistema de coordenadas la ecuaci´n de la c´nica
                                                             o         o




                                                                                      Departamento de Ingenier´a Matematica - Universidad de Chile
es:
                                                     f˜
                   e = ut Du + g t u con g = P t g = ˜ .
                                ˜        ˜
                                                      d
La expresi´n que toma la c´nica es entonces
          o               o
                                                  ˜      ˜
                              e = λ1 u2 + λ2 u2 + f u1 + du2
                                      1       2

  1. λ1 = λ2 = 0 (⇔ a = b = c = 0)
     El conjunto soluci´n es {(x, y)/dy + f x = e} que en general es una
                       o
     recta (pudiendo ser vac´ si d = f = 0 y e = 0).
                            ıo


  2. El caso interesante es cuando λ1 = 0 o λ2 = 0, llamemos

                                               u′ = u1 − α
                                                1
                                               u′ = u2 − β
                                                2




                                          ˜            ˜
            λ1 (u′ + α)2 + λ2 (u′ + β)2 + f (u′ + α) + d(u′ + β) = e




                                                                                                                      ´
                 1              2             1           2



                                                ˜                ˜
            λ1 (u′ )2 + λ2 (u′ )2 + u′ {2λ1 α + f } + u′ {2βλ2 + d} = e
                                                                      ˜
                 1           2       1                 2
                                   ˜     ˜
     con e = e − (λ1 α2 + λ2 β 2 + f α + dβ)
         ˜

                                        d              ˜
     Si λ1 = 0 (λ2 = 0) tomemos: β = − 2λ2 , α = 0 se llega a la ecuaci´n
                                                                       o


                                                                                                              ı
                                               ′      ˜
                                          λ2 (u2 )2 + f u′ = e.
                                                             ˜
                                                         1

        ˜
     Si f = 0 (u′ )2 =             e
                                   ˜
                2                 λ2 .    As´ el conjunto soluci´n ser´n dos rectas
                                            ı,                  o     a
                                 e
                                 ˜         e
                                           ˜
     paralelas:   u′
                   2   =±       λ2   si ≥ 0 (que en realidad es una sola si e = 0)
                                          λ2                                ˜
     o ser´ vac´ si
          a    ıo         e
                          ˜           ˜= 0
                              < 0. Si f
                         λ2
            e−λ (u′ )2
            ˜
     u′ =
      1
                 2
                  ˜
                  f
                    2
                       , que corresponde a una par´bola, en las coordenada
                                                   a
      ′    ′
     u1 , u2 . El caso λ1 = 0 λ2 = 0 es totalmente an´logo.
                                                     a

                                                       f           d˜           ˜
     Falta ver el caso λ1 = 0 y λ2 = 0, tomamos α = − 2λ1 y β = − 2λ2 .
     En el sistema u′ , u′ tenemos la ecuaci´n
                     1   2                  o

                                     λ1 (u′ )2 + λ2 (u2 )2 = e
                                          1
                                                      ′
                                                             ˜

  3. λ1 > 0, λ2 > 0, e ≥ 0; o λ1 < 0, λ2 < 0, e ≤ 0 la soluci´n es una elipse
                     ˜                        ˜              o
     (una circunferencia si λ1 = λ2 ) en el sistema u′ , u′ Si λ1 > 0, λ2 >
                                                       1   2
     0, e < 0; o λ1 < 0, λ2 < 0, e > 0 no hay soluci´n.
         ˜                        ˜                    o




                                                183
4. λ1 > 0 y λ2 < 0 podemos suponer que e ≥ 0 de otra manera multi-
                                         ˜




                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
     plicamos por −1

      λ1 (u′ )2 − |λ2 |(u′ )2 = e, que corresponde a una hip´rbola con eje de
           1              2     ˜                           e
      simetr´ el eje u′ . El caso λ1 < 0, λ2 > 0, e ≥ 0 el conjunto soluci´n
              ıa         1                          ˜                      o
      es una hip´rbola con eje de simetr´ u′ .
                  e                         ıa 2
Notemos que en general el sistema (u1 , u2 ) corresponde a una rotaci´n con
                                                                        o
respecto al eje (x, y) y sus ejes est´n en la direcci´n de los vectores propio.
                                     a               o
El sistema (u1 , u′ ) corresponde a una traslaci´n o cambio de origen del
               ′
                    2                              o
sistema (u1 , u2 ).




                                                                                                          ı       ´




                                     184
´
                               Ingenier´a Matematica
                                       ı
                               FACULTAD DE CIENCIAS
                                                                                     Gu´a
                                                                                       ı
                               F´SICAS Y MATEMATICAS
                                                   ´
                                 I
                               UNIVERSIDAD DE CHILE                                  Semana 14
                               ´
                               Algebra Lineal 08-2

Ejercicios




                                                                                   Departamento de Ingenier´a Matematica - Universidad de Chile
1. Escriba en forma xt Ax las siguientes formas cuadr´ticas, en donde x =
    x1                                             a
     x2
    . :
     .
     .
     xn

                     1
   (a) q(x) = −2x1 − 2 x1 x2 + 5x2 .
                 2
                                 2
   (b) q(x) = x1 (2x1 − x2 ) + x2 (3x1 + x2 ).
               1
                    2    2
   (c) q(x) = x2 + y2 − y3 − x1 x2 + x1 x3 .
   (d) q(x) = (x1 + x2 )2 − (x1 + x3 )2 .
2. Se˜ ale si las matrices siguientes son definidas positivas/negativas, o nin-
     n
   guna de las dos:

        −1         1                             −3 1
   (a)               .                  (c)            .
          1       −1                              1 −1
                              
         1    0     0    0   0                                  
       0     2     0    0   0               −1       2   1   1
                              
   (b) 0
             0    1/2   0   0.
                               
                                            2         1   1   1
                                        (d)                     .




                                                                                                                   ´
       0     0     0    1   0             1         1   0   1
         0    0     0    0   4                1        1   1   −1

                    Ê
3. Sea A ∈ Mnn ( ) una matriz sim´trica.
                                 e
                         Ê
   (a) Probar que v ∈ n es vector propio de A si y s´lo si es vector propio
                                                    o
                          Ê
       de I − A. Si λ ∈ es el valor propio de A asociado a v, ¿cu´l es el
                                                                    a


                                                                                                           ı
       valor propio de I − A asociado a v?
   (b) Probar que la matriz I − A es definida positiva si y s´lo si todos los
                                                            o
       valores propios de A son menores estrictos que uno.


Problemas
P1. Considere la c´nica de ecuaci´n 5x2 + 5y 2 + 6xy + 16x + 16y = −15.
                  o              o
    Realice el cambio de variables que permite escribir la c´nica de ma-
                                                             o
    nera centrada y escriba la nueva expresi´n (escribir expl´
                                            o                ıcitamente el
    cambio de variables). Identifique la c´nica resultante y dib´ jela.
                                         o                     u
                     Ê
P2. Sea A ∈ M22 ( ) sim´trica definida postiva, b ∈
                       e                                   Ê2 , c ∈ Ê y f : Ê2 →
     Êtal que
                         f (x) = xt Ax − bt x + c.
     Se quiere minimizar f .
                  1
     (a) Sea x0 = 2 A−1 b. Pruebe que f (x) = (x−x0 )t A(x−x0 )−x0 Ax0 +c.
                                                                 t

     (b) Concluya que el unico m´
                           ´       ınimo de f se alcanza en x0 , i.e., que
                                            Ê
         f (x) ≥ f (x0 ) para todo x ∈ 2 y que la igualdad se alcanza
         solamente cuando x = x0 -


                                      185
P3. Sea α ∈   Ê y considere la ecuaci´n
                                     o




                                                                            Departamento de Ingenier´a Matematica - Universidad de Chile
                                              √    √
                  αx2 + αy 2 + 2(α − 1)xy −    2x + 2y = 0.

    Determine todos los valores de α tales que la ecuaci´n corresponde a:
                                                        o

    (a) Circunferencia.    (d) Par´bola.
                                   a            (g) Un punto.
    (b) Elipse.            (e) Hip´rbola.
                                   e
    (c) Recta o rectas.    (f ) Conjunto vac´
                                            ıo.




                                                                                                    ı       ´




                                   186
´
                                 Ingenier´a Matematica
                                         ı
                                 FACULTAD DE CIENCIAS
                                 F´SICAS Y MATEMATICAS
                                   I                 ´
                                 UNIVERSIDAD DE CHILE
                                 ´
                                 Algebra Lineal 08-2

                                               SEMANA 15: FORMA DE JORDAN




                                                                                 Departamento de Ingenier´a Matematica - Universidad de Chile
8.     Forma de Jordan
8.1.          ´
       Definicion
Estudiaremos aqu´ un procedimiento que permite obtener, a partir de una
                  ı
matriz A, otra similar con gran cantidad de ceros. Obviamente, el ideal es
obtener una matriz diagonal, pero esto no siempre es posible. Nos confor-
maremos con una forma algo m´s compleja que la matriz diagonal, pero
                                a
con la ventaja de que ´sta puede obtenerse para matrices arbitarias.
                      e
La idea general de reducir una matriz consiste en determinar una base de
modo que la transformaci´n lineal asociada a la matriz inicial tenga una
                          o
representaci´n simple en la nueva base.
            o
Partamos con un ejemplo. Consideremos la transformaci´n lineal TA : 9 →
                                                      o
  9
    dada por x → Ax, cuya matriz representante J, con respecto a una base
βJ es:
              2 1 0                                        




                                                                                                                 ´
                0 2 1                                      
                                                             
               0 0 2                                         
                                                             
                                 2 1                         
                                                             
          J =                    0 2                         
                                                             
                                         (2)                 
                                                             
                                                 5 1         
                                                             
                                                  0 5


                                                                                                         ı
                                                          (6)

Es claro que σ(A) = {2, 5, 6}, con multiplicidades algebraicas 6, 2, 1 respec-
tivamente.
La base βJ la notaremos como sigue:
                       1     1     1     1     1     1     2     2     3
                βJ = {v11 , v12 , v13 , v21 , v22 , v31 , v11 , v12 , v11 }
De la definici´n de matriz representante, obtenemos:
             o
                                    1        1
                               TA (v11 ) = 2v11
                                    1       1      1
                               TA (v12 ) = v11 + 2v12
                                    1       1      1
                               TA (v13 ) = v12 + 2v13
                                    1        1
                               TA (v21 ) = 2v21
                                    1       1      1
                               TA (v22 ) = v21 + 2v22
                                    1        1
                               TA (v31 ) = 2v31
                                    2        2
                               TA (v11 ) = 5v11
                                    2       2      2
                               TA (v12 ) = v11 + 5v11
                                    3        3
                               TA (v11 ) = 6v11


                                           187
1
 Vemos que v11 es vector propio (cabeza de serie) asociado al valor propio




                                                                                                                                                 Departamento de Ingenier´a Matematica - Universidad de Chile
          1                            1      1                         1
λ1 = 2, v12 es una “cola” asociada a v11 y v13 es “cola” asociada a v12 .
Posteriormente obtenemos otro vector propio asociado a λ1 = 2 con una
cola y finalmente un tercer vector propio asociado a λ1 = 2. Luego se
repite el mismo esquema: un vector propio y una cola asociados a λ2 = 5 y
finalmente un vector propio asociado a λ3 = 6.
En general la matriz J que nos interesa en este p´rrafo tiene la forma:
                                                 a

λ             1
                                                                                                                                                                                                               
           1
             ..
                 .        1                                                                                                                                                                                   
                                                                                                                                                                                                                
 0                        λ1                                                                                                                                                                                   
                                                                                                                                                                                                               
                                  ..                                                                                                                                                                           
                                       .                                                                                                                                                                       
                                                                                                                                                                                                             
                                                 λ1        1                                                                                                                                                   
                                                                                                                                                                                                               
                                                         ..                                                                                                                                                   


                                                              .   1                                                                                                                                            
                                                                                                                                                                                                                
                                                 0               λ1                                                                                                                                            
                                                                                                                                                                                                               
                                                                           ..                                                                                                                                  
                                                                                .                                                                                                                            
                                                                                        λr      1                                                                                                              
                                                                                                                                                                                                               
                                                                                              ..                                                                                                              

                                                                                                  .      1                                                                                                    
                                                                                                                                                                                                                




                                                                                                                                                                                 ´
                                                                                                         λr                                                                                                    
                                                                                                                                                                                                               
                                                                                                                    ..                                                                                         
                                                                                                                         .                                                                                     
                                                                                                                                                                                                             
                                                                                                                                  λr      1                                                                    
                                                                                                                                                                                                               
                                                                                                                                        ..                                                                    
                                                                                                                                             .   1 
                                                                                                                                                 λr



                                                                                                                                                                         ı
donde los bloques son de tama˜ o s(1, 1), . . . , s(1, p1 ), . . . , s(r, 1), . . . , s(r, pr ),
                             n
                                                                                              p1                          pr
y el espectro es σ(A) = {λ1 , . . . , λr }, con multiplicidades                                     s(1, j), . . . ,           s(r, j),
                                                                                              j=1                      j=1
respectivamente. La base se escribe:
       1             1          1             1                  1               1                      r               r
βJ = {v11 , . . . , v1s(1,1) , v21 , . . . , v2s(1,2) , . . . , vp1 1 , . . . , vp1 s(1,p1 ) , . . . , vpr 1 , . . . , vpr s(r,pr ) }

o mediante una tabla de doble entrada:


                       ↓                        ↓                      ↓                ↓                       ↓
      1                1                        1                      r                r                       r
     v11              v21        ···           vp1 1          ···     v11              v21          ···        vpr 1

      1                1                        1                      r                r                       r
     v12              v22        ···           vp1 2          ···     v12              v22          ···        vpr 2
       .
       .               .
                       .                          .
                                                  .                     .
                                                                        .                .
                                                                                         .                       .
                                                                                                                 .
       .               .                          .                     .                .                       .

   1             1                           1                       r                r                     r
  v1s(1,1)      v2s(2,1)         ···        vp1 s(1,p1 )      ···   v1s(r,1)         v2s(r,2)       ···    vpr s(r,pr )
      ↓             ↓                             ↓                     ↓                ↓
                                                                                                                     (8.1)




                                                              188
Departamento de Ingenier´a Matematica - Universidad de Chile
        vectores de la base                                        vectores de la base
                                                  ···
          asociados a λ1                                             asociados a λr
 las flechas indican el encadenamiento de los vectores de base. Por ejemplo
           1                 1
al vector v1s(1,1) le sigue v21 .
El primer elemento de cada columna corresponde a un vector propio. Bajo
un vector propio figuran las colas asociadas.
Adem´s:
      a
                            k
      k        k        λk vij                      si j = 1 (1era fila de la tabla)
 TA (vij ) = Avij =      k          k
                                                                                    (8.2)
                        vij−1 + λk vij              si j > 1

Una base βJ , con estas caracter´
                                ısticas se denomina base de Jordan asociada                  Base de Jordan
a la transformaci´n lineal T y su matriz representante es justamente J.
                 o
Tambi´n es claro que los subespacios propios son:
       e
                                   1             1
                   Vλ1 =          v11 , . . . , vp1 1     , dim Vλ1 = p1
                                   2             2
                   Vλ2 =          v11 , . . . , vp2 1     , dim Vλ2 = p2
                     .
                     .
                     .




                                                                                                                                 ´
                                   r             r
                   Vλr =          v11 , . . . , vpr 1     , dim Vλr = pr

Los bloques se notan:
                                                                     
                                          λi        1
                                                  ..     ..          
                                                     .        .      
                            Ji =                         ..          
                                                              .   1 

                                                                                                                         ı
                                                                   λi


Definici´n 8.1 (Forma de Jordan). Una transformaci´n lineal
       o                                         o                                          Forma de Jordan

                                          n     n
                           TA :             −→
                                          x −→ TA (x) = Ax

se reduce a la forma de Jordan si y s´lo si es posible determinar una
                                          o
base βJ con las caracter´sticas definidas en (8.1) y (8.2).
                        ı

Veamos otro ejemplo. Sea la matriz:
                                                    
                        8     1       0       0    0                            
                      0      8       0       0    0     J1
                                                    
                  J = 0      0       0       1    0 =               J2        
                                                    
                        0     0       0       0    0                        J3
                        0     0       0       0    0
              8    1                  0       1
donde J1 =             , J2 =                       , J3 = (0).
              0    8                  0       0



                                                  189
Tenemos σ(J) = {λ1 = 8, λ2 = 0} con multiplicidades 2 y 3 respectivamen-




                                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
te.
              Vλ1 = V8 = {e1 } , Vλ2 = V0 = {e3 , e5 }
donde {ei }5 es la base can´nica de
           i=1             o                          5
                                                          . De acuerdo a nuestra notaci´n,
                                                                                       o
la base de Jordan, βJ es:
                                       1              2        2
                                      v11            v11      v21

                                       1              2
                                      v12            v12

                               asociados a             asociados a
                                   Vλ1                     Vλ2

Estudiemos el esquema de similitud entre la matriz A (representante de T
con respecto a la base can´nica) y βJ :
                          o
                                  A
                           5                5
              T :                 →
                         β              β                   β : base can´nica
                                                                        o
               P         ↑              ↑        P         βJ : base de Jordan
                           5                5
                                  →




                                                                                                                                  ´
                         βJ       J    βJ
 Luego J = P −1 AP o equivalentemente AP = P J. Pero P es la matriz de
                                    1     1     2     2     2
pasaje de la base can´nica a βJ = {v11 , v12 , v11 , v21 , v21 }. Es directo que:
                     o
                                        1     1     2     2     2
                                  P = (v11 , v12 , v11 , v12 , v21 )
y se tiene:


                                                                                                                          ı
                                                                          
                         8                                                   1
                       0                                                 8
  1                            1                  1                             1      1
Av11 = P J•1       = P  0  = 8v11 ,             Av12 = P J•2         = P  0  = v11 + 8v12 ,
                                                                          
                         0                                                   0
                         0                                                   0
                                                                          
                         0                                                   0
                       0                                                 0
  2                            2                  2                             2      2
Av11 = P J•3       = P  0  = 0v11 ,             Av12 = P J•4         = P  1  = v11 + 0v12 ,
                                                                          
                         0                                                   0
                         0                                                   0
                        
                         0
                       0
  2                            2
Av21 = P J•5       = P  0  = 0v21
                        
                         0
                         0
 recuper´ndose la relaci´n (8.2).
        a                       o
Simplifiquemos por un momento la notaci´n. Si escribimos P = (v 1 , . . . , v n )
                                                 o
tal que β = {v 1 , . . . , v n } es base de Jordan, se verifica:
              ∀i = 1, . . . , n        Av i = λi v i o bien Av i = v i−1 + λv i .

                                                190
En el primer caso v i es un vector propio y en el segundo lo denominaremos




                                                                                    Departamento de Ingenier´a Matematica - Universidad de Chile
vector propio generalizado (existe una “cola”).
En estas condiciones se tiene el teorema siguiente:

Teorema 8.1. Una transformaci´n lineal arbitraria, TA = n →
                                 o                                       n
                                                                             , x→
Ax, es reductible a la forma de Jordan, o de manera equivalente:
                      ∀A ∈ Mnn ( ), ∃J ∈ Mnn ( )
matriz de Jordan, similar a la matriz A:
                               A = P JP −1
donde las columnas de P son los vectores de la base asociada a βJ .

              ´
Demostracion. La demostraci´n la omitimos aqu´ y no se cubrir´ en
                               o                   ı              a
clases, sin embargo se presenta en el ap´ndice de la semana, s´lo por
                                        e                     o
completitud.


8.2.     Aplicaciones de la forma de Jordan




                                                                                                                    ´
8.2.1.   Potencias de una matriz
Vimos anteriormente que la diagonalizaci´n de matrices nos entregaba una
                                            o
forma f´cil de calcular las potencias de una matriz. Sin embargo, esto s´lo
        a                                                                o
es aplicable a matrices que admitan una diagonalizaci´n.o
A continuaci´n veremos que la forma de Jordan tiene tambi´n utilidad para
              o                                               e
el c´lculo de potencias, con la ventaja que cualquier matriz cuadrada admite
    a
una forma de Jordan. Veamos primero que la forma de Jordan nos da una

                                                                                                            ı
descomposici´n especial, para cualquier matriz cuadrada.
              o
Si J es la matriz de Jordan de A, cada bloque de J es     de la forma:
                                                               
                 λi 1           0                0 1            0
                     ..   ..                    ..     ..      
                        .    .                     .      .    
          Ji = 
               
                                    = λi Ii + 
                                              
                                                                  ,
                                                                  
                          ..                             ..
                              . 1                          . 1
                  0             λi               0              0
en donde Ii es la identidad de la dimensi´n correspondiente. Llamemos Ni
                                         o
a la segunda matriz de la suma. Esta matriz tiene la siguiente propiedad,
propuesta como ejercicio:
                                                                                    ◭ Ejercicio

  Ejercicio 8.1: Suponga que Ni ∈ Mss ( ), pruebe entonces por in-
                     Æ
  ducci´n que ∀m ∈ , ∀p, q ∈ {1, . . . , s},
       o
                              
                              1 si q = p + m,
                              
                       m
                    (Ni )pq =
                              
                              
                                 0 si q = p + m.



                                    191
Departamento de Ingenier´a Matematica - Universidad de Chile
  Adem´s deduzca que Nis = 0. Una matriz con esta propiedad, se dice
       a
  nilpotente.



Luego, reescribiendola matriz A por bloques:
                                                                       
                                                                  
           λ1 I1     0    ...    0       N1        0        ...    0  
                                                                    
           0      λ2 I2 . . .   0  0
                                                  N2       ...    0  −1
   A = P  .
           .        .     ..     . + .           .       ..     .  P .
               .     .
                      .        .   .   .
                                   .        .        .
                                                     .          .   .
                                                                    . 
                                                                       
                                                                      
               0     0    . . . λr Ir     0        0        ...    Nr 
                         D                               N

Notar que los valores propios λ1 , . . . , λr son los valores propios de A con
posible repetici´n.
                o
Se tiene que la matriz N es nilpotente, gracias al siguiente ejercicio:

                                                                                 ◭ Ejercicio




                                                                                                                 ´
  Ejercicio 8.2: Sea B una matriz diagonal       por bloques, es decir
                                                   
                            B1 0 . . .            0
                           0 B2 . . .            0
                                                   
                      B= .       .   ..          . 
                           ..    .
                                  .      .        . 
                                                  .
                                 0    0    ...   Br


                                                                                                         ı
  en donde B1 , . . . , Br son matrices cuadradas y el resto son matrices
  cero.
           Æ
  Sea m ∈ , pruebe que entonces
                               m                  
                                B1     0 ...     0
                               0 B2 . . .
                                        m
                                                 0 
                                                  
                        Bm =  .       .   ..    . .
                               ..     .
                                       .      .  . 
                                                 .
                                                  m
                                0     0    ...   Br

  Concluya que la matriz N anterior es nilpotente.



Hemos probado entonces la siguiente propiedad:

Proposici´n 8.1. Dada A ∈ Mnn ( ), existen una matriz invertible P ,
          o
una matriz diagonal D y una matriz nilpotente N , tales que

                             A = P (D + N )P −1 .




                                     192
Usaremos lo anterior para calcular potencias de una matriz. Sea A ∈
                   Æ




                                                                                                             Departamento de Ingenier´a Matematica - Universidad de Chile
Mnn ( ) y m ∈ . Queremos calcular Am . Por lo visto en la parte de
diagonalizaci´n:
             o
                        Am = P (D + N )m P t .
Debemos entonces estudiar (D + N )m , que gracias al Ejercicio 8.2 es equi-
valente a estudiar (λi Ii + Ni )m , es decir cada bloque de la forma de Jordan.
Se puede probar que el Teorema del Binomio de Newton es tambi´n v´lidoe a
para matrices, si la multiplicaci´n de ´stas conmuta. Este es precisa-
                                       o      e
mente el caso de λi Ii y Ni , que conmutan pues λi Ii es ponderaci´n de la
                                                                       o
identidad. Luego
                                          m
                                                 m
                   (λi Ii + Ni )m =                (λi Ii )m−k Nik .
                                                 k
                                         k=0


Para k ∈ {0, . . . , m}, (λi Ii )m−k = λm−k Ii . As´ gracias al Ejercicio 8.1:
                                        i          ı,

                                                                  m                                     
                                                     0   ...       k   λm−k
                                                                        i                        0
                                                        ..                     ..                     
                                                           .                        .                 
 m                       m m−k k                                                           m     m−k 
                                                                                                       




                                                                                                                                             ´
   (λi Ii )m−k Nik =       λi Ni =                                                          k   λi    
 k                       k                                                                            
                                                                               ..               .     
                                                                                    .           .
                                                                                                 .     
                                                     0                                           0

En donde los t´rminos m λm−k est´n ubicados desde la posici´n (1, k)
                 e        k   i       a                           o
hasta la (k, n). Notar adem´s que, si λi + Ni ∈ Mss ( ), la matriz anterior
                            a


                                                                                                                                     ı
es nula para k ≥ s.
Finalmente, sumando sobre k, se obtiene:
                   m     m               m                                m         m−(s−1) 
                   λi     1   λm−1
                               i          2    λm−2
                                                i                ...      s−1   λi
                                                                                ..               
                   0         λm          m
                                               λm−1        m
                                                                 λm−2                    .        
                              i          1       i        2        i                             
                                                                                                 
(λi Ii + Ni )m   = .
                    .         ..
                                 .
                                               ..
                                                  .
                                                                 ..
                                                                    .
                                                                                  ..
                                                                                         .        .
                   .                                                                             
                   .                                                                             
                   .
                    .         ...               0                λm           m
                                                                                   λm−1           
                                                                  i           1      i
                    0         ...              ...                0               λm
                                                                                   i
                                                                                                 (8.3)
Y tenemos entonces que
                                                                                        
            (λ1 I1 + N1 )m                  0             ...            0
                  0                 (λ2 I2 + N2 )m       ...            0               
                                                                                         −1
   Am = P         .                        .             ..             .               P ,
                  .
                   .                        .
                                            .                .           .
                                                                         .               
                     0                     0              ...      (λr Ir + Nr )m

con los bloques (λi Ii + Ni )m como en (8.3).



                                           193
8.2.2.   Matriz exponencial




                                                                                     Departamento de Ingenier´a Matematica - Universidad de Chile
Otra aplicaci´n importante est´ relacionada con calcular la exponencial de
             o                 a
una matrix, la generalizaci´n de la funci´n exponencial real para matrices.
                           o             o
Dicha matriz exponencial tiene utilidad en ciertos m´todos de resoluci´n
                                                      e                 o
de ecuaciones diferenciales (que ver´s en cursos m´s adelante).
                                    a             a
Veamos primero la definici´n de la matriz exponencial.
                           o
Definici´n 8.2 (Matriz exponencial). Sea A ∈ Mnn ( ). La expo-
        o                                                                     Matriz exponencial
nencial de A, denotada por eA , es la matriz en Mnn ( ) dada por la serie
de potencias
                                    ∞
                                       1 k
                            eA =          A .
                                       k!
                                       k=0

Esta serie siempre converge, por lo que eA est´ bien definida.
                                              a

  Observaci´n: El ultimo punto tratado en la definici´n, acerca de la
            o         ´                                 o
  convergencia, lo aceptaremos aqu´ Esto sale de los t´picos a tratar en
                                  ı.                  o
  el curso.

Veamos primero algunas propiedades de la exponencial, las cuales no pro-




                                                                                                                     ´
baremos aqu´
           ı:

Proposici´n 8.2. Dadas matrices B, C ∈ Mnn ( ), se tiene
         o
                                −1
  1. Si C es invertible, eCBC        = CeB C −1 .
  2. Si BC = CB, entonces eB+C = eB eC = eC eB .
  3. Si B es diagonal, B = diag(b1 , . . . , bn ), entonces
                              eB = diag(eb1 , . . . , ebn ).
                                                                                                             ı
Sea entonces A ∈ Mnn ( ), que gracias a la Proposici´n 8.1 se escribe como
                                                    o
A = P (D + N )P −1 , con D matriz diagonal con los vectores propios de A y
N una matriz nilpotente.
Calculamos entonces la exponencial de A, utilizando la Proposici´n 8.2 y
                                                                   o
el hecho de que D y N conmutan (ya se sus bloques conmutan):
                    eA = P e(D+N ) P −1 = P (eD eN )P −1 .
Veamos eN ,
                                       ∞
                                             1 k
                               eN =             N .
                                             k!
                                       k=0
Gracias al Ejercicio 8.2 y sumando en k, se tiene que (este paso se puede
formalizar, pero no lo haremos aqu´
                                  ı)
                             N1                 
                              e     0 ...      0
                             0 eN 2 . . .     0 
                                                
                      eN =  .      .   ..     . .
                             . .   .
                                    .      .   . 
                                               .
                                0   0 . . . eN r

                                       194
Adem´s, por la Proposici´n 8.2,
    a                   o




                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
                        λ                                      
                          e 1 I1   0            ...      0
                        0       eλ2 I2         ...      0      
                                                               
                 eD =  .          .            ..       .      ,
                        .  .      .
                                   .               .     .
                                                         .      
                            0      0            ...    eλr Ir

el i-´simo bloque de eD eN es:
     e
                                    ∞                  s−1
                                          1 k                1 k
                 eλi Ii eNi = eλi           N = eλi            N .
                                          k! i               k! i
                                    k=0                k=0

Ya que si suponemos Ni ∈ Mss ( ), como Ni es nilpotente, para k ≥ s se
tiene Nik = 0. As´ı:
                        λi 1 λi 1 λi               1      λi 
                         e   1! e   2! e    ...   (s−1)! e
                                                    ..       
                        0    eλi   1 λi   1 λi          . 
                                   1! e   2! e               
                                                             
             eλi eNi =  . .  ..
                                  .
                                     ..
                                         .
                                            ..
                                                .
                                                     ..
                                                         .      (8.4)
                        .                                    
                        .                                    
                        . .  ...      0    eλi     1 λi 
                                                    1! e




                                                                                                                  ´
                          0   ...    ...      0      eλi
Finalmente
                                                                
                      eλ1 eN1          0        ...      0
                     0             eλ2 eN2     ...      0       
                                                                 −1
             eA = P  .                .        ..       .       P ,
                     .  .             .
                                       .           .     .
                                                         .       
                                                       eλr eNr

                                                                                                          ı
                           0              0     ...

con cada bloque como en (8.4).

8.2.3.   Teorema de Cayley-Hamilton
El Teorema de Cayley-Hamilton se˜ ala que una matriz es siempre raiz de
                                    n
                     ıstico. Para comprender a qu´ nos referimos con esto,
su polinomio caracter´                           e
notemos que dado un polinomio
              p(x) = a0 + a1 x + a2 x2 + · · · + an xn ∈ Pn ( ),
podemos asociarle naturalmente una funci´n de Mnn ( ) a Mnn ( ). Dada
                                        o
X ∈ Mnn ( ):
                p(X) = a0 I + a1 X + a2 X 2 + · · · + an X n .
Enunciemos entonces el teorema:

Teorema 8.2 (Cayley-Hamilton). Dada una matriz A ∈ Mnn ( ) y                 Cayley-Hamilton
pA (x) su polinomio caracter´stico, entonces
                            ı
                                    pA (A) = 0.


                                          195
Departamento de Ingenier´a Matematica - Universidad de Chile
Demostracion. Consideremos A = P JP −1 , la forma de Jordan de A. Sa-
            ´
bemos que dos matrices similares tienen el mismo polinomio caracter´
                                                                   ıstico,
luego
                             pA (x) = pJ (x).
Ahora, como J es triangular superior, pJ (x) puede ser calculado como:

           pJ (x) = |J − xI| = (x − λ1 )s1 (x − λ2 )s2 . . . (x − λr )sr ,

en donde cada t´rmino (x − λi )si corresponde al bloque de Jordan Ji .
                  e
Calculemos entonces pA (A). Gracias a lo visto en la parte de diagonaliza-
ci´n, no es dif´ probar que:
  o            ıcil

pA (A) = pJ (A) = P ·pJ (J)·P −1 = P (J−λ1 I)s1 (J−λ2 I)s2 . . . (J−λr I)sr P −1 .

Ahora, mirando el bloque i-´simo del t´rmino i de este producto (de di-
                           e          e
mensiones s × s), tenemos que:

                             (Ji − λi Ii )s = Nis = 0,




                                                                                                                      ´
ya que gracias al Ejercicio 8.1, la matriz Ni es nilpotente.
Luego, usando el Ejercicio 8.2, se concluye.


8.2.4.   Traza de una matriz
Una ultima utilidad de la forma de Jordan, que veremos, es permitir carac-
     ´
terizar la traza de una matriz.
Definici´n 8.3 (Traza). La traza es la funci´n tr : Mnn ( ) →
nida por:
         o                                 o                                 , defi-
                                                                                                              ı                                      Traza

                                                           n
                  ∀A = (aij ) ∈ Mnn ( ),        tr(A) =         aii .
                                                          k=0

Es decir, es la suma de los elementos de la diagonal de la matriz.

Las siguientes propiedades quedan de ejercicio:

Proposici´n 8.3. Se tienen las siguientes propiedades:
         o
  1. La funci´n tr es lineal.
             o
  2. ∀A, B ∈ Mnn ( ), tr(AB) = tr(BA).


          ´
Demostracion. Propuesta como ejercicio.                                               ◭ Ejercicio


As´ podemos probar el siguiente resultado:
  ı,



                                        196
Proposici´n 8.4. Sea A ∈ Mnn ( ), con valores propios distintos λ1 , . . . , λr .
         o




                                                                                    Departamento de Ingenier´a Matematica - Universidad de Chile
Entonces                       r
                          tr(A) =         αA (λi ) · λi .
                                    i=1

En donde recordemos que αA (λi ) es la multiplicidad algebraica de λi .


Demostracion. Sea A = P JP −1 , la forma de Jordan de A, luego
          ´

                tr(A) = tr(P JP −1 ) = tr(P −1 P J) = tr(J).

En donde ocupamos la Proposici´n 8.3, con P J y P −1 .
                                o
Ahora, en la diagonal de J est´n precisamente los valores propios de A,
                               a
repetidos tantas veces como su mutiplicidad algebraica. As´
                                                          ı,
                                            r
                      tr(A) = tr(J) =           αA (λi ) · λi .
                                          i=1




                                                                                                            ı       ´




                                     197
´
                                     Ingenier´a Matematica
                                             ı
                                     FACULTAD DE CIENCIAS
                                     F´SICAS Y MATEMATICAS
                                       I                 ´
                                     UNIVERSIDAD DE CHILE
                                     ´
                                     Algebra Lineal 08-2

                                               SEMANA 15: FORMA DE JORDAN




                                                                                              Departamento de Ingenier´a Matematica - Universidad de Chile
Probaremos el siguiente teorema:


Teorema 8.3. Una transformaci´n lineal arbitraria, TA = n →
                                 o                                                 n
                                                                                       , x→
Ax, es reductible a la forma de Jordan, o de manera equivalente:
                         ∀A ∈ Mnn ( ), ∃J ∈ Mnn ( )
matriz de Jordan, similar a la matriz A:
                                       A = P JP −1
donde las columnas de P son los vectores de la base asociada a βJ .


             ´
Demostracion. Por inducci´n sobre la dimensi´n, n, del espacio. Es tri-
                            o                 o
vialmente cierto para n = 1 (verifique). Supongamos que el resultado se
cumple ∀k ≤ n − 1. Veremos primero:

Caso 1: La matriz A es singular (detA = 0).
En este caso r(A) = r < n, es decir dim Im(TA ) = r(A) = r < n. Sea:




                                                                                                                              ´
                          T ′ = T |ImTA : ImTA → ImTA
Por hip´tesis, como dim ImTA < n, existe la descomposici´n de Jordan.
        o                                                         o
Existe entonces una base de ImTA que verifica las hip´tesis. M´s expl´
                                                             o        a    ıci-
tamente: Si σ(T ′ ) = {λ1 , . . . , λm } y adem´s los subespacios propios:
                                               a

                  1             1                             m             m
          Vλ1 = {v11 , . . . , vp1 1 } , . . . , Vλm =       v11 , . . . , vpm 1
obteni´ndose la base β, de Jordan para T ′ :
      e
         1
        v11      ···          1
                             vp1 1        →         vectores propios de Vλ1
                                                                                                                      ı
         1                    1
        v12                  vp1 2
         .
         .                     .
                               .
         .                     .                       colas asociadas
       1                   1
      v1s(1,1)            vps(1,p1 )              a los vectores propios de Vλ1
         .
         .                    .
                              .                                  .
                                                                 .
         .                    .                                  .
         m                   m
        v11      ···       vpm 1          →          vectores propios deVλm

         m                   m
        v12      ···        vpm 2
         .
         .                    .
                              .
         .                    .                         colas asociadas
       m                  m
      v1s(m,1)   ···     vpm s(m,pm )
donde r = dim ImTA =               s(i, j) y se verifica:
                             i,j

                                           k
                                       λk vij              si j = 1
                       T ′ (vij ) =
                             k
                                        k          k
                                       vij−1 + λk vij      si j > 1

                                            198
Donde:




                                                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
                                                                                                             
               J11
                    ..                                                                                       
                         .                                                                                   
                                                                                                             
                             Jp1                                                                             
                                                                                                             
                                       J12                                                                   
                                              ..                                                             
                                                   .                                                         
                                                                                                             
     J =                                                                                                     
                                                           Jp2 2                                             
                                                                           ..                                
                                                                                .                            
                                                                                                             
                                                                                                             
                                                                                      J1m                    
                                                                                            ..               
                                                                                                 .           
                                                                                                      Jpm m
y cada bloque:
                                                                                     
                                              λk         1
                                                       ..         ..           
                                                          .            .       
                              Jik   =                             ..           
                                                                       .     1 
                                                                             λk




                                                                                                                                                  ´
                                                                  k             k
es de dimensi´n s(k, i)×s(k, i), asociado a los vectores de base vi1 , . . . , vis(k,i) .
             o


Subcaso 1: KerTA ∩ ImTA = {0}.
De acuerdo al Teorema del N´ cleo-Imagen (TNI), dim KerTA +dim ImTA =
                           u
n, luego n = KerTA ⊕ ImTA , de donde la base de Jordan ser´:a



                                                                                                                                          ı
                          βJ = {w1 , . . . , wr } ∪ {z 1 , . . . , z n−r }
                                               n−r
donde {wi }r es base de Jordan de ImTA y {z i }i=1 es una base del n´ cleo
           i=1                                                      u
de TA .
La matriz asociada es:
                                                                   
                J11
                    ..                                             
                       .                                           
                                                                   
                                   Jpm m                           
         J =                                                       
                                       0                                             n − r bloques
                                                  ..               
                                                       .                               de 1 × 1 con
                                                               0                     el valor propio 0

que verifica claramente:

           TA wi = λi wi            o
                                    ´    TA wi = wi−1 + λi wi                                1≤i≤r

y adem´s, TA z i = 0z i
      a                         1 ≤ i ≤ n − r.

Subcaso 2: KerTA ∩ ImTA =                           u1 , . . . , up                  , subespacio de dimensi´n
                                                                                                            o
p ≥ 1.

                                                    199
Es decir ui ∈ KerTA y ui ∈ ImTA . Estos vectores son propios TA (ui ) =




                                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
0ui . Adem´s, como ui ∈ ImTA estos son vectores propios de T ′ = T |ImTA .
            a
Por hip´tesis de Jordan existen, para cada uno de los vectores ui , un bloque
        o
(eventualmente de 1×1). Sin p´rdida de generalidad, supongamos que en la
                                 e
base de Jordan asociada a T ′ , se tiene λ1 = 0. Luego obtenemos los bloques
siguientes:
      1          1                     1
     v11        v21         ···      vp1
    1          1
                                     .
                                     .
   v12        v22                    .
     .          .                    .         vectores propios asociados a λ1 = 0
     .
     .          .
                .                    .
                                     .
    1          1                   1
   v1s(1,1)   v2s(1,2)      ···   vps(1,p)
que verifican la recurrencia:

                            1         1
                        TA v11 = 0 · v11
                            1     1         1
                        TA v12 = v11 + 0 · v12
                        .
                        .
                        .
                            1          1                1
                        TA v1s(1,1) = v1s(1,1)−1 + 0 · v1s(1,1)                        (8.5)




                                                                                                                                  ´
                        .
                        .
                        .
                            1         1
                        TA vp1 = 0 · vp1
                        .
                        .
                        .
                            1          1                1
                        TA vps(1,p) = vps(1,p)−1 + 0 · vps(1,p)


                                                                                                                          ı
                                                                                          n
Para “completar” la base de Jordan asociada a ImTA a una base de                              ,
elegimos el conjunto de vectores β2 = {y j }p tal que:
                                            j=1

                                     Ay 1 = v1s(1,1)
                                             1


                                     Ay 2 = v2s(1,2)
                                             1

                                           .
                                           .
                                           .
                                     Ay p = vps(1,p)
                                             1


Es decir, los vectores {y j }p son soluciones de los sistemas asociados al
                             j=1
ultimo vector de cada bloque del vector λ1 = 0. Estos sistemas tienen
´
                                 1
soluci´n ya que, por hip´tesis, vjs(1,j) ∈ ImTA , ∀j = 1, . . . , p.
      o                 o
                                                                              p
Adem´s, son vectores linealmente independientes. En efecto, si
    a                                                                              cj y j = 0
                                                                             j=1
entonces            p                 p               p
                              j                  j             1
                        cj T A y =         cj Ay =         cj vjs(1,j) = 0
                j=1                  j=1             j=1

como, por hip´tesis el conjunto
             o                            {vjs(1,j) }p
                                            1
                                                     j=1   es linealmente independiente,
      ımos que cj = 0, ∀j = 1, . . . , n.
conclu´

                                               200
M´s a´ n, los vectores {y j }p satisfacen:
 a u                         j=1




                                                                                                  Departamento de Ingenier´a Matematica - Universidad de Chile
                 TA (y j ) = Ay j = vjs(1,j) + 0y j            1 ≤ j ≤ p.
luego podemos redefinir el orden de los vectores en el conjunto β2 ∪ βJ para
obtener una descomposici´n en bloques de Jordan. Por ejemplo, veamos la
                           o
inclusi´n del vector y 1 .
       o
Ten´ıamos (ver Ecuaci´n (8.5)):
                       o
                                  1      1
                              TA v11 = 0v11
                                    .
                                    .
                                    .
                             1          1             1
                         TA v1s(1,1) = v1s(1,1)−1 + 0v1s(1,1)

definiendo v1s(1,1)+1 = y 1 , se tiene que
           1

                            1            1           1
                        TA v1s(1,1)+1 = v1s(1,1) + 0v1s(1,1)+1
y redefinimos el primer bloque:
                          v11 , . . . , v1s(1,1) , v1s(1,1)+1 = y 1
                           1             1          1


que satisface la recurrencia de Jordan.




                                                                                                                                  ´
                                                                   1
En general, para cada bloque asociado a λ1 , agregamos el vector vjs(1,j)+1 =
y j , lo cual satisface la recurrencia de Jordan. Los nuevos bloques tienen la
forma:                                             
                                0 1              0
                                   ..   ..       .
                                                  .
                                      .    .     .
                                        ..         
                                           . 1 0
                                                   

                                                                                                                          ı
                                             0 1
                                0 ··· ···        0
 Debemos verificar que el conjunto β2 ∪ βJ es ℓ.i.: Consideremos ϕ una
combinaci´n lineal nula, escrita por bloques:
             o
          ϕ = [α1 v11 + α1 v12 + · · · + α1
                11
                   1
                         12
                            1                      1
                                          1s(1,1) v1s(1,1) ] + . . .

            + · · · + [α1 vp1 + α1 vp2 + · · · + α1
                        p1
                           1
                                 p2
                                    1                      1
                                                  ps(1,p) v1s(1,p) ] + . . .

            + [αk v11 + · · · + αk
                11
                   k                      k
                                 1s(k,1) v1s(k,1) ] + . . .                               (8.6)
            +   [αkk 1 vpk s(1,pk )
                  p                + · · · + αkk s(k,pk ) vpk s(k,pk ) ]
                                                p
                                                           k
                                                                           + ...
                    1
            + β1 y +      β2 y 2 + · · · + β p y p = 0

Aplicando la transformaci´n TA a esta ecuaci´n obtenemos:
                         o                  o
                   1
   TA (ϕ) = Aϕ = [α11 Av11 + α1 A2 v12 + · · · + α1
                        1
                              12
                                    1                       1
                                                  1s(1,1) Av1s(1,1) ] + . . .

                  · · · + [α1 Avp1 + α1 Avp2 + · · · + α1
                            p1
                                1
                                      p2
                                          1                       1
                                                        ps(1,p) Av1s(1,p) ]+

                  · · · + [αk Av11 + · · · + αk
                            11
                                k                       k
                                              1s(k,1) Av1s(k,1) ]+

                  · · · + [αpk 1 Avpk s(1,pk ) + · · · + αkk s(k,pk ) Avpk s(k,pk ) ] + . . .
                                                          p
                                                                        k


                  · · · + β1 Ay 1 + · · · + βp Ay p = 0

                                             201
Reemplazando seg´ n la recurrencia de Jordan y recordando que λ1 = 0:
                u




                                                                                                   Departamento de Ingenier´a Matematica - Universidad de Chile
 Aϕ = [α1 v11 + α1 v12 + · · · + α1
        12
           1
                 13
                    1                      1
                                  1s(1,1) v1s(1,1)−1 ] + . . .

     + [α1 vp1 + α1 vp2 + · · · + α1
         p2
            1
                  p3
                     1                      1
                                   ps(1,p) v1s(1,p)−1 ] + . . .

     + [αk λk v11 + · · · + αk
         11
               k                          k            k
                             1s(k,1) (λk vpt s(k,1) + v1s(k,1)−1 )]

     · · · + [αkk 1 λk vpk 1 + · · · + αkk s(k,pk ) (λk vpk s(k,pk ) + vpk s(k,pk )−1 )] + . . .
               p
                        k
                                        p
                                                         k              k

           1             1                     1
     + β1 v1s(1,1) + β2 v2s(1,2) + · · · + βp vps(1,p) = 0

 Reordenando, agregamos cada vector asociado a los escalares βj a su res-
pectivo bloque:

TA (ϕ) = [α1 v11 + · · · + α1
           12
              1                      1            1 1
                            1s(1,1) v1s(1,1)−1 + β v1s(1,1) ] + . . .

       · · · + {(αk λk + αk )v11 + (αk λk + αk )v12 + . . .
                  11      12
                              k
                                     12      13
                                                 k

       · · · + (α1s(k,1)−1 λk + αk
                 k                         k            k           k
                                 1s(k,1) )v1s(k,1)−1 + α1s(k,1) λk v1s(k,1) } + · · · = 0

como los vectores son ℓ.i se tiene que

                        α1 = α1 = · · · = α1
                         12   13           1s(1,1) = β1 = 0




                                                                                                                                   ´
                                .
                                .
                                .
                         1
                        αp2 = α1 = · · · = α1
                               p3           ps(1,p) = βp = 0

y ∀k ≥ 1 (bloques asociados a λk ):

                                            αk λk + αk = 0
                                             11      12




                                                                                                                           ı
                                            αk λk + αk = 0
                                             12      13
                                                  .
                                                  .
                                                  .
                              α1s(k,1)−1 λk + αk
                               k
                                               1s(k,1) = 0

                                               αk
                                                1s(k,1) λk = 0

 como λk = 0, reemplazando desde la ultima a la primera ecuaci´n, con-
                                             ´                            o
clu´ ımos
αk = 0 ∀k, ∀i, j. Recordemos que, al aplicar TA , desaparecieron los coefi-
  ij
cientes
α1 , . . . , α1 , pero, como el resto de los coeficientes αk , βj , es nulo se tiene
  11          p1                                          ij
en (8.6):
                            α1 v11 + · · · + α1 vp1 = 0
                              11
                                  1
                                               p1
                                                  1


Como {vj1 }p es ℓ.i, conclu´
          1
              j=1              ımos α1 = · · · = α1 = 0, luego el conjunto
                                      11           p1
β2 o βJ es ℓ.i.
El conjunto anterior β2 ∪ βJ tiene r + p vectores, donde r = dim ImTA , es
decir | β2 ∪ βJ |= p + r ≤ n. Nos falta entonces considerar KerTA  ImTA ∩
KerTA . Pero esto es f´cil, sea:
                        a

                    KerTA =          u1 , . . . , up   ⊕ {z1 , . . . , zq }


                                              202
donde {u1 , . . . , up } = ImTA ∩KerTA y {z1 , . . . , zq } es un suplementario




                                                                                                                         Departamento de Ingenier´a Matematica - Universidad de Chile
en KerTA .
Afirmamos que la base de Jordan de n est´ dada por:
                                           a
                         ′                                               q
                        βJ = βJ ∪ β2 ∪ β3 ,                    β3 = {zi }i=1 .

Claramente estos n vectores son ℓ.i., pues si
                            r                     p                     q
                                 αj wj +               βj y j +              γj zj = 0
                        j=1                      j=1                   j=1

aplicando TA y recordando que zj ∈ KerTA obtenemos:
                                 r                        p
                                      αj TA wj +               βj T A y j = 0
                                j=1                      j=1

que corresponde al an´lisis de la independencia lineal de β2 ∪βJ que hicimos
                     a
                                                                                           q
previamente, luego αj = βj = 0. S´lo queda entonces
                                 o                                                             γj zj = 0 de donde
                                                                                       j=1
γj = 0 pu´s {zj } es ℓ.i.
         e
La matriz de Jordan, agregando los {zi }q al final de la base, es la siguiente:




                                                                                                                                                         ´
                                        i=1


    ˜                                                                                                               
     J11
            ..                                                                                                      
                 .                                                                                                  
                     ˜                                                                                              
                     Jp1                                                                                            
                                                                                                                    
                               J12                                                                                  
                                       ..                                                                           
                                                                                                                    

                                                                                                                                                 ı
                                            .                                                                       
                                                 Jp2 2                                                              
                                                                                                                    
                                                             ..                                                     
J =                                                                                                                 
                                                                  .                                                 
                                                                                                                    
                                                                           J1m                                      
                                                                                 ..                                 
                                                                                      .                             
                                                                                                                    
                                                                                                                    
                                                                                              Jpm m                 
                                                                                                                    
                                                                                                      0             
                                                                                                          ···       
                                                                                                                 0
       ˜             ˜
 donde J11 , . . . , Jp1 son los bloques asociados a λ1 = 0 con la “cola” agre-
gada {yi }. El ultimo grupo de q bloques de 0’s corresponde a la base del
                  ´
suplementario de
ImTA ∩ KerTA en KerTA .
Con esto hemos demostrado que, si A es regular (no invertible), esta es
reductible a la forma de Jordan.

Veamos ahora el caso invertible: Como A ∈ Mnn ( ), ∃λ ∈       valor propio
asociado a A. Consideremos la matriz singular A′ = A − λI. Por el proce-
dimiento desarrollado anteriormente existen matrices J ′ y P invertible tal

                                                       203
que:




                                                                            Departamento de Ingenier´a Matematica - Universidad de Chile
                     J ′ = P −1 A′ P ⇔ J ′ = P −1 (A − λI)P
          ⇔    P J ′ P −1 = A − λI ⇔     A = P J ′ P −1 + λI =
                        = P J ′ P −1 + λP P −1 = P (J ′ + λI)P −1
 luego la matriz de Jordan asociada a TA es J = J ′ + λI, donde λ aparece
en la diagonal principal.


                                                                            ◭ Ejercicio

  Ejercicio 8.3: La forma de Jordan es unica, salvo permutaci´n del
                                       ´                     o
  orden de la base.




                                                                                                    ı       ´




                                   204
´
                              Ingenier´a Matematica
                                      ı
                              FACULTAD DE CIENCIAS
                                                                                         Gu´a
                                                                                           ı
                              F´SICAS Y MATEMATICAS
                                                  ´
                                I
                              UNIVERSIDAD DE CHILE                                       Semana 15
                              ´
                              Algebra Lineal 08-2

Ejercicios




                                                                                       Departamento de Ingenier´a Matematica - Universidad de Chile
1. Sea Ni ∈ Mss ( ), definida por
                                                         
                             0 1                      0
                                ..        ..           
                                   .           .       
                                                       .
                                          ..           
                                               .     1
                             0                        0

                                       Æ
   Pruebe por inducci´n que ∀m ∈ , ∀p, q ∈ {1, . . . , s},
                     o
                                  
                                  1 si q = p + m,
                                  
                       (Nim )pq =
                                  
                                  
                                   0 si q = p + m.

   Adem´s deduzca que Nis = 0. Una matriz con esta propiedad, se dice
        a
   nilpotente.
2. Sea B una matriz diagonal por bloques, es decir
                                                




                                                                                                                       ´
                              B1 0 . . . 0
                             0 B2 . . . 0 
                                                
                       B= .        .   ..     . 
                             ..    .
                                    .      .   . 
                                               .
                               0    0 . . . Br

   en donde B1 , . . . , Br son matrices cuadradas y el resto son matrices cero.
             Æ, pruebe que entonces
                                                                                                               ı
   Sea m ∈
                                 m
                                                                   
                                B1       0          ...       0
                               0       B2m
                                                    ...       0    
                                                                  
                        Bm   = .        .          ..        .    .
                               ..       .
                                         .             .      .
                                                              .    
                                                               m
                                   0       0        ...       Br

3. Pruebe las siguientes propiedades:
   (a) La funci´n tr : Mnn ( ) →
               o                        es lineal.
   (b) ∀A ∈ Mmn ( ), ∀B ∈ Mnm ( ), tr(AB) = tr(BA).
4. A ∈ Mnn ( ), una matriz no necesariamente diagonalizable tal que
           Ê
   σ(A) ⊆ . Pruebe que
                           |eA | = etr(A) .

5. Calcule eA , A3 y A5 , para las siguientes        matrices:
                                                                               
         −1 1                     1 1 0               0 0       2       1   0   0
   (a)             .            0 1 0
          0 −1                                       0 0 0           2   1   0
                                                           
                                                          (c)                    .
                           (b) 0 0 1/2
                                                     0 0. 0
                                                                       0   2   0
                                0 0 0                4 1      0       0   0   −1
                                  0 0 0               0 4
                                     205
Problemas




                                                                               Departamento de Ingenier´a Matematica - Universidad de Chile
P1. Se define la siguiente recurrencia de n´ meros reales
                                          u

                         xn+1 = 2xn − xn−1 , ∀n ≥ 1
                         x1 = 1, x0 = 0.

    (a) Para n ∈    Æ, defina vn = ( xx    n
                                         n−1   )∈   Ê2. Encuentre A ∈ M22(Ê)
        tal que
                                       vn+1 = Avn .
    (b) Pruebe que vn = An v0 , ∀n ∈      Æ.
     (c) Use lo anterior para resolver la recurrencia, obteniendo un valor
         expl´
             ıcito para xn .
         Indicaci´n: Use la forma de Jordan.
                 o
P2. (a) Sea λ ∈   Ê  {0}. Pruebe por inducci´n que
                                             o
                               n
                        λ 1             λn     nλn−1
                                   =                      ∀n ≥ 1.
                        0 λ              0      λn




                                                                                                               ´
    (b) Considere                                
                                    4 −1        −3
                                   0 4         1 .
                                    0 0         2
         Encuentre P invertible y J en forma de Jordan tal que A =
         P JP −1 .


                                                                                                       ı
     (c) Para la matriz A de la parte anterior y n ≥ 1 cualquiera calcule
         An expl´ıcitamente, encontrando expresiones para los coeficientes
         de An en funci´n de n.
                        o




                                       206

áLgebra lineal [u de chile]

  • 1.
    Importante: Visita regularmente http://www.dim.uchile.cl/∼docencia/algebra lineal. ı ´ Ingenier´a Matematica Ah´ encontrar´s las gu´ de ejercicios y problemas, adem´s ı a ıas a FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ de informaci´n acerca de cu´l ser´ la din´mica del curso. o a a a UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 1: MATRICES Departamento de Ingenier´a Matematica - Universidad de Chile Usa estas notas al margen para con- sultar de manera m´s r´pida el ma- a a 1. Matrices terial. Haz tam- bi´n tus propias e 1.1. ´ Definiciones basicas anotaciones. Definici´n 1.1 (Matriz). Una matriz A, de m filas y n columnas con o matriz coeficientes en el cuerpo à (en este apunte ser´ a Ã Ê o ) es una tabla de ´ doble entrada:   a11 ··· a1n  . . A= . . , .  . aij ∈ Ã, ∀i = 1, . . . , m, j = 1, . . . , n. am1 · · · ... amn Notamos tambi´n la matriz como A = (aij ) y denominamos Mmn ( ) al e à Mmn ( ) à conjunto de todas las matrices de m filas y n columnas con coeficientes en el cuerpo . à Definici´n 1.2 (Igualdad de matrices). Dadas dos matrices A ∈ Mmn ( ), B ∈ o à ´ à Mm′ n′ ( ), diremos que son iguales si y s´lo si: o A=B (m = m′ ) ∧ (n = n′ ) ∧ (∀i ∈ {1, ..., m}, j ∈ {1, ..., n}, aij = bij ) Un caso especial de matrices son aquellas de n × 1. Estas matrices se lla- a ıà mar´n posteriormente vectores de n . As´ nuestros vectores ser´n matri- a vector de Ãn ces de una sola columna. ı à Construimos una estructura algebraica sobre Mmn ( ) a partir de las ope- à raciones definidas en el cuerpo . Se define la suma de dos matrices como A+B sigue: à ∀A, B ∈ Mmn ( ), A + B = (aij + bij ) Ê Por ejemplo, en ( , +, ·): 1 2 3 0 −1 2 1 1 5 + = . 0 −1 −2 3 1 2 3 0 0 Es f´cil verificar que a à Proposici´n 1.1. (Mmn ( ), +) tiene estructura de grupo Abeliano. o ´ Demostracion. La suma es asociativa y conmutativa, como herencia de las mismas propiedades en el cuerpo . à El neutro aditivo es 0 ∈ Mmn ( ) à   0 ... 0 . . 0 =  . . . . .  ∈ Mmn ( ). . . à 0 ... 0 1
  • 2.
    El inverso aditivode A = (aij ) es −A = (−aij ). Por ejemplo, en M23 ( ): −A Departamento de Ingenier´a Matematica - Universidad de Chile i 0 0 −i 0 0 + = 1 −i 0 −1 i 0 i−i 0+0 0+0 0 0 0 = = = 0. 1−1 −i + i 0+0 0 0 0 Luego i 0 0 −i 0 0 − = . 1 −i 0 −1 i 0 Definici´n 1.3 (Producto de matrices). Dadas A = (aij ) ∈ Mmr ( ), B = o à à (bij ) ∈ Mrn ( ) se define el producto C = AB como aquella matriz A·B à C ∈ Mmn ( ) tal que r cij = aik bkj , i = 1, . . . , m, j = 1, . . . , n. k=1 Claramente C ∈ Mmn ( ). à ´ Ejemplos: Ê 1. En ( , +, ·),   1 2 −1 0 A= 1 1 −1 0 2 1 Ê ∈ M23 ( ), B = 0 2 −1 0 ∈ M34 ( ) Ê 1 0 −1 0   ı 1 2 −1 0 ⇒C = A·B = 1 1 −1 0  2 1 0 2 −1 0 = 1 0 2 6 0 0 −4 1 Ê ∈ M24 ( ). 1 0 −1 1 2. En ( , +, ·), A = (−i, i, 0) ∈ M13 ( )   i B = 1 ∈ M31 ( ) 0 ⇒ C = AB = −i · i + i · 1 + 0 · 0· = 1 + i ∈ M11 ( ). Observaci´n: La multiplicaci´n de matrices no es conmutativa. o o Por ejemplo en M22 ( ) : Ê 1 0 0 0 0 0 0 0 1 0 0 0 = , = . 0 0 2 0 0 0 2 0 0 0 2 0 2
  • 3.
    Dos propiedades importantesde la multiplicaci´n son las siguientes: o Departamento de Ingenier´a Matematica - Universidad de Chile Proposici´n 1.2. o à 1. Asociatividad: Si A ∈ Mmn ( ), B ∈ Mnq ( ), C ∈ Mqs ( ), en- à à tonces: A(BC) = (AB)C ∈ Mms ( ). à 2. Distributividad con respecto a la suma: Dadas A ∈ Mmn ( ), B, C ∈ à à Mns ( ), entonces A(B + C) = AB + AC ∈ Mms ( ). à De igual manera se tiene la distributividad por el otro lado. ´ Demostracion. Demostremos la distributibidad, quedando la asociativi- dad de ejercicio. Denominando E = A(B + C), se tiene: ◭ Ejercicio n eij = aik (bkj + ckj ) ∀i ∈ {1, ..., m}, j ∈ {1, ..., s}. k=1 Como la multiplicaci´n distribuye con respecto a la suma en o Ã: n ´ eij = (aik bkj + aik ckj ) k=1 n n = aik bkj + aik ckj . k=1 k=1 De la definici´n de multiplicaci´n matricial, se obtiene E = AB + AC. o o Un caso particular muy importante es el de las matrices cuadradas, es matriz cuadrada ı à decir con igual n´ mero de filas y columnas. (Mnn ( ), ·) admite un neutro u multiplicativo, denominado matriz identidad: I   1 0 ··· 0 0 1 ··· 0 I = ..  = (δij ), con δij = 0 si i = j  .  1 si i = j. 0 0 ··· 1 En efecto, dada A ∈ Mnn ( ) : à     1 0 ··· 0 a11 ... a1n . 0 1 ··· 0 AI =  . . . . .  ..   .  an1 ... ann 0 0 ··· 1 n =( aik δkj ) = (aij δjj ) = (aij ) = A. k=1 Conclu´ ımos entonces que 3
  • 4.
    à Corolario 1.1. (Mnn( ), +, ·) es un anillo con unidad (existe neutro para à Departamento de Ingenier´a Matematica - Universidad de Chile ·). (Mnn ( ), +, ·) es anillo con unidad à Dado que (Mnn ( , ·) tiene un elemento neutro I, ¿Tienen sus elementos inverso? o à Definici´n 1.4 (Matriz invertible). A ∈ Mnn ( ) es invertible si y invertible à s´lo si existe B ∈ Mnn ( ) tal que: o AB = BA = I. (1.1) Proposici´n 1.3. De existir una matriz B que satisfaga (1.1), esta es o unica. Por ende la notaremos B = A−1 . ´ A−1 ´ à Demostracion. Sean B1 , B2 ∈ Mnn ( ) que satisfacen (1.1). Luego B1 = B1 I = B1 (AB2 ). Usando la asociatividad de · tenemos, ´ B1 = (B1 A)B2 , pero como B1 A = I, se concluye que B1 = B2 . Cabe se˜ alar que para que A sea invertible se requiere que exista una matriz n ı B que sea a la vez inversa por izquierda y por derecha. Probaremos m´s a adelante que es suficiente que A tenga inversa por un solo lado. Ejemplos: No todas las matrices cuadradas tienen inverso multiplicativo. En Ê M22 ( ), la matriz 1 2 2 4 no tiene inverso. En efecto, si existiese el inverso, x1 x2 digamos , deber´ verificarse: ıa x3 x4 1 2 x1 x2 1 0 = 2 4 x3 x4 0 1 x1 + 2x3 x2 + 2x4 1 0 ⇔ = 2x1 + 4x3 2x2 + 4x4 0 1 4
  • 5.
    x1 + 2x3 = 1 Departamento de Ingenier´a Matematica - Universidad de Chile x2 + 2x4 = 0 2x1 + 4x3 = 0 2x2 + 4x4 = 1 De la primera ecuaci´n multiplicada por 2, obtenemos: 2(x1 + 2x3 ) = o 2. Pero de la tercera ecuaci´n, 2x1 + 4x3 = 0. De esta contradicci´n o o conclu´ ımos que el sistema no tiene soluci´n. o En otros casos s´ existe inverso, por ejemplo, en M22 ( ), ı Ê −1 0 1 0 1 = 1 0 1 0 En efecto: 0 1 0 1 1 0 = 1 0 1 0 0 1 O bien, en M22 ( ), −1 ´ i 0 −i 0 = , 0 −i 0 i lo que se verifica r´pidamente. a ı 1.2. Matrices Particulares Definici´n 1.5. Diremos que A ∈ Mnn ( ) es: o à 1. Diagonal si y s´lo si aij = 0 o ∀i = j: diagonal   a11 0  a22  A=  .. .  . 0 ann En este caso la matriz es notada A = diag(a11 , a22 , . . . , ann ). diag(a11 , a22 , . . . , ann ) 2. Triangular superior si y s´lo si aij = 0 si i > j: o triangular superior   a11 a12 ··· a1n  0 a22 ··· a2n  A= .  . .. . . .  . . . 0 ··· 0 ann 3. Triangular inferior si y s´lo si aij = 0 si i < j: o triangular inferior 5
  • 6.
     a11 0 ··· 0 Departamento de Ingenier´a Matematica - Universidad de Chile  a21 a22 0 ··· 0  A=  . .. . . . . 0  an1 an2 ··· ··· ann Ejemplos:     0 0 0 1 0 0 A = 0 2 0  , I =  0 1 0  son matrices diagonales 0 0 3 0 0 1     1 2 3 0 0 0 son matrices triangulares, superior e inferior A = 0 0 1, B = 1 2 0 respectivamente. 0 0 2 2 −1 3 ◭ Ejercicio ´ Ejercicio 1.1: Una propiedad que queda propuesta es que si A es diagonal con aii = 0, para i = 1, . . . , n entonces es invertible, y su inversa tambi´n es diagonal con (A−1 )ii = a1 . e ii ı Notaci´n: o à Dada una matriz A ∈ Mmn ( ) notaremos su i-´sima fila como: e Ai• Ai• = (ai1 ai2 . . . ain ) y su j-´sima columna: e A•j a  1j  a2j  A•j = .  .   . amj Podemos escribir entonces la matriz: A = (A•1 , A•2 , ..., A•n ), denominada notaci´n por columnas. O bien: o   A1•  A2•  A =  . ,  .  correspondiente a la notaci´n por filas. o . Am• ◭ Ejercicio 6
  • 7.
    Departamento de Ingenier´aMatematica - Universidad de Chile Ejercicio 1.2: Con respecto a esta notaci´n, es un buen ejercicio es- o tudiar c´mo el producto de matrices afecta las columnas y filas de las o matrices a multiplicar. M´s precisamente: Sean A ∈ Mmn ( ), B ∈ a à à Mnp ( ) y describamos B por sus columnas B = (B•1 , B•2 , ..., B•p ), demostrar que entonces AB = (A(B•1 ), ..., A(B•p )) , es decir la primera columna de AB es la matriz A por la primera columna de B, etc. ¿Qu´ hay de las filas de AB? e Definici´n 1.6 (Matriz ponderada). Dada una constante λ ∈ o Ã, defi- nimos la matriz A ponderada por λ: λA λA = (λaij ). ´ Ejemplo: En M23 ( ): Ê 1 −1 0 3 −3 0 3· = 2 2 1 6 6 3 Veamos ahora que sucede al multiplicar por la derecha o izquierda una matriz por otra diagonal: ı 2 0 1 1 2 2 2 4 DA = = 0 3 2 0 1 6 0 3 constatamos que la primera fila aparece multiplicada por d11 = 2 y la segunda por d22 = 3.   2 0 0 ¯ 1 1 2  2 1 6 AD = 0 1 0 = 2 0 1 4 0 3 0 0 3 Aqu´ la primera columna de A aparece multiplicada por 2, la segunda ı, por 1, la tercera por 3. En general:   a   λ1 a11 ··· λ1 a1p  λ1 0 11 ··· a1p .  =  λ2 a21 ··· λ2 a2p   .. .  .  . .   . .  . .  . .  . . 0 λn an1 ··· anp λn an1 ··· λn anp 7
  • 8.
        b11 ··· b1n λ1 0 λ1 b11 λ2 b12 ··· λn b1n  . .  .. = . . .  Departamento de Ingenier´a Matematica - Universidad de Chile . . . . . . . . . . . bp1 ··· bpn 0 λn λ1 bp1 λ2 bp2 ··· λn bpn De forma m´s compacta, a Proposici´n 1.4. Si D = diag(λ1 , . . . , λn ) ∈ Mnn ( ), A ∈ Mnp ( ), B ∈ o à à à Mmn ( ), se tiene que   λ1 A1•  .  DA =  .  , . (1.2) λn An• BD = (λ1 B•1 , ..., λn B•n ). (1.3) ´ Demostracion. Probaremos (1.2), mientras que (1.3) queda propuesta como ejercicio. ◭ Ejercicio   ´ λ1 0 .. λi si i = j Sea D= .  = (dij ); con dij = 0 si i = j 0 λn luego, n (DA)ij = dik akj = dii aij = λi aij , ı k=1 y por lo tanto   λ1 a11 ... λ1 a1p  .  AD =  . . . λn an1 ··· λn anp Otra propiedad, que utilizaremos m´s adelante, es la siguiente: a Proposici´n 1.5. El producto de matrices triangulares inferiores (superio- o res) es triangular inferior (superior). ´ Demostracion. Verifiquemos el caso triangular superior. Sean     a11 ··· ··· a1n b11 ··· ··· b1n  0 a22 ··· a2n   0 b22 ··· b2n  T1 =  .  . .. .   .  , T2 =  .. .. . . .  . . . . . . 0 ··· 0 ann 0 ··· 0 bnn 8
  • 9.
    n Luego C =T1 · T2 = (cij ), donde: cij = aik bkj . Como T1 y T2 son Departamento de Ingenier´a Matematica - Universidad de Chile j=1 triangulares superiores: (aiℓ = 0) ∧ (biℓ = 0) ∀ℓ < i. Supongamos j < i, luego i−1 n cij = aik bkj + aik bkj . k=1 k=i En el primer t´rmino k < i ⇒ aik = 0. En el segundo t´rmino j < i ≤ k ⇒ e e bkj = 0, luego ∀j < i cij = 0. Es decir, la matriz C es tambi´n triangular e superior. Notemos adem´s que (T1 T2 )ii = aii bii es decir los elementos diagonales a del producto de dos triangulares superiores es el producto de los elementos diagonales correspondientes. 1.3. Potencias, traspuestas e inversas Definimos por recurrencia las potencias de una matriz cuadrada, como si- gue: Definici´n 1.7 (Potencias de una matriz). Dada A ∈ Mnn ( ) o à An ´ A0 = I, An = AAn−1 , n ≥ 1. Ejemplo: Por ejemplo; dada A ∈ M33 ( ): Ê   0 1 2 A = 2 0 0, ı 1 1 2 se tendr´ a      0 1 2 0 1 2 4 2 4 A2 = AA =  2 0 02 0 0 = 0 2 4 1 1 2 1 1 2 4 3 6      0 1 2 4 2 4 8 8 16 A3 = AA2 =  2 0 00 2 4 =  8 4 8 . 1 1 2 4 3 6 12 10 20 Definici´n 1.8 (Traspuesta). Dada una matriz A = (aij ) ∈ Mmn ( ), o à se define la traspuesta de A como aquella matriz de n×m que denotaremos At , traspuesta por At tal que (At )ij = aji . Esto corresponde a intercambiar el rol de las filas y columnas. M´s clara- a mente, la primera fila de At es la primera columna de A y as´ sucesiva- ı mente. 9
  • 10.
    Ejemplo: Departamento de Ingenier´a Matematica - Universidad de Chile     1 0 1 1 2 0 0 t 2 1 1 A = 0 1 0 1, A = . 0 0 0 1 1 0 1 0 1 1   1  −1    A = (1, −1, 0, 0, 1), At =  0  .   0 1     1 2 1 1 2 1 A =  2 0 1  , At =  2 0 1  . 1 1 4 1 1 4 En el ultimo caso vemos que A = At . ´ Definici´n 1.9 (Matriz sim´trica). Diremos que una matriz A ∈ Mnn ( ) o e à es sim´trica si y s´lo si e o sim´trica e A = At ´ Es f´cil verificar que A es sim´trica si y s´lo si: a e o aij = aji ∀i, j = 1, .., n Algunas propiedades de la trasposici´n de matrices son las siguientes: o Proposici´n 1.6. o ı 1. (At )t = A, ∀A ∈ Mmn ( ). à 2. (AB)t = B t At . (AB)t = B t At à 3. Si D ∈ Mnn ( ) es diagonal, entonces Dt = D. Demostracion. Probaremos 2: Sea C = AB, C t = (AB)t . En la posici´n ´ o n (i, j) de la matriz C t aparece el t´rmino cji de la matriz C: cji = e ajk bki k=1 t t Consideremos Z = B A . El t´rmino (i, j) de la matriz Z esta dado por: e n n n t t zij = (B )ik (A )kj = bki ajk = ajk bki = (AB)ji = (C t )ij , k=1 k=1 k=1 luego Z = C , y por lo tanto (AB) = B At . t t t Algunas propiedades elementales de matrices invertibles son las siguientes Proposici´n 1.7. o à Sean A, B ∈ Mnn ( ) invertibles entonces: 1. La inversa de A es invertible y (A−1 )−1 = A. (A−1 )−1 = A 10
  • 11.
    2. El productoAB es invertible y (AB)−1 = B −1 A−1 . (AB)−1 = B −1 A−1 Departamento de Ingenier´a Matematica - Universidad de Chile 3. ∀n ≥ 0, (An )−1 = (A−1 )n . (An )−1 = (A−1 )n 4. At es invertible y (At )−1 = (A−1 )t . (At )−1 = (A−1 )t ´ Demostracion. Veamos: La propiedad 1 se prueba directamente de la definici´n y de la unicidad de o la inversa (Proposici´n 1.3). o Para 2 se tiene que, AB(B −1 A−1 ) = A(BB −1 )A−1 = AIA−1 = AA−1 = I. De manera an´loga se prueba (B −1 A−1 )AB = I Como la inversa es unica a ´ (AB)−1 = B −1 A−1 . Para 3, procederemos por inducci´n. Se verifica para n ∈ {0, 1}. Suponga- o mos cierto el resultado para n ≥ 1 y veamos: (An+1 )−1 = (An · A)−1 = A−1 (An )−1 , por hip´tesis de inducci´n o o ´ (An+1 )−1 = A−1 (A−1 )n = (A−1 )n+1 . Para probar 4, notemos que AA−1 = I, as´ trasponiendo nos d´ (AA−1 )t = ı a I t , lo que implica a su vez (A−1 )t At = I. Igualmente se obtiene que At (A−1 )t = I. Finalmente, por unicidad de la inversa: (At )−1 = (A−1 )t . ◭ Ejercicio ı Ejercicio 1.3: En general el problema de saber si una matriz es in- vertible o no es un problema dif´ ıcil. Tendremos que esperar a saber resolver ecuaciones lineales para obtener un algoritmo eficiente que nos permitir´ decidir si una matriz en particular es invertible y obtener su a inversa. Por el momento nos contentaremos con el siguiente resultado, propuesto como ejercicio. Sea A = (aij ) una matriz de permutaci´n, es decir una matriz de o n × n con solo 0 y 1 tal que tiene un y s´lo un 1, por cada fila y o columna. permutaci´n o Se tiene que A es invertible y su inversa es A−1 = At . 11
  • 12.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Semana 1 F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. Demuestre la asociatividad de la multiplicaci´n de matrices. Es decir, si o Proposici´n 1.2 o à à A ∈ Mmn ( ), B ∈ Mnq ( ), C ∈ Mqs ( ), entonces: à A(BC) = (AB)C ∈ Mms ( ). à 2. Pruebe que si A es diagonal (A = diag(a11 , . . . , ann ) ∈ Mnn ( )), en-à Ejercicio 1.1 tonces A es invertible ⇔ aii = 0, para i ∈ {1, . . . , n}. Demuestre adem´s que, en caso de ser invertible, su inversa es diagonal a con (A−1 )ii = a1 . ii à à 3. Sean A ∈ Mmn ( ), B ∈ Mnp ( ) y describamos B por sus columnas Ejercicio 1.2 B = (B•1 , B•2 , ..., B•n ), demuestre que entonces AB = (A(B•1 ), ..., A(B•n )) . 4. Sea A = (aij ) una matriz de permutaci´n, es decir una matriz de o Ejercicio 1.3 à Mnn ( ) con s´lo 0’s y 1’s tal que tiene un y s´lo un 1, por cada fila y o o columna. Pruebe que A es invertible y su inversa es A−1 = At . ´ à 5. Se dice que P ∈ Mnn ( ) es una matriz de proyecci´n si P = P 2 . o (a) Pruebe que si P es matriz de proyecci´n, entonces In − P es matriz o de proyecci´n, donde In es la matriz identidad en Mnn ( ). o à (b) Pruebe que P es matriz de proyecci´n si y s´lo si P 2 (In − P ) = 0 o o y P (In − P )2 = 0. à (c) Encuentre P ∈ M22 ( ) tal que P = P 2 y P 2 (I2 − P ) = 0. ı Indicaci´n: Considere matrices con coeficientes en {0, 1}. o Problemas   d1  P1. Sea D =  .. .  Ê  ∈ Mnn ( ) diagonal, con d1 , . . . , dn distintos dn y A, B, M, S ∈ Mnn ( ). Ê (a) Pruebe que si M D = DM , entonces M es diagonal. (b) Sea S invertible, tal que S −1 AS y S −1 BS son diagonales. Pruebe que AB = BA. Indicaci´n: Recuerde que el producto de matrices o diagonales conmuta. (c) Sea S invertible tal que S −1 AS = D. Suponiendo que AB = BA, verifique que S −1 AS y S −1 BS conmutan y concluya que S −1 BS es diagonal. P2. (a) Demuestre que si A, B y (A + B −1 ) son matrices invertibles, en- tonces (A−1 + B) tambi´n es invertible y su inversa es A(A + e B −1 )−1 B −1 . 12
  • 13.
    (b) Sea lamatriz de n y n columnas triangular superior a coeficientes Departamento de Ingenier´a Matematica - Universidad de Chile reales siguiente:   1 1 0 0 ... ... 0 0 1 1 0 . . . . . . 0   . .. .. .. .. . .. . . . . . .  . .. .. .. .. . . . . . . . . C = . . .. ..  . . 1 1 0   .  . . . . . . . . . . 1 1 . 0  . . ... ... ... . 0 0 1 Sea N = C −I, donde I es la matriz identidad de n×n. Demuestre que N n = 0. (c) Demuestre que para las matrices C y N definidas en (b), se tiene que C es invertible y su inversa es: C −1 = I − N + N 2 − N 3 + · · · + (−1)n−1 N n−1 . Ê P3. (a) Sea A = (aij ) ∈ Mnn ( ) una matriz cualquiera. Se define la traza ´ de A, denotada por tr(A), como la suma de los elementos de la diagonal principal, es decir, n tr(A) = aii . i=1 Por otra parte, se define la funci´n f : Mnn ( ) → o Ê Ê, donde t f (A) = tr(AA ). ı Pruebe que: (1) Dadas A, B ∈ Mnn ( ), Ê tr(AB) = tr(BA). Ê (2) f (A) ≥ 0, ∀A ∈ Mnn ( ), adem´s muestre que a f (A) = 0 ⇔ A = 0, donde 0 es la matriz nula de Mnn ( ). Ê (3) f (A) = tr(At A). Ê (b) Sea M ∈ Mmn ( ) una matriz tal que la matriz (M t M ) ∈ Mnn ( ) Ê es invertible. Definamos la matriz P ∈ Mmm ( ) como Ê P = Im − M (M t M )−1 M t , donde IM es la matriz identidad de orden m. Pruebe que: (1) P 2 = P . Muestre adem´s que P M = 0, donde 0 ∈ Mmn ( ) a Ê es la matriz nula. (2) La matriz (M t M ) es sim´trica y muestre que la matriz P es e tambi´n sim´trica. e e 13
  • 14.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 2: MATRICES Departamento de Ingenier´a Matematica - Universidad de Chile 1.4. Matrices elementales Como veremos la resoluci´n de sistemas de ecuaciones via eliminaci´n de o o variables corresponde a premultiplicar (multiplicar por la izquierda) una cierta matriz por matrices elementales que estudiaremos a continuaci´n.o Hay dos tipos de matrices elementales: elemental de permutaci´n y de o matrices elementales suma. Definici´n 1.10 (Matriz elemental de permutaci´n). Una matriz ele- o o mental de permutaci´n tiene la siguiente estructura: o Ipq   1 0  ..   . 0   1     0 ··· ··· ··· 1  fila p    . . . .   . 1 .    Ipq =  1    . . . .  ´  . 1 .     1 ··· ··· ··· 0  fila q    1   ..   0 .  0 1 La matriz Ipq se construye a partir de la identidad, permutando el orden ı de las filas p y q. Ejemplo: Ê En M44 ( ):     1 0 0 0 0 0 1 0 0 0 0 1 0 1 0 0 I24 = , I13 = . 0 0 1 0 1 0 0 0 0 1 0 0 0 0 0 1 Notemos que toda matriz elemental de permutaci´n es una matriz de per- o mutaci´n, pero no al rev´s. ¿Puedes dar un ejemplo?. o e ◭ Ejercicio Veamos ahora lo que sucede al multiplicar una matriz A, por la derecha o izquierda, por una matriz elemental de permutaci´n Ipq : En el ejemplo o anterior, sea A = (aij ) ∈ M43 ( ) Ê        a11 a12 a13 1 0 0 0 a11 a12 a13 a11 a12 a13  a21 a22 a23   0 0 0 1   a21 a22 a23   a41 a42 a43  I24  =  = . a31 a32 a33 0 0 1 0 a31 a32 a33 a31 a32 a33 a41 a42 a43 0 1 0 0 a41 a42 a43 a21 a22 a23 14
  • 15.
    El resultado consisteen permutar las filas 2 y 4 de A. An´logamente, sea a Departamento de Ingenier´a Matematica - Universidad de Chile Ê B ∈ M34 ( ):  1 0 0 0    b11 b12 b13 b14 b b14 b13 b12  b21 0 0 0 1   11 b22 b23 b24    = b21 b24 b23 b22  . 0 0 1 0 b31 b32 b33 b34 b31 b34 b33 b32 0 1 0 0 la matriz resultante es B con las columnas 2 y 4 permutadas. En general, Propiedad 1.1. Ã Ã Dadas Ipq ∈ Mnn ( ), A ∈ Mns ( ) y B ∈ Mqn ( ): Ã 1. Ipq A corresponde a la matriz A con las filas p y q permutadas. Ipq A 2. BIpq corresponde a las matriz B con las columnas p y q permutadas. BIpq ´ Demostracion. Recordemos que, por ser una matriz de permutaci´n (Ejer- o a −1 cicio 1.3), Ipq es invertible y adem´s Ipq = Ipq . En efecto, el multiplicar por la izquierda Ipq por si misma, corresponde a intercambiar sus filas p y q, con lo cual se obtiene la identidad. ´ Ê Tomemos ahora la matriz A ∈ M44 ( ) y sea:   1 0 0 0 0 1 0 0 E2,4 (λ) =   0 0 1 0 0 λ 0 1 ı Esta matriz se construye a partir de la identidad colocando el valor λ en la posici´n (4,2) (notar que s´lo la fila 4 es diferente de la identidad). o o Al multiplicar por la izquierda A por E2,4 (λ):      a11 a12 a13 1 0 0 0 a11 a12 a13  a21 a22 a23   0 1 0 0   a21 a22 a23  E2,4 (λ)  =  = a31 a32 a33 0 0 1 0 a31 a32 a33 a41 a42 a43 0 λ 0 1 a41 a42 a43   a11 a12 a13  a21 a22 a23  =  a31 a32 a33 λa21 + a41 λa22 + a42 λa23 + a43 La matriz, E2,4 (λ)A es exactamente la matriz A, excepto por la fila 4, la cual se obtiene de sumar la fila 4 de A m´s la fila 2 de A ponderada por λ. a En general, 15
  • 16.
    Definici´n 1.11 (Matrizelemental). Definimos la matriz elemental Ep,q (λ) ∈ o à Mnn ( ) como: Departamento de Ingenier´a Matematica - Universidad de Chile Ep,q (λ) col. p col. q   ↓ ↓ 1   ..   . 0     1     ..    Ep,q (λ) =  . .    λ∈ . à  . . 1  p<q   0 ··· λ ··· 1  . .  . .  . . 1  . . ..  .. . . .  0 ··· 0 ··· ··· ··· ··· 0 1 Propiedad 1.2. Dada una matriz A ∈ Mns ( ); se tiene:à Ep,q (λ) · A   1 0    ..  a11 ··· ··· a1s . ´  0  . .    . . .  .   1   ···   ap1 ··· ··· aps      . .  . . .  .  C = Ep,q (λ)·A =  . 1  . .     0 λ ··· 1   aq1 ··· ··· aqs      1  . .    . . .  .  ..  . ı an1 ··· ··· ans 1   a11 ··· a1s  . . . .   . .     ap−11 ··· ap−1s     . . . .  = . .  .    λap1 + aq1 · · · λaps + aqs  ← q    . .   . . . .  an1 ··· ans o, en notaci´n por filas: o Ci• = Ai• ∀i = q Cq• = λAp• + Aq• Se tiene entonces que el efecto, sobre A, de la premultiplicaci´n por Ep,q (λ) o es una matriz que s´lo difiere de A en la fila q: Esta es la suma de la fila p o ponderada por λ y la fila q. Es importante observar que la matriz Ep,q (λ) es triangular inferior, que tiene unos en la diagonal y adem´s:a 16
  • 17.
    Proposici´n 1.8. Ep,q(λ) es invertible. Su inversa es la siguiente: o (Ep,q (λ))−1 = Departamento de Ingenier´a Matematica - Universidad de Chile Ep,q (−λ)   1  ..   . 0     1   ..   .    −1  . .  (Ep,q (λ)) =  . 1     0 · · · −λ · · · 1  . .  . .  . . 1  . . ..  . . . . .  0 ··· 0 ··· ··· ··· ··· 0 1 ↑ ↑ p q ´ Demostracion. En efecto, sea C = Ep,q (−λ)Ep,q (λ). Se tendr´ que C es a la matriz cuya fila q es la suma de la fila p de Ep,q (λ), ponderada por −λ y la fila q de Ep,q (λ). Es decir: ´ Cq• = −λ(0 . . . 0 1 0 . . . 0) + (0 . . . λ 0 . . . 0 β 0 . . . 0) ↑ ↑ ↑ p p q = (0 . . . 0 − λ 0 . . . 0) + (0 . . . λ 0 . . . 0 1 0 . . . 0). ↑ ↑ ↑ ı p p q Luego: Cq• = (0..,0..,1..,0..,0) adem´s ∀i = q Ci• es la i-´sima fila de la a e identidad. Es decir C = I, la matriz identidad 1.5. Sistemas lineales y escalonamiento de matrices Las matrices elementales son de gran utilidad en la resoluci´n de sistemas o de ecuaciones lineales. Ejemplo: Consideremos, a modo de ejemplo, el sistema de ecuaciones x1 + 2x2 + x3 + x4 = 2 (1) −2x1 + 3x2 − x3 = −1 (2) x1 + x3 + x4 = 1 (3) Para resolverlo, utilizamos la eliminaci´n de variables, pero en forma o ordenada, desde la primera variable de la izquierda y desde arriba hacia abajo: 17
  • 18.
    1. Eliminamos lavariable x1 en las ecuaciones (2) y (3): para ello Departamento de Ingenier´a Matematica - Universidad de Chile multiplicamos la primera por dos y la sumamos a la segunda ob- teniendo: x1 + 2x2 + x3 + x4 = 2 7x2 + x3 + 2x4 = 3 x1 + x3 + x4 = 1 Luego, multiplicamos la primera por −1 y la sumamos a la tercera: x1 + 2x2 + x3 + x4 = 2 7x2 + x3 + 2x4 = 3 −2x2 = −1 2. Continuamos ahora con x2 , pero a partir de la segunda ecuaci´n.o 2 Multiplicando la segunda por 7 y sum´ndola a la tercera se obtiene: a x1 + 2x2 + x3 + x4 = 2 7x2 + x3 + 2x4 = 3 ´ 2 4 1 x3 + x4 = − 7 7 7 Ya no es posible eliminar m´s variables. Ahora, desde la ultima a ´ hasta la primera ecuaci´n despejamos en funci´n de x4 : o o 4 1 1 x3 = − x4 − = −2x4 − 2 2 2 ı 1 1 1 1 x2 = (−x3 − 2x4 + 3) = (2x4 + − 2x4 + 3) = 7 7 2 2 1 1 3 x1 = −2x2 − x3 − x4 + 2 = −2 + 2x4 + − x4 + 2 = x4 + 2 2 2 Obteni´ndose la soluci´n: e o 3 x1 = + x4 2 1 x2 = 2 1 x3 = − − 2x4 2 x4 = x4 As´ para cualquier valor real de x4 , obtenemos una soluci´n del ı, o sistema. Existen entonces, infinitas soluciones, dependiendo de la variable x4 . La variable x4 se denomina independiente o libres. Veamos ahora, en general, qu´ es un sistema de ecuaciones, e 18
  • 19.
    Definici´n 1.12 (Sistemade ecuaciones). Un sistema de m ecuaciones- o Departamento de Ingenier´a Matematica - Universidad de Chile y n inc´gnitas consiste en el siguiente conjunto de ecuaciones en las va- o sistema de ecuaciones à riables x1 , ..., xn ∈ : a11 x1 + · · · + a1n xn = b1 . . . . . . . . . am1 x1 + · · · + amn xn = bm en donde los coeficientes, aij , y el lado derecho, bj , son elementos del cuerpo Ã. Definiendo la matriz:   a11 ··· a1n A=  . . . .  . . ∈ Mmn ( )à am1 ··· amn la m-tupla (lado derecho) y la n tupla de inc´gnitas o     b1 x1 b= . à  .  ∈ m, x =  .  ∈ . Ãn ´ . . bm xn Podemos escribir el sistema matricialmente: Ax = b Ax = b, Realizar el procedimiento de eliminaci´n de variables descrito en el ejem- o plo precedente, con el fin de resolver el sistema, es equivalente a producir ı ceros en la matriz aumentada con la columna lado derecho, (A|b) ∈ matriz aumentada, à Mm(n+1) ( ). En el ejemplo anterior: (A|b)   1 2 1 1 2 (A|b) = −2 3 −1 0 −1  1 0 1 1 1 Eliminar x1 de la segunda ecuaci´n es equivalente a producir un cero en o la posici´n (2,1) de (A|b). Para ello se multiplica la primera fila por 2 y se o suma a la segunda fila. Para eliminar x1 de la tercera ecuaci´n se multiplica o la primera fila por −1 y se suma a la tercera     1 2 1 1 2 1 2 1 1 2 (A|b) →  0 7 1 2 3  →  0 7 1 2 3  1 0 1 1 1 0 −2 0 0 −1 Eliminar x2 en la tercera ecuaci´n a partir de la segunda es equivalente a o multiplicar la segunda fila por 2 y sumarla a la tercera: 7   1 2 1 1 2 →  0 7 1 2 3  = (A|˜ ˜ b) 2 4 1 0 0 7 7 −7 19
  • 20.
    As´ el sistemainicial es equivalente al sistema Ax = ˜ ı, ˜ b. Departamento de Ingenier´a Matematica - Universidad de Chile Conviene se˜ alar que en el procedimiento anterior la operaci´n de base ha n o sido: Sumar a una fila q, la fila p ponderada por un n´ mero λ ∈ u à De la definici´n de matrices elementales sabemos que esto es equivalente o a premultiplicar por la izquierda por la matriz Ep,q (λ). Veamos esto en el mismo ejemplo. Ejemplo: 1. Producir un cero en la posici´n o (2,1) de (A|b):    1 0 0 1 2 1 1 2 E1,2 (2)(A|b) =  2 1 0 −2 3 −1 0 −1  0 0 1 1 0 1 1 1 .   1 2 1 1 2 = 0 7 1 2 3 ´ 1 0 1 1 1 2. Producir un cero en la posici´n (3,1): o    1 0 0 1 2 1 1 2 E1,3 (−1)E1,2 (2)(A|b) =  0 1 0   0 7 1 2 3 −1 0 1 ı 1 0 1 1 1 .   1 2 1 1 1 = 0 7 1 2 3 0 −2 0 0 −1 3. Producir un cero en la posici´n (3,2) desde la posici´n (2,2): o o    1 0 0 1 2 1 1 2 2 E2,3 ( 7 )E1,3 (−1)E1,2 (2)(A|b) =  0 1 0   0 7 1 2 3  0 2 1 7 0 −2 0 0 −1 .   1 2 1 1 2 = 0 7 1 2 3 2 4 0 0 7 7 −1 7 Se concluye entonces que la operaci´n de eliminaci´n de variable puede o o realizarse mediante la pre-multiplicaci´n de (A|b) por matrices elementales. o 20
  • 21.
    Hay casos enque tambi´n es necesario utilizar matrices de permutaci´n de e o Departamento de Ingenier´a Matematica - Universidad de Chile filas. Por ejemplo, si se tiene:   1 1 1 1 0 0 1 1 (A|b) =   0 1 0 1 0 2 0 1 Vemos que, como a22 = 0, no es posible “producir” ceros en la segunda columna, a partir de a22 . Luego intercambiamos el orden de las filas (cla- ramente esto no cambia el sistema de ecuaciones asociado). Por ejemplo, colocamos la cuarta fila en la segunda posici´n y la segunda en la cuarta. o Esto es equivalente a premultiplicar por I24 :      1 0 0 0 1 1 1 1 1 1 1 1 0 0 0 10 0 1 1 0 2 0 1 I24 (A|b) =   = , 0 0 1 0 0 1 0 1 0 1 0 1 0 1 0 0 0 2 0 1 0 0 1 1 lo cual nos permite seguir produciendo ceros. Consideremos ahora A ∈ Ã Mmn ( ), definimos la matriz escalonada asociada a la matriz A, como ˜ matriz escalonada, A ˜ Ã A ∈ Mmn ( ), tal que: ´ a ˜11 a12 · · · a1i2 · · · · · · · · · ˜ ˜ ··· a1n  ˜  a2i2 · · · · · · · · · ˜ ··· a2n  ˜  .. .   . .   .  ˜= A   asis ˜ ··· asn  . ˜       0 0 donde los elementos a11 = 0, a2i2 = 0, ..., ˜ sis = 0, se denominan pivotes. ˜ ˜ a ı pivotes Notar que hemos supuesto que la primera columna no tiene ceros. De no ser as´ quiere decir que la primera variable no juega ningun rol, y por lo ı, tanto si el sistema tiene soluci´n esta variable queda de inmediato libre. o Supondremos en lo que sigue que la primera columna no es cero. Observaci´n: No hay una unica manera de escalonar una matriz. En o ´ efecto en el ultimo ejemplo podr´ ´ ıamos haber permutado las filas 2 y 3 en vez de las 2 y 4. Hay dos cosas que son importantes de resaltar a este respecto: 1. Desde el punto de vista de sistemas de ecuaciones no hay diferen- cia entre un escalonamiento u otro: todos dan el mismo conjunto soluci´n (probablemente descrito de distinta manera). o 2. Es preferible por otras razones (te´ricas, como son el c´lculo del o a determinante y la determinaci´n de matrices definidas positivas) o tratar de no utilizar permutaciones . 21
  • 22.
    ˜ La matriz Ase obtiene mediante la premultiplicaci´n de A por matrices o Departamento de Ingenier´a Matematica - Universidad de Chile elementales: ˜ A = ( Ej )A, j donde Ej es una matriz elemental de suma o de permutaci´n de filas. o Adem´s, recordemos que las matrices elementales son invertibles. Esta pro- a piedad es crucial para probar que el sistema original, Ax = b, y el obtenido despu´s del escalonamiento, Ax = ˜ son equivalentes (tienen id´ntico con- e ˜ b, e junto de soluciones). En efecto: Proposici´n 1.9. Dada una matriz C, invertible entonces: o a ∈ K n es soluci´n de Ax = b ⇔ a es soluci´n de (CA)x = Cb. o o ´ Demostracion. La demostraci´n es simple: o ⇒) Si Aa = b, entonces C(Aa) = Cb y por ende (CA)a = Cb. ⇐) Supongamos (CA)a = Cb. Como C es invertible se tiene C −1 (CA)a = C −1 (Cb), lo cual implica que Aa = b. ´ Como las matrices elementales son invertibles y el producto de matrices invertibles tambi´n lo es, y por lo tanto podemos usar la Proposici´n 1.9 e o con C = j Ej , para concluir que los sistemas Ax = b y Ax = ˜ son ˜ b equivalentes. ı 22
  • 23.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 2 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. Encuentre un ejemplo de una matriz que sea de permutaci´n, pero no o Pag. 12 sea matriz elemental de permutaci´n. o à à 2. Dadas Ipq ∈ Mnn ( ) y B ∈ Mqn ( ), pruebe que BIpq corresponde a Propiedad 1.1 las matriz B con las columnas p y q permutadas. Indicaci´n: Puede usar la parte 1 de la Proposici´n 1.1. o o 3. Escriba los siguientes sistemas de ecuaciones en las variables xi , de forma matricial Ax = b, especificando claramente A, b y x con sus dimensiones:    2x1 + 4x2 − x3 + x5 = 0  x1 − 16x2 + x3 + 3x4 + 6x5 = 2 (a) 1    3 x2 − 10x3 + x4 − 6x5 = 2x3 3 x1 − x3 − x4 + 4 x5 = 1    x4 + x1 = −3  4x1 − 7x2 + πx3 − 12x4 = 1 (b)   −11 = x3  1 3 (x1 − x3 ) + x4 − x5 = 20   x1 − (β − 1)x2 + x3 − αx4 = 2 Ê ´ (c) −7αx2 + πx3 = α + β , con α, β ∈ .  β 3 x1 − x2 + x4 = β 3   2x1 = 1   −4x2 = 2 (d)  9x3 = 0  3  2 x4 = −1 ı 4. Escriba expl´ ıcitamente las siguientes multiplicaciones de matrices: Ê (a) I12 E13 (1, −1), en M44 ( ). (d) E23 (0, 3i)−1 E12 (−1, i)E34 ( 1 , −3), 2 (b) I34 E23 (i, 2)I34 , en M44 ( ). en M44 ( ). Ê (c) E12 (2, 1)E13 (1, −1), en M33 ( ). Problemas     1 ··· 1 1 Ê . P1. Sea J ∈ Mnn ( ) tal que J =  . . .. . .  y e =  . . . . . . 1 ··· 1 1 (a) Pruebe que Je = ne y J 2 = nJ. 1 (b) Sea α = n. Calcule β tal que (I − αJ)−1 = I + βJ. 1 (c) Sea α = n, verifique que (I − αJ)e = 0. P2. (a) (1) Sean A, B matrices de n × m con coeficientes reales. Pruebe que Ê Ê A = B ⇔ ∀x ∈ Mm1 ( ), ∀y ∈ Mn1 ( ) xt Ay = xt By. 23
  • 24.
    Indicaci´n: Calcule etAei donde ej = (Im )j• y ei = (In )i• . Im o j Departamento de Ingenier´a Matematica - Universidad de Chile y In son las identidades de tama˜ os m y n respectivamente. n (2) Sean A, B matrices de n×n sim´tricas con coeficientes reales. e Pruebe que Ê A = B ⇔ ∀x ∈ Mn1 ( ) xt Ax = xt Bx. (b) Demuestre que si una matriz cuadrada A verifica Ak = I, para alg´ n natural k ≥ 1, entonces A es invertible y determine su u inversa. x y (c) Encuentre todas las matrices de la forma A = que cum- 0 y Ê plen A2 = I (x, y, z ∈ ). P3. Considere el siguiente sistema lineal: −x1 + x3 + 2x4 = 1, x1 − x2 + x3 − 2x4 = −1 , −x1 − 2x2 + x3 + 3x4 = 2, −x1 − 4x2 + 2x3 + 4x4 = 5. ´ (a) Escriba el sistema de forma matricial Ax = b. Especifique clara- mente A, b y x, junto con sus dimensiones. (b) Resuelva es sistema lineal escalonando la matriz aumentada (A|b). P4. Considere el siguiente sistema lineal: x1 + 2x2 + 3x3 − x4 = 1, ı −x1 + x2 + x4 = 1, 3x2 + 3x3 = 0, 2x1 + x2 + 3x3 − 2x4 = −2 . (a) Escriba el sistema de forma matricial Ax = b. Especifique clara- mente A, b y x, junto con sus dimensiones. (b) Resuelva es sistema lineal escalonando la matriz aumentada (A|b). 24
  • 25.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 3: MATRICES Departamento de Ingenier´a Matematica - Universidad de Chile 1.6. ´ Solucion general de sistemas lineales Dado el sistema Ax = b, A ∈ Mmn ( ), b ∈ Ã Ãm, x ∈ Ãn, al escalonarlo (escalonando (A|b)) obtenemos:  ˜1  a11 · · · ˜ a1i2 · · · · · · ˜ ··· a1n ˜ b  . . .  .   0 · · · 0 a2i2˜ . .    . . . . . . .. . . .  .   . . . . . .   (A|˜ =  0 · · · 0 ˜ b) 0 · · · asis ˜ ··· asn ˜ ˜s  . b    0 ··· 0 0 ··· 0 ··· 0 ˜s+1  b    . . . .   . . . . . . .  . 0 ··· 0 ··· 0 ··· 0 ˜m b donde los elementos a11 , a2i2 , . . . , asis son no nulos. Claramente, si existe ˜ ˜ ˜ un ´ındice j ≥ s + 1 tal que ˜j = 0, el sistema no tiene soluci´n, ya que se b o tendr´ una ecuaci´n incompatible: 0 = b ıa o ˜j = 0. ´ Luego, el sistema tiene soluci´n si y solo si ˜k = 0 ∀k ≥ s + 1. En efecto, si o b ˜k = 0, ∀k ≥ s + 1, se obtiene la(s) soluci´n(es) despejando desde la s-´sima b o e ecuaci´n hasta la primera en funci´n de las variables independientes. En este o o caso diremos que el sistema es compatible. Cada una de las diferencias en sistema compatible el n´ mero de columnas que son cero bajo las filas sucesivas, las llamaremos u pelda˜ os o escalones . As´ el pelda˜ o que se produce entre la fila k y k+1 n ı n pelda˜os n es ik+1 − ik . Notar que el ultimo pelda˜ o es: n + 1 − is , es decir los pelda˜ os ´ n n escalones ı se miden en la matriz aumentada. La importancia de estos pelda˜ os es la n siguiente: Proposici´n 1.10. Si existe soluci´n para el sistema Ax = b y en la ma- o o ˜ triz A hay alg´n pelda˜o de largo mayor o igual a dos, entonces existe m´s u n a de una soluci´n. o ´ Demostracion. En efecto. Como por cada fila no nula de la matriz es- calonada podemos despejar a lo m´s una variable, tendremos entonces que a dejar libres tantas variables como n´ mero de pelda˜ os, menos uno. u n Un corolario directo del resultado anterior es Corolario 1.2. Si el sistema Ax = b es tal que n > m (n´mero de inc´gni- u o tas mayor que el n´mero de ecuaciones), entonces tiene infinitas soluciones, u si es compatible. ´ Demostracion. En efecto, como n > m siempre existe en la matriz es- ˜ un pelda˜ o de largo superior o igual a dos. De no ser as´ se calonada, A, n ı 25
  • 26.
    tendr´ ıa   ··· Departamento de Ingenier´a Matematica - Universidad de Chile a11 ˜ a12 ˜ a1n ˜  0 a22 ˜ ··· a2n  ˜  .  ˜  . A= . . 0 .  .   . . . .   . . . . . . .  . 0 0 0 amn ˜ de donde m = n. Un caso particular importante es cuando el lado derecho del sistema es nulo, b = 0. Hablamos entonces de un sistema homog´neo , Ax = 0. e sistema homog´neo e Vemos que, en este caso, siempre existe al menos una soluci´n, la trivial o à x = 0 ∈ n . En otras palabras sabemos de antemano que todo sistema homog´neo es compatible. e Podemos resumir nuestro estudio de sistemas en el cuadro siguiente: Sistema Homog´neo (b = 0) e Sistema no-Homog´neo (b = 0) e Dimensiones n≤m n>m n≥m n>m N´ mero Soluciones u 1, ∞ ∞ 0, 1, ∞ 0, ∞ Ejemplo: ´ Resolvamos el sistema     x1   1 1 1 1 1 1  x2  −1 2 0 −1 0     0   x  =   0 1 1 0 1  3 0 x4 1 −1 1 1 0 1 x5 Escalonando: ı     1 1 1 1 1 1 1 1 1 1 1 1 0 3 1 0 1 1 0 3 1 0 1 1  (A|b) →  → 1 → 0 1 1 0 1 0 0 0 2 0 3 −3 3 2 0 −2 0 0 −1 0 0 0 2 0 −1 3 3 3 2   1 1 1 1 1 1 0 3 1 0 1 1  →  2 0 0 3 0 2 −1 3 3 0 0 0 0 −1 1 Obtenemos que los pelda˜ os medidos desda la fila 1 son sucesivamente: n 1,1,2,1. De la ultima ecuaci´n despejamos x5 = −1. ´ o Con esta informaci´n en la tercera ecuaci´n dejamos libre x4 y des- o o pejamos x3 . En la segunda ecuaci´n despejamos x2 y finalmente de la o primera despejamos x1 , para obtener. x5 = −1 x4 : libre 3 1 2 1 1 1 x3 = (− − x5 ) = − − x5 = − + 1 = 2 3 3 2 2 2 1 1 1 1 x2 = (1 − x3 − x5 ) = (1 − + 1) = 3 3 2 2 1 1 x1 = 1 − x2 − x3 − x4 − x5 = 1 − − − x4 + 1 = 1 − x4 2 2 26
  • 27.
    La soluci´n generales: x1 = 1 − x4 , x2 = 1 , x3 = 2 , x4 = x4 , x5 = −1 o 2 1 Departamento de Ingenier´a Matematica - Universidad de Chile Existen entonces infinitas soluciones, una por cada valor de la variable independiente x4 ∈ . Ê 1.7. Sistemas cuadrados y Algoritmo de Gauss Supongamos que el n´ mero de ecuaciones es igual al n´ mero de inc´gnitas u u o (n = m), en este caso el sistema se escribe: Ax = b, à A ∈ Mnn ( ), x, b ∈ Ãn ˜ Escalonemos el sistema y sea A la matriz escalonada, sin considerar el nuevo ˜ lado derecho b:   a11 · · · a1n ˜ ˜ ˜ .. .  A= . . . 0 ann ˜ donde entre los elementos de la diagonal, aii , podr´ haber algunos nulos. ˜ ıa Se˜ alemos que en el caso de matrices cuadradas el proceso de escalona- n miento se denomina Algoritmo de Gauss. Un resultado importante, que relaciona matrices Algoritmo de Gauss ´ invertibles, soluci´n de sistemas y el algoritmo de Gauss, es el siguiente: o à Teorema 1.1. Sea A ∈ Mnn ( ), entonces las proposiciones siguientes son equivalentes: 1. A es invertible. ı 2. ∀b ∈ Ãn, Ax = b tiene soluci´n unica. o ´ n 3. aii = 0. ˜ i=1 ´ Demostracion. Utilizamos un argumento de transitividad para probar solamente que: (1 ⇒ 2). Si A es invertible consideremos entonces A−1 . As´ (A−1 A)x = ı A−1 b y luego x = A−1 b, por ende el sistema tiene soluci´n y claramente o esta es la unica. ´ à En efecto si x1 , x2 ∈ n son soluciones, entonces Ax1 = Ax2 = b y se tendr´ multiplicando por A−1 que (A−1 A)x1 = (A−1 A)x2 , pero entonces a x1 = x2 . ˜ (2 ⇒ 3). Sea A la matriz escalonada asociada a A y supongamos que para alg´ n i: aii = 0. Esto quiere decir que alguno de los escalones tiene largo u ˜ mayor o igual que 2 y por lo tanto el sistema homog´neo Ax = 0 tiene e infinitas soluciones (por Proposici´n 1.10) lo que es una contradicci´n. Por o o n lo tanto para todo i = 1, . . . , n aii = 0 o equivalentemente i=1 aii = 0. ˜ ˜ 27
  • 28.
    n (3 ⇒ 1).Supongamos aii = 0, esto quiere decir que los elementos dia- ˜ Departamento de Ingenier´a Matematica - Universidad de Chile i=1 ˜ gonales de A son todos no nulos. ˜ Notemos que A = ( j Ej )A, donde las matrices Ej son elementales y por lo tanto invertibles. Podr´ ˜ ıamos ahora escalonar hacia arriba la matriz A para obtener de manera similar una matriz diagonal D. Esto lo podemos ˜ hacer de manera que D tenga por diagonal la misma que A. Es decir     a11 · · · ˜ 0 . .. .   D= . . . . . = Ej  A Fk , 0 · · · ann ˜ j k donde las matrices Fk son del mismo estilo que las matrices elementales que hemos usado. Sabemos entonces que las matrices D, E = j Ej y F = −1 k Fk son invertibles y como A = E DF −1 concluimos que A tambi´n es e invertible. Como corolario importante de lo demostrado en esta parte es que: Corolario 1.3. Una matriz triangular superior es invertible si y s´lo si o todos sus elementos diagonales son distintos de cero. ´ Observaci´n: Notemos que pasando por la traspuesta se deduce que o si A es triangular inferior entonces es invertible si y solo si todos sus elementos diagonales son distintos de cero. M´s a´ n la inversa de una a u triangular inferior es triangular inferior. En efecto, si aplicamos el al- goritmo de escalonamiento sin permutar obtendremos:   a11 · · · 0 r ı ˜ . .. .  A= . . . . . =( Ej )A, 0 · · · ann j=1 donde r es el n´ mero de pasos tomados por el algoritmo y las matrices u elementales Ej son del tipo Epq (λ, 1). Notar que los pivotes son los elementos de la diagonal de A. Como la inversa de cada Ej es del mismo tipo se deduce que 1 A=( ˜ (Ej )−1 )A. j=r r ˜ ⇒ A−1 = (A)−1 ( Ej ), j=1 y por lo tanto la inversa de A es triangular inferior y adem´s sus ele- a mentos diagonales son 1/aii i = 1, .., n. Notar que el producto de las inversas en la expresi´n anterior est´ tomado en sentido opuesto: o a r 1 ( Ej )−1 = (Ej )−1 . j=1 j=r 28
  • 29.
    Departamento de Ingenier´aMatematica - Universidad de Chile Pasando por la traspuesta podemos deducir que la inversa de una trian- gular superior tambi´n es triangular superior. e 1.8. ´ Calculo de la inversa Supongamos que dada una matriz cuadrada A de tama˜ o n, buscamos una n matriz Z de n × n tal que AZ = I. Si describimos Z por sus columnas, esto es Z = (Z•1 · · · Z•n ) entonces la ecuaci´n AZ = I es equivalente a los o n sistemas AZ•i = ei , con i ∈ {1, . . . , n}, y ei la i-´sima columna de I. e Probemos ahora que, Proposici´n 1.11. Si los n sistemas anteriores tienen soluci´n, entonces o o A es invertible y adem´s A−1 = Z. a ´ Demostracion. Para ello probemos primero que ∀b ∈ Ãn el sistema Ax = ´ b tiene soluci´n. o à En efecto sea b = (b1 · · · bn )t un elemento de n , y consideremos a = à b1 Z•1 + · · · bn Z•n ∈ n . Utilizando las propiedades de la suma, multipli- caci´n y ponderaci´n de matrices se obtiene que o o Aa = A(b1 Z•1 + b2 AZ•2 + · · · bn Z•n ) = b1 AZ•1 + b2 AZ•2 + · · · bn AZ•n ı         1 0 0 b1 0 1  0   b2  . . .  .  = b1  .  + b2  .  + · · · bn  .  =  . . . .  .  = b,  0 0 0 b  n−1 0 0 1 bn y por lo tanto a es una soluci´n del sistema Ax = b. o Si A no fuese invertible esto quiere decir que al escalonar A, se tendr´ que a ˜ alg´ n aii = 0. Consideremos las filas i e i + 1 de A: u ˜ .   .  . . . .  ˜    ˜  A•i   0 ··· 0 aii = 0 aii+1 ˜ ˜ ··· ain ˜  A= ˜ = .  A•i+1   0 ··· 0 0 ai+1i+1 ˜ ··· ai+1n ˜  . . . . . . Si aii+1 = 0, ai+1i+1 = 0 habr´ ˜ ˜ ıamos permutados las filas y por lo tanto la matriz escalonada tendr´ un 0 en la posici´n (i + 1, i + 1), lo que es ıa o una contradicci´n. Si aii+1 = 0 entonces podemos utilizar este elemento o ˜ para escalonar hacia abajo y por lo tanto ai+1i+1 = 0. En cualquier caso ˜ se deduce que ai+1i+1 = 0, y por un argumento de inducci´n que ann = 0, ˜ o ˜ 29
  • 30.
    ˜ esto es todala ultima fila de A debe ser 0. Consideremos ahora la matriz ´ Departamento de Ingenier´a Matematica - Universidad de Chile ˜ invertible C = Ej , donde A = CA, es decir la matriz que permite pasar j ˜ de A a A. Definamos   0 0 . b = C −1  .  . . 0 1 Si consideramos el sistema Ax = b tendremos que al escalonar la matriz aumentada (A|b) se obtendr´ una matriz escalonada (usando las mismas a operciones elemementales) . . . . (A|˜ = C(A|b) = ˜ b) . . , 0 ··· 0 1 lo que representa un sistema incompatible y por lo tanto Ax = b no puede tener soluci´n. Hemos obtenido una contradicci´n y por lo tanto la unica o o ´ posibilidad es que ∀i = 1, .., n aii = 0, y por lo tanto A es invertible. Ahora ˜ de AZ = I se obtiene premultiplicando por A−1 que Z = A−1 . ´ Notemos que de paso se ha probado el siguiente resultado interesante à Corolario 1.4. Una matriz A ∈ Mnn ( ) es invertible si y s´lo si todo o sistema Ax = b tiene soluci´n. o Lo que a su vez es equivalente a todo sistema Ax = b tiene soluci´n o unica, por lo probado anteriormente. ´ ı ◭ Ejercicio Ejercicio 1.4: ¿Qu´ puede decir de una matriz cuadrada A para la e cual todo sistema Ax = b tiene a lo m´s una soluci´n?. ¿Debe ser A a o invertible?. Pru´belo. e Para saber si una matriz es invertible hemos entonces probado que basta estudiar n sistemas lineales. Para el c´lculo de la inversa podemos ir un a poco m´s lejos. Consideremos el siguiente ejemplo: a Ejemplo:   0 1 1 A =  1 −1 2  1 1 0 luego:   0 1 1 1 0 0 (A|I) =  1 −1 2 0 1 0 1 1 0 0 0 1 30
  • 31.
    Escalonando: Departamento de Ingenier´a Matematica - Universidad de Chile     1 1 0 0 0 1 1 1 0 0 0 1 (A|I) →  1 −1 2 0 1 0  →  0 −2 2 0 1 −1  0 1 1 1 0 0 0 1 1 1 0 0   1 1 0 0 0 1 →  0 −2 2 0 1 −1  0 0 2 1 2 −1 1 2 En este paso ya estamos en condiciones de resolver los tres sistemas. Pero podemos a´ n pivotear, ahora “sobre” la diagonal; sin alterar la soluci´n u o (ya que multiplicamos por matrices invertibles):     1 1 0 0 0 1 1 0 1 0 2 1 1 2  0 −2 2 0 1 −1  →  0 −2 2 0 1 −1  0 0 2 1 1 −1 2 2 0 0 2 1 2 −1 1 2     1 0 1 0 1 1 2 2 1 0 0 −2 1 3 1 4 4 →  0 −2 0 −1 2 − 2  →  0 −2 0 −1 2 − 1  1 1 1 2 1 1 0 0 2 1 2 −2 0 0 2 1 2 −1 1 2 ´ Finalmente, premultiplicando por la matriz invertible:   1 0 0 1 D =  0 −2 0  0 0 1 2 Se tiene:   1 0 1 3 0 −1 4 4 ı 2 ˜ (I|I) =  0 1 0 1 −1 4  1 2 4 1 1 1 0 0 1 2 4 −4 Obteniendo los sistemas de soluci´n trivial: o    1   1   3 x11 −2 x12 4 x13 4 I  x21  =  1  , I  x22  =  1  , I  x23  =  1  , 2 −4 4 1 1 x31 2 x32 4 x33 −14 de donde:  1 1  3 −2 4 4 X = A−1 =  1 −4 2 1 1 4  1 1 1 2 4 −4 En efecto:   1 1 3    0 1 1 −2 4 4 1 0 0 AA−1 =  1 −1 2   1 − 4 1  =  0 2 1 4 1 0 1 1 1 1 1 0 2 4 −4 0 0 1 Ã Luego para calcular la inversa de A ∈ Mnn ( ) basta aplicar el Algoritmo de Gauss sobre la matriz (A|I). Una vez que se ha obtenido la matriz 31
  • 32.
    ˜ triangular superior A,realizar el mismo procedimiento para los elementos Departamento de Ingenier´a Matematica - Universidad de Chile sobre la diagonal. Finalmente, se premultiplica por una matriz diagonal ˜ para obtener la identidad en el lugar de A. ¿Qu´ sucede si una matriz A no es invertible? e Sabemos que necesariamente aparecer´, al escalonar, un pivote nulo irre- a parable. Ejemplo:     1 0 2 1 0 0 1 0 2 1 0 0 (A|I) =  1 1 2 0 1 0 y 0 1 0 −1 1 0 1 0 2 0 0 1 0 0 0 −1 0 1     1 0 ˜ ˜ y los sistemas Ax =  −1  , Ax =  0  son incompatibles. −1 1 Pero, en ocasiones, hay pivotes nulos “reparables”. Ejemplo:     ´ 1 1 1 1 0 0 1 1 1 1 0 0 1 1 0 0 1 0  →  0 0 −1 −1 1 0 1 0 0 0 0 1 0 −1 −1 −1 0 1 Ac´ el elemento a22 = 0, pero podemos, premultiplicando por la matriz a ˜ de permutaci´n I23 , intercambiar las filas 2 y 3 obteniendo: o       1 1 1 1 0 0 1 0 0 0 0 1 1 0 0 0 0 1 ı →  0 −1 −1 −1 0 1  →  0 −1 −1 −1 0 1  →  0 −1 0 0 −1 1  0 0 −1 −1 1 0 0 0 −1 −1 1 0 0 0 −1 −1 1 0     1 0 0 0 0 1 0 0 1 →  0 1 0 0 1 −1  ⇒ A−1 =  0 1 −1  . 0 0 1 1 −1 0 1 −1 0 Ejemplo y ejercicio importante: Descomposici´n LDU . o ◭ Ejercicio à Supongamos que al escalonar A ∈ Mnn ( ) no encontramos pivotes nulos LU , LDU (¡no permutamos filas!). Se obtiene entonces   a11 · · · a1p ˜ ˜  ..   .  = ( Ej )A j 0 ann ˜ donde cada una de las matrices Ej es de la forma:   1  ..   . 0     λ 1  , λ ∈  à ··· ··· ..  . 0 1 32
  • 33.
    Departamento de Ingenier´aMatematica - Universidad de Chile 1. Pruebe que la matriz Ej es invertible y su inversa es triangular j inferior con 1’s en la diagonal. Digamos:   1 0 ℓ .. . .  −1  21 . .  ( Ej ) = L =  . .. .  j  . . . . .  ℓn1 · · · ℓnn−1 1 Despejamos entonces A:   an ˜ ··· a1n ˜ . A=( Ej )−1  . .  j 0 ann ˜ 1. Concluya que si al escalonar A no se realizan permutaciones, A puede factorizarse como el producto de una matriz L, triangular ´ inferior con unos en la diagonal, y una matriz U , triangular su- perior, donde los pivotes figuran en la diagonal. Esta factorizaci´n o se llama descomposici´n LU . o n 2. Recordando que i=1 aii = 0, demuestre que: ˜    a12 ˜ a1n ˜  1  1  a11 ˜ ··· a11 ˜ ..  a11 ˜ 0 ı ℓ . 0 . .. .   21 A= .   .. .  . . . . .  .  . ..   an−1n ˜  . . 0 ann ˜ 1 an−1n ˜ ℓn1 ··· ℓnn−1 1 0 ··· 1 (1.4) Es decir, A admite una factorizaci´n A = LDU , en donde L es o triangular inferior con unos en la diagonal, D es diagonal (forma- da por los pivotes del escalonamiento) y U es triangular superior con diagonal de unos. Esta factorizaci´n se llama descomposici´n o o LDU . 3. Demuestre que si A admite la descomposici´n LDU de (1.5), en- o tonces la descomposici´n es unica. o ´ 4. Demuestre adem´s que si A es sim´trica, entonces L = U t . a e 5. Encuentre la descomposici´n LDU de o   1 1 1 A = 0 1 1 . 1 2 0 33
  • 34.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 3 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. ¿Qu´ puede decir de una matriz cuadrada A para la cual todo sistema e Ejercicio 1.4 Ax = b tiene a lo m´s una soluci´n?. ¿Debe ser A invertible?. Pru´belo. a o e à 2. Supongamos que al escalonar A ∈ Mnn ( ) no encontramos pivotes nulos LU, LDU (¡no permutamos filas!). Se obtiene entonces   a11 · · · a1p ˜ ˜  ..   .  = ( Ej )A j 0 ann ˜ donde cada una de las matrices Ej es de la forma Epq (λ, 1), con λ ∈ Ã. a) Pruebe que la matriz Ej es invertible y su inversa es triangular j inferior con 1’s en la diagonal. Digamos:   1 0 ℓ .. . .   21 . .  ( Ej )−1 = L =  . .. .   . . . . .  ´ j ℓn1 · · · ℓnn−1 1 Despejamos entonces A:   ˜ an ··· a1n ˜ . A=( Ej )−1  . .  ı j 0 ann ˜ a) Concluya que si al escalonar A no se realizan permutaciones, A puede factorizarse como el producto de una matriz L, triangular inferior con unos en la diagonal, y una matriz U , triangular su- perior, donde los pivotes figuran en la diagonal. Esta factorizaci´n o se llama descomposici´n LU . o n b) Recordando que i=1 aii = 0, demuestre que: ˜    a12 ˜ a1n ˜  1   1 a11 ˜ ··· a11 ˜ ℓ ..  a11 ˜ 0 . .  . 0 ..  21 A= .   .. .  . . . . .  .  . ..   an−1n ˜  . . 0 ann ˜ 1 an−1n ˜ ℓn1 ··· ℓnn−1 1 0 ··· 1 (1.5) Es decir, A admite una factorizaci´n A = LDU , en donde L es o triangular inferior con unos en la diagonal, D es diagonal (formada por los pivotes del escalonamiento) y U es triangular superior con diagonal de unos. Esta factorizaci´n se llama descomposici´n LDU . o o 34
  • 35.
    c) Demuestre quesi A admite la descomposici´n LDU de (1.5), en- o Departamento de Ingenier´a Matematica - Universidad de Chile tonces la descomposici´n es unica. o ´ d ) Demuestre adem´s que si A es sim´trica, entonces L = U t . a e e) Encuentre la descomposici´n LDU de o   1 1 1 A = 0 1 1  . 1 2 0 Problemas   1 1 1 P1. (a) Sea la matriz de coeficientes reales A =  a b c . Demueste a 2 b 2 c2 que si la ecuaci´n Ax = 0 tiene una unica soluci´n entonces (a = o ´ o b) ∧ (a = c) ∧ (b = c). (b) Considere el sistema lineal a coeficientes reales siguiente −x1 + αx3 + βx4 = 0, x2 + αx3 + βx4 = 0, ´ αx1 + βx2 = 0, βx1 + βx2 + αx3 = 0. Determine las condiciones sobre los par´metros reales α y β que a garanticen que el sistema tenga una unica soluci´n. ´ o Ê P2. (a) Considere las matrices cuadradas A, B ∈ Mnn ( ). Demuestre que ı 1) A es invertible si y s´lo si AAt es invertible. o 2) Si A = A y B = I − A entonces B 3 = B. 2 Si A es invertible, utilice las condiciones dadas para calcular las matrices A y B. Ê (b) Considere los vectores u, v ∈ Mn1 ( ) {0}. Se define la matriz Ê A ∈ Mnn ( ) por A = uv t . Ê 1) Pruebe que ∀x ∈ Mn1 ( ), Ax = 0 ⇔ v t x = 0. Indicaci´n: Observe que v t x ∈ . o Ê 2) Encuentre el n´ mero de variables libres en la resoluci´n del u o sistema Ax = 0. ¿Es A invertible? P3. Considere     1 2 3 −1 β −1 1 0 1   β2  A= 0  b =  . 3 3 α − 3 0 2 1 α −2 −2 Estudiaremos las soluciones del sistema Ax = b, con x ∈ M41 ( ). Ê Encuentre los valores de α y β de manera que: 35
  • 36.
    El sistema notenga soluci´n. o Departamento de Ingenier´a Matematica - Universidad de Chile El sistema tenga una unica soluci´n. Encuentre la matriz inversa ´ o de A y calcule la unica soluci´n del sistema. ´ o El sistema tenga infinitas soluciones y encuentre sus soluciones. Determine adem´s el n´ mero de variables independientes. a u ı ´ 36
  • 37.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 4: GEOMETR´A I Departamento de Ingenier´a Matematica - Universidad de Chile 2. Geometr´a lineal en ı Ãn 2.1. ´ Definiciones basicas Sea à un cuerpo. Anotaremos los vectores de Ãn como columnas, es decir,   Ãn = Mn,1 (Ã) x1 à n à  .  à = Mn,1 ( ) = {  .  | xi ∈ , i = 1, . . . , n } .1 . xn à à Recordar que en n = Mn,1 ( ) tenemos una suma (de matrices columna) definida por:       x1 y1 x1 + y1  .  .  .  si x =  .  , y =  .  ∈. à , entonces x + y =   . . .  ,y xn yn xn + yn   0 con ella resulta que ( Ãn , +) es un  .  grupo Abeliano, con neutro 0 =  .  . ´ 0    x1 −x1  .   . . y opuestos −x = −  .  =  . .  . xn −xn Agregamos ahora la operaci´n Multiplicaci´n por Escalar definida como o o sigue:   ı x1  .  . à Definici´n 2.1. Si x =  .  y λ ∈ , entonces se define una funci´n o o Ponderaci´n o xn   λx1 Ã Ã × n → à n  .  , en donde λx =  . . Se le llama ponderaci´n o (λ, x) → λx . λxn o multiplicaci´n por escalar. o Observaci´n: Llamaremos vectores columna, o simplemente vectores, o à a los elementos de n , y escalares a los elementos de . De aqu´ el ı à nombre de esta operaci´n. o 1 Para fijar ideas puede pensar en lo que sigue en = Ã Ê y n = 2 o 3, que con ´ seguridad le ser´n familiares de sus cursos de C´lculo. Sin embargo, salvo cuando se diga a a expl´ıcitamente lo contrario, à puede ser cualquier cuerpo, y n un natural mayor o igual a 1. 37
  • 38.
    Proposici´n 2.1. Setienen las siguientes propiedades: o Departamento de Ingenier´a Matematica - Universidad de Chile 1. (∀x ∈ Ãn ) 1 · x = x 2. (∀λ1 , λ2 ∈ Ã) (∀x ∈ Ãn ) λ1 (λ2 x) = (λ1 λ2 )x 3. (∀λ1 , λ2 ∈ Ã) (∀x ∈ Ãn ) (λ1 + λ2 )x = λ1 x + λ2 x 4. (∀λ ∈ Ã) (∀x, y ∈ Ãn ) λ(x + y) = λx + λy. 5. (∀λ ∈ Ã) (∀x ∈ Ãn ) λx = 0 ⇔ λ = 0 ∨ x = 0. ´ Demostracion. Las demostraciones de estos hechos son c´lculos elemen- a ◭ Ejercicio tales y quedan como un ejercicio muy simple para el alumnos. Queda adem´s el lector encargado de verificar que esta ultima propiedad se a ´ puede tambi´n obtener como consecuencia de las propiedades 1. a 4. , m´s e a à los hechos de que ( n , +) es un grupo Abeliano y à un cuerpo. Ejemplos: Caso à = Ê. Ã Ê n = 1: El conjunto de vectores es 1 = , la recta real, el + es la suma usual en Ê y la multiplicaci´n por escalar es el producto en o ´ Ê . n = 2: El conjunto de vectores es Ã2 = Ê2, el “plano x1 − x2”. x 1 x x= 2 x 2 ı x1 Un vector x representar´ ambos, un punto del plano y una flecha a partiendo del origen que termina en dicho punto. La suma de ele- Ê mentos de 2 corresponde entonces a la suma usual de flechas en el plano: x+y y x y del mismo modo se representa la ponderaci´n: o 38
  • 39.
    Departamento de Ingenier´aMatematica - Universidad de Chile 2x x 1/2 x x x x 0 x=0 (-1) x n = 3: La representaci´n de vectores en o Ê3 se hace en el espacio 3-dimensional: ´ x 3 x 1 x= x 2 x 3 x ı 1 x 2 La ponderaci´n se represen- o ta de modo similar al caso plano, y la suma de vectores x+y tambi´n corresponde a la dia- e y gonal del paralel´gramo defi- o nido por los sumandos: x 39
  • 40.
    Observaci´n: A vecesconviene (por ejemplo, para mayor claridad de o Departamento de Ingenier´a Matematica - Universidad de Chile una figura) dibujar un vector como una flecha que parte de alg´n otro u punto distinto del origen. A modo de ejemplo consideremos x, y ∈ 2 Ê y sea v = y − x. Se ve f´cilmente que v ser´ una flecha partiendo en a a el origen que tiene el mismo tama˜ o y apunta hacia el mismo lado que n una flecha que parta en x y termine en y. Dado ´sto, muchas veces e no nos molestamos en dibujar v partiendo del origen, sino que s´loo dibujamos la flecha de x a y. y v y-x x 0 2.2. Rectas en à n A partir de nuestra intuici´n geom´trica rescatamos del concepto de recta o e ´ (en el plano o en el espacio) dos elementos importantes: que una recta define una direcci´n de movimiento y que pasa por alg´n lugar. o u p L2 Pasa por p La misma Direccion direcccion ı L1 No pasa por p q Las rectas L1 y L2 del dibujo llevan la misma direcci´n, y lo que las di- o ferencia es que pasan por distintos puntos. De hecho L2 es L1 desplazada. Intentamos entonces definir una recta en n como sigue: à à Definici´n 2.2 (Recta). Sean d ∈ n {0} un vector y p ∈ n un o à Recta punto dado. La recta L que pasa por p y va en la direcci´n de d es el o siguiente subconjunto de n : à L = Lp,d = {v ∈ Ãn | v = p + td, t ∈ Ã}. 40
  • 41.
    p +t d Departamento de Ingenier´a Matematica - Universidad de Chile p td L d Se dice que p es una posici´n de L y que d es un vector director de L. o posici´n de L o vector director de L ◭ Ejercicio Ejercicio 2.1: Un par de observaciones importantes: 1. Muchas posiciones definen la misma recta. Probar que, dado d ∈ à n {0} fijo, se tendr´ q ∈ Lp,d ⇔ Lq,d = Lp,d . (Las posiciones a de una recta L son sus puntos.) ´ 2. Muchos vectores directores definen una misma recta. Probar que, à dado p ∈ n fijo, se tendr´ Lp,d = Lp,d ⇔ (∃λ ∈ {0}) d = a à λd. (Los vectores directores de una misma recta son los m´ ltiplos u no nulos de un vector director dado.) ı El Ejercicio 2.1.2 motiva la siguiente definici´n: o o à Definici´n 2.3 (Vectores paralelos). Sean v, w ∈ n . El vector v se paralelo à dice paralelo a w (lo que se anota v w) ssi (∃λ ∈ {0}) w = λv. Usando esta definici´n, el Ejercicio 2.1.2 puede ser replanteado como o d es un vector director de Lp,d ⇐⇒ d d. ◭ Ejercicio Ejercicio 2.2: à à 1. Si A ⊆ n y p ∈ n , definimos la traslaci´n de o A en el vector p por p + A = {p + x | x ∈ A}. Mostrar que las à rectas que pasan por p ∈ n son exactamente las traslaciones en p de las rectas que pasan por el origen 0. 41
  • 42.
    Departamento de Ingenier´aMatematica - Universidad de Chile p 0 à 2. Sean p, q ∈ n , con p = q. Mostrar que la recta de posici´n p y o vector director d = q − p es la unica recta que pasa por ambos ´ puntos, p y q. q p ´ q-p Observaci´n: La ecuaci´n o o ecuaci´n vectorial de la o ı à recta v = p + λd, λ∈ que describe los puntos (vectores) de la recta Lp,d a medida que se ıa à var´ λ ∈ se llama ecuaci´n vectorial de la recta Lp,d. o 2.3. Planos en à n à à Sean p ∈ n y d1 , d2 ∈ n {0} vectores no paralelos. Apelando a nuestra intuici´n en el espacio tridimensional, vemos que por p pasan las dos rectas o distintas L1 = Lp,d1 y L2 = Lp,d2 , y ambas est´n contenidas en un mismo a plano Π. 42
  • 43.
    Departamento de Ingenier´aMatematica - Universidad de Chile L 1 p+sd + td 1 2 L 2 p sd 1 d 2 Observando la forma como los puntos de este plano se obtienen a partir de p, d1 y d2 podemos dar la siguiente definici´n en n : o à Definici´n 2.4 (Plano). El plano que pasa por p y tiene vectores direc- o Plano tores d1 y d2 es el subconjunto de n :à Πp,d1 ,d2 = {v ∈ Ãn | v = p + sd1 + td2 , s, t ∈ Ã} ´ ecuaci´n vectorial del o Observaci´n: o plano 1. v = p + sd1 + td2 , s, t ∈ à se llama ecuaci´n vectorial del plano o Πp,d1 ,d2 . 2. Sea E = d1 | d2 la matriz que tiene por columnas a los vectores directores d1 y d2 . Entonces juntando los par´metros s a s à ı 2 y t en el vector r = ∈ , la ecuaci´n vectorial queda o t v = p + Er ,r ∈ Ã2 , s, t ∈ à s = p+ d1 | d2 t 3. Notar la similitud con la ecuaci´n de una recta v = p+td, t ∈ . o à En la recta hay un par´metro libre: t ∈ a à (dimensi´n 1, esto se o formalizar´ mas adelante) y en el plano dos: s, t ∈ (dimensi´n a o à 2 ). ◭ Ejercicio Ejercicio 2.3: Se deja como ejercicio para el lector probar las siguien- tes propiedades: 1. q ∈ Πp,d1 ,d2 ⇔ Πq,d1 ,d2 = Πp,d1 ,d2 . (Cualquier punto de un plano sirve como su posici´n.) o 43
  • 44.
    à Ãn {0}, con d1no paralelo a d2 y Departamento de Ingenier´a Matematica - Universidad de Chile 2. Si p ∈ n , y d1 , d2 , d1 , d2 ∈ d1 no paralelo a d2 , entonces à Πp,d1 ,d2 = Πp,d1 ,d2 ⇔ (∃A ∈ M2,2 ( ) invertible) d1 | d2 = d1 | d2 A à 3. Dado p ∈ n , todo plano que pasa por p es la traslaci´n en p de o un plano que pasa por el origen, y si trasladamos en p un plano cualquiera que pasa por el origen, obtenemos un plano que pasa por p. à 4. Sean p, q, r tres puntos no colineales en n . Probar que si d1 = q − p y d2 = r − p, entonces Πp,d1 ,d2 es el unico plano que pasa ´ por p, q y r. 2.4. ´ Ecuaciones parametricas y cartesianas de rectas y planos 2.4.1. Rectas ´     p1 d1  .  . à  .  à Sean p =  .  ∈ n y d =  .  ∈ n {0}. Sea L = Lp,d . . pn dn Recordemos que la ecuaci´n vectorial de L es v = p + td , t ∈ . Si   o à x1  .  anotamos v =  .  el punto que recorre L cuando t recorre , resulta: . à ı xn   x1  = p1 + td1   x2 = p2 + td2  . . , t∈ Ã.   .  xn = pn + tdn Estas son las llamadas ecuaciones param´tricas de la recta L. (Notar que e ecuaciones à p1 , . . . , pn , d1 , . . . , dn son constantes en , las coordenadas de la posici´n y o param´tricas e de la direcci´n de L.) o Supongamos, para simplificar la notaci´n, que las primeras k componentes o d1 , . . . , dk de d son no nulas, y el resto todas nulas: dk+1 = dk+2 = . . . =  d1  .  .   d.k  dn = 0, es decir d =  0 . Entonces las ecuaciones param´tricas de la e   . . . 0 recta L son 44
  • 45.
    Departamento de Ingenier´aMatematica - Universidad de Chile x1 = p1 + td1 . . . xk = pk + tdk  xk+1 = pk+1   . . Constantes. .   xn = pn Despejando t en cada una de las primeras k ecuaciones, e igualando:  x1 −p1 x −p x −p  d1 = 2d2 2 = · · · = kdk k (= t)    xk+1 = pk+1  . .   .  xn = pn Este es un sistema de n − 1 ecuaciones lineales para las n inc´gnitaso  x1  .  x1 , . . . , xn , que son las componentes de un punto cualquiera v =  .  . xn de L. Las ecuaciones se llaman ecuaciones Cartesianas de la recta L. ¿C´mo o ecuaciones Cartesianas ´ quedan las ecuaciones cuando k = 1? de L Ejemplos: n = 2: La ecuaci´n Cartesiana (notar que en este caso queda una o sola) de L = L p1 ,“ d1 ” queda: ( p2 ) d2 x1 − p1 x2 − p2 ı = , si d1 , d2 = 0, d1 d2 x2 = p2 , si d2 = 0, y x1 = p1 , si d1 = 0. L L L d,d =0 1 2 d =0 2 d =01 n = 3: Una recta queda descrita por dos ecuaciones Cartesianas: x1 − p1 x2 − p2 x3 − p3 = = d1 d2 d3 (en caso que d1 , d2 , d3 = 0. Escribir las otras posibilidades.) 45
  • 46.
    2.4.2. Planos (caso n = 3) Departamento de Ingenier´a Matematica - Universidad de Chile Para simplificar el an´lisis veremos s´lo el caso n = 3 para las ecua- a o   à ciones Cartesianas de planos. Sea Π = Πp,d1 ,d2 un plano en 3 , donde p1 à p =  p2  ∈ 3 es una posici´n de Π, y los vectores directores son los o p3     d11 d12 à vectores no paralelos en 3 {0}, d1 =  d21  y d2 =  d22 . La d31 d32 o a à ecuaci´n vectorial de Π est´ dada por v = p + sd1 + td2 , s, t ∈ , y des- componi´ndola en sus 3 componentes resultan las ecuaciones param´tricas e e de Π:   x1 = p1 + sd11 + td12  x2 = p2 + sd21 + td22 , s, t ∈ . à x3 = p3 + sd31 + td32 Pivoteando, es posible eliminar el par´metro s de dos de estas ecuaciones, a y luego tambi´n t de una de ellas, de modo que nos quedamos con una e ecuaci´n final con s´lo x1 , x2 , x3 (sin s y t) de la forma Ax1 +Bx2 +Cx3 = D, o o à donde A, B, C, D ∈ , con A, B o C = 0. Esta es la llamada ecuaci´n o ´ Cartesiana del plano Π. o à Observaci´n: Si el plano hubiese estado en n , con n ≥ 3, habr´ ıamos obtenido un sistema de n − 2 ecuaciones cartesianas para el plano. ¿Qu´ pasa en el caso n = 2? ¿Y qu´ puede decir de n = 1? e e ı Sabemos del cap´ ıtulo de Sistemas Lineales que, rec´ıprocamente, un sistema de una ecuaci´n y tres inc´gnitas, como la ecuaci´n Cartesiana de Π, tiene o o o dos variables libres (digamos x2 y x3 ) y sus soluciones son de la forma:         x1 α1 β1 γ1  x2  =  0  + x2  1  + x3  0  , x2 , x3 ∈ , à x3 0 0 1     β1 γ1 con  1  y  0  claramente no paralelos (¿por qu´?), as´ el e ı 0 1 à conjunto de soluciones representa un plano en 3 . Tenemos entonces que à los planos en 3 son exactamente los conjuntos soluci´n de ecuaciones o cartesianas como la que escribimos arriba para Π. Ejemplo:   1 Ê El plano Π ⊆ 3 que pasa por el punto p =  0  y con vectores direc-     0 1 −1 tores d1 =  −1  y d2 =  0  tiene por ecuaciones param´tri- e 0 1 46
  • 47.
     x1 = 1 + s − t Ê Departamento de Ingenier´a Matematica - Universidad de Chile cas x2 = −s , s, t ∈ de las que se puede f´cilmente a  x3 = t eliminar s y t para obtener la ecuaci´n Cartesiana x1 + x2 + x3 = 1. o Por otra parte, si partimos de esta ecuaci´n, despejando x1 en t´rmi- o e nos de x2 y 3 resulta x1 = 1 − x2 − x3 , por lo que un punto cual- x  x1 Ê quiera v =  x2  ∈ 3 que satisfaga esta ecuaci´n tendr´ la forma o a    x3        x1 1 − x2 − x3 1 −1 −1  x2  =  x2  =  0  + x2  1  + x3  0 , x3 x3 0 0 1 con x2 , x3 ∈ Ê tomando valores arbitrarios. El lector reconocer´ esto a como una ecuaci´n vectorial del mismo plano Π. o ´ -1 0 x+x+x=1 1 2 3 1 ı 1 0 0 1 -1 0 2.5. ´ Geometr´a metrica en ı Ê n 2.5.1. ´ Definiciones y propiedades basicas Incorporaremos ahora a nuestro estudio conceptos como distancia entre puntos, ´ngulos, perpendicularidad, etc. Para ello debemos perder un poco a de generalidad y restringirnos al cuerpo = Ã Ê de los n´ meros reales. u (Tambi´n se puede hacer todo esto con e à = , los n´ meros complejos, u pero esto lo postergaremos para mas adelante.) Definici´n 2.5 (Producto punto en x1 o y1 Ê n ). Sean x, y ∈ Ên , con x = . . , y= . . . Se define el producto punto x, y (tambi´n se anota e producto punto . . xn yn x • y) como el real x, y , x • y n x, y = xi yi = xt y = yt x ∈ Ê. i=1 47
  • 48.
    Tenemos as´ unafunci´n ı o Ên × Ên Ê Departamento de Ingenier´a Matematica - Universidad de Chile <, > : −→ (x, y) −→ x, y llamada producto punto. Proposici´n 2.2. Se tienen las siguientes propiedades: o 1. (∀x, y ∈ Ên ) x, y = y, x (Simetr´a). ı Ê 2. (∀x, y, x, y ∈ n ) x + x, y = x, y + x, y ∧ x, y + y = x, y + x, y (Bi–aditividad). 3. (∀λ ∈ R) (∀x, y ∈ Ên ) λx, y = x, λy = λ x, y (Bi–homogeneidad). 4. (∀x ∈ Ên ) x, x ≥ 0 ∧ x, x = 0 ⇔ x = 0 (Positividad). ´ Demostracion. La demostraci´n de estas propiedades quedan como ejercicio- o . ◭ Ejercicio ´ n El n´ umero  x que aparece en la propiedad 4. es x, x = x, i=1 x2 , si i x1  ..  x =  . . Jugando con el Teorema de Pit´goras se puede verificar a xn f´cilmente que si n = 2 ´ n = 3, a o x, x corresponde a la longitud de la ı flecha representada por el vector x. 2 2 2 2 x1 + x2 + x3 2 2 +x2 x1 x2 x1 x3 x1 2 2 x2 n=2 x1 + x2 n=3 Aprovechando estos hechos, y con la esperanza de re–obtener el Teorema Ê de Pit´goras en n , para todo n, definimos a Definici´n 2.6 (Norma Euclidiana). La norma Euclidiana (o, simple- o x1 mente, norma) de un vector x = . . . ∈ Ên como x = n i=1 x2 = i norma xn 48
  • 49.
    x, x (ra´zcuadrada ≥ 0). ı x Departamento de Ingenier´a Matematica - Universidad de Chile Tenemos as´ la funci´n norma ı o : Ên −→ Ê . x −→ x = x, x Proposici´n 2.3. Se tienen las siguientes propiedades: o 1. (∀x ∈ Ên ) x ≥ 0 ∧ x = 0 ⇔ x = 0 2. (∀λ ∈ Ê) (∀x ∈ Ên ) λx = |λ| x 3. (∀x, y ∈ Ên ) x + y ≤ x + y (Desigualdad Triangular.) Desigualdad Triangular ´ Demostracion. Las demostraciones de 1 y 2 son elementales y se dejan como un ejercicio f´cil para el lector. La prueba de la Desigualdad Trian- a gular depender´ del siguiente importante Lema: a Lema 1 (Desigualdad de Cauchy–Schwartz). Desigualdad de Cauchy–Schwartz Ên) | x, y | ≤ ´ (∀x, y ∈ x y . ´ Demostracion. (Desigualdad de C–S) Notar que si x = 0 ∨ y = 0, la desigualdad se verifica trivialmente (0 ≤ 0). Supondremos entonces que Ê ambos vectores x e y son no nulos. Para x, y ∈ n {0} fijos, consideremos ahora la funci´n ϕ : o Ê Ê → 2 definida por ϕ(t) = tx − y . Claramente Ê ϕ(t) ≥ 0 para todo t ∈ (y adem´s, si y no es un m´ ltiplo de x, ϕ(t) > 0 a u Ê ı 2 para todo t ∈ ). Por otra parte, ϕ(t) = tx − y, tx − y = x t2 − 2 2 x, y t + y . As´ ϕ es una funci´n polinomial de segundo grado en t, ı, o 2 2 con coeficientes a = x , b = −2 x, y , c = y (notar que como x = 0, la funci´n es efectivamente de segundo grado, y no de un grado menor). o Ê Como ϕ(t) ≥ 0 para todo t ∈ , sabemos que el discriminante b2 − 4ac ser´ menor o igual a 0 (a lo m´s una ra´ real de multiplicidad 2), es decir a a ız 2 2 4 x, y − 4 x y ≤ 0, de donde x, y 2 ≤ x 2 y 2 , lo que implica la 2 desigualdad deseada. Observaci´n: Notar que si y no es m´ ltiplo de x, ϕ(t) > 0 para todo o u Ê t ∈ , luego b2 −4ac < 0, de donde se desprende que | x, y | < x y . De aqu´ que (a´ n en el caso x = 0 ∨ y = 0) se verifica la igualdad en ı u Cauchy–Schwartz ssi alguno de los dos vectores es m´ ltiplo del otro. u De modo similar se tiene que x, y = x y ssi alguno de los dos vectores es un m´ltiplo no negativo del otro. u 49
  • 50.
    Podemos ahora probarla desigualdad triangular. Sean x, y ∈ Ên. Tenemos: Departamento de Ingenier´a Matematica - Universidad de Chile 2 2 2 x+y = x + y, x + y = x + 2 x, y + y 2 2 ≤ x + 2 | x, y | + y C.–Sch. ≤ x 2+2 x y + y 2 = ( x + y )2 Observaci´n: De la observaci´n bajo la demostraci´n de la desigual- o o o dad de Cauchy–Schwartz podemos concluir que en la desigualdad trian- gular vale la igualdad ssi alguno de los dos vectores es m´ ltiplo no u negativo del otro. Usaremos ahora la norma de Ên para definir la noci´n de distancia entre o puntos de este conjunto. Ê ´ Definici´n 2.7. Sean p, q dos puntos en n . La distancia entre p y q es o distancia el n´mero real no negativo d(p, q) = q − p . u d(p, q) Observaci´n: o 1. Recordando que q − p se puede visualizar como el vector (flecha) que va de p hasta q, resulta que d(p, q) es la longitud de esta ı flecha, es decir, como esperar´ ıamos, la longitud del trazo recto entre p y q. 2. Podemos usar la distancia entre puntos para interpretar la de- Ê sigualdad triangular. Sean p, q, r ∈ n tres puntos que forman Ê un tri´ngulo en n . Entonces: q − p = (q − r) + (r − p) ≤ a q − r + r − p , es decir d(p, q) ≤ d(r, q) + d(p, r). En el tri´ngulo pqr esto significa que la longitud del lado pq es infe- a rior o igual a la suma de los otros dos lados ( rq + pr), lo que es un viejo teorema de geometr´ plana. ıa q r p q-r r-p q-p q p q-p 50
  • 51.
    El producto puntoest´ ´ a ıntimamente ligado a la noci´n de angulo entre o ´ Departamento de Ingenier´a Matematica - Universidad de Chile vectores. Recurramos nuevamente a nuestra intuici´n geom´trica para ver o e algunos hechos que indican que esta afirmaci´n no es gratuita. o ´ Situacion 1: Consideremos el siguiente diagrama: x x-y y x+y 0 -y Ê Los vectores x e y son no nulos en n , y los hemos dibujado en el plano que pasa por el origen y que los contiene. Supongamos que x es perpendicular a Ê y (vamos a suponer que esto tiene sentido en n , y que en el plano de x, y y ´ 0 se cumplen las propiedades usuales que conocemos de la geometr´ plana ıa del colegio). Esperamos entonces que el tri´ngulo que tiene por v´rtices x, a e y y −y sea is´sceles en x (la altura es la flecha x), y as´ o ı x−y = x+y ⇐⇒ x − y, x − y = x + y, x + y ⇐⇒ x 2 − 2 x, y + y 2 = x 2 + 2 x, y + y 2 ⇐⇒ 4 x, y = 0 ı ⇐⇒ x, y = 0. Aprovechemos esto para definir perpendicularidad en Ên : Definici´n 2.8 (Perpendicularidad). Dos vectores x, y ∈ n se dicen o Ê perpendiculares u ortogonales ssi x, y = 0. Lo anotaremos como x ⊥ y. perpendicularidad x⊥y ◭ Ejercicio Ejercicio 2.4: Probar el Teorema de Pit´goras en a Ê n : Sean A, B, C ∈ Ê n , con (B−C) ⊥ (C−A). Si a = d(C, B) = B − C , b = d(A, C) = C − A y c = d(B, A) = A − B son los tres lados del tri´ngulo a ABC (tri´ngulo rect´ngulo en C, con a, b los catetos y c la hipotenusa), a a entonces a2 + b2 = c2 . c B A b a C 51
  • 52.
    ´ Situacion 2: Departamento de Ingenier´a Matematica - Universidad de Chile Queremos usar nuestra intuici´n geom´trica para descubrir una relaci´n o e o Ê que nos permita definir el ´ngulo entre dos vectores de n . Consideremos a el diagrama siguiente: x y y 0 Todo transcurre en el plano que pasa por 0 y tiene a x e y como vectores directores. El punto λy es la proyecci´n ortogonal del punto x sobre la o recta que pasa por 0 y tiene a y como vector director, θ ser´ el ´ngulo de a a Ê la flecha y a la x (si todo esto tiene sentido en n ). La cantidad λy − x es la distancia de x a su proyecci´n. Las relaciones trigonom´tricas que o e ´ esperar´ıamos que se cumplan dicen: cos θ = λy = |λ|xy . x Nos gustar´ eliminar λ de esta f´rmula. Para ello notemos que como ıa o 2 (λy − x) ⊥ y, entonces λy − x, y = 0, de donde λ y − x, y = 0, x,y y as´ |λ| = λ = y 2 . (El dibujo sugiere que λy apunta hacia el mismo lado ı que y. Analizar lo que pasa si no. Notar que θ > π en dicho caso.) Luego 2 Ê cos θ = xx,yy . Usamos esto para definir el ´ngulo entre vectores de n : a ´ Ê Definici´n 2.9 (Angulo entre vectores). Sean x, y ∈ n {0}. Defi- o ı nimos el angulo entre x e y como aquel n´mero θ ∈ [0, π] tal que ´ u angulo ´ x, y cos θ = . x y Observaci´n: o 1. Notar que la desigualdad de Cauchy–Schwartz asegura que −1 ≤ x,y x y ≤ 1, as´ la definici´n anterior tiene sentido. ı o 2. Esta definici´n entrega de manera trivial la famosa f´rmula o o x, y = x y cos θ. 52
  • 53.
    2.6. ´ Aplicacion a Rectas en Ê 2 y Planos en Ê. 3 Departamento de Ingenier´a Matematica - Universidad de Chile 2.6.1. Rectas en Ê2 . ∈ Ê2 . Definamos el nuevo vector d⊥ = Ê x1 −x2 Sea d = ∈ 2. d⊥ x2 x1 Es un ejercicio f´cil verificar que las siguientes propiedades se satisfacen: a 1. d⊥ = d . 2. d⊥ es ortogonal a d. ⊥ 3. d⊥ = −d. 4. Si d = 0, entonces (∀v ∈ Ê2) [v ⊥ d ⇔ (∃λ ∈ Ê) v = λd⊥ ]. 5. Si d = 0, entonces (∀v ∈ Ê2 ) [v ⊥ d⊥ ⇔ (∃t ∈ Ê) v = td]. d ´ d Sea ahora p ∈ Ê2 y L = Lp,d = v∈ Ê2 | v = p + td, t ∈ Ê . Tenemos ı que v∈L ⇐⇒ v = p + td, t ∈ Ê Ê ⇐⇒ (∃t ∈ ) v − p = td ⇐⇒ v − p ⊥ d⊥ ⇐⇒ v − p, d⊥ = 0. Si llamamos n = d⊥ (o cualquier otro vector paralelo a ´ste), hemos conclui- e Ê do que v ∈ L ⇔ v − p, n = 0, es decir, L = v ∈ 2 | v − p, n = 0 . La ecuaci´n o v − p, n = 0 se llama ecuaci´n normal de L. El vector n (es decir, d⊥ o cualquier otro o ecuaci´n normal de L o paralelo a ´l) se dice vector normal a L. e vector normal a L 53
  • 54.
    Departamento de Ingenier´aMatematica - Universidad de Chile v-p v L p n d De la ecuaci´n normal de L sale f´cilmente una ecuaci´n Cartesiana. Sean o a o n1 p1 x1 n= ,p= yv= . Desarrollando: n2 p2 x2 v − p, n = 0 ⇔ v, n − p, n = 0 ⇔ n1 x1 + n2 x2 + (−n1 p1 − n2 p2 ) = 0, ´ es decir ax1 + bx2 + c = 0, con a = n1 , b = n2 y c = − p, n . (2.1) ◭ Ejercicio ı Ejercicio 2.5: Concluya que si (2.1) es una ecuaci´n Cartesiana de o Ê una recta de 2 , entonces un vector director de esta recta es d = −a . b 2.6.2. Planos en Ê3 . Ê Sean d1 , d2 vectores no nulos y no paralelos en 3 . M´s adelante se prueba a Ê que existe un vector n = d1 × d2 ∈ 3 con las propiedades: n 1. n = d1 d2 |sen θ| = 0, con θ el ´ngulo entre d1 y d2 . a 2. n ⊥ d1 ∧ n ⊥ d2 . 3. (∀v ∈ Ê3) [v ⊥ d1 ∧ v ⊥ d2 ⇔ (∃λ ∈ Ê) v = λn]. 4. (∀v ∈ Ê3 ) [v ⊥ n ⇔ (∃s, t ∈ Ê) v = sd1 + td2 ]. Con estas propiedades, sea Π = Πp,d ,d el plano en Ê3 que pasa por un Πp,d1 ,d2 punto p ∈ Ê3 y de vectores directores d1 y d2 . Entonces el lector puede 1 2 demostrar f´cilmente que para cualquier v ∈ Ê3 , v ∈ Π ⇔ v − p, n = 0. a Nuevamente, n (o cualquier vector paralelo a n) se dir´ vector normal a Π, a vector normal a Π 54
  • 55.
    y la ecuaci´n o Departamento de Ingenier´a Matematica - Universidad de Chile v − p, n = 0 se llamar´ ecuaci´n normal de Π. a o ecuaci´n normal de Π o Ê De modo similar al caso de rectas en 2 , la ecuaci´n normal conduce di- o rectamente a la ecuaci´n Cartesiana Ax1 + Bx2 + Cx3 + D = 0 para Π. o A (Donde n = B y D = − p, n .) C n d2 d1 v v-p p ı ´ 55
  • 56.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 4 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. Pruebe las siguientes propiedades de la ponderaci´n por escalar: o Proposici´n 2.1 o (a) (∀λ1 , λ2 ∈ Ã) (∀x ∈ Ãn) λ1 (λ2 x) = (λ1 λ2 )x. (b) (∀λ ∈ Ã) (∀x, y ∈ Ãn ) λ(x + y) = λx + λy. (c) (∀λ ∈ Ã) (∀x ∈ Ãn ) λx = 0 ⇔ λ = 0 ∨ x = 0. 2. Pruebe que: Ejercicio 2.1, Ejercicio 2.2 à (a) Dado d ∈ n {0} fijo, se tendr´ q ∈ Lp,d ⇔ Lq,d = Lp,d . (Las a posiciones de una recta L son sus puntos.) à (b) Dado p ∈ n fijo, se tendr´ Lp,d = Lp,d ⇔ (∃λ ∈ {0}) d = λd. a à (Los vectores directores de una misma recta son los m´ ltiplos no u nulos de un vector director dado.) à à (c) Si A ⊆ n y p ∈ n , definimos la traslaci´n de A en el vector p o traslaci´n o por p + A = {p + x | x ∈ A}. Las rectas que pasan por p ∈ n à son exactamente las traslaciones en p de las rectas que pasan por el origen 0. à (d) Sean p, q ∈ n , con p = q. La recta Lp,q−p es la unica recta que ´ ´ pasa por ambos puntos, p y q. 3. Pruebe que: Ejercicio 2.3 (a) q ∈ Πp,d1 ,d2 ⇔ Πq,d1 ,d2 = Πp,d1 ,d2 . (Cualquier punto de un plano sirve como su posici´n.) o à (b) Dado p ∈ n , todo plano que pasa por p es la traslaci´n en p de o ı un plano que pasa por el origen, y si trasladamos en p un plano cualquiera que pasa por el origen, obtenemos un plano que pasa por p. à (c) Sean p, q, r tres puntos no colineales en n . Probar que si d1 = q − p y d2 = r − p, entonces Πp,d1 ,d2 es el unico plano que pasa ´ por p, q y r. 4. Pruebe las siguientes propiedades del producto punto: Proposici´n 2.2 o Ê (a) (∀x, y, x, y ∈ n ) x + x, y = x, y + x, y ∧ x, y + y = x, y + x, y (Bi–aditividad). (b) (∀λ ∈ R) (∀x, y ∈ Ên ) λx, y = x, λy = λ x, y (Bi–homogeneidad). (c) (∀x ∈ Ê n ) x, x ≥ 0 ∧ x, x = 0 ⇔ x = 0 (Positividad). 5. Pruebe las siguientes propiedades de la norma Euclidiana: Proposici´n 2.3 o (a) (∀x ∈ Ên ) x ≥ 0 ∧ x = 0 ⇔ x = 0. (b) (∀λ ∈ Ê) (∀x ∈ Ên ) λx = |λ| x . 56
  • 57.
    Problemas Departamento de Ingenier´a Matematica - Universidad de Chile 2 0 −1 P1. (a) Considere los puntos P = 1 ,Q = −1 yR= 1 . 2 1 5 Verifique que son puntos no colineales y encuentre la ecuaci´n o vectorial (o param´trica) y Cartesiana del plano Π1 que los con- e tiene. (b) Dadas las rectas L1 y L2 definidas por     1 1 L1 : −1 + t −3 , t ∈ Êy L2 : 3x + y + 4 = 0 z+5=0 . 1 0 Verifique que L1 y L2 son paralelas y distintas y ecuentre la ecua- ci´n vectorial (o param´trica) y Cartesiana del plano Π2 que las o e contiene. (c) Encuentre la ecuaci´n vectorial de la recta L que se obtiene como o la intersecci´n de los plano Π1 y Π2 (L = Π1 ∩ Π2 ). o (d) Encuentre el punto S de intersecci´n de las rectas L1 y L, y veri- o fique que S satisface la ecuaci´n Cartesiana del plano Π1 . o P2. (a) Verifique que las rectas ´         3 −1 2 2 L1 : 4  + t  2  , t ∈ Ê, L2 : 4 + s  1  , s ∈ Ê 5 −5 6 −5 se intersectan en un unico punto. Encu´ntrelo. ´ e 1 4 (b) Sea Π el plano con vectores directores d1 = 2 y d2 = 0 , 3 4 0 que pasa por el punto P = , y sea L la recta con vector ı −2 1 director d = 1 b 0 0 a que pasa por el punto Q = 0 , donde a, b ∈ Ê. Encuentre los valores de los par´metros a, b tales que a L est´ contenida en Π (L ⊂ Π), e L y Π no tengan puntos en com´ n (L ∩ Π = ∅). y u L ∩ Π contenga exactamente un solo punto. P3. Sean Π1 el plano de ecuaci´n x + y + 2z = 1, Π2 el plano de ecuaci´n o o 0 −x + y = 2 y L1 la recta que pasa por el punto P1 = 1 y cuya 1 1 direcci´n es D1 = o 0 . 0 (a) Encuentre la ecuaci´n de la recta L2 , que se obtiene como la o intersecci´n de los planos Π1 y Π2 . Entregue un vector director o de dicha recta. (b) Encuentre el punto P2 de intersecci´n de la recta L1 y Π1 . o (c) Calcular el punto P3 de intersecci´n de L2 con el plano perpendi- o cular a L2 que pasa por el punto P2 . (d) Encuentre la ecuaci´n param´trica o vectorial de la recta conte- o e nida en Π2 que pasa por el punto P3 y es perpendicular a L2 . 57
  • 58.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 5: GEOMETR´A I Departamento de Ingenier´a Matematica - Universidad de Chile 2.7. Producto cruz (o producto vectorial) en Ê 3 Utilizaremos la siguiente notaci´n, ya tradicional en las aplicaciones de la o Ê geometr´ vectorial. Sean i, j, k ∈ 3 los siguientes vectores: ıa       1 0 0 i =  0 , j =  1 , k =  0 . 0 0 1 b b k i, j, b Las siguientes afirmaciones son evidentes: 1. i = j = k =1 (Estos vectores se dicen unitarios.) 2. i ⊥ j ∧ j ⊥ k ∧ k ⊥ i (Son ortogonales entre s´ ı.) 3. ∀x = x1 x2 x3 ∈ Ê3 x = x1 i + x2 j + x3 k, y esta escritura es unica, es ´ decir, si x1 i + x2 j + x3 k = y1 i + y2 j + y3 k, entonces x1 = y1 ∧ x2 = ´ y2 ∧ x3 = y3 . Observaci´n: Las propiedades 1. y 2. se abrevian diciendo que o i, j, k es un conjunto ortonormal en 3 . Ê ı xk 3 x 1 x= x 2 x k 3 xi 1 j i xj2 Mas adelante en el curso definiremos la noci´n de determinante, pero ahora o consideraremos la siguiente ˛ ˛ Ê Notaci´n: Si a, b, c, d ∈ , anotamos o a b c d = ad − bc ∈ . Ê ˛ a ˛ ˛ c b ˛ ˛ d ˛ Con esto podemos dar la definici´n: o 58
  • 59.
    Definici´n 2.10 (Productocruz). Si x = x2 , y = y2 ∈ 3 , o x3 y3 x1 y1 Ê Producto cruz Departamento de Ingenier´a Matematica - Universidad de Chile definimos el producto cruz o producto vectorial de x e y como el siguiente Ê vector de 3 : i j k x2 x3 x1 x3 x1 x2 x×y = x1 x2 x3 = i− j+ k. y2 y3 y1 y3 y1 y2 y1 y2 y3 Es decir, resulta el vector de Ê3 : x×y   x2 y3 − x3 y2 x × y =  x3 y1 − x1 y3  ∈ Ê3. x1 y2 − x2 y1 (Obviamente, esta ultima f´rmula no es muy f´cil de recordar, y es preferible ´ o a usar la notaci´n de la definici´n dada primero, cuya operatoria est´ ah´ mis- o o a ı mo definida, para memorizar y calcular x × y.) Hemos as´ definido una ley de composici´n interna × en 3 : ı o Ê × : Ê3 × Ê3 −→ 3 Ê . (x, y) −→ x × y ´ Proposici´n 2.4. Se tienen las siguientes propiedades o 1. ∀x, y ∈ Ê3 x × y ⊥ x ∧ x × y ⊥ y. 2. ∀x, y ∈ Ê3 x × y = −y × x (× es anti–conmutativo). 3. ∀x, y, z ∈ Ê3 x× (y + z) = x× y + x× z ∧ (x+ y)× z = x× z+ y × z ı (× distribuye sobre +). 4. ∀x, y ∈ Ê3 (∀λ ∈ Ê) (λx) × y = x × (λy) = λ(x × y). 5. ∀x ∈ Ê3 x × x = 0. ´ Demostracion. La demostraci´n de estas propiedades b´sicas quedan o a propuestas como ejercicio. ◭ Ejercicio Notemos que con 2, 3, 4 y 5, m´s el simple c´lculo de a a i × j = k, j × k = i, k × i = j, se puede recuperar la f´rmula con que definimos originalmente el producto o cruz: x×y = (x1 i + x2 j + x3 k) × (y1 i + y2 i + y3 k) = x1 y1 i× i+x1 y2 i× j+x1 y3 i× k+x2 y1 j× i+x2 y2 j× j+x2 y3 j× k +x3 y1 k× i+x3 y2 k× j+x3 y3 k× k = 0 + x1 y2 k + x1 y3 (−j) + x2 y1 (−k) + 0 + x2 y3 i + x3 y1 j + x3 y2 (−i) + 0 = (x2 y3 − x3 y2 )i + (x3 y1 − x1 y3 )j + (x1 y2 − x2 y1 )k. 59
  • 60.
    La siguiente esuna f´rmula para el producto cruz de 3 vectores. Su demos- o Departamento de Ingenier´a Matematica - Universidad de Chile traci´n es un simple c´lculo que omitimos. o a (x × y) × z = x, z y − y, z x (2.2) Notar que el producto cruz no es conmutativo (pero tiene la propiedad parecida 2) y que desgraciadamente tampoco es asociativo. Para ilustrar cu´n lejos est´ de serlo, est´ la llamada Identidad de Jacobi, que se puede a a a Identidad de Jacobi probar f´cilmente a partir de la propiedad anterior: a ∀x, y, z ∈ Ê3 x × (y × z) + y × (z × x) + z × (x × y) = 0 (2.3) Notemos que usando 2.3 y las propiedades anteriores resulta: x × (y × z) − (x × y) × z = y × (x × z), lo que indica que x × (y × z) no tiene por qu´ ser igual a (x × y) × z. e Veamos mas propiedades de “×”: Proposici´n 2.5. o Ê3 {0} ´ ∀x, y ∈ x×y = x y |sen θ| , donde θ es el angulo entre x e y. ´ ´ Demostracion. Esto saldr´ de la siguiente identidad, la que pedimos al a lector que tenga la paciencia de verificar (es un c´lculo simple pero tedioso): a ı ∀x, y ∈ Ê3 x, y 2 + x×y 2 = x 2 y 2 . Una vez establecida esta identidad, y recordando que x, y = x y cos(θ), resulta: 2 2 2 2 x×y = x y − x, y 2 = x y − ( x y cos(θ))2 2 = x 2 y 2 (1 − cos2 (θ)) = x 2 y 2 sen2 (θ). La siguiente propiedad muestra que el producto cruz representa a la direc- ci´n ortogonal a los vectores participantes. o Proposici´n 2.6. Sean x, y ∈ o Ê3 {0} vectores no paralelos, y sea z ∈ Ê3. Entonces 1. z ⊥ x ∧ z ⊥ y =⇒ (∃λ ∈ Ê) z = λx × y. 2. z ⊥ x × y =⇒ (∃s, t ∈ Ê) z = sx + ty. 60
  • 61.
    ´ Demostracion. La demostraci´nes un ejercicio, explicado en m´s detalle o a Departamento de Ingenier´a Matematica - Universidad de Chile a continuaci´n. o ◭ Ejercicio Ejercicio 2.6: El objetivo de este ejercicio es probar la Proposici´n 2. o Ê 1. Sean x, y, z ∈ 3 tres vectores no coplanares con el origen, es decir, que no existe un plano que pasa por el origen y que contiene a los tres vectores x, y y z. Pruebe que esto equivale a: (∀s, t ∈ Ê) x = 0 + sy + tz ∧ y = 0 + sx + tz ∧ z = 0 + sx + ty 2. Pruebe que la condici´n anterior es equivalente a o (∀α, β, γ ∈ Ê) αx + βy + γz = 0 =⇒ α = β = γ = 0. (2.4) Ê 3. Sea A ∈ M33 ( ) la matriz descrita por columnas como A = ´ x | y | z . Pruebe que la propiedad 2.9 equivale a que el α α sistema homog´neo A β = 0 tiene como soluci´n unica e γ o ´ β γ = 0, es decir, A es invertible. Ê 4. Concluya que tres vectores x, y, z ∈ 3 no son coplanares con el origen ssi la matriz A = x | y | z es invertible. ı 5. Considere ahora x e y no nulos y no paralelos. Pruebe que los vectores x, y y x × y = 0 son no coplanares con el origen. Indicaci´n: Verifique la condici´n 2.9. o o 6. Use la conclusi´n de la parte 2c para probar que o ∀z ∈ Ê3 (∃s, t, λ ∈ Ê) z = sx + ty + λx × y. (2.5) 7. Pruebe, usando la propiedad 2.10, la Proposici´n 2. o Observaci´n: La interpretaci´n geom´trica del resultado anterior es: o o e Ê Si x, y son vectores no nulos y no paralelos en 3 , x × y define la l´nea ı recta (que pasa por 0) de vectores perpendiculares a x y a y. Por otra parte los vectores perpendiculares a x × y son exactamente aquellos del plano que pasa por el origen y tiene a x e y como vectores directores. 61
  • 62.
    Departamento de Ingenier´aMatematica - Universidad de Chile x y y 0,x,y 0 x L 0,x y Un par de propiedades geom´tricas m´s de “×”: e a Proposici´n 2.7. o Ê 1. Sean x, y ∈ 3 {0} vectores no paralelos. En- ´ tonces el area del paralel´gramo que definen es x × y . ´ o Ê 2. Sean x, y, z ∈ 3 {0} vectores no coplanares con 0. Entonces el volumen del paralelep´pedo que definen es | x × y, z |. ı ´ Demostracion. (Deberemos confiar en los conceptos intuitivos de area y ´ ı volumen que traemos de la geometr´ escolar). ıa y x y z H y h 0 x 0 x 1. El ´rea del paralel´gramo es dos veces el ´rea del tri´ngulo cuyos a o a a 1 1 v´rtices son x, y y 0. As´ Area = 2 · 2 · base · altura = 2 · 2 · e ı, 1 x h, con h = y sen θ. De aqu´ que Area = 2 · 2 · x y sen θ = ı x y sen θ = x × y . 2. De la geometr´ de colegio, el volumen del paralelep´ ıa ıpedo se calcula como el producto del ´rea de su base y su altura. De la parte (a), el a ´rea de la base es x × y . Por otra parte la altura H es la proyecci´n a o de z sobre la direcci´n perpendicular al plano de x e y, con lo que o H = z cos(ϕ), donde ϕ es el ´ngulo entre x × y y z. Se obtiene a finalmente entonces que Vol = x × y z cos(ϕ) = | x × y, z |. 62
  • 63.
    Departamento de Ingenier´aMatematica - Universidad de Chile Una ultima propiedad del producto cruz que es necesario indicar es la lla- ´ mada regla de la mano derecha. regla de la mano De x × y conocemos que apunta en la l´ ınea perpendicular al plano de x derecha e y, y que tiene por norma x y sen θ, con θ el ´ngulo entre x e y. a Estos datos nos dejan a´ n dos opciones posibles para x × y: hacia un lado u del plano de x e y o hacia el otro. La verdad es que hacia cu´l de estos a dos lados se dibuja depende de c´mo dibujamos los vectores ortonormales o i, j, k (es decir, de c´mo dibujamos los tres ejes de coordenadas de 3 ). o Ê Generalmente se conviene en dibujarlos de modo que si en el plano de i, j (el plano x1 − x2 ) hacemos los dedos de la mano derecha girar rotando de i hacia j, k apunta en la misma direcci´n del pulgar. o k i j o e Ê Con esta convenci´n resulta tambi´n que, si x, y ∈ 3 {0} son no paralelos ´ y hacemos girar los dedos de la mano derecha en el plano definido por x e y, desde x hacia y, el pulgar apunta en la direcci´n de x × y. o x x y y y x x y ı Hay que indicar, sin embargo, que si alguien prefiriese dibujar los ejes como: x1 x2 i j k x3 entonces los productos cruz cumplir´ una regla de la mano izquierda. ıan Nosotros seguiremos la convenci´n universalmente aceptada, dibujando los o ejes del primer modo que mencionamos, y nuestros productos cruz se dibu- jar´n siempre seg´ n la regla de la mano derecha. a u 63
  • 64.
    2.8. Distancia entre un punto y un conjunto. Proyeccio- Departamento de Ingenier´a Matematica - Universidad de Chile nes. Definici´n 2.11 (Distancia punto–conjunto). Sea A ⊆ n un subcon- o Ê Ê Ê junto no vac´o de n , y sea q ∈ n un punto. Definimos la distancia de q ı al conjunto A como: d(q, A) d(q, A) = ´nf {d(q, x) | x ∈ A} . ı x d(q,x) y d(q,y) A d(q,A) q z d(q,z) ´ ◭ Ejercicio Ejercicio 2.7: Verifique que d(q, A) queda bien definida. Cabe notar que no tiene por qu´ existir un punto r ∈ A tal que d(q, A) = e ı d(q, r), y si tal r llega a existir, no tiene por qu´ ser unico (¡Construir e ´ ejemplos de estas afirmaciones!). Estudiemos a modo de ejemplo el caso en que A = L es una recta Lp,x en Ên (recta que pasa por p y tiene vector director x). Supongamos que existe un punto r ∈ L tal que q − r es perpendicular a L. Afirmamos (como nuestra intuici´n geom´trica lo indica) que d(q, L) = o e d(q, r). Probemos algo mejor: (∀z ∈ L) z = r ⇒ q − z > q − r , de donde la distancia de q a L se alcanza en un unico punto r. ´ En efecto, si z ∈ L, como q−r es normal a L, el tri´ngulo cuyos v´rtices son a e z, r y q es rect´ngulo en r, y por Pit´goras (recuerde que usted demostr´ en a a o Ê 2 2 el Ejercicio 2.4 que es v´lido en n ) q − z = q − r + r − z . Como a 2 2 z = r, entonces r − z > 0, y eso prueba la desigualdad. r L z q 64
  • 65.
    Veremos ahora quetal r ∈ L efectivamente existe. Departamento de Ingenier´a Matematica - Universidad de Chile 1 Sea x = x x (vector unitario en la direcci´n de x: claramente x = 1). o Sea y = q − p el vector que conecta p con q, y sea w = y, x x. Notar que w apunta en la misma l´ ınea que x, y que 2 w = | y, x | x = y x |cos(θ)| = y cos(θ), donde θ es el ´ngulo entre x e y (que lo supondremos en 0, π para no a 2 preocuparnos del signo de cos(θ). Si este no es el caso, podemos usar −x en lugar de x como vector director de L.) Este vector w es lo que llamaremos proyecci´n del vector y sobre la direc- o ci´n definida por el vector x. Notar que si en vez de x usamos otro vector o director λx de L, resulta exactamente el mismo vector w. x r w u p y = q-p q Sea u = y − w = y − y, x x. Nuestra intuici´n nos har´ esperar que o ıa u ⊥ x. Verifiquemos que eso es correcto: ´ 1 u, x = y − y, x x, x = y, x − y, x x, x = y, x − y, x x = 0, x de donde u ⊥ x. Basta tomar ahora r = p + w =p + y, x x, es decir r = p + q − p, x x, ı que tiene la propiedad deseada pues q − r = q − p − w = y − w = u ⊥ x, luego q − r ⊥ L. Definici´n 2.12 (Proyecci´n ortogonal sobre una recta). Llamamos o o Proyecci´n ortogonal o Ê Ê proyecci´n ortogonal del punto q ∈ n sobre la recta L ⊆ n , al punto o sobre una recta r ∈ L tal que q − r ⊥ L. Acabamos de probar que dicha proyecci´n r existe y es el unico punto de L o ´ que minimiza la distancia a q, y dimos adem´s una f´rmula para calcular a o esta proyecci´n en t´rminos de q, la posici´n p de L y su vector director x. o e o Como segundo ejemplo, vamos a estudiar ahora en detalle el caso en que n = 3 y A es un plano Π ⊆ 3 .Ê ◭ Ejercicio Ejercicio 2.8: Desarrollar de manera similar, en paralelo, el caso en Ê que n = 2 y A es una recta en 2 . Notar que ese problema es un caso particular del que se resolvi´ antes, pero la soluci´n va por otro camino, o o usando ecuaciones normales en vez de vectores directores. 65
  • 66.
    Sea L larecta que pasa por q y que es perpendicular a Π (es decir, que Departamento de Ingenier´a Matematica - Universidad de Chile tiene por vector director un vector normal a Π). Veremos en un momento que la intersecci´n entre Π y L consiste en un solo punto r. Nuestra in- o tuici´n geom´trica indica que d(q, Π) = d(q, r), y la demostraci´n de este o e o hecho sigue exactamente las mismas lineas de lo que hicimos al estudiar la Ê proyecci´n de un punto sobre una recta en n . (Se prueba la desigualdad o (∀z ∈ Π) z = r ⇒ q − z > q − r , etc.) q r z L ´ Definici´n 2.13 (Proyecci´n ortogonal sobre un plano). Llamamos o o Proyecci´n ortogonal o Ê Ê proyecci´n ortogonal del punto q ∈ 3 sobre el plano Π ⊆ 3 , al punto o sobre un plano r ∈ Π tal que q − r ⊥ Π. Sabemos que dicho r es el unico punto de Π que minimiza la distancia a q. ´ Lo que no hemos probado a´ n es que tal punto r realmente existe, y a eso u nos dedicaremos ahora. ı Sea n un vector normal a Π (por ejemplo, si Π = Πp,d1 ,d2 , n se puede tomar como d1 ×d2 , o si tenemos una ecuaci´n Cartesiana Ax1 +Bx2 +Cx3 +D = 0 o A para Π, n se puede tomar como B ). La recta L que pasa por q y es C perpendicular a Π tiene entonces por ecuaci´n vectorial: o v = q + tn, t∈ Ê. (2.6) Sea p un punto (fijo) cualquiera de Π. Podemos entonces escribir la ecuaci´n o normal de Π: v − p, n = 0. (2.7) Ê Buscamos L ∩ Π, es decir, los v ∈ 3 que satisfacen simultaneamente (2.6) y (2.7). Pero esto es f´cil de resolver. En efecto, (2.7) equivale a v, n = a p, n , y usando (2.6), obtenemos 2 p − q, n q + tn, n = p, n ⇔ q, n + t n = p, n ⇔ t = 2 . n Una vez que tenemos la inc´gnita real t despejada, en (2.6) resulta o p − q, n r=v=q+ 2 n (2.8) n 66
  • 67.
    como unica soluci´nde (2.6) y (2.7). ´ o Departamento de Ingenier´a Matematica - Universidad de Chile Hemos de paso encontrado una f´rmula (2.8) para la calcular la proyecci´n o o de q sobre Π en t´rminos de un punto p de Π y un vector normal n a e Π. Podemos tambi´n calcular la distancia de q a Π: d(q, Π) = d(q, r) = e | p−q,n | r−q = n . De aqu´ sale una famosa f´rmula para la distancia de ı o Ê un punto a un plano en 3 . Supongamos que Π est´ descrito por la ecuaci´n q1 a o Cartesiana Ax1 + Bx2 + Cx3 + D = 0, y q = q q2 . Entonces f´rmula para d(q, Π) o 3 |Aq1 + Bq2 + Cq3 + D| d(q, Π) = √ . A2 + B 2 + C 2 A En efecto, podemos usar n = B como vector normal para Π. Con ello la C x1 ecuaci´n normal de Π ser´ v − p, n = 0, donde v = o a x2 x3 es un punto que recorre Π. Manipulando esta ecuaci´n normal se obtiene v, n − p, n = o 0, ´ Ax1 + Bx2 + Cx3 − p, n = 0, y por comparaci´n con la ecuaci´n o o o cartesiana de Π, deber´ tenerse que − p, n = D. a Como q, n = Aq1 + Bq2 + Cq3 , entonces | p − q, n | = | q, n − p, n | = |Aq1 + Bq2 + Cq3 + D| . ´ El resultado se sigue del c´lculo de n . a Cabe notar que hay otra manera, tal vez un poco menos eficiente, de calcular la proyecci´n de q sobre Π, usando una ecuaci´n vectorial para Π en vez o o Ê de la normal: v = p + λd1 + µd2 , λ, µ ∈ . Esto, junto a v = p + td1 × d2 que es la ecuaci´n vectorial de L, entrega el sistema lineal p + λd1 + µd2 = o λ ı q + td1 × d2 , o mejor d1 | d2 | d1 × d2 µ = q − p. Como d1 y t d2 son no nulos y no paralelos, d1 , d2 y d1 × d2 no son coplanares con el origen, y entonces esta ecuaci´n tiene una soluci´n unica para λ, µ y t, lo o o ´ que entrega la proyecci´n r = v. o Una tercera manera de proceder, tambi´n algo mas larga que la primera, e es utilizar la f´rmula r = p + λd1 + µd2 (que no dice m´s que el hecho de o a que la proyecci´n r satisface la ecuaci´n vectorial de Π pues es un elemento o o de este plano) y recordar que r − q ⊥ Π, es decir, r − q ⊥ d1 ∧ r − q ⊥ d2 . d1 , p − q + λd1 + µd2 = 0 Se obtiene el sistema de ecuaciones , o, d2 , p − q + λd1 + µd2 = 0 en su forma matricial: d1 , d1 d1 , d2 λ d1 , q − p = . d2 , d1 d2 , d2 µ d2 , q − p d1 , d1 d1 , d2 Se puede probar que d1 no es paralelo a d2 ssi la matriz d2 , d1 d2 , d2 es invertible, luego el sistema anterior tiene una soluci´n unica para λ y µ, o ´ lo que entrega la proyecci´n r. o 67
  • 68.
    Departamento de Ingenier´aMatematica - Universidad de Chile Observaci´n: o 1. Notemos que la f´rmula (2.8) era f´cil de adivinar, pues si n = o a 1 n n es el vector unitario en la direcci´n de n, (2.8) se puede o escribir como r = q + p − q, n n q p-q <p-q,n>n n r p y recordando que p − q, n n es la proyecci´n (como vector) de o ´ p − q en la direcci´n de n, el punto q + p − q, n n deber´ ser o ıa el lugar donde la recta que parte de q y va en la direcci´n de n o encuentra al plano Π. 2. En muchos problemas se puede argumentar de manera similar a la observaci´n 1) (es decir, proyectando sobre una recta vectores que o conectan un par de puntos dados, etc.) para llegar r´pidamente a a una respuesta. ı 68
  • 69.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 5 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. Demuestre las siguientes propiedades relacionadas con el produto cruz: (a) ∀x = x1 x2 x3 ∈ Ê3 x = x1 i + x2 j + x3 k, y esta escritura es unica, ´ es decir, si x1 i + x2 j + x3 k = y1 i + y2 j + y3 k, entonces x1 = y1 ∧x2 = y2 ∧ x3 = y3 . (b) ∀x, y ∈ Ê3 x × y ⊥ x ∧ x × y ⊥ y. (c) ∀x, y, z ∈ Ê3 x×(y+z) = x×y+x×z ∧ (x+y)×z = x×z+y×z (× distribuye sobre +). (d) ∀x ∈ Ê3 x × x = 0. (e) ∀x, y, z ∈ Ê3 (x × y) × z = x, z y − y, z x. 2. El objetivo de este ejercicio es probar: Ejercicio 2.6 Sean x, y ∈ Ê3 {0} vectores no paralelos, y sea z ∈ Ê3. Entonces a) z ⊥ x ∧ z ⊥ y =⇒ (∃λ ∈ Ê) z = λx × y. z ⊥ x × y =⇒ (∃s, t ∈ Ê) z = sx + ty. ´ b) Para ello: Ê (a) Sean x, y, z ∈ 3 tres vectores no coplanares con el origen, es decir, que no existe un plano que pasa por el origen y que contiene a los ı tres vectores x, y y z. Pruebe que esto equivale a: (∀s, t ∈ Ê)x = 0 + sy + tz ∧ y = 0 + sx + tz ∧ z = 0 + sx + ty (b) Pruebe que la condici´n anterior es equivalente a o (∀α, β, γ ∈ Ê) αx + βy + γz = 0 =⇒ α = β = γ = 0. (2.9) Ê (c) Sea A ∈ M33 ( ) la matriz descrita por columnas como A = x | y | z . Pruebe que la propiedad 2.9 equivale a que el sistema homog´neo e α α A β = 0 tiene como soluci´n unica β = 0, es decir, A es inver- γ o ´ γ tible. (d) Concluya que tres vectores x, y, z ∈ Ê3 no son coplanares con el origen ssi la matriz A = x | y | z es invertible. (e) Considere ahora x e y no nulos y no paralelos. Pruebe que los vectores x, y y x × y = 0 son no coplanares con el origen. Indicaci´n: Verifique la condici´n 2.9. o o 69
  • 70.
    (f ) Usela conclusi´n de la parte 2c para probar que o Departamento de Ingenier´a Matematica - Universidad de Chile ∀z ∈ Ê3 (∃s, t, λ ∈ Ê) z = sx + ty + λx × y. (2.10) (g) Pruebe, usando la propiedad 2.10, la proposici´n original. o 3. Estudiar la proyecci´n ortogonal de un punto q ∈ o Ê2 sobre una recta Ejercicio 2.8 Ê L ⊂ 2 , usando ecuaciones normales. Problemas P1. Se definen las rectas         −1 1 3 0 L1 :  2  + t  2  , t ∈ Ê y L2 :  1  + s  1  , s ∈ Ê. 1 −2 −1 −2 (a) Verifique que L1 y L2 no se intersectan. (b) Encuentre laecuaci´n normal del plano Π que contiene a la recta o L1 y es paralelo a L2 .   ´ 3 (c) El punto P =  1  pertenece a L2 . Encuentre la proyecci´n o −1 ortogonal de P sobre el plano Π de la parte (b). (d) D´ la ecuaci´n del plano paralelo a Π que est´ a la misma distancia e o a de L1 y L2 (Π es el plano de la parte (b)). Ê ı P2. (a) Sean P y Q puntos distintos en 3 . Demuestre que el conjunto Ê A = {x ∈ 3 : ||x − P || = ||x − Q||} es un plano. Encuentre un punto que pertenezca a A y encuentre un vector normal al plano A. (b) En Ê3 considere las rectas         0 −1 1 2 L1 : 5 + t −3 , t ∈ Ê y L2 : 2 + s 4 , s ∈ Ê. 1 2 3 1 (1) Demuestre que L1 y L2 se intersectan y encuentre la inter- secci´n. o (2) Encuentre el sistema de ecuaciones cartesianas que represen-   1 tan a la recta L que pasa por P = 1 y que es perpendi- 1 cular al plano que contiene a L1 y L2 . (3) Determine las ecuaciones de los planos que son paralelos al plano que contiene a L1 y L2 , y que se encuentra a distancia 1 del punto en que L1 y L2 se intersectan. 70
  • 71.
    Ê  de Ê P3. (a) Sean L1 ⊆ 3 el eje las x y L2 ⊆ 3 larecta que pasa por los Departamento de Ingenier´a Matematica - Universidad de Chile 1 −1 Ê puntos 2 y  3 . Encuentre una tercera recta L3 ⊆ 3 que 0 −1 sea perpendicular a L1 y a L2 , y que adem´s intersecte estas dos a rectas. Ê (b) Sea Π el plano de 3 de ecuaci´n cartesiana x + z + y = 1 y sea P o Ê Ê el origen en 3 . Calcular el punto Q ∈ 3 sim´trico de P , con e respecto a Π. ı ´ 71
  • 72.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 6: ESPACIOS VECTORIALES Departamento de Ingenier´a Matematica - Universidad de Chile 3. Espacios vectoriales 3.1. ´ Definicion Las estructuras que hasta ahora se han estudiado est´n dotadas de opera- a ciones que actuan internamente sobre el conjunto donde est´n definidas. Es a decir, a un par de elementos del conjunto, se le asocia otro elemento del mismo conjunto. Veremos ahora un tipo diferente de estructura algebraica, donde la “multiplicaci´n” actua sobre un par de elementos de conjuntos o distintos. Esta estructura que estudiaremos est´ inspirada en la estructura a Ê lineal de n . Para ello consideremos (V, +) un grupo Abeliano, es decir + es ley de composici´n interna o + es asociativa y conmutativa. Existe un neutro, 0 ∈ V , tal que: ∀x ∈ V, x + 0 = 0 + x = x. ∀x ∈ V , existe un inverso aditivo, −x ∈ V , tal que ´ x + (−x) = (−x) + x = 0. Sea à un cuerpo y definamos una ley de composici´n denominada externa:- o Ã×V →V ley de composici´n o externa (λ, v) → λv ∈ V. ı Definici´n 3.1 (Espacio vectorial). Dado un grupo abeliano (V, +) y o Espacio vectorial à un cuerpo ( , +, ·), con una ley de composici´n externa. Diremos que V es o un espacio vectorial sobre à si y s´lo si la ley de composici´n externa o o satisface ∀λ, β ∈ K, x, y ∈ V : (EV1) (λ + β)x = λx + βx. (EV2) λ(x + y) = λx + λy. (EV3) λ(βx) = (λβ)x. (EV4) 1 x = x, donde 1 es el neutro multiplicativo del cuerpo Ã. En tal caso, los elementos de V se denominan vectores y los de Ã, escalares.- vectores escalares Observaci´n: Se˜ alemos que en la definici´n anterior participan dos o n o estructuras algebraicas diferentes; un grupo Abeliano, (V, +), y un cuer- à po, . En tal sentido, dos espacios vectoriales son iguales si y s´lo si o ambos est´n definidos sobre los mismos grupos y cuerpos y, adem´s a a con una ley de composici´n externa id´ntica. o e 72
  • 73.
    Ejemplos: Departamento de Ingenier´a Matematica - Universidad de Chile 1. Es directo de la definici´n anterior que o Ãn es un espacio vectorial sobre . à à 2. Sea (Mmn ( ), +) el grupo Abeliano de las matrices de m filas y à n columnas con elementos en . Definamos la ley de composici´no externa: Ã × Mmn ( ) → Mmn ( ) à à (λ, A) → λA = (λaij ) Es f´cil verificar que se cumplen las propiedades (EV1) a (EV4). a Por ejemplo:      a11 . . . a1n b11 . . . b1n  . + . λ(A + B) = λ  . . . .    am1 . . . amn bm1 . . . bmn    λ(a + b ) . . . λ(a + b )  a11 + b11 . . . a1n + b1n 11 11 1n 1n . . = . .  ´ = λ . . . .  . . . .  am1 + bm1 . . . amn + bmn λ(am1 + bm1 ) . . . λ(amn + bmn )     λa11 . . . λa1n λb11 . . . λb1n . . . = . . + . . . .  = λA + λB. λam1 . . . λamn λbm1 . . . λbmn ı à ımos entonces que Mmn ( ) es un espacio vectorial sobre Conclu´ Ã. Ê 3. Sea Pn ( ) el conjunto de los polinomios de grado menor o igual a n, con la suma de funciones reales y la multiplicaci´n por escalar o definida por: Ê ∀p, q ∈ Pn ( ), (p + q)(x) = p(x) + q(x) ∀λ ∈ Ê, (λp)(x) = λp(x) n n o bien, si p(x) = ai xi , q(x) = bi xi i=0 i=0 n n (p + q)(x) = (ai + bi )xi , (λp)(x) = (λai )xi . i=0 i=0 Ê Es directo verificar que Pn ( ) es espacio vectorial sobre . Ê Adem´s, a Ê ÊÊ Pn ( ) ⊆ F( , ), lo cual, nos llevar´ m´s adelante, a definir la a a noci´n de subespacio vectorial. o 73
  • 74.
    à 4. Tomemos ahora un cuerpo ( , +, ·) arbitrario. Claramente ( , +) à Departamento de Ingenier´a Matematica - Universidad de Chile es un grupo Abeliano. Adem´s, definamos la ley de composici´n: a o Ã×Ã→à (λ, v) → λ · v à à donde ” · ” es la multiplicaci´n en el cuerpo . Como es cuerpo, o se verifican las propiedades . Conclu´ ımos entonces que todo cuerpo, à , es espacio vectorial sobre si mismo. Dos ejemplos importantes son Ê y . 5. Sea el grupo Abeliano ( , +) con la ley de composici´n externa: o Ê× → (λ, a + bi) → λ(a + bi) = λa + λbi Ê Es claro que es un espacio vectorial sobre pero no es el mismo espacio vectorial definido sobre . Es decir, el espacio vectorial sobre es distinto al espacio vectorial Ê sobre , pues los cuerpos sobre los cuales est´n definidos son diferentes. a ´ ◭ Ejercicio Ejercicio 3.1: Sea V un e.v. sobre Ã. Probar que: 1. 0v = v0 = 0, ∀v ∈ V, 0 ∈ Ã, elemento neutro aditivo de Ã. 2. λ0 = 0λ = 0, ∀λ ∈ Ã, 0 ∈ V , elemento neutro aditivo de V . 3. λv = 0 ⇒ λ = 0 ∨ v = 0, λ ∈ Ã, v ∈ V . ı 3.2. Subespacios vectoriales Definici´n 3.2 (Subespacio vectorial). Sea un espacio vectorial V so- o subespacio vectorial à bre un cuerpo . Diremos que U = φ, es un subespacio vectorial (s.e.v) de (s.e.v.) V si y s´lo si: o 1. ∀u, v ∈ U, u + v ∈ U 2. ∀λ ∈ Ã, ∀u ∈ U, λu ∈ U. Es decir, ambas operaciones, la interna y la externa, son cerradas en U . La siguiente proposici´n nos entrega una forma m´s compacta de caracte- o a rizar a un s.e.v. Proposici´n 3.1. Sea un espacio vectorial V sobre un cuerpo o Ã. U = φ, es subespacio vectorial (s.e.v) de V si y s´lo si: o ∀λ1 , λ2 ∈ Ã, ∀u1, u2 ∈ U, λ1 u1 + λ2 u2 ∈ U. 74
  • 75.
    ´ Demostracion. En efecto,si se verifica la primera definici´n entonces, o Departamento de Ingenier´a Matematica - Universidad de Chile de la propiedad 2, λ1 u1 ∈ U y λ2 u2 ∈ U . De la propiedad 1 se concluye λ1 u1 + λ2 u2 ∈ U . En el otro sentido, basta tomar λ1 = λ2 = 1 para verificar la primera propiedad y λ2 = 0 para verificar la segunda. Observaci´n: Si U es un s.e.v. de V entonces 0 ∈ U (basta tomar o λ = 0). Luego el subespacio vectorial m´s peque˜ o de V es {0}. El m´s a n a grande es, obviamente, V . Ejemplos: 1. El conjunto de los polinomios de grado menor o igual a n, Pn ( ), Ê ÊÊ es subespacio de F( , ). 2. U = {(x, y)/ax + by = 0} es un subespacio vectorial de Ê2. En Ê efecto, sean (x1 , y1 ), (x2 , y2 ) ∈ U, λ1 , λ2 ∈ : λ1 (x1 , y1 ) + λ2 (x2 , y2 ) = (λ1 x1 + λ2 x2 , λ1 y1 + λ2 y2 ) ´ Adem´s, a(λ1 x1 +λ2 x2 )+b(λ1 y1 +λ2 y2 ) = λ1 (ax1 +by1 )+λ2 (ax2 + a by2 ) = λ1 0 + λ2 0 = 0. Es decir, λ1 (x1 , y1 ) + λ2 (x2 , y2 ) ∈ U . El subespacio vectorial U est´ compuesto de todos los vectores de a Ê 2 contenidos en la recta ax+by = 0. Es claro que, dado un vector (x, y) de dicha recta, λ(x, y), est´ en la misma recta as´ como la a ı suma de dos vectores sobre ella. De esto conclu´ ımos que cualquiera Ê ı recta que pasa por el origen es un s.e.v. de 2 . Ê 3. Sea la matriz M ∈ Mmn ( ), el conjunto U = {x ∈ n /M x = 0} Ê Ê es un s.e.v. de n . En efecto: Ê Ê Dados λ1 , λ2 ∈ , x, y ∈ n . M (λ1 x + λ2 y) = λ1 M x + λ2 M y = λ1 0 + λ2 0 = 0, luego, λ1 x + λ2 y ∈ U. Supongamos ahora que, dado un espacio vectorial V sobre un cuerpo Ã, se tienen U, W s.e.v. de V . Es directo que U ∩ W es tambi´n s.e.v de V. e En efecto, si x, y ∈ U ∩ W, λ1 , λ2 ∈ K, entonces como U, W son s.e.v. de U ∩ W es s.e.v. V , λ1 x + λ2 y ∈ U y λ1 x + λ2 y ∈ W . Sin embargo, la uni´n no es necesariamente un s.e.v de V . o Ejemplo: Ê Ê Tomemos U = {(x, y) ∈ 2 /x − y = 0}, W = {(x, y) ∈ 2 /y − 2x = 0}. Ê Es claro que ambos son s.e.v de 2 . Sin embargo, (1, 1) ∈ U, (1, 2) ∈ W pero (1, 1) + (1, 2) = (2, 3) ∈ U ∪ W , luego no es s.e.v. (grafique para / cerciorarse). 75
  • 76.
    Esta constataci´n nosllevar´, m´s adelante, a definir una operaci´n en- o a a o tre espacios vectoriales (la “suma”) tal que podamos hablar de “uniones” Departamento de Ingenier´a Matematica - Universidad de Chile compatibles con la estructura de espacio vectorial. 3.3. Combinaciones lineales à Sea V un espacio vectorial sobre un cuerpo , y una colecci´n de vectores o v1 , v2 , ..., vn ∈ V , y de escalares λ1 , ..., λn ∈ K. Denominamos combina- ci´n lineal a la suma ponderada de estos vectores: o combinaci´n lineal o n λi vi = λ1 v1 + ... + λn vn i=1 n Claramente, por inducci´n sobre n, se prueba que o λi vi ∈ V . i=1 Dado un conjunto fijo, v1 , ..., vn ∈ V de vectores, definimos el conjunto de todas sus combinaciones lineales como sigue: {v1 , ..., vn } n {v1 , ..., vn } = {v ∈ V /v = λi vi , λi ∈ Ã}. i=1 ´ Proposici´n 3.2. Sean V e.v. y v1 , ..., vn ∈ V . Entonces {v1 , . . . , vn } es o un subespacio vectorial de V . Adem´s es el s.e.v. m´s peque˜o que contie- a a n ne los vectores v1 , . . . , vn . Es decir, si otro s.e.v U los contiene, entonces {v1 , . . . , vn } ⊆ U . Por ende, {v1 , . . . , vn } es llamado subespacio vectorial generado por {vi }n . i=1 ı ´ Demostracion. Para probar que es un subespacio vectorial de V , sean n n u, v ∈ {v1 , . . . , vn } , α, β ∈ K. Tenemos que u = λi vi , v = λ′ vi , i i=1 i=1 luego n αu + βv = (αλi + βλ′ )vi ∈ {v1 , ..., vn } . i i=1 Para probar que es el m´s peque˜ o, basta notar que como U es s.e.v. de V a n y contiene el conjunto {vi }n , entonces contiene todas sus combinaciones i=1 lineales. Ejemplo: Ê Tomemos v = (1, 1) ∈ 2 , el subespacio {v} = {λ(1, 1)/λ ∈ } corres- Ê ponde a la recta que pasa por el or´ ıgen con direcci´n dada por el vector o (1,1). Sean v1 = (1, 0), v2 = (0, 1), {v1 , v2 } = {λ(0, 1) + β(1, 0) | λ, β ∈ Ê} = Ê2. En efecto, dado un vector arbitrario (a, b) ∈ Ê2, este puede escribirse como (a, b) = a(1, 0) + b(0, 1). 76
  • 77.
    3.4. Dependencia e independencia lineal Departamento de Ingenier´a Matematica - Universidad de Chile Definici´n 3.3. Sea {vi }n ⊆ V , diremos que estos vectores son lineal- o i=1 mente dependientes (ℓ.d.) si y solo si: existen escalares {λ1 , ..., λn }, no linealmente n n dependientes (ℓ.d.) todos nulos, tales que λi vi = 0. En caso contrario, es decir λi vi = i=1 i=1 0 ⇒ λi = 0 ∀i = 1, ..., n, diremos que el conjunto de vectores {vi }n es i=1 linealmente independiente (ℓ.i.). linealmente independiente (ℓ.i.) Ejemplos: {(1, 1), (2, 2)} es un conjunto linealmente dependiente: −2(1, 1) + (2, 2) = (0, 0). Dado un espacio vectorial arbitrario V sobre Ã, {0} es linealmente dependiente pues: ∀λ λ0 = 0. En general, cualquier conjunto de vectores, {vi }n que contenga i=1 0 ∈ V es linealmente dependiente. Basta tomar la combinaci´n o 0v1 + 0v2 + . · · · + 0vn + 1 · 0 = 0, con escalares no todos nulos. ´ De manera similar a lo anterior es f´cil verificar que un conjunto depen- a diente sigue manteniendo esta propiedad al agregarle vectores. Adem´s, a un conjunto independiente, mantiene la independencia al extraerle vecto- res. En efecto, sea {vi }p ⊆ V un conjunto de vectores ℓ.d, entonces existe una i=1 combinaci´n lineal nula con escalares no todos nulos: o ı p λi vi = 0. i=1 Luego ∀v ∈ V, {v} ∪ {vi }p es ℓ.d., ya que basta tomar la combinaci´n i=1 o lineal: n 0v + λi vi = 0. i=1 Supongamos, ahora que el conjunto {vi }p es ℓ.i., es directo de la de la i=1 definici´n que al sacar un vector, vk , el conjunto {vi }p {vk } es ℓ.i. o i=1 Ejemplos: Ê 1. El conjunto {(1, 1, 1), (0, 1, 1), (1, 0, 0)} ⊆ 3 es ℓ.d. En efecto, (1, 1, 1) = (0, 1, 1) + (1, 0, 0), es decir (1, 1, 1) − (0, 1, 1) − (1, 0, 0) = (0, 0, 0) donde λ1 = 1, λ2 = −1, λ3 = −1. È Ê 2. En el espacio vectorial 4 ( ), los polinomios 1, x son ℓ.i En efecto, tomemos una combinaci´n lineal nula λ1+βx = 0, pero si β = 0 se o tendr´ que λ + βx es un polinomio de grado 1, luego tiene a lo m´s a a una ra´ y el polinomio 0 tiene infinitas ra´ ız ıces, luego λ = β = 0. 77
  • 78.
    3. Los vectoresen Ê4, {(1, 1, 0, 1), (1, 0, 1, 0), (0, 0, 1, 1), (0, 1, 1, 0)}, Departamento de Ingenier´a Matematica - Universidad de Chile son ℓ.i. En efecto: λ1 (1, 1, 0, 1)+λ2 (1, 0, 1, 0)+λ3 (0, 0, 1, 1)+λ4 (0, 1, 1, 0) = (0, 0, 0, 0) es equivalente al sistema de 4 × 4: λ1 + λ2 = 0 λ1 + λ4 = 0 λ2 + λ3 + λ4 = 0 λ1 + λ3 = 0 en t´rminos matriciales e      1 1 0 0 λ1 0 1 0 0 1   λ2   0     =   0 1 1 1 λ3 0 1 0 1 0 λ4 0 Aplicando Gauss a la matriz aumentada:       ´ 1 1 0 0 0 1 1 0 0 0 1 1 0 0 0 1 0 0 1 0  0 −1 0 1 0  0 −1 0 1 0  → →  0 1 1 1 0 0 1 1 1 0 0 0 1 2 0 1 0 1 0 0 0 −1 1 0 0 0 0 1 −1 0   1 1 0 0 0  0 −1 0 1 0 →  ⇒ λ1 = λ2 = λ3 = λ4 = 0. ı 0 0 1 2 0 0 0 0 −3 0 Ã En general en n , dado un conjunto de m vectores {v1 , ..., vm }, donde vi = (v1i , ..., vni ), i = 1, ..., m, podemos estudiar su dependencia o independencia lineal a trav´s de un sistema de n ecuaciones y m inc´gnitas. En efecto: e o λ1 v1 + ... + λm vm = 0      0 v11 v12 v1m .  v21  v  v  .   .  + λ2  22  + ... + λm  2m  =  .  ⇔ λ1  .  .  .  . .  .  . . . . . vn1 vn2 vnm 0    0 v11 v12 ··· v1m λ1 .  v21 v22 ··· v2m   λ2   .  ⇔  .  . . . .  .  . . =.∈ .  . Ãm. . . . . . vn1 vn2 ··· vnm λm 0 78
  • 79.
    à Departamento de Ingenier´a Matematica - Universidad de Chile Definiendo M = (vij ) ∈ Mnm ( ) (es decir poniendo los vectores originales ¯ à como columnas) y λ ∈ m como el vector de inc´gnitas, se tiene que para o analizar la dependencia o independencia lineal basta estudiar las soluciones ¯ del sistema M λ = 0. ¯ Si existe λ = 0 que satisface el sistema, entonces el conjunto de vectores {vi }m es ℓ.d., en caso contrario es ℓ.i.. M´s a´ n, sabemos que si m > n el i=1 a u sistema tiene m´s de una soluci´n, en particular una no nula luego {vi }m a o i=1 es ℓ.d.. As´ se ha probado: ı Teorema 3.1. En Ên, m > n vectores son siempre linealmente dependien- tes. o n à Observaci´n: Conviene se˜ alar que en n siempre es posible deter- minar n vectores independientes. Basta tomar el conjunto {ei }n , ei = i=1 (0, ..., 1, ..., 0), donde la componente no nula es la i-´sima. e ı ´ 79
  • 80.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 6 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. Sea V un e.v. sobre Ã. Probar que: Ejercicio 3.1 (a) 0v = v0 = 0, ∀v ∈ V, 0 ∈ Ã, elemento neutro aditivo de Ã. (b) λ0 = 0λ = 0, ∀λ ∈ Ã, 0 ∈ V , elemento neutro aditivo de V . (c) λv = 0 ⇒ λ = 0 ∨ v = 0, λ ∈ Ã, v ∈ V . 2. Determinar cu´les de las siguientes estructuras son espacios vectoriales: a (a) Ê2 con la suma usual y la siguiente ponderaci´n: α ∈ Ê, o α(a, b) = (αa, b). (b) Ê 2 con la suma usual y la siguiente ponderaci´n: α ∈ , α(a, b) = o Ê (αa, 0). (c) Ê + con la “suma”: x ⊕ y = x × y y la ponderaci´n: αx = xα . o (d) Ê El conjunto de las funciones de [a, b] en acotadas, con la suma y poderaci´n (por escalares en ) usuales. o Ê (e) Ê Ê El conjunto de las funciones f : → tales que f (−1) = f (1), con la suma y ponderaci´n usuales. o Ê 3. Sea Pn ( ) el conjunto de los polinomios de grado menor o igual a n, ´ con la suma de funciones reales y la multiplicaci´n por escalar definida o por: Ê ∀p, q ∈ Pn ( ), (p + q)(x) = p(x) + q(x) Ê ∀λ ∈ , (λp)(x) = λp(x). Ê Pruebe que Pn ( ) es espacio vectorial sobre Ê. Ê 4. Indique cu´les de los siguientes conjuntos son s.e.v. de P2 ( ) (conside- a ı rado como en la parte anterior) y cu´les no lo son. Pruebe su respuesta. a (a) U = {p(x) = a(x2 + x + 1) | a ∈ }. Ê (b) U = {p(x) = ax2 + bx + b) | a, b ∈ }. Ê (c) U = {p(x) = x2 + ax + b | a, b ∈ }. Ê (d) U = {p(x) = ax2 + b | a, b ∈ }. Ê (e) U = {p(x) = ax2 + b2 x + x + c | a, b, c ∈ Ê {0}}. 5. Determine la dependencia o independencia lineal de cada uno de los siguientes conjuntos de vectores: (a) −3 1 0 , 4 6 −5 , −7 −5 5 ⊆ Ê3. 2 2 2 (b) x + 1, x − 1, x + x + 1 ⊆ P2 ( ). Ê 00 1 0 11 Ê (c) {( 1 0 ) , ( 1 1 ) , ( 1 1 ) , ( 1 1 )} ⊆ M22 ( ) 00 6. (a) Sean a, b, c tres vectores de un espacio vectorial V . Determine si el conjunto {a + b, b + c, c + a} es un conjunto l.i. (b) Sea {u1 , u2 , . . . , uk } un subconjunto l.i. de un espacio vectorial V . Pruebe que ∀α escalar, el conjunto: {u1 + αu2 , u3 , . . . , uk } es l.i. 80
  • 81.
    Problemas Departamento de Ingenier´a Matematica - Universidad de Chile Ê P1. Sea P3 ( ) el conjunto de polinomios de grado menor o igual a 3 con Ê coeficientes reales. Sean p1 , p2 , p3 ∈ P3 ( ) tales que p1 (x) = 1 + 6x2 , p2 (x) = 4x, p3 (x) = 1 + 3 + 5x2 . Ê Demuestre que P2 ( ) = {p1 , p2 , p3 } . P2. Sean E, F e.v. sobre un cuerpo Ã. Sea T una funci´n T : E → F , que o satisface: (1) T (0E ) = 0F . En donde 0E y 0F son los neutros aditivos en cada e.v. (2) ∀x ∈ E, ∀α ∈ Ã: T (αx) = αT (x). (3) ∀x, y ∈ E, T (x + y) = T (x) + T (y). Considere T (E) = {y ∈ F | y = T (x), x ∈ E}. (a) Muestre que T (E) es un s.e.v. de F . ´ (b) Suponga adem´s que T satisface que: a ∀x ∈ E, T (x) = 0 ⇒ x = 0. Muestre que si {u1 , . . . , un } ⊆ E es l.i., entonces {T (u1), . . . , T (un )} ⊆ F es l.i. P3. Sean E y F espacios vectoriales sobre el mismo cuerpo Ã. ı (a) Pruebe que dotando al conjunto E × F de las leyes ∀(x, y), (u, v) ∈ E × F, (x, y) + (u, v) = (x + u, y + v) ∀α ∈ Ã, ∀(x, y) ∈ E × F, α(x, y) = (αx, αy), ´ste resulta ser un e.v. sobre Ã. e (b) Pruebe que E × {0F } y {0E } × F son subespacios vectoriales de E × F . Determine 0E×F y pruebe que (E × {0F }) ∩ ({0E } × F ) = {0E×F }. (c) Sea {e1 , e2 , . . . , en } ⊆ E un conjunto l.i. en E y {f1 , f2 , . . . , fm } ⊆ F un conjunto l.i. en F . Determine un conjunto l.i. en E × F , de tama˜ o n + m. n P4. Sea E el espacio vectorial sobre Ê de las funciones definidas sobre a valores reales: E = {f | f : → Ê es funci´n}. o 81
  • 82.
    (a) Sean a1, a2 ∈Ê con a2 = 0 y F0 el conjunto de las funciones Departamento de Ingenier´a Matematica - Universidad de Chile f ∈ E que verifican la condici´n: o ∀n ∈ , f (n) + a1 f (n − 1) + a2 f (n − 2) = 0. Pruebe que F0 es un s.e.v. de E. (b) Sea ahora F1 el conjunto de las funciones f ∈ E que verifican la condici´n: o ∀n ∈ , f (n) + a1 f (n − 1) + a2 f (n − 2) = 1. Pruebe que F1 no es un s.e.v. de E. ı ´ 82
  • 83.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 7: ESPACIOS VECTORIALES Departamento de Ingenier´a Matematica - Universidad de Chile 3.5. Generadores de un espacio vectorial Sea V un espacio vectorial sobre un cuerpo Ã. Diremos que los vectores {v1 , ..., vn } ⊆ V , generan V si y s´lo s´ o ı: {v1 , ..., vn } ⊆ V generan V {v1 , ..., vn } = V o de manera equivalente: n ∀v ∈ V, ∃{λi }n ⊆ i=1 Ã, tal que v= λi vi . i=1 Ejemplo: Tomemos el conjunto {(1, 0), (0, 1), (1, 1)}. Este genera 2 . En efecto, Ê (x, y) = x(1, 0) + y(0, 1) + 0(1, 1). Es decir {(1, 0), (0, 1), (1, 1)} = 2 . Ê Pero, en este caso, la forma de escribir (x, y) no es unica: ´ ´ (x, y) = (x − y)(1, 0) + y(1, 1) + 0(0, 1). En ambas combinaciones lineales “sobra” un vector. M´s a´n, constata- a u mos que los tres vectores son l.d.: (1, 1) − (1, 0) − (0, 1) = (0, 0) Esto nos lleva a la noci´n de conjunto generador de 2 con un n´ me- o u Ê ı ro m´ınimo de vectores linealmente independientes. En nuestro ejemplo anterior {(1, 0), (0, 1)} ´ {(1, 1), (1, 0)}. o ¿Hay alguno m´s?. a Definici´n 3.4 (Base). Dado un espacio vectorial V sobre , diremos o à que el conjunto de vectores {vi }n es una base de V si y s´lo s´: i=1 o ı base (1) {vi }n es un conjunto l.i. i=1 (2) V = {v1 , ..., vn } . Ejemplos: à 1. En n , el conjunto {ei }n , donde ei = (0, ..., 1, 0..,0) es base. En i=1 efecto, ya probamos que son l.i., adem´s, dado x = (x1 , ..., xn ) ∈ a Ãn , x = Ãn se denomina base can´nica. n xi ei . Esta base de o i=1 83
  • 84.
    2. Estudiemos, en Ê3 , si el conjunto de vectores, B = Departamento de Ingenier´a Matematica - Universidad de Chile {(1, 1, 0), (1, 0, 1), (0, 1, 1)}, es base. Veamos primero si B es ge- Ê nerador. Sea b = (b1 , b2 , b3 ) ∈ 3 y determinemos si existen esca- lares, {λ1 , λ2 , λ3 }, tales que: (b1 , b2 , b3 ) = λ1 (1, 1, 0) + λ2 (1, 0, 1) + λ3 (0, 1, 1). Esto es equivalente a estudiar el sistema de 3 × 3:      1 1 0 λ1 b1  1 0 1   λ2  =  b2  . 0 1 1 λ3 b3 Para resolverlo tomemos la matriz aumentada y escalaremos:       1 1 0 b1 1 1 0 b1 1 1 0 b1  1 0 1 b2  →  0 −1 1 b2 − b1  →  0 −1 1 b2 − b1  , 0 1 1 b3 0 1 1 b3 0 0 2 b3 + b2 − b1 de donde: λ3 = b3 +b2 −b1 , λ2 = b1 +b2 −b2 , λ1 = 2 3 b1 +b2 −b3 . Es decir, Ê 2 3 dado b ∈ , b es combinaci´n lineal de B: o b1 + b2 − b3 b1 + b3 − b2 b2 + b3 − b1 (b1 , b2 , b3 ) = (1, 1, 0)+ (1, 0, 1)+ (0, 1, 1). 2 2 2 ´ Luego Ê3 = B . Para determinar que el conjunto B es l.i. (y por lo tanto base) basta resolver el sistema anterior para b = (0, 0, 0). En este caso se concluye λ1 = λ3 = λ3 = 0, y por lo tanto son l.i. Ê 3. En el espacio vectorial Pn ( ), el conjunto B = {1, x, x2 , ..., xn } es base. En efecto. Es claro que cualquier polinomio, q de grado ≤ n ı se escribe como combinaci´n lineal de los vectores en B: o n q(x) = ai xi . i=0 para verificar que estos son ℓ.i tomemos la combinaci´n lineal o n λi xi = 0. i=0 Se tiene que, si el polinomio de la izquierda tiene alg´ n coeficiente u no nulo, entonces es un polinomio de grado entre 0 y n luego posee, a lo m´s, n ra´ a ıces. Pero el polinomio de la derecha (polinomio nulo) tiene infinitas ra´ıces. De esto se desprende que λi = 0, i = 0, ..., n. Otra manera de verificar la independencia lineal es mediante deri- vaci´n: o n d ( λi xi ) = λ1 + 2λ2 x + ... + nλn xn−1 = 0 dx i=0 84
  • 85.
    n d2 ( λi xi ) = 2λ2 + ... + n(n − 1)λn xn−2 = 0 Departamento de Ingenier´a Matematica - Universidad de Chile dx2 i=0 . . . . n dn ( λi xi ) = n!λn = 0 dxn i=0 ⇒ λn = 0 ⇒ λn−1 ⇒ ... ⇒ λ1 = 0 ⇒ λ0 = 0 4. Existen espacios vectoriales en los cuales ning´ n conjunto finito de u vectores es base, por ejemplo, sea S el conjunto de las sucesiones, es decir: S = {(un )/un ∈ , ∀n ∈ }.Ê Æ Claramente, con la suma (un )+(vn ) = (un +vn ) y la multiplicaci´n o Ê λ(un ) = (λun ), λ ∈ , S es un espacio vectorial sobre . Ê Vemos que el conjunto finito de sucesiones Bn = {x , . . . , x(n) }, (1) (i) donde xj = 1 si y s´lo si i = j (0 en otro caso), es linealmente o independiente. En efecto: ´ n λi x(i) = (λ1 , λ2 , ..., λn , 0, 0...) = (0, ..., 0, ...) ⇒ λi = 0 ∀i = 1, ..., n. i=0 Pero, siempre es posible agrandar este conjunto. Basta tomar Æ Bn+1 = Bn ∪ {x(n+1) }. Adem´s ∀n ∈ , Bn no es generador pues a dado n fijo, el vector x(n+1) es linealmente independiente de los ı vectores de Bn . Es decir, extendiendo adecuadamente las defini- ciones de l.i. y generador a conjuntos infinitos (lo cual se puede hacer, pero no lo haremos aqu´ la “base” ser´ B = n≥1 Bn , ı), ıa que es un conjunto infinito. Sin embargo, es posible probar que B tampoco puede generar a todas las sucesiones de S, es s´lo un o conjunto l.i. 5. Observemos que el conjunto de las progresiones aritm´ticas, P A e es un s.e.v. de S, y este tiene una base finita. En efecto ¯ = 1 (1, . . . , 1, . . . ), e = (1, 2, 3, . . . , n, . . . ) ∈ P A y adem´s son l.i.: a ¯ λ1 + βe = (λ + β, λ + 2β, λ + 3β, ..., λ + uβ, ...) = (0, ..., 0, ...) ⇒ (λ + β = 0) ∧ (λ + 2β = 0) ⇒ λ = β = 0. Adem´s son generadores: Sea (xn )n una progresi´n de diferencia a o d entonces se tiene xn = x0 + nd y por lo tanto: (xn ) = x0 ¯ + de. 1 85
  • 86.
    Una caracterizaci´n debase, que nos ser´ util m´s adelante, es la siguiente: o a´ a Departamento de Ingenier´a Matematica - Universidad de Chile Proposici´n 3.3. Dado un espacio vectorial V , B = {vi }n ⊆ V es una o i=1 base si y s´lo s´ ∀v ∈ V, v se escribe de manera unica como combinaci´n o ı ´ o lineal de los vectores del conjunto B. ´ Demostracion. Demostremos esta propiedad: ⇒) Como B es base, B = V , luego v se escribe como combinaci´n lineal o de los vectores en B. Supongamos que esto puede hacerse de dos maneras: n n v= αi vi , v = βi vi . i=1 i=1 n Se tiene entonces (αi −βi )vi = 0. Como B es un conjunto l.i., conclu´ ımos i=1 que αi = βi para todo i. ⇐) Por hip´tesis, cualquier vector v ∈ V es combinaci´n lineal del conjunto o o n B, luego B es generador. Supongamos que B es l.d., entonces λi vi = 0 i=1 ´ con escalares no todos nulos. Adem´s 0v1 + 0v + ... + 0vn = 0 luego el a vector 0 se escribe de dos maneras distintas, lo cual es una contradicci´n. o Conclu´ımos entonces que B es base. Observaci´n: Por convenci´n el conjunto vac´ φ es la base del espacio o o ıo vectorial {0}. Esto pues por definici´n diremos que φ es l.i. y adem´s o a ı el subespacio m´s peque˜ o que lo contiene es {0}. a n Otra propiedad importante es la siguiente: Teorema 3.2. Si X = {v1 , . . . , vn } ⊆ V es un conjunto generador, en- tonces es posible extraer un subconjunto B = {vi1 , . . . , vis } que es base de V. ´ Demostracion. Procederemos de manera recursiva 1. Elijamos vi1 ∈ B, el primer vector no nulo que encontremos (¿ Qu´ pa- e sa si todos son cero?). Hagamos B1 = {vi1 }. Claramente B1 es lineal- mente independiente. 2. Preguntamos ¿X B1 ⊆ B1 ? Si es cierto: Entonces B1 es base. En efecto, X B1 ⊆ B1 ⇒ n ∀j = i1 , vj = λj vi1 . Como V = X ⇒ ∀v ∈ V, v = αk vk = k=1 86
  • 87.
    αk λk vi1+ αi1 vi1 = λvi1 ∈ B1 , con λ ∈ Ã lo que implica que Departamento de Ingenier´a Matematica - Universidad de Chile k=i1 V ⊆ B1 . Es decir V = B1 , luego B1 es l.i. y generador. Si no es cierto: Entonces ∃vi2 ∈ X B1 , vi2 ∈ B1 . Hacemos B2 = / B1 ∪ {vi2 } y repetimos el procedimiento anterior. En el k-´simo paso se habr´ generado, a partir de Bk−1 = {vi1 , ..., vik−1 }, e a (que es linealmente independiente), el nuevo conjunto: Bk = Bk−1 ∪ {vik }, vik ∈ Bk−1 . / Bk es linealmente independiente: En efecto, sea: k λj vij = 0. j=1 k−1 1 Si λk = 0 entonces vik = − λk λj vij ∈ Bk−1 que es una contra- j=1 dicci´n. Luego λk = 0 y, como Bk−1 es linealmente independiente, o λj = 0 ∀j = 1...k − 1. ´ Finalmente, como el conjunto de vectores X es finito, en un n´ mero fi- u nito de pasos determinamos un conjunto linealmente independiente Bs = {vi1 , ..., vis }, tal que X Bs ⊆ Bs y de manera an´loga a lo ya hecho se a prueba que es generador y por lo tanto base de V . En la demostraci´n anterior, elegimos el “pr´ximo” vector, vik , para “en- o o trar” al conjunto Bk−1 , exigiendo solamente: vik ∈ Bk−1 . Obviamente / ı pueden existir varios vectores con tal propiedad. Esto permite afirmar que, en general, a partir de B podemos determinar varias bases (a menos claro que B mismo sea una base). Ejemplo: Si B = {(1, 0), (0, 1), (1, 1)}, los subconjuntos {(1, 0), (0, 1)}, {(1, 0), (1, 1)} y {(0, 1), (1, 1)} son todos bases de Ê 2 . Daremos ahora una generalizaci´n del Teorema 3.1. o Teorema 3.3. Supongamos que tenemos B = {vi }n , base de V y un i=1 conjunto arbitrario X = {wi }m ⊆ V . Si m > n, entonces el conjunto X i=1 es l.d. ´ Demostracion. En efecto, como B es base: wi = λ1i v1 + ... + λni vn 1≤ i ≤ m. Tomemos una combinaci´n lineal de los vectores de X: o β1 ω1 + ... + βm ωm = 0, (3.1) 87
  • 88.
    reemplazando cada wicomo combinaci´n lineal de B, 3.1 equivale a: o Departamento de Ingenier´a Matematica - Universidad de Chile m βi [λ1i v1 + ... + λni vn ] = 0 i=1 m n ⇔ βi λji vj = 0 i=1 j=1 n m ⇔ vj ( βi λji ) = 0 j=1 i=1 y como B = {vj }n es l.i., lo anterior es equivalente a j=1 m λji βi = 0 1≤j≤n i=1 ¯ o, de manera matricial Aβ = 0, donde     λ11 λ12 · · · λ1m β1  λ21 λ22 · · · λ2m   β2  A= . . ¯ . , β =  . .  . . . . . .   .  . ´ λn1 λn2 · · · λnm βm Del cap´ıtulo anterior sabemos que para m > n el sistema anterior tiene m´s de una soluci´n (infinitas), luego al menos una no nula. Es decir existen a o escalares β1 , ..., βm , no todos nulos, soluci´n de la ecuaci´n 3.1. De donde o o conclu´ımos que X es l.d. ı De este resultado se desprende directamente el corolario siguiente que es suma importancia: Corolario 3.1. Si {vi }i=1 , y {ui }m son bases de V , entonces n = m. n i=1 ´ Demostracion. En efecto, si n > m, de la propiedad anterior conclu´ ımos {vi }n es l.d., lo cual es una contradicci´n. i=1 o As´ si existe una base finita, de cardinal n, entonces cualquier otra base ı, contiene exactamente n vectores. Esto nos lleva a definir la dimensi´n de un espacio vectorial. o Definici´n 3.5 (Dimensi´n). Diremos que un espacio vectorial V sobre o o dimensi´n o à es de dimensi´n n (finita) si admite una base de cardinalidad n. En caso o que no exista una base finita, hablaremos de espacio vectorial de dimensi´n o infinita. dimensi´n infinita o Notaremos dim V al cardinal de una base (dim V = ∞, si V no posee una base finita). En particular dim{0}=0. Ejemplos: 1. dim Ên = n. 88
  • 89.
    2. dim S= ∞. Departamento de Ingenier´a Matematica - Universidad de Chile 3. dim P A = 2. 4. dim Mmn = m · n. Verifiquemos esta ultima. Tomemos el conjunto de matrices de 0 y 1: ´ ¯ B = {E[α, β] = (eαβ ), eαβ = 1 ⇔ (α, β) = (i, j) α ∈ {1, ..., m}, β ∈ {1, ..., n}}. ij ij Este conjunto corresponde a la base can´nica del espacio de las matrices. o Por ejemplo, para m = 2 y n = 3, el conjunto B est´ formado por las a matrices: 1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0 , , , , , . 0 0 0 0 0 0 0 0 0 1 0 0 1 0 0 0 0 1 Volvamos al caso general, claramente B es l.i.     m n λ11 ...λ1n 0 ... 0  . . = .  . λαβ E[α, β] = . . α=1 β=1 λm1 ...λmn 0 ... 0 ´ ⇒ λαβ = 0 ∀α, β. Adem´s, dada A = (aij ) ∈ Mmn (K): a m n A= aαβ E[α, β]. α=1 β=1 Luego, el conjunto {E[α, β]}α,β es base. Es decir dim Mmn (K) = mn. ı Algunas propiedades de los espacios de dimensi´n finita son las siguientes: o Teorema 3.4. 1. Sea dim V = n. Si {vi }i=1 es l.i. entonces {vi }n es base. n i=1 2. Sea U un s.e.v de V , luego dim U ≤ dim V m´s a´n se tiene que a u dim U = dim V ⇒ U = V . ´ Demostracion. 1. Basta probar que V = {v1 , ..., vn } . Supongamos ∃u ∈ {v1 , .., vn } , / luego B = {u, v1 , ..., vn } es l.i. y |B| = n + 1 > n. Lo que es una contra- dicci´n, pues todo conjunto de cardinal mayor que la dimensi´n debe o o ser l.d. 89
  • 90.
    2. Supongamos m= dim U > n = dim V , entonces existe {ui }m base i=1 Departamento de Ingenier´a Matematica - Universidad de Chile de U , pero {ui }m ⊆ V es l.i., de cardinal mayor que la dimensi´n, i=1 o lo cual contradice el hecho que el m´ximo conjunto de vectores l.i. es a de cardinalidad n. Para probar la ultima parte supongamos U = V . Sea {ui }n una ´ i=1 base de U . Como U = V y {u1 , ..., un } = U, ∃v ∈ V U ⇒ B = {v} ∪ {ui }n es l.i. en V y |B| > dim V , que al i=1 igual que antes da una contradicci´n. o Un resultado importante es la posibilidad de que, en un espacio vectorial V, dim V = n, un conjunto de vectores linealmente independiente, pueda completarse hasta formar una base de V . Teorema 3.5 (Completaci´n de base). Dado V espacio vectorial so- o Completaci´n de base o bre à con dim V = n, y un conjunto de vectores l.i.; X = {v1 , . . . , vr }, r < n, entonces existen vectores vr+1 , . . . , vn , tales que el conjunto {v1 , . . . , vn } es base de V . ´ ´ Demostracion. Sea U = {v1 , . . . , vr } , claramente U = V (justifique). Luego ∃v ∈ V U . Definiendo vr+1 = v, el conjunto {v1 , ..., vr , vr+1 } es l.i. En efecto r+1 λi vi = 0 ı i=1 r 1 Si λr+1 = 0 entonces, se concluye que vr+1 = − λr+1 λi vi ∈ {v1 , ..., vr } i=1 lo cu´l es una contradicci´n ya que vr+1 ∈ U . Si λr+1 = 0 ⇒ λi = 0 ∀i = a o / 1, ..., r pues los vectores de X son l.i. Si {v1 , ..., vr+1 } = V hemos termi- nado, sino repetimos el procedimiento. Ejemplo: Consideremos, en Ê4 el conjunto X = {(1, 1, 0, 0), (0, 1, 0, 0)}. Claramente este conjunto es l.i. y adem´s (0, 0, 1, 0) a ∈ / {(1, 1, 0, 0), (0, 1, 0, 0)} . Luego {(1, 1, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)} es l.i. An´logamente, el vector (0, 0, 0, 1) ∈ {(1, 1, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)} a / luego el conjunto B = {(1, 1, 0, 0)(0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} es l.i. Ê y como contiene tantos vectores como dim 4 = 4, es base. 90
  • 91.
    3.6. Suma de espacios vectoriales Departamento de Ingenier´a Matematica - Universidad de Chile Recordemos que la uni´n de subespacios de un espacio vectorial V , no es o necesariamente un espacio vectorial. Definamos una operaci´n entre subes- o pacios que nos permita determinar uno nuevo, que contenga a ambos. Sean U, W subespacios de V , definimos la suma de subespacios vectoriales suma de subespacios como sigue: vectoriales U + W = {v ∈ V /v = u + w, u ∈ U, w ∈ W }. Es directo que U + W es un s.e.v de V . En efecto, sean x, y ∈ U + W, λ, β ∈ U +W K, luego x = u1 + w1 , y = u2 + w2 . Adem´s, λx + βy = (λu1 + βu2 ) + a (λw1 + βw2 ) ∈ U + W ya que U y W son s.e.v. Ejemplo: Tomemos en Ê2, los subespacios U = {(1, 1)} , W = {(1, 0)} U + W = {v = λ(1, 1) + β(1, 0)/λ, β ∈ Ê} = Ê2 En efecto, (x, y) = y(1, 1) + (x − y)(1, 0) Ê Sean, en 3 , los subespacios U = {(1, 0, 0)} , W = {(0, 1, 0)} ´ U + W = {(x, y, 0) | x, y ∈ Ê} = Ê3. En general, es directo que U ⊆ U + W y W ⊆ U + W . Basta tomar los elementos de la forma u + 0 y 0 + w, respectivamente. Dado V = U + W , un vector no necesariamente admite una escritura unica ´ ı en t´rminos de U y W . e Ejemplo: Si U =< {(1, 0), (0, 1)} >, W =< {(1, 1)} > luego Ê2 = U + W . Pero el vector (1, 1) se escribe de dos maneras: (1, 1) = (1, 1) + 0 donde (1, 1) ∈ U y 0 ∈ W , pero adem´s a (1, 1) = 0 + (1, 1) donde esta vez 0 ∈ U y (1, 1) ∈ W . En el caso particular, en que la descomposici´n de un vector de V sea unica o ´ en t´rminos de los subespacios, diremos que V es suma directa de U y e W, Definici´n 3.6 (Suma directa). Sea un espacio vectorial V y dos sub- o suma directa espacios vectoriales U, W de V . Diremos que el subespacio Z = U + W es suma directa de U y W , notado U ⊕ W = Z, si ∀v ∈ Z, v se escribe de U ⊕W = Z 91
  • 92.
    manera unica como ´ Departamento de Ingenier´a Matematica - Universidad de Chile v = u + w, u ∈ U, w ∈ W. En el caso en que V sea suma directa de U y W , diremos que estos ultimos ´ son suplementarios. Ejemplo: Ê Sean, por ejemplo, los subespacios de 2 , V =< {(1, 0)} >, W =< {(0, 1)} > Ê 2 = U ⊕ W, pues (x, y) = x(1, 0) + y(0, 1) es unica. ´ Una caracterizaci´n util de la suma directa es la siguiente: o ´ Proposici´n 3.4. Dado V e.v. y U, W, Z s.e.v. de V , entonces o Z = U ⊕ W ⇔ (Z = U + W ) ∧ (U ∩ W = {0}) ´ Demostracion. En efecto: ´ ⇒) Como Z es suma directa de U y W , ∀v ∈ Z, ∃! u ∈ U, w ∈ W tal que v = u + w ⇒ v ∈ U + W , luego Z = U + W . Supongamos ahora v ∈ U ∩ W , entonces v = v + 0 = 0 + v. Es decir, v admite dos escrituras en U + W , luego necesariamente v = 0. ⇐) Como Z = U + W, ∀v ∈ Z, v = u + w, u ∈ U, w ∈ W . Veamos que esta descomposici´n es unica. Supongamos v = u + w y v = u′ + w′ , o ´ ı entonces u − u′ = w′ − w, donde u − u′ ∈ U y w′ − w ∈ W , luego u − u′ ∈ U ∩ W ⇒ u − u′ = 0 ⇒ u = u′ ⇒ w = w ′ . Una propiedad interesante de la suma directa es: Teorema 3.6. Si V = U ⊕ W y V es de dimensi´n finita, entonces dim o dim U ⊕ W V = dim U + dim W . ´ Demostracion. En efecto, si U o W corresponde al subespacio nulo, {0}, el resultado es directo. Supongamos entonces U = {0} = W . Sea {ui }k base de U, {wi }m base i=1 i=1 de W . Afirmamos que el conjunto B = {u1 , ..., uk , w1 , ..., wm } es base de V: 1. B es linealmente independiente: k m λi ui + βi wi = 0 i=1 i=1 92
  • 93.
    k m Como λi ui ∈ U, βi wi ∈ W y el vector 0 se escribe de manera Departamento de Ingenier´a Matematica - Universidad de Chile i=1 i=1 unica en U + W como 0 = 0 + 0, obtenemos: ´ k m λi ui = βi wi = 0 i=1 i=1 y por independencia lineal de {ui }i=1 , {wi }m conclu´ k i=1 ımos λ1 = ... = λk = β1 = ... = βk = 0. 2. B es generador del e.v. V : Como V = U ⊕ W, ∀v ∈ V, v = u + w, u ∈ U, w ∈ W . Pero u ∈ U, w ∈ k W se escriben como combinaci´n lineal de sus bases: u = o αi ui , i=1 m w= λi wi , de donde, i=1 k m v= αi wi + λi wi , luego B = V . i=1 i=1 De (1) y (2) es directo que dim V = k + m = dim U + dim W . ´ Una pregunta importante es la siguiente: dado un s.e.v U de V , ¿ existe un suplementario de U ?, es decir ¿ un s.e.v W tal que V = U ⊕ W ? La respuesta es afirmativa, si U = V , basta tomar como suplementario W = {0}. Si dim U < dim V , tomemos una base de U : X = {ui }k . Por i=1 el teorema de completaci´n de base, existen vectores {uk+1 , ..., un } tales o que B = X ∪ {uk+1 , ..., un } es base de V . Sea ahora ı W = {uk+1 , ..., un } . Afirmamos que V = U ⊕W . En efecto, como {u1 , ..., un } es base de V , todo v ∈ V puede escribirse, de manera unica, como combi- ´ naci´n lineal de esta base: o k n v= αi ui + αi ui i=1 i=k+1 k n Como u = αi ui ∈ U, w = αi ui ∈ W , tenemos que un vector v ∈ V i=1 i=k+1 se escribe de manera unica como v = u + w. ´ Ejemplos: Tomemos V = Ê3 y los subespacios U = {(1, 0, 0), (0, 1, 0)} , W = {(0, 1, 0), (0, 0, 1)} U ∩W = {(0, 1, 0)} . En efecto, si v ∈ U ∩W, v = α(1, 0, 0)+β(0, 1, 0) = γ(0, 1, 0) + δ(0, 0, 1). De donde, α = δ = 0, β = γ. Luego v = γ(0, 1, 0). Es decir U ∩W = {(0, 1, 0)} , De esto conclu´ ımos que U +W no es suma directa, 93
  • 94.
    Ê sin embargo 3 = U + W = Departamento de Ingenier´a Matematica - Universidad de Chile {(1, 0, 0), (0, 1, 0), (0, 0, 1)} . Ê En 2 , cualquier par de rectas no colineales, que pasen por el origen, est´n asociados a subespacios suplementarios. Luego el suplementario de a un s.e.v. U no es unico. ´ El siguiente resultado, propuesto como ejercicio, extiende el Teorema 3.6 al caso en que la suma no es necesariamente directa. Teorema 3.7. Supongamos que V = U + W , entonces dim V = dim U + dim U + W dim W − dim U ∩ W . ´ Demostracion. Propuesta como ejercicio. Ver la gu´ para indicaciones. ıa ◭ Ejercicio ı ´ 94
  • 95.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 7 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. Averigue si el conjunto de polinomios {1 + x3 , 1 − x3 , x − x3 , x + x3 } Ê constituye una base de F = {p ∈ P( ) | gr(p) < 4}. Donde P( ) el es Ê espacio de los polinomios a coeficientes reales. Ê 2. Sea W es subespacio vectorial de 4 generado por el conjunto         1  1 2           1 −1 3 , ,  . 1  1 2    1 −1 3 (a) Determine una base de W y su dimensi´n. o (b) Extienda la base encontrada antes a una base de Ê4 . 3. Se desea probar el siguiente resultado: Teorema 3.7 Supongamos que V = U + W , entonces dim V = dim U + dim W − dim U ∩ W . ´ Para ello: Considere U ∩ W como subespacio de U y W . Si se toma {z1 , ..., zk } base de U ∩ W , se puede extender a BU = {z1 , ..., zk , u1 , ..., ul } base de U y BW = {z1 , ..., zk , w1 , ..., wp } base de W. ı Se probar´ que B = {z1 , ..., zk , u1 , ..., ul , w1 , ..., wp } es base de V . a (a) Pruebe que B genera a V . Es decir, tome v ∈ V y pruebe que es combinaci´n lineal de los vectores de B. Use que V = U + W . o (b) Para probar que B es l.i., tome una combinaci´n lineal de B igual o a cero: 0 = α1 z1 + ... + αk zk + γ1 u1 + ... + γl ul + β1 w1 + ... + βp wp de donde −(β1 w1 + ... + βp wp ) = α1 z1 + ... + αk zk + γ1 u1 + ... + γl ul . (3.2) Pruebe que existen λ1 , . . . , λk ∈ Ã tales que −(β1 w1 + ... + βp wp ) = λ1 z1 + ... + λk zk . (c) Demuestre que β1 = · · · = βp = λ1 = · · · = λk = 0. (d) Reemplace lo anterior en 3.2 y use que BU es base para probar que α1 = · · · = αk = γ1 = · · · = γl = 0. (e) Concluya que B es l.i. y por ende base de V . (f ) Concluya el resultado buscado. 95
  • 96.
    Problemas Departamento de Ingenier´a Matematica - Universidad de Chile P1. Considere los conjuntos W y U definidos por:   a b 0 Ê W = {M ∈ M33 ( ) | M =  b e c ∧ a+e+i = 0, a, b, c, e, i ∈ Ê}. 0 c i   0 r s Ê U = {M ∈ M33 ( ) | M = r 0 0 , r, s ∈ }. Ê s 0 0 (a) Demuestre que W y U son subespacios vectoriales de M33 ( ). Ê (b) Encuentre bases y dimensiones para los subespacios U, W, U ∩ W y U + W , y decida (justificando) si la suma U + W es directa. ¿Cu´ntos vectores es preciso agregar a una base de U +W para ob- a tener una base de S = {M ∈ M33 (R) | M sim´trica}? Justifique e encontrando una base de S. Ê P2. Sea m = 2n con n > 0 y considere el conjunto Pm ( ) de los polinomios reales de grado menor o igual a m. Si cada p ∈ Pm ( ) se escribe Ê p(x) = a0 + a1 x + · · · + am xm , se define el conjunto Ê ´ V = {p ∈ Pm ( ) | ∀i ∈ {0, . . . , m}, ai = am−i .} (a) Ê Probar que V es subespacio vectorial de Pm ( ) sobre los reales. (b) Encontrar una base de V y deducir que su dimensi´n es n + 1. o (c) Ê Probar que Pm ( ) = V ⊕ Pn−1 ( ). Ê (d) Se define m Ê ı ′ V = {p(x) = ai xi ∈ Pm ( ) | ∀i ∈ {0, . . . , m}, ai = −am−i }. i=0 Ê Probar que Pm ( ) = V ⊕ V ′ (asuma que V ′ es un subespacio Ê vectorial de Pm ( )). Ê P3. Si A ∈ Mnn ( ) y V es un subespacio vectorial de Ên, se define: A(V ) = {Ax | x ∈ V }. Ê (a) (1) Pruebe que si A ∈ Mnn ( ) y V es s.e.v. de n entonces Ê A(V ) tambi´n es s.e.v. de n . e Ê Ê (2) Sean V, W s.e.v. de n tales que V ⊕ W = n . Pruebe que Ê Ê si A ∈ Mnn ( ) es invertible entonces A(V ) ⊕ A(W ) = n . Ê Ê (3) Sean V, W s.e.v. de n tales que V ⊕ W = n . Pruebe que Ê Ê si A(V ) ⊕ A(W ) = n , entonces A es invertible. Ê Indicaci´n: Pruebe que para todo z ∈ n el sistema Ax = z o tiene soluci´n. o Ê (b) (1) Sea W un s.e.v. de n y definamos E = {A ∈ Mnn ( ) | A( n ) ⊂ Ê Ê W }. Muestre que E es un s.e.v. de Mnn ( ). Ê Ê (2) Sea W = {(t, t) | t ∈ }. Calcule la dimensi´n de E = {A ∈ o Ê Ê M22 ( ) | A( 2 ) ⊂ W }. 96
  • 97.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 8: TRANSFORMACIONES LINEALES Departamento de Ingenier´a Matematica - Universidad de Chile 4. Transformaciones lineales 4.1. ´ Introduccion Sea la matriz A = ( 0 1 ) y multipliquemos los vectores de 2 por esta 10 Ê matriz. Sea v = ( x1 ), se tiene entonces Av = ( x2 ), es decir el vector que se x2 x1 obtiene de intercambiar las coordenadas de v. Si tomamos A = −1 −1 , al multiplicar por el vector v obtenemos Av = 0 0 x1 − ( x2 ) , que es el vector sim´trico con respecto al or´ e ıgen. Estos dos ejemplos nos dan funciones completamente distintas pero ellas comparten propiedades que son fundamentales: la imagen de la suma de dos vectores es la suma de las imagenes y la imagen de un vector ponderado por un real es la imagen del vector ponderada por el mismo escalar. Funciones que verifican estas propiedades son llamadas lineales y son el objeto de este cap´ıtulo. Veamos un caso m´s general. a Ê En n consideremos T como la funci´n: o Ên → Êm ´ T : v → Av donde A ∈ Mmn ( ) Ê Este tipo de transformaciones tiene dos propiedades fundamentales: 1. T (u + v) = T (u) + T (v) ∀u, v ∈ Ên Ê, v ∈ Ên ı 2. T (λv) = λT (v) ∀λ ∈ En efecto, T (u + v) = A(u + v). Como la multiplicaci´n matricial distribuye o con respecto a la suma: T (u + v) = Au + Av = T (u) + T (v) Por otra parte, T (λv) = A(λv) = λAv = λT (v) 4.2. Tranformaciones lineales Definici´n 4.1 (Tansformaci´n lineal). Sean U, V dos espacios vecto- o o Transformaci´n lineal o à riales sobre el mismo cuerpo . Diremos que una funci´n T : U → V es o una transformaci´n (o funci´n) lineal si y s´lo si satisface: o o o 1. ∀u1 , u2 ∈ U, T (u1 + u2 ) = T (u1 ) + T (u2 ) (4.1) 2. ∀u ∈ U, λ ∈ K, T (λu) = λT (u) Se˜alemos que la propiedad 4.1 establece un homomorfismo entre los grupos n (U, +) y (V, +). 97
  • 98.
    Ejemplos: Departamento de Ingenier´a Matematica - Universidad de Chile 1. Cualquier funci´n T : o Ên → Êm, X → AX, es lineal. 2. El caso particular, f : Ê → Ê, x → ax, a ∈ Ê es lineal. En efecto, f (x + y) = a(x + y) = ax + ay = f (x) + f (y). Adem´s, f (λx) = a a(λx) = λax = λf (x). Esta transformaci´n corresponde a una o recta (l´ ınea) que pasa por el or´ ıgen con pendiente a. Ê Ê 3. f : → , x → x2 , no es lineal. En efecto: f (x + y) = (x + y)2 = x2 + 2xy + y 2 = f (x) + f (y) + 2xy, luego no es lineal. En general cualquier funci´n real de grado superior a uno , trigonom´trica, o e etc´tera, no es lineal. e Ê Ê 4. f : P3 ( ) → 4 , p(x) = a0 + a1 x + a2 x2 + a3 x3 → f (p) = (a0 , a1 , a2 , a3 ), es lineal. En efecto; si q(x) = b0 + b1 x + b2 x2 + b3 x3 , obtenemos f (p + q) = f ((a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + (a3 + b3 )x3 ) = = (a0 + b0 , a1 + b1 , a2 + b2 , a3 + b3 ) = (a0 , a1 , a2 , a3 ) + (b0 , b1 , b2 , b3 ) = f (p) + f (q) ´ f (λp) = f (λa0 + λa1 x + λa2 x2 + λa3 x3 ) = (λa0 , λa1 , λa2 , λa3 ) = λ(a0 , a1 , a2 , a3 ) = λf (p). ÊÊ 5. Sea Fd ( , ) el conjunto de las funciones reales derivables. Es directo verificar que este conjunto es un s.e.v. de F( , ). Consi- ÊÊ ı deremos la transformaci´n: o T : Fd ( ,Ê Ê) → F(Ê, Ê) f → T (f ) df donde T (f )(x) = dx (x) es la funci´n derivada. Es directo, de las o propiedades de derivaci´n que T es lineal. o S ea V e.v sobre Ã, V = V1 ⊕ V2 y sean: P1 : V → V1 , P2 : V → V2 v = v1 + v2 → P1 (v) = v1 v = v1 + v2 → P2 (v) = v2 Ambas funciones (¿porqu´ son funciones?) son lineales. Verifique- e à mos para P1 : sean λ, β ∈ v = v1 + v2 , u = u1 + u2 , vi , ui ∈ Vi , i = 1, 2. P1 (λv + βu) = P1 (λv1 + βu1 ) + (λv2 + βu2 )) = = λv1 + βu1 = λP1 (v) + βP1 (u) La funci´n, Pi , se denomina la proyecci´n de V sobre Vi . o o 98
  • 99.
    4.3. Propiedades de transformaciones lineales Departamento de Ingenier´a Matematica - Universidad de Chile Proposici´n 4.1. Sea T : U → V una transformaci´n lineal. Se tiene o o entonces: 1. T (0) = 0 ∈ V . 2. T (−u) = −T (u). 3. T es lineal si y s´lo si ∀λ1 , λ2 ∈ K, ∀u1 , u2 ∈ U o T (λ1 u1 + λ2 u2 ) = λ1 T (u1 ) + λ2 T (u2 ). ´ Demostracion. Demostremos estas propiedades: 1. T (u) = T (u + 0) = T (u) + T (0) como V es espacio vectorial (V, +) es un grupo Abeliano, luego pode- mos cancelar T (u); de donde 0 = T (0). 2. T (−u) = T (−1u) = −1T (u) = −T (u). 3. ⇒) T (λ1 u1 + λ2 u2 ) = T (λ1 u1 ) + T (λ2 u2 ) = λ1 T (u1 ) + λ2 T (u2 ). ⇐) Tomando λ1 = λ2 = 1 se verifica la propiedad (1) de linealidad. ´ Considerando λ2 = 0, se obtiene la propiedad (2). Observaci´n: Note que las demostraciones de las propiedades 1 y 2 o podr´ haber sido omitidas, ya que dichas propiedades son consecuen- ıan cias de que T sea morfismo entre los grupos (U, +) y (V, +). Dada una combinaci´n lineal de vectores o n λi xi ∈ U y la transformaci´n o ı i=1 lineal, T : U → V . Se tiene, por inducci´n, que: o n n T( λi xi ) = λi T (xi ) i=1 i=1 Si dim U = n y β = {ui }n es una base de U , sabemos que u ∈ U se escribe, i=1 n de manera unica, como u = ´ αi ui , donde los escalares α = (α1 , ..., αn ) i=1 corresponden a las coordenadas de u con respecto a la base β. Aplicando a este vector u la transformaci´n lineal T : o n n T (u) = T ( αi ui ) = αi T (ui ) (4.2) i=1 i=1 De este c´lculo se desprende que: basta definir la transformaci´n T sobre a o una base de U , es decir calcular s´lo {T (vi )}n . Para determinar el efecto o i=1 de T sobre un vector u ∈ V arbitrario, basta aplicar la ecuaci´n 4.2. o ◭ Ejercicio 99
  • 100.
    Departamento de Ingenier´aMatematica - Universidad de Chile Ejercicio 4.1: Pruebe que entonces dada una base β = {ui }n de U i=1 y n vectores X = {vi }n no necesariamente ℓ.i. de V existe una unica i=1 ´ transformaci´n lineal T o T :U →V u → T (u) tal que T (ui ) = vi i = 1, ..., n. Consideremos ahora la transformaci´n: o f :U → n à u → f (u) = α = (α1 , ..., αn ) que a cada vector u le asocia las coordenadas con respecto a una base fija β = {ui }n . i=1 Es claro que f es funci´n (representaci´n unica de un vector con respecto o o ´ a una base). Adem´s, es lineal. M´s a´ n f es biyectiva (verif´ a a u ıquelo). Esto ◭ Ejercicio ´ nos lleva a la siguiente definici´n. o Definici´n 4.2 (Isomorfismo). Sea T : U → V una transformaci´n o o Isomorfismo lineal, diremos que es un isomorf´ ısmo si T es biyectiva. Adem´s diremos que U y V son isomorfos si existe un isomorf´smo entre a ı U y V , en cuyo caso lo denotaremos como U ∼ V . = En nuestro ejemplo anterior f es un isomorf´ = à ısmo y U ∼ n . Esto quiere ı à decir que si U tiene dimensi´n finita n se “comporta” como si fuera n . Esta o isomorf´ no es unica, depende de la base elegida. Por el momento esto no ıa ´ debe preocuparnos. Calculemos adem´s la imagen, a trav´s del isomorfismo a e f , de la base {ui }n del espacio vectorial U . i=1 0 . . . f (ui ) = f (0u1 + · · · + 1ui + · · · + 0un ) =  1  = ei ∈ . Ãn . . 0 Luego, la base asociada a {ui }n i=1 es la base can´nica de o Ãn . 4.4. ´ Composicion de funciones lineales Consideremos U, V, W espacios vectoriales sobre el mismo cuerpo. Sean T : U → V y L : V → W dos transformaciones lineales, la composici´n L ◦ T : o U → W es f´cil ver que es una funci´n lineal. Si adem´s L y T son biyectivas a o a ısmos) entonces tambi´n lo es L ◦ T . (isomorf´ e Otra propiedad importante es que si T : U → V es un isomorf´ ısmo ten- dremos que la funci´n inversa, que existe pues T es biyectiva, tambi´n o e 100
  • 101.
    es un isomorf´ ısmo. En efecto s´lo resta probar que T −1 es lineal, pues es o à Departamento de Ingenier´a Matematica - Universidad de Chile claro que es biyectiva (¿por qu´?). Tomemos v1 , v2 ∈ V, λ, β ∈ . Sean e T −1 (v1 ) = u1 , T −1 (v2 ) = u2 por lo tanto T (λu1 + βu2 )) = λT (u1 ) + βT (u2 ) = λv1 + βv2 , esto quiere decir que T −1 (λv1 + βv2 ) = λu1 + βu2 = λT −1 (v1 ) + βT −1 (v2 ), entonces T −1 es lineal. Una transformaci´n lineal importante es idU : U → U que es la transfor- o maci´n identidad. Como sabemos que es biyectiva se tiene que idU es un o isomorf´ısmo. Con todos estos ingredientes se puede concluir que la relaci´n entre espacios o vectoriales de ser isomorfos es una relaci´n de equivalencia. o 4.5. ´ Subespacios Asociados a una transformacion lineal Definici´n 4.3 (N´ cleo). Sea una transformaci´n lineal T : U → V . o u o N´cleo u Definimos el n´ cleo de T como el conjunto: u ´ KerT = {x ∈ U/T (x) = 0}. Claramente, KerT = φ ya que como T (0) = 0 tenemos que siempre 0 ∈ KerT . M´s a´ n, KerT es un s.e.v. de U . En efecto, sean x, y ∈ KerT, λ, β ∈ a u à ; T (λx + βy) = λT (x) + βT (y) = λ0 + β0 = 0 ı luego, λx + βy ∈ KerT . Otro conjunto importante en el estudio de transformaciones lineales es la imagen: Definici´n 4.4 (Imagen). Sea una transformaci´n lineal T : U → V . o o Imagen Definimos la imagen de T como el conjunto: ImT = T (U ) = {v ∈ V /∃u ∈ U : v = f (u)} ImT es un s.e.v de V . En efecto, sean v1 , v2 ∈ ImT , existen entonces à u1 , u2 ∈ U tales que vi = T (ui ), i = 1, 2. Dados λ, β ∈ se tiene: λv1 + βv2 = λT (u1 ) + βT (u2 ) = T (λu1 + βu2 ) ımos λv1 + βv2 ∈ ImT . de donde conclu´ Definici´n 4.5 (Rango y nulidad). La dimensi´n de ImT se denomi- o o Rango y nulidad na el rango de la transformaci´n T y se nota r. La dimensi´n del KerT se o o llama nulidad y se suele denotar por la letra griega ν. 101
  • 102.
    Ejemplo: Departamento de Ingenier´a Matematica - Universidad de Chile Desarrollemos un ejemplo. Sea la transformaci´n lineal: o T : Ê4 → Ê3 x1 x1 +x2 x2 x3 → x2 −x3 x4 x1 +x3 o en t´rminos matriciales: e    x1  1 1 0 0 x  T (x) =  0 1 −1 0   2  x3 1 0 1 0 x4 Determinemos los subespacios KerT y ImT . Tenemos que x ∈ KerT ⇔ T (x) = 0, lo que es equivalente a determinar la soluci´n general del o sistema homog´neo: e    x1    1 1 0 0 0 x  0 1 −1 0   2  =  0  ´ x3 1 0 1 0 0 x4 Escalonando:       1 1 0 0 1 1 0 0 1 1 0 0  0 1 −1 0  →  0 1 −1 0  →  0 1 −1 0  (4.3) 1 0 1 0 0 −1 1 0 0 0 0 0 De donde: x1 = −x2 ı x1 + x2 = 0 x2 = x3 ⇔ x2 − x3 = 0 x3 = x3 x4 = x4 Lo cual permite escribir la soluci´n general en funci´n de dos par´metros: o o a       x1 = −x3 x1 −1 0 x2 = x3  x2   1 0 ⇔   = x3   + x4   x3 = x3 x3 1 0 x4 = x4 x4 0 1 102
  • 103.
    Ê4 de dimensi´ndos. −1 0 1 0 Departamento de Ingenier´a Matematica - Universidad de Chile Luego, KerT = 1 , 0 es un s.e.v de o 0 1 y1 Determinemos ahora ImT . Sea y2 y3 ∈ ImT , es decir:      x1  y1 1 1 0 0 x   y2  =  0 1 −1 0   2  x3 y3 1 0 1 0 x4       1 1 0 = x1  0  + x2  1  + x3  −1  1 0 1 1 1 0 Luego ImT = 0 , 1 , −1 . 1 0 1 Pero del resultado de escalonar la matriz que tiene como columnas a 1 1 0 0 los vectores 0 , 1 , −1 y 0 , en 4.3 podemos extraer una ba- 1 0 1 0 1 1 0 0 1 1 0 se de 0 , 1 , −1 , 0 = 0 , 1 , −1 , tomando 1 0 1 0 1 0 1 aquellos vectores asociados a columnas con pivotes de la matriz ´ escalonada (Importante: ver gu´ de ejercicios y problemas). Es decir, ıa 1 1 0 , 1 . ◭ Ejercicio 1 0 Conclu´ ımos entonces que ImT = 1 0 1 , 1 1 0 es un s.e.v. de Ê3 de dimensi´n dos. o Observemos en este ejemplo que 4 = dim 4 = dim KerT + dim ImT . Ê ı Adem´s T no es inyectiva ya que KerT contiene m´s de un vector, es a a 0 decir el vector 0 tiene m´s de una pre-imagen. Tampoco es epiyectiva a Ê3 . 0 ya que dim ImT < 3 = dim 103
  • 104.
    Departamento de Ingenier´aMatematica - Universidad de Chile Teorema 4.1. Sea T : U → V una transformaci´n lineal entonces o T es inyectiva ⇔ KerT = {0} ´ Demostracion. ⇒) Dado u ∈ KerT, T (u) = 0 = T (0). Como T es inyectiva, se tiene u = 0. ⇐) Sea T (u1 ) = T (u2 ) ⇔ T (u1 − u2 ) = 0 luego u1 − u2 ∈ KerT = {0}, de donde u1 = u2 . De este resultado obtenemos el siguiente Corolario Corolario 4.1. Una transformaci´n lineal T : U → V , es un isomorfismo o si y s´lo si KerT = {0} ∧ ImT = V , o equivalentemente dim ImT = dim V o y dim KerT = 0. ´ Demostracion. Para probar la biyectividad de T , basta notar que KerT = {0} (inyectividad) y ImT = V (epiyectividad). La otra equivalencia sale de que ImT = V ⇔ dim ImT = dim V y KerT = {0} ⇔ dim KerT = 0. La inyectividad de aplicaciones lineales (KerT = {0}) tiene una consecuen- ´ cia muy importante sobre los conjuntos linealmente independientes. Teorema 4.2. Si T : U → V es inyectiva, entonces {ui }k es ℓ.i. en i=1 U ⇒ {T (ui )}k es l.i. en V . i=1 ´ Demostracion. Sea la combinaci´n lineal nula: o ı n n λi T (ui ) = 0 ⇔ T ( λi ui ) = 0 i=1 i=1 n n ⇔ λi ui ∈ KerT = {0} ⇔ λi ui = 0 i=1 i=1 Como {ui }n es ℓ.i., λi = 0, i = 1, ..., n. i=1 Se puede probar que en efcto esta propiedad caracteriza las aplicaciones lineales inyectivas (hacerlo!). Finalizamos est´ secci´n mencionando un ejemplo interesante: a o Ên+1 ∼ = Ê Pn ( ). En efecto, sea Ê Ê T : n+1 → Pn ( ) tal que:   a0  a1  n    . →  . ai xi ∈ Pn ( ) Ê . i=0 an Es f´cil verificar que T es lineal. a 104
  • 105.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 8 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. El objetivo de este ejercicio es formalizar la t´cnica mencionada en la e tutor´ para extraer, de un conjunto generador de un cierto subespacio ıa vectorial, una base. Esto en el contexto de n . Ê Considere v1 , . . . , vm ∈Ê n y U = {v1 , . . . , vm } . Sea adem´s la matriz a Ê A, escrita por columnas como A = (v1 , . . . , vm ) ∈ Mnm ( ). Denotamos por vij a la coordenada i del vector j y, por ende, a la componente (i, j) de A. Escalonando la matriz A, se obtiene:   v11 v12 · · · ˜ ˜    0 0 · · · 0 v2j2˜     ..   0 0 .       0 vkjk ˜ vk(jk +1) ˜ ···    ˜  0 0 ··· 0 v(k+1)jk+1 ˜  A=     ..   0 0 .     vlm  ´  0 vljl ˜ ··· ˜     0 0 ··· 0    . . . . . . Los coeficientes encerrados en un rect´ngulo a vkjk ˜ son los pivotes de ı ˜ la matriz escalonada. Notamos por vj a la columna j de la matriz A. ˜ (a) Demuestre que el conjunto de vectores {v1 , vj2 , . . . , vjl }, es decir las columnas correspondientes a los pivotes, es un conjunto l.i. Indicaci´n: Estudie qu´ sucede si en la matriz original A s´lo hu- o e o biese puesto los vectores v1 , vj2 , . . . , vjl . ˜ (b) Pruebe que las columnas de A que no contienen pivotes, que est´n a entre la del pivote k y la del k + 1 (es decir vjk +1 , . . . , vjk+1 −1 ), son ˜ ˜ combinaci´n lineal de los vectores v1 , vj2 , . . . , vjk . o ˜ ˜ ˜ Indicaci´n: Use inducci´n en k. o o (c) Dado un conjunto de vectores {u1 , . . . , um } ∈ Ên y una matriz Ê invertible E ∈ Mnn ( ), demuestre que: u∈ Ên es combinaci´n lineal de u1, . . . , um o ⇔ Eu ∈ Ên es combinaci´n lineal de Eu1, . . . , Eum. o (d) Use el resultado anterior para probar que, las columnas de A que no est´n asociadas a pivotes, entre la columna del pivote k y la del a k + 1 (es decir vjk +1 , . . . , vjk+1 −1 ), son combinaci´n lineal de los o vectores v1 , vj2 , . . . , vjk . (e) Concluya que {v1 , vj2 , . . . , vjl } es base de U . 105
  • 106.
    Ê 2. Sea unconjunto de vectores v1 , . . . , vm ∈ n , con U = {v1 , . . . , vm } y Departamento de Ingenier´a Matematica - Universidad de Chile dim(U ) < n. Muestre que, construyendo la matriz A del Ejercicio 1, “au- Ê ment´ndola” con la identidad en Mnn ( ) (es decir (A|I)) y aplicando a el mismo procedimiento, se consigue: Extraer una base de U , desde {v1 , . . . , vm }. Extender dicha base a una base de Ên . Ê3 generado por el conjunto 3. Sea U el subespacio vetorial de 1 0 , 1 −1 , 1 1 . Extraiga una base de U y exti´ndala a una base de Ê3 . 1 2 0 e Problemas Ê P1. Sea P3 ( ) el conjunto de los polinomios de grado menor o igual a 3 Ê con coeficientes reales. Se define la transformaci´n T : P3 ( ) → P3 ( ) o Ê por: T (a0 + a1 x + a2 x2 a3 x3 ) = a0 + (2a1 + a2 )x + (2a2 + a3 )x2 + 2a3 x3 . (a) Probar que T es una transformaci´n lineal. o ´ (b) Probar que T es una transformaci´n biyectiva. o (c) Si id es la transformaci´n identidad del espacio vectorial P3 ( ) o Ê pruebe que T − 2 id, (T − 2 id)2 , (T − 2 id)3 y T − id son transfor- maciones lineales. Indicaci´n: Recuerde que dada una funci´n f , f k = f ◦ f ◦ · · · ◦ f . o o k veces ı (d) Encontrar bases y dimensi´n de Ker(T − 2 id), Ker(T − 2 id)2 y o Ker(T − 2 id)3 . Ê (e) Probar que P3 ( ) = Ker(T − 2 id)2 ⊕ Ker(T − id). P2. (a) Considere la funci´n T : o Ê4 → M22(Ê) definida por x y x y+w T z = . w 2x + 2y + z + w x+y+z (1) Demuestre que T es funci´n lineal. o (2) Determine bases y dimensiones para Ker(T ) e Im(T ). (b) Dada la transformaci´n lineal L : o Ê3 → Ê2 se sabe que:        1 1  1 0 , 1 1 Ker(L) = y L 1 = .   −1 0 0 1 Encuentre en t´rminos de x1 , x2 y x3 , los valores de y1 y y2 que e x1 y satisfacen L x = ( y1 ). x2 2 3 106
  • 107.
    P3. Sean V, W e. v.’s sobre Ê. En V ×W se definen la suma y ponderaci´n o Departamento de Ingenier´a Matematica - Universidad de Chile por escalar as´ ı: (v, w) + (v ′ , w′ ) = (v + v ′ , w + w′ ) , ∀(v, w), (v ′ , w′ ) ∈ V × W , λ(v, w) = (λv, λw) , ∀(v, w) ∈ V × W , ∀λ ∈ Ê. Con estas operaciones V × W es un espacio vectorial sobre Ê (no lo pruebe). Dada una funci´n f : V → W se define su gr´fico por o a Gf = {(v, w) ∈ V × W : w = f (v)} . (a) Pruebe que f es lineal s´ y s´lo si Gf es subespacio vectorial de ı o V × W. (b) Pruebe que {0V } × W es sub–espacio vectorial de V × W . Nota: 0V denota el neutro aditivo de V . (c) Sea f : V → W lineal. Pruebe que Gf ⊕ ({0V } × W ) = V × W . ı ´ 107
  • 108.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 9: TRANSFORMACIONES LINEALES Departamento de Ingenier´a Matematica - Universidad de Chile 4.6. Teorema del Nucleo-Imagen (TNI) ´ El prop´sito de est´ secci´n es probar el siguiente teorema. o a o Teorema 4.3 (N´ cleo-Imagen). Sean U, V espacios vectoriales sobre u Teorema à un cuerpo , T : U → V una transformaci´n lineal, dim U < ∞. Entonces: o N´cleo-Imagen (TNI) u dim U = dim KerT + dim ImT. ´ Demostracion. Daremos una demostraci´n constructiva de este teorema. o Sea {u1 , ..., uν } una base de KerT . Completemos esta base a una base de U βU = {u1 , ..., uν , uν+1 , ..., un }. Probaremos que β ′ = {T (uν+1 ), ..., T (un )} es base de ImT . Sea v ∈ ImT es decir v ∈ V y existe u ∈ U T (u) = v. Como βU es base de U se tendr´ que a ´ u = α1 u1 + .... + αν uν + αν+1 uν+1 + .... + αn un , de donde v = T (u) = αν+1 T (uν+1 ) + .... + αn T (un ), pues T (u1 ) = ... = T (uν ) = 0. Es decir v es combinaci´n de los elementos o de β ′ . Probemos ahora que son l.i., para ello consideremos αν+1 T (uν+1 ) + .... + αn T (un ) = 0. ı Como T (αν+1 uν+1 + .... + αn un ) = αν+1 T (uν+1 ) + .... + αn un T (un ) = 0 se deduce que el vector αν+1 uν+1 + .... + αn ∈ KerT pero entonces existen escalares λ1 , ..., λν tal que αν+1 uν+1 + .... + αn un = λ1 u1 + .... + λν uν , o equivalentemente λ1 u1 + .... + λν uν − αν+1 uν+1 − ... − αn un = 0 Como los vectores u1 , ..., un son ℓ.i. se deduce en particular que αν+1 = ... = αn = 0, y por lo tanto β ′ = {T (uν+1), ..., T (un )} es base de ImT . Pero entonces tenemos dim U = n = ν + (n − ν) = dim KerT + dim ImT. 108
  • 109.
    Es directo delTNI que: si dim U = n, y el rango de T es n se tiene Departamento de Ingenier´a Matematica - Universidad de Chile dim KerT = 0, es decir T es inyectiva. Otra aplicaci´n directa es o Teorema 4.4. Sea T : U → V aplicaci´n lineal. o 1. Si dim U = dim V entonces T inyectiva ⇔ T epiyectiva ⇔ T biyectiva. 2. Si dim U > dim V T no puede ser inyectiva. 3. Si dim U < dim V T no puede ser epiyectiva. 4. Como conclusi´n de (2) y (3) o U isomorfo a V ⇔ dim U = dim V. ´ Demostracion. Probemos s´lo (2), el resto queda de ejercicio. Del TNI o se tiene que ´ dim U = dim KerT + dim ImT < dim V, como dim KerT ≥ 0 se concluye que dim ImT < dim V, y por lo tanto ImT es un s.e.v. estrictamente m´s peque˜ o que V , es decir a n T no puede ser epiyectiva. ı Es importante se˜ alar que en (1c), la implicancia ⇒ es consecuencia de (2) n y (3), mientras que ⇐ se obtiene del hecho de que todo espacio de dimensi´n o à finita n es isomorfo a n (ver ejemplo anterior a la Definici´n 4.2). o ◭ Ejercicio Ejercicio 4.2: Probar que si T : U → V es lineal y W es un subespacio de U entonces 1. T (W ) es subespacio de V. 2. dim T (W ) ≤ dim U . 3. Si T es inyectiva dim T (W ) = dim W . 109
  • 110.
    4.7. ´ Matriz Representante de una Transformacion Lineal Departamento de Ingenier´a Matematica - Universidad de Chile Vimos anteriormente que, dado un e.v V sobre , dimV = n, se ten´ à ıa à V ∼ n . Esto nos permite “llevar” el trabajo de cualquier espacio de di- = mensi´n finita a un espacio de n-tuplas. Trataremos de extender esto para o transformaciones lineales, reemplazando estas (en un sentido que precisa- remos) por matrices. à Sean U, V espacios vectoriales sobre un cuerpo , dim U = p, dim V = q. Sean βU = {u1 , ..., up }, βV = {v1 , ..., vq } bases de U y V respectivamente. Consideremos finalmente una transformaci´n lineal T : U → V . o Sabemos que T queda completamente determinada por su acci´n sobre la o base βU q T (uj ) = aij vi 1≤j≤p i=1 o bien, T (u1 ) = a11 v1 + a21 v2 + ... + aq1 vq T (u2 ) = a12 v1 + a22 v2 + ... + aq2 vq . ´ . . T (up ) = a1p v1 + a2p v2 + ... + aqp vq Es claro que la informaci´n importante que define T est´ contenida en las o a coordenadas, (a1j , a2j , ..., aqj ) de cada vector T (uj ), con respecto a la base βV , en el espacio de llegada. Esta informaci´n la guardamos en una matriz o ı de q filas y p columnas, denominada matriz representante de T , con respecto a las bases βU y βV : Matriz representante de T a a12 ... a1p  MβU βV (T ) 11 a21 a22 ... a2p  à  MβU βV (T ) =  .  . . .  ∈ Mqp ( ) . . . .  . aq1 aq2 ... aqp donde, q = dim U, p = dim V . En la columna j-´sima de esta matriz, aparecen las coordenadas del vector e T (uj ) con respecto a la base βV : a  1j q  a2j  A•j =  .  ⇔ T (uj ) =  .  aij vi . i=1 aqj 110
  • 111.
    Departamento de Ingenier´aMatematica - Universidad de Chile Observaci´n: Una pregunta interesante es: ¿Qu´ sucede con esta o e matriz si cambiamos las bases?. Esto lo responderemos en breve. Ejemplo: Sea T : Ê4 → Ê3, definida por    x1  1 1 0 0 x  T (x) =  0 1 1 0 2 . x3 0 0 1 1 x4 Consideremos β = βU = {e1 , e2 , e3 , e4 }, base can´nica de o Ê4 , β ′ = βV = 1 1 0 , 1 0 1 , 0 1 1 base de Ê3. Se tiene entonces: 1 1 1 1 1 1 1 0 T (e1 ) = T 0 = 0 = 1 + 0 − 1 0 0 0 2 0 2 1 2 1 0 1 1 1 0 T (e2 ) = T 1 = 1 =1 1 +0 0 +0 1 0 0 0 1 1 0 0 0 1 1 0 ´ T (e3 ) = T 0 = 1 =0 1 +0 0 +1 1 1 1 0 1 1 0 0 0 1 1 1 1 1 0 T (e4 ) = T 0 = 0 =− 1 + 0 + 1 0 1 1 2 0 2 1 2 1 de donde:  1 1  2 1 0 −2    Mββ ′ (T ) =  1 0 0 1   ∈ M34 ( ) Ê ı  2 2  1 1 −2 0 1 2 Tomemos ahora, en Ê3, la base can´nica, β′ = o 1 0 0 , 0 1 0 , 0 0 1 : 1 T (e1 ) = 0 = 1e′ + 0e′ + 0e′ 1 2 3 0 1 T (e2 ) = 1 = 1e′ + 1e2 + 0e′ 1 ′ 3 0 0 T (e3 ) = 1 = 0e1 + 1e′ + 1e′ ′ 2 3 1 0 T (e4 ) = 0 = 0e′ + 0e′ + 1e′ 1 2 3 1 Luego,   1 1 0 0 Mββ ′ (T ) =  0 1 1 0 0 0 1 1 ¡Sorpresa!, esta matriz representante no s´lo es distinta de la anterior, o sino que corresponde a la matriz que define T en forma natural. Con- clu´ ımos entonces que: la matriz representante depende de las bases ele- gidas y que la matriz representante con respecto a las bases can´nicas o 111
  • 112.
    es la matrizasociada a T . Esto ultimo lo podemos verificar en el caso ´ general: Departamento de Ingenier´a Matematica - Universidad de Chile Consideremos TA : Ãp → Ãq x → Ax, A ∈ Mqp ( ) à Sea β = {e1 , ..., ep } la base can´nica de o Ãp y β′ = {e′1, ..., e′q } la base can´nica de q . o à Se tiene entonces:     0 a  a11 ... a1j ... a1p  .  .. 1j  TA (ej ) = Aej =  . . . . .   1  =  a2j  .    .  . . . .  .  . aq1 ... aqj ... aqp  .  . aqj 0 o bien: q TA (ej ) = a1j e′ + ... + aqj e′ = 1 m aij e′ i i=1 ´ ımos Mββ ′ (TA ) = A. de donde conclu´ Veamos ahora como interactuan T y M = Mββ ′ (T ). Sea u ∈ U , entonces u = α1 u1 + ... + αp up , p q y por lo tanto T (u) = j=1 αj T (uj ) pero T (uj ) = i=1 mij vi y por lo ı tanto p q q p T (u) = αj mij vi = ( αj mij )vi . j=1 i=1 i=1 j=1 As´ las coordenadas de T (u) con respecto a β ′ son ı p p αj m1j , . . . , αj mqj , j=1 j=1 y por lo tanto si α = (α1 , ..., αp ) son las coordenadas de u entonces M α son las de T (u). Esto permite trabajar con M en vez de T . Ya tenemos una matriz que representa T , ahora deseamos “olvidarnos” de T y trabajar s´lo con un representante matricial. Para hacer esto, en alge- o bra acostumbramos establecer una isomorf´ en este caso, entre el espacio ıa, à vectorial de todas estas matrices, Mqp ( ), y aqu´l de todas las transforma- e ciones lineales. Para ello definamos primero este ultimo espacio. ´ Definici´n 4.6. Sea U, V espacios vectoriales sobre o Ã, de dimensiones dim U = p y dim V = q respectivamente. Definimos Là (U, V ) = {T : U → V /T es transformaci´n lineal } o 112
  • 113.
    Es directo queLà (U, V ), dotado de las operaciones: Là (U, V ) Departamento de Ingenier´a Matematica - Universidad de Chile à (λT )(x) = λT (x), ∀λ ∈ , ∀T ∈ Là (U, V ) (T + T ′ )(x) = T (x) + T ′ (x), ∀T, T ′ ∈ Là (U, V ) es un espacio vectorial sobre el cuerpo Ã. Tenemos entonces la propiedad buscada: Là (U, V ) ∼ Mqp ( ) = à En efecto, sean βU , βV bases de U y V respectivamente y definamos la funci´n. o ϕ : Là (U, V ) → Mqp ( ) à T → ϕ(T ) = MβU βV (T ) Es decir, a una transformaci´n lineal arbitraria le asociamos su matriz o representante con respecto a las bases βU y βV . 1. ϕ es una transformaci´n lineal. Sean βU = {u1 , ..., up }, βV = {v1 , ..., vq }, o ´ T, L ∈ LK (U, V ), A = MβU βV (T ), B = MβU βV (L). Calculemos ϕ(T + L) = MβU βV (T + L). (T + L)(uj ) = T (uj ) + L(uj ) = q q q = aij vi + bij vi = (aij + bij )vi ı i=1 i=1 i=1 Luego, la j-´sima columna de MβU βV es el vector: e   a1j + b1j  . .   .  = A•j + B•j aqj + bqj Se concluye entonces:   a11 + b11 ...a1j + b1j ...a1p + b1p  .  ϕ(T + L) = MβU βV (T + L) =  . . . . . . . .  aq1 + bq1 ...aqj + bqj ...aqp + bqp = A + B = MβU βV (T ) + MβU βV (L) = ϕ(T ) + ϕ(L) De manera an´loga se prueba que a ϕ(λT ) = MβU βV (λT ). 113
  • 114.
    2. ϕ esbiyecci´n. Sean T ∈ Ker(ϕ) ⇔ ϕ(T ) = MβU βV (T ) = 0 ∈ o à Departamento de Ingenier´a Matematica - Universidad de Chile Mqp ( ) ⇔ T (uj ) = 0v1 + ... + 0vq = 0. p Por otra parte, ∀u ∈ U, u = αj uj , de donde ∀u ∈ U, T (u) = j=1 p p αj T (uj ) = αj 0 = 0, concluyendo T ≡ 0, la transformaci´n o j=1 j=1 nula. Luego, ϕ es inyectiva. Veamos la epiyectividad. Dada una matriz à A = (aij ) ∈ Mqp ( ), le asociamos la transformaci´n lineal T , que o q a la base de U asocia: T (uj ) = aij vi . Es directo que ϕ(T ) = i=1 Mqp (T ) = A, luego ϕ es epiyectiva. De (1) y (2) conclu´ ımos que ϕ es un isomorfismo. Directamente, de este resultado se tiene: dim Là (U, V ) = dim Mqp ( ) = à pq = dim U dim V . Es decir, la dimensi´n del espacio de transformaciones o lineales es finita y corresponde al producto de las dimensiones de U y V . ´ En el contexto del resultado anterior ¿que relaci´n existe entre la multipli- o caci´n de matrices y la composici´n de funciones lineales?. o o Veamos que sucede al componer dos transformaciones lineales. Sean T : U → V, L : V → W transformaciones lineales, luego L ◦ T : U → W es tambi´n lineal. Ahora bien, sean dimU = p, dimV = q, dimW = r con e ı bases βU = {ui }p , βV = {vi }q , βW = {wi }r , respectivamente. Supon- à i=1 i=1 i=1 gamos adem´s que MβU βV (T ) = B ∈ Mqp ( ), a à MβU βV (L) = A ∈ Mpr ( ). La pregunta es ¿cu´l es la expresi´n de MβU βW (L◦ a o T )? Los “datos” del problema son: q T (uk ) = bjk vj 1≤k≤p j=1 r L(vj ) = aij wi 1≤j≤q i=1 Calculemos ahora: q (L ◦ T )(uk ) = L(T (uk )) = L( bjk vj ) = j=1 q q r = bjk L(vj ) = bjk ( aij wi ) j=1 j=1 i=1 r q = ( aij bjk )wi 1≤k≤p i=1 j=1 114
  • 115.
    obteniendo Departamento de Ingenier´a Matematica - Universidad de Chile  q q   j=1 a1j bj1 ...a1j bjp   j=1   .  MβU βW (L ◦ T ) =  .   q .   q  arj bj1 ... arj bjp j=1 j=1 = A · B = MβV βW (L) · MβU βV (T ) Hemos probado que la matriz representante de la composici´n de dos fun- o ciones lineales L ◦ T , es el producto de las matrices representantes. ı ´ 115
  • 116.
    Una aplicaci´n inmediatade este resultado es o Departamento de Ingenier´a Matematica - Universidad de Chile ◭ Ejercicio Ejercicio 4.3: T : U → V es una transformaci´n lineal y β, β ′ son o bases de U y V respectivamente entonces 1. T es invertible ssi Mββ ′ (T ) es una matriz invertible. 2. Si T es invertible, (Mββ ′ (T ))−1 = Mβ ′ β (T −1 ). Esto nos permite, cuando se estudian transformaciones lineales sobre espa- cios vectoriales de dimensi´n finita, trabajar directamente en la estructura o matricial correspondiente, sumando o multiplicando matrices. En base a lo anterior se tiene el resultado siguiente: ´ à Teorema 4.5. Para toda matriz A ∈ Mnn ( ), las propiedades siguientes son equivalentes 1. A es invertible. 2. TA : Ãn → Ãn, v → TA(v) = Av es un isomorfismo. 3. El conjunto {A•j}n es base de Ãn . j=1 ´ Demostracion. Demostremos primero (2)⇔(3). Para ello recordemos que ı A es la matriz representante de TA con respecto a las bases can´nicas: o TA (ej ) = Aej = A•j. 2 ⇒ 3) Como TA es isomorfismo, es en particular inyectiva, luego {TA (ej )}n à à j=1 es ℓ.i ⇔ {A•j }n es ℓ.i en n . Como dim n = n, este conjunto es base. j=1 3 ⇒ 2) Sabemos A•j = TA (ej ) para 1 ≤ j ≤ n, luego {A•j }n base, es à à j=1 decir {TA (ej )}n es base de n , luego ImTA =< {TA (ej )} >= n . Del j=1 TNI se tiene: dim Ãn = n = dim ImTA + dimKerTA, luego n = n + dim KerTA , entonces dim KerTA = 0 y por lo tanto KerTA = {0}. Adem´s las dimensiones de los espacios de partida y llegada son iguales, a luego TA es isomorfirmo. (1)⇔(2) es consecuencia del Ejercicio 4.3, usando el hecho de que TA tiene a A como matriz representante con respecto a las bases can´nicas. o 116
  • 117.
    4.8. Matriz de Pasaje o de Cambio de Base Departamento de Ingenier´a Matematica - Universidad de Chile Cuando definimos la matriz representante vimos que esta depend´ de las ıa bases elegidas. De esto surge el problema de la no unicidad de la represen- taci´n: una misma transformaci´n lineal tiene asociada m´s de una matriz, o o a dependiendo de las bases escogidas. Sea entonces V un espacio vectorial sobre K, dimV = n, sean β = {vi }i=1 y β ′ = {vi }n dos bases de V . Claramente, los vectores de β ′ tienen una ′ i=1 representaci´n unica en la base β: o ´ ′ v1 = p11 v1 + p21 v2 + ... + pn1 vn . . . . . . . . . ′ vj = p1j v1 + p2j v2 + ... + pnj vn . . . . . . . . . ′ vn = p1n v1 + p2n v2 + ... + pnn vn Denominamos matriz de pasaje o de cambio de base de β a β ′ a la matriz: Matriz de pasaje o de   cambio de base p11 ... p1j ... p1n  . .  P = Pββ ′ = (pij ) =  . . ´ . . . .  . pn1 ... pnj ... pnn ′ cuya columna j-´sima corresponde a las coordenadas del vector vj , de e ′ la “nueva” base β , con respecto a la “antigua” base β. Es f´cil ver que a est´ matriz es exactamente a Mβ ′ β (idV ), es decir la matriz representante de la identidad de V, colocando como base de partida β ′ y de llegada β. ı Por otra parte, sabemos que a un vector x ∈ V podemos asociarle de manera à biunivoca un vector α = (α1 , ..., αn ) ∈ n , correspondiente a sus coorde- nadas con respecto a la base β. De manera an´loga le podemos asociar a 1 n à α′ = (α′ , ..., α′ ) ∈ n , sus coordenadas con respecto a la base β ′ . Se tiene entonces: n n n n n v= α′ vj = j ′ α′ ( j pij vi ) = ( pij α′ )vi j j=1 j=1 i=1 i=1 j=1 n Pero, adem´s, v = a αi vi . i=1 Como la representaci´n es unica, conclu´ o ´ ımos: n αi = pij α′ j 1≤i≤n j=1 matricialmente: α = P α′ . 117
  • 118.
    Esta ecuaci´n establecela relaci´n entre las coordenadas de un mismo vec- o o Departamento de Ingenier´a Matematica - Universidad de Chile tor v ∈ V con respecto a ambas bases. ¿Es posible “despejar” α′ ?. S´ lo es, y esto es equivalente a probar que P ı es invertible. Pero por ser la matriz representante de un isomorf´ ısmo es entonces invertible. Adem´s P −1 es la matriz de cambio de base de β ′ a β: a Mββ ′ (idV ). Observaci´n: Cabe hacer notar que la notaci´n no es muy afortunada, o o pues la matriz de cambio de base de β a β ′ es Mβ ′ β (idV ) es decir hay que expresar los vectores de β ′ en funci´n de los de β. o Estudiaremos ahora la relaci´n que existe entre las distintas matrices re- o presentantes de una misma transformaci´n lineal. Esto lo deduciremos de o la regla que tenemos para la matriz representante de una composici´n de o aplicaciones lineales. Sea T : U → V lineal y consideremos cuatro bases: ˜ β, β bases de U ′ ˜′ β , β bases de V. ´ La pregunta es ¿c´mo se relacionan Mββ ′ (T ) y Mββ ′ (T )?. o ˜˜ Todo sale de la observaci´n o idV ◦ T ◦ idU = T, y por lo tanto Mββ ′ (T ) = Mβ β ′ (idV ◦ T ◦ idU ) = Mβ ′ β ′ (idV )Mββ ′ (T )Mββ (idU ). ˜˜ ˜˜ ˜ ˜ (4.4) ı Es decir la nueva matriz representante de T es la antigua multiplicada por matrices de cambio de base. La mejor forma de recordar esto es con un diagrama T ˜ U, β −→ V, β ′˜    idU T  idV ′ U, β −→ V, β Recorremos este diagrama de dos maneras distintas. para obtener la f´rmu- o la 4.4. Notemos que cuando hacemos el recorrido por “abajo” el orden que aparecen las matrices es reverso: la matriz m´s a la derecha en 4.4 es la que a actua primero y as´ sucesivamente. ı Las matrices A = Mββ ′ (T ) y B = Mββ ′ (T ) est´n relacionadas por un par ˜˜ a de matrices invertibles que denotaremos por P, Q: C = P AQ. Diremos que entonces A y C son semejantes. Como ejercicio, probar que matrices semejantes esta es una relaci´n de equivalencia. Un caso importante es cuando Q = o ◭ Ejercicio P −1 , es decir C = P AP −1 . 118
  • 119.
    En este casoespecial diremos que A y C son similares. Esta tambi´n es e matrices similares Departamento de Ingenier´a Matematica - Universidad de Chile una relaci´n de equivalencia. o Se tiene que a diferencia de la semejanza no es f´cil saber cu´ndo dos a a matrices son similares. Parte de este problema la estudiaremos en el pr´xima o secci´n. o ı ´ 119
  • 120.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 9 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. Sea T : U → V una transformaci´n lineal. Pruebe que o Teorema 4.4 (a) Si dim U = dim V entonces T inyectiva ⇔ T epiyectiva ⇔ T biyectiva. (b) Si dim U < dim V T no puede ser epiyectiva. (c) U isomorfo a V ⇔ dim U = dim V. 2. Probar que si T : U → V es lineal y W es un subespacio de U entonces Ejercicio 4.2 (a) T (W ) es subespacio de V. (b) dim T (W ) ≤ dim U . (c) Si T es inyectiva dim T (W ) = dim W . 3. T : U → V es una transformaci´n lineal y β, β ′ son bases de U y V o Ejercicio 4.3 respectivamente entonces (a) T es invertible ssi Mββ ′ (T ) es una matriz invertible. ´ (b) Si T es invertible, (Mββ ′ (T ))−1 = Mβ ′ β (T −1 ). Problemas Ê P1. Sean M22 ( ) el espacio vectorial de las matrices de 2×2 a coeficientes Ê Ê ı reales sobre el cuerpo . Sea P2 ( ) el espacio vectorial de los polino- mios de grado menor o igual a 2 a coeficientes reales sobre el cuerpo Ê. Sea T: Ê M22 ( ) −→ P2 ( ) Ê a b c d −→ T ( a d ) = (a + d) + (b + c)x + (a + b + 2c + d)x2 . c b (a) Demuestre que T es una transformaci´n lineal. o Ê Ê (b) Sean la bases de M22 ( ) y P2 ( ) siguientes: βM = {( 1 0 ) , ( 0 1 ) , ( 0 0 ) , ( 0 0 )} , 00 00 10 01 βP = {1, x, x2 }. Encuentre la matriz representante de T con respecto a las bases βM y βP . Ê Ê (c) Sean la bases de M22 ( ) y P2 ( ) siguientes: ′ βM = ( 1 0 ) , 0 1 −1 0 0 1 ,(0 1), 10 0 1 −1 0 , βP = {1 + x, x + x2 , 1 + x2 }. ′ Encuentre la matriz representante de T con respecto a las bases ′ ′ βM y βP . (d) Calule la dimensi´n del N´ cleo y la dimensi´n de la Imagen de T . o u o 120
  • 121.
    P2. Considere lasfunciones lineales f y g tales que Departamento de Ingenier´a Matematica - Universidad de Chile Ê f : M22 ( ) → Ê3 y g: Ê3 −→ 2 Ê x1 +x2 −x3 x −→ g(x) = 2x1 +x3 . y las bases B1 = 1 3 2 4 , 1 0 −1 2 , 0 3 0 −1 , 2 5 2 −4 de M22 ( ) Ê y         2 0 1  B2 =  1  , 1 , −2 de   Ê3 −1 3 1 1 11 1 Sea A = −2 0 0 1 la matriz representante de la funci´n f con o Ê Ê3. 2 1 1 −1 respecto a las bases B1 en M22 ( ) y B2 en (a) Encuentre la matriz representante de B de la funci´n g con res- o Ê Ê pecto a las bases can´nicas de 3 y 2 respectivamente. o (b) Obtenga la matriz representante de g ◦ f con respecto a la base Ê B1 en M22 ( ) y a la base can´nica de 2 . Ê ´ o P3. Sea T : V → V una aplicaci´n lineal con V espacio vectorial de dimen- o si´n finita. Demuestre que o V = Ker(T ) ⊕ Im(T ) ⇔ Ker(T 2 ) = Ker(T ). P4. Sea β = {1, x, x2 } la base can´nica o Ê del espacio P2 ( ). Considere ı   0 1 3 Q = 1 0 0 . 1 0 1 Ê (a) Encuentre la base β ′ de P2 ( ) tal que Q sea representante de la Ê Ê identidad de P2 ( ) con β ′ en P2 ( )con β. Si le sirve, si denotamos por [p]β el vector de coordenadas de p con respecto a la base β, [p]β = Q[p]β ′ Ê ∀p ∈ P2 ( ). Ê Ê (b) Sea T : P2 ( ) → 3 la transformaci´n lineal cuya matriz repre- o Ê sentante con respecto a las bases β en P2 ( ) y can´nica en 3 es o Ê la matriz   0 1 0 A = 0 0 2  . 0 0 0 Calcule la matriz representante de T con respecto a las bases β ′ Ê Ê en P2 ( ) y can´nica en 3 , donde β ′ es la base encontrada en o (a). 121
  • 122.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 10: TRANSFORMACIONES LINEALES - VALORES Y Departamento de Ingenier´a Matematica - Universidad de Chile VECTORES PROPIOS 4.9. Rango de una matriz y forma de Hermitte à Dada una matriz A ∈ Mqp ( ) definimos el rango de A, como el rango de Rango de A la transformaci´n lineal T (x) = Ax. Denotaremos por r(A) el rango de A. o As´ r(A) es la dimensi´n de la imagen de A. ı o Como Ax = x1 A•1 + ... + xp A•p si x = (x1 , ..., xp ), entonces la imagen de A es generada por las columnas de A esto es: ImA = {A•1 , ..., A•p } , por lo tanto el rango de una matriz es el n´ mero m´ximo de columnas l.i. u a ◭ Ejercicio Ejercicio 4.4: Supongamos que A, B son semejantes es decir existen matrices invertibles P, Q tal que A = P BQ. Probar que entonces que A y B tienen el mismo rango: ´ r(A) = r(B). Nuestro prop´sito es probar la rec´ o ıproca de lo anterior, esto es si dos ma- trices de igual dimensi´n tienen el mismo rango entonces son semejantes. o Para ello necesitaremos lo que se llama la forma normal de Hermitte. ı à Consideremos A ∈ Mqp ( ), ella induce de forma natural una aplicaci´n o lineal T mediante: T (x) = Ax. Es claro que A = Mββ ′ (T ) donde β, β ′ à à son las bases can´nicas de p y q respectivamente. Construiremos aho- o ra dos nuevas bases. Comencemos por una base de KerA: {u1 , ..., uν }, y extend´mosla a una base de p a à ˜ β = {w1 , ..., wr u1 , ..., uν }. Notemos dos cosas: primero que hemos dado un orden especial a esta base donde los vectores que agregamos van al principio; y segundo que del teo- à rema del n´ cleo imagen p = dim p = dim ImA + dim KerA y por lo tanto u necesitamos agregar tanto vectores como rango de A es decir r = r(A). Tomemos ahora X = {v1 , ..., vr } donde vi = Awi , i = 1, ...r. Probaremos que X es un conjunto l.i.. En efecto si λ1 v1 + ... + λr vr = 0, se tendr´ que a 0 = λ1 Aw1 + ... + λr Awr = A(λ1 w1 + ... + λr wr ), 122
  • 123.
    es decir elvector λ1 w1 + ... + λr wr est´ en el KerA. Como lo hemos hecho a Departamento de Ingenier´a Matematica - Universidad de Chile ya varias veces de aqu´ se deduce que los coeficientes deben ser cero. En ı efecto, por estar en el KerA se debe tener que λ1 w1 + ... + λr wr = α1 u1 + ... + αν uν , lo que implica que λ1 w1 + ... + λr wr − α1 u1 − ... − αν uν = 0, y como los vectores son l.i. se tiene que λ1 = ... = λr = 0. Extendamos ahora X a una base de q à ˜ β ′ = {v1 , ..., vr , vr+1 , ..., vq }, y calculemos la matriz representante de T con respecto a estas nuevas bases: Aw1 = v1 = 1v1 + 0v2 + ... + 0vr + 0vr+1 + ... + 0vq Aw2 = v2 = 0v1 + 1v2 + ... + 0vr + 0vr+1 + ... + 0vq . . . Awr = vr = 0v1 + 0v2 + ... + 1vr + 0vr+1 + ... + 0vq , ´ Au1 = 0 = 0v1 + 0v2 + ... + 0vr + 0vr+1 + ... + 0vq . . . Auν = 0 = 0v1 + 0v2 + ... + 0vr + 0vr+1 + ... + 0vq por lo tanto la matriz representante es: ı Ir 0 Mββ ′ (T ) = ˜˜ , 0 0 donde Ir es una identidad de tama˜ o r y el resto son matrices de ceros de n las dimensiones apropiadas. Usualmente esta matriz se denota por H y se le conoce como la forma normal de Hermitte. Usando el teorema de cambio Forma normal de de base se encuentra que existen matrices invertibles P, Q tal que Hermitte A = P HQ. à Por otro lado si A, B ∈ Mqp ( ) tienen el mismo rango entonces se demues- tra que existen matrices invertibles P, Q, R, S tal que A = P HQ, B = RHS, y por lo tanto A = P R−1 BS −1 Q, como P R−1 , S −1 Q son invertibles se deduce que A, B son semejantes. El rango de una matriz es el n´ mero m´ximo de columnas l.i., pero que u a hay del n´ mero m´ximo de filas l.i., o lo que es lo mismo, el rango de At . u a Veremos acontinuaci´n que o r(A) = r(At ). 123
  • 124.
    Usando la formanormal de Hermite, se deduce que existen matrices inver- tibles P, Q tal que Departamento de Ingenier´a Matematica - Universidad de Chile A = P HQ. At = Qt H t P t , que es la forma normal de Hermite para At . Adem´s es claro que r(H) = a r(H t ), pero entonces r(A) = r(H) = r(H t ) = r(At ). En particular se concluye que r(A) ≤ m´ ınimo (p, q). Un problema que se nos presenta es saber si hay una forma ’f´cil’de calcular a el rango de una matriz. La respuesta es si, y se obtiene mediante escalona- miento. Notemos que la matriz escalonada de A que usualmente se denota ˜ A, tiene el mismo rango que A pues estas dos matrices son semejantes. En ˜ efecto A se obtiene por premultiplicaci´n de A por matrices elementales que o ˜ son invertibles. Pero el rango de A es f´cil de calcular, pues tiene tantas a filas l.i. como filas no nulas tenga, y esto debido a la forma triangular de ˜ ˜ A. Por lo tanto el rango de A es el n´ mero de filas no nulas en A. u Tomemos, por ejemplo, el escalonamiento siguiente:     1 1 1 1 1 0 0 1 1 1 1 1 0 0 −1 1 −1 1 1 0 1  0 2 0 2 2 0 1    ˜   A =  0 1 1 1 −1 0 1  → A =  0 0 1 0 −2 0 1  , 2     0 −1 −1 −1 1 1 0 0 0 0 0 0 1 1 ´ −1 1 −1 1 1 0 1 0 0 0 0 0 0 0 ◭ Ejercicio Ejercicio 4.5: Probar que r(AB) ≤ r(A) y por lo tanto r(AB) ≤ m´ ınimo (r(A), r(B)). ı 5. Valores y vectores propios En esta secci´n abordaremos el problema de saber cu´ndo para una apli- o a Ê Ê caci´n lineal L : n → n , es posible encontrar una base B con respecto o a la cual la matriz representante de L sea diagonal. En forma equivalente, ¿cu´ndo una matriz A de n × n puede descomponerse de la forma a A = P DP −1 con D diagonal ? (5.1) Este problema de naturaleza puramente algebraica, tiene muchas aplicacio- nes en otras ramas de la Matem´tica, por ejemplo en Ecuaciones Diferen- a ciales, Estad´ıstica, etc. Tal vez el teorema m´s importante de este cap´ a ıtulo es el que dice que toda matriz sim´trica puede representarse en la forma (5.1). e Comenzamos con las nociones de valores y vectores propios de una aplica- ci´n lineal L : V → V donde V es un espacio vectorial sobre ( = o ÃÃ Ê o ´ ). 124
  • 125.
    Definici´n 5.1 (Vectory valor propio). o Diremos que x ∈ V es un Vector y valor propio Departamento de Ingenier´a Matematica - Universidad de Chile vector propio de L si: (i) x = 0 (ii) ∃λ ∈ à tal que L(x) = λx. En este caso el valor λ ∈ à que satisface (ii) se denomina valor propio asociado a x. Diremos que x ∈ V {0} es un vector propio de A ∈ Mnn si es vector propio de la aplicaci´n lineal L dada por L(x) = Ax. Es decir o ∃λ ∈ Ã, Ax = λx. De la misma manera decimos que λ es valor propio de A. Para la transformaci´n lineal asociada a una matriz A mencionada ante- o riormente, se tiene: à Proposici´n 5.1. Dada A ∈ Mnn ( ), son equivalentes: o (i) ∃x = 0 Ax = λx. ´ (ii) ∃x soluci´n no trivial del sistema (A − λI)x = 0. o (iii) Ker(A − λI) = {0} (iv) A − λI no es invertible. a e à Necesitamos una forma f´cil de determinar qu´ valores de λ ∈ son valores ı propios. Para ello ser´ util que la condici´n (iv) pudiera expresarse como ıa ´ o una ecuaci´n en λ. Veremos que el c´lculo de los valores propios se reduce a o a estudiar un polinomio de grado n cuyos coeficientes dependen de la matriz A. Con este objetivo introduciremos una aplicaci´n llamada determinante, o que a cada matriz cuadrada A con coeficientes en à le asigna un elemento à de . Para ello primero definiremos Aij la submatriz de A que se obtiene a partir de A eliminado la fila i y la columna j. Ejemplo:   1 2 3 5 6 A = 4 5 6 A11 = . 8 9 7 8 9 Con esto podemos definir el determinante de una matriz por un procedi- miento inductivo de la siguiente forma. Definici´n 5.2 (Determinante). Definimos el determinante de A como o Determinante (i) Si A es de 1 × 1 |A| = a donde A = a. 125
  • 126.
    n (ii) SiA es de n × n |A| = (−1)i+1 ai1 |Ai1 |. Departamento de Ingenier´a Matematica - Universidad de Chile i=1 a b As´, si A = ı , |A| = a11 |A11 | − a21 |A21 | = ad − cb. c d ◭ Ejercicio Ejercicio 5.1: Obtener la f´rmula para una matriz de 3 × 3. o A continuaci´n daremos las propiedades m´s importantes de la funci´n o a o determinante, sin dar demostraciones, las cuales se presentan (por comple- titud) en el Ap´ndice. e ı ´ 126
  • 127.
    Proposici´n 5.2. Setienen las siguiente propiedades: o Departamento de Ingenier´a Matematica - Universidad de Chile 1. El determinante es una funci´n lineal de las filas de A es decir o       A1• A1• A1•  .   .   .   . .  .  .  .  . ∀t ∈ K, x, y ∈ Ãn   :  tx + y  = t  .      x  +  y   .   .    . .  .  .  .  . An• An• An• 2. Si B se obtiene de A permutando dos filas entonces |A| = −|B|. 3. Si A tiene dos filas iguales |A| = 0. 4. |I| = 1 donde I es la identidad.Si A es triangular superior entonces n |A| = aii . i=1 5. Si a la fila i de la matriz A le sumamos la fila j ponderada por t entonces el determinante no cambia. Es decir  A1•    A1• ´  . .   .   .   . .  A     i−1•   Ai−1•  Si B =   donde i = j y A =   entonces  Ai• + tAj•   Ai•   .   .   .   . . . An• An• |B| = |A|. ı ˜ 6. Si A = (˜ij ) es una versi´n escalonada de A y Nσ , el n´mero de a o u permutaciones de filas realizadas para escalonar A. Entonces: n ˜ |A| = (−1)Nσ · |A| = (−1)Nσ aii . ˜ i=1 7. A es invertible si y s´lo si |A| = 0. o 8. Una permutaci´n del conjunto {1, 2, ..., n} es una funci´n σ : {1, 2, ..., n} → o o permutaci´n σ o 1 2 ... n {1, 2, ..., n}, biyectiva. Se suele usar la notaci´n σ = σ(1) σ(2) ... σ(n) . o Dada σ  permutaci´n del conjunto {1, 2, ..., n}, se define signo(σ) =  eσ(1) una o eσ(2)  .  donde e1 , ..., en son las filas de la matriz identidad. De (2) . . eσ(n) y (4) se obtiene que signo(σ) ∈ {−1, 1}. Se tiene adem´s |A| = a σ signo(σ) a1σ(1) a2σ(2) ...anσ(n) donde la suma se extiende sobre todas las n! permutaciones de {1, ..., n}. 9. |AB| = |A||B|. 127
  • 128.
    10. Si Aes invertible entonces |A−1 | = 1/|A|. Departamento de Ingenier´a Matematica - Universidad de Chile 11. |A| = |At |. Adem´s de (4) si A es triangular inferior entonces |A| = a n aii . i=1 12. Para cualquiera i0 , j0 ∈ {1, . . . , n} fijos, se tiene: n |A| = (−1)i+j0 aij0 |Aij0 | (C´lculo de |A|, usando la columna j0 ) a i=1 n |A| = (−1)i0 +j ai0 j |Ai0 j | (C´lculo de |A|, usando la fila i0 ) a j=1 La propiedad (7) nos dice que λ es valor propio de A si y s´lo si |A−λI| = 0. o Esta ecuaci´n es un polinomio de grado n en λ. o En efecto, usando la formula (8) se tiene n |A − λI| = signo (σ) (A − λI)iσ(i) ´ σ i=1 si σ es la permutaci´n identidad tendremos o n n signo (σ) (A − λI)iσ(i) = (aii − λ) = (−1)n λn + q(λ) i=1 i=1 donde q(λ) es un polinomio de grado ≤ n − 1. ı Si σ es distinta de la permutaci´n identidad se tendr´ que existe un ´ o a ındice n i ∈ {1, ..., n} tal que i = σ(i). De donde ℓ(λ) = signo(σ) (A − λI)iσ(i) = i=1 signo (σ) (aii − λ) aiσ(i) es un polinomio de grado ≤ n − 2 i:σ(i)=i i:σ(i)=i (este ultimo producto debe contener por lo menos dos t´rminos ¿por qu´?) ´ e e y por lo tanto |A − λI| = (−1)n λn + αn−1 λn−1 + ... + α1 λ + α0 , donde αn−1 , . . . , α0 dependen de A. Por ejemplo evaluando en λ = 0 se tiene |A| = α0 . ¿Cu´nto vale el coeficiente de λn−1 ?. a Definici´n 5.3 (Polinomio caracter´ o ıstico). P (λ) = |A − λI| es llama- Polinomio do el polinomio caracter´ ıstico de A. caracter´ ıstico Ejemplo: 4 −5 A= 2 −3 128
  • 129.
    ¿Cu´les son losvalores propios de A?. Para ello estudiemos A − λI. a Departamento de Ingenier´a Matematica - Universidad de Chile 4 −5 λ 0 4−λ −5 A − λI = − = 2 −3 0 λ 2 −3 − λ pero entonces 0 = |A−λI| = −(4−λ)(3+λ)+10 = −(12+λ−λ2 )+10 = λ2 − λ − 2. Los valores propios son λ1 = 2, λ2 = −1. Ejemplo: 0 −1 −λ −1 A= |A − λI| = = λ2 + 1 = 0 1 0 1 −λ Ê no tiene soluci´n en , y por tanto A no tiene valores propios reales. o Sin embargo si el cuerpo donde estamos trabajando es entonces A tiene dos valores propios. Ejemplo: Ê Sea D( ) = { espacio de funciones infinitamente diferenciables de → Ê Ê Ê } se prueba f´cilmente que D( ) es un espacio vectorial sobre . a Ê Consideremos ´ Ê L : D( ) → D( ) Ê df , f → Lf = dt es decir Lf es la funci´n derivada de f . o As´ por ejemplo si f (t) = tn , g(t) = cos(t) se tendr´ Lf = ntn−1 ; Lg = ı a ı −sen(t). Estudiemos si L tiene vectores propios: Lf = λf es decir df = λf . Esta es una ecuaci´n diferencial y una dt o soluci´n es: f (t) = ceλt . o Ê Luego todo λ ∈ es valor propio y un vector propio es ceλt , c = 0. o à De la definici´n v es vector propio si v = 0 y ∃λ ∈ tal que Av = λv. As´ ı, λ es valor propio si y s´lo si existe una soluci´n no nula de la ecuaci´n o o o (A − λI)v = 0 Cualquier soluci´n no nula de esta ecuaci´n es entonces un vector propio o o de A con valor propio λ. Notemos que si v es vector propio tambi´n lo es 10v y en general αv para e à cualquier α ∈ , α = 0. Adem´s, si v es vector propio, el valor propio asociado es unico. Supongamos a ´ que L(v) = λ1 v = λ2 v entonces (λ1 − λ2 )v = 0 . Como v = 0 se tendr´ λ1 − a λ2 = 0 y por lo tanto λ1 = λ2 . Para cada valor propio λ de A, introduciremos el subespacio propio Wλ Subespacio propio que corresponde a Wλ = Ker(A − λI). Notar que este subespacio debe contener vectores no nulos, pues λ es valor propio. 129
  • 130.
    Si A yB son similares es decir si existe P invertible tal que A = P BP −1 , Departamento de Ingenier´a Matematica - Universidad de Chile entonces los valores propios de A y B son los mismos y m´s a´ n, el polinomio a u caracter´ ıstico es el mismo. En efecto: A − λI = P BP −1 − λP P −1 = P (B − λI)P −1 |(A − λI)| = |(P (B − λI)P −1 )| = |P ||(B − λI)||P −1 | pero |P −1 | = 1/|P | = |B − λI| luego A y B tienen el mismo polinomio caracter´ ıstico, por lo tanto tienen los mismos valores propios. Ejemplo: 4 −5 Sea A = Sabemos que los valores propios son λ1 = 2, λ2 = 2 −3 −1. Calculemos los vectores propios asociados. λ1 = 2 La ecuaci´n de vectores propios es o x1 2 −5 x1 0 ´ (A − 2I) = = x2 2 −5 x2 0 5 La soluci´n general es x1 = 2 x2 y su espacio propio es: o 5 5 x1 2 W2 = Ker(A − 2I) = { /x1 = x2 } = . x2 2 1 ı 5 As´ v es vector propio asociado a λ1 = 2 si y solo si v = α ı 2 α = 0. 1 Para λ2 = −1 5 −5 5 −5 A − (−1)I = A + I = → , luego la soluci´n general o 2 −2 0 0 de la ecuaci´n (A + I)x = 0 es: x1 = x2 , y su espacio propio es o 1 W−1 = Ker(A − (−1)I) = Ker(A + I) = . 1 130
  • 131.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 10: VALORES Y VECTORES PROPIOS Departamento de Ingenier´a Matematica - Universidad de Chile ´ Apendice Hemos definido el determinante de una matriz A de n×n en forma recursiva de la siguiente manera | A |= (−1)j+1 aj1 | Aj1 |, donde Akℓ es la matriz j de n − 1 × n − 1, que se obtiene de A elimin´ndole la fila k y la columna a ℓ. Probaremos ahora las propiedades fundamentales de esta funci´n. Varias o de las propiedades pueden probarse por inducci´n, dejaremos al lector la o tarea de completar estas demostraciones. 1. Si   a11 ··· a1n  . .   .  ˜  A =  ak1 + bk1 ···  akn + bkn  ,  .   . .  an1 ··· ann entonces ´     a11 ··· a1n a11 ··· a1n  .   .   ..   ..  ˜ =  an1 |A|  ···   akn  +  bk1 ··· bkn   = |A| + |B|.  .   .   ..   ..  an1 ··· ann an1 ··· ann ı Por hip´tesis de inducci´n (sobre el tama˜ o de la matriz) se tiene o o n ˜ | Aj1 |=| Aj1 | + | B j1 | . ˜ Adem´s, | Ak1 |=| Ak1 |, luego a n n ˜ | A |= ˜ ˜ (−1)j+1 aj1 |Aj1 | = (−1)j+1 aj1 {| Aj1 | + | B j1 |}+ j=1 j=1 j=k (−1)k+1 (ak+1 + bk+1 ) | Ak1 |=| A | + | B | An´logamente se prueba que si a   a11 ··· a1n  . .   . . .  . ˜  A =  tak1 ···  takn  ,  .   . .  an1 ··· ann 131
  • 132.
    entonces   ··· Departamento de Ingenier´a Matematica - Universidad de Chile a11 a1n  ..   .  ˜   | A |= t  ak1 ··· akn  .  .   ..  an1 ··· ann As´ visto como funci´n de las filas de A el determinante tiene la propie- ı o dad lineal siguiente       A1• A1• A1•  A2•   A2•   A2•   .   .   .   .   .   .  ∀x, y ∈ Ã n  ,t ∈ K :  .    tx + y   .  =t   x   .   +   y   .  .   .   .   . .  .  .  .  . An• An• An• Es decir el determinante es lineal en cada una de las filas de la matriz. ´ Si estamos considerando matrices de dimensi´n n entonces diremos que o el determinante es n-lineal. Probaremos simult´neamente por inducci´n las propiedades (2) y (3): a o 2. Si B se obtiene de A permutando dos filas entonces |B| = −|A|. Se dice que el determinante es una funci´n alternada. o ı 3. Si A tiene dos filas iguales entonces |A| = 0. Supongamos que A tiene las filas i y j iguales, es decir:  A1•  .   .   .   X  ←i  .  A= .   .  .  ←j  X   .   .  . An• Cada matriz Ak1 tiene dos filas iguales a menos que k = i o k = j de donde | Ak1 |= 0 si k = i k = j. Por lo tanto ⇒ | A |= (−1)i+1 ai1 | Ai1 | +(−1)j+1 aj1 | Aj1 |. Las matrices Ai1 y Aj1 de dimensi´n n−1×n−1 son iguales excepto que o la fila X esta en distinta posici´n. En Ai1 esta en la fila j −1. En Aj1 esta o en la fila i. As´ podemos llegar de la matriz Ai1 a la matriz Aj1 mediante ı 132
  • 133.
    j −1−i permutaciones.Por cada permutaci´n hay un cambio de signo en o Departamento de Ingenier´a Matematica - Universidad de Chile el determinante (de dimensi´n n − 1). Luego | Ai1 |= (−1)j−1−i | Aj1 |. o Adem´s ai1 = aj1 ⇒ a | A | = ai1 {(−1)i+1 (−1)j−1−i | Aj1 | +(−1)j+1 | Aj1 |} = {(−1)j − (−1)j }ai1 | Aj1 |= 0 ˜ Supongamos que A se obtiene de A permutando las filas i y j:   A1•  .   .  .    Aj•  ← i  .  ˜ A= .  .  .   ←j  Ai•   .   .  . An• Tomemos   A1•  . . ´  .    Ai• + Aj•    ←i  . .  B= .  ,    Ai• + Aj•  ← j    .   . .  An• ı como B tiene dos filas iguales se deduce que         A1• A1• A1• A1•  . .   . .  .   .   .     .  .   .  . .  Ai•   Aj•           Ai•   Ai•   .   .   .   .   0 =| B |=  . . + . =  .  +  . +  .  .   .  A +A     Ai• + Aj•       i• j•   Ai•   Aj•   .     .   .   .    . .    .   .  . . . . An• An• An• An•   A  A1• 1•  .   .  . .   .   .      Aj•   Aj•     .    +  .  +  .  = 0 + |A| + |A| + 0,  . .  .  ˜     Ai•   Aj•   .   .   .   .  .  . An• An• 133
  • 134.
    y por lotanto Departamento de Ingenier´a Matematica - Universidad de Chile ˜ | A |= − | A | 4. Sea In la identidad de n × n entonces |In | = 1. En efecto |In | = 1|In−1 | = 1. De manera m´s general se prueba que si A es triangular superior enton- a n ces |A| = aii , esto tambi´n es cierto para una triangular inferior pero e i=1 lo probaremos m´s tarde. a 5. Si a la fila i le sumamos la fila j(i = j) amplificada por alg´ n factor, u entonces el determinante no cambia. Sea   A1•  . .   .     Aj•   ←j ˜  . .  ´ A= .  ,    Ai• + tAj•  ← i    .   . .  An• entonces   A1•  .   .  ı  .   Aj•    ←j . ˜ |=| A | +t  .  |A  .  =| A |    Aj•  ← i    .   .  . An• 6. Las filas de A son l.d. ⇐⇒| A |= 0. Supongamos que las filas de A son l.d. es decir ∃λ1 , ..., λn no todos nulos tal que λ1 A1• +λ2 A2• +...+λn An• = 0 podemos suponer sin p´rdida de generalidad que λ1 = 0 e   λ1 A1• + λ2 A2• + ... + λn An•  A2•  ˜ A= . =  . .  An•   0 n  A2•  ˜ =  .  = (−1)1+1 0· | A11 | + . ˜ ˜ (−1)j+1 aj1 |Aj1 |,  .  j=2 An• 134
  • 135.
    ˜ ˜ pero para j ≥ 2 la primera fila de Aj1 es cero luego las filas de Aj1 son Departamento de Ingenier´a Matematica - Universidad de Chile ˜ ı ˜ l.d., por tanto | Aj1 |= 0. As´ | A |= 0. Adem´s a      A2• Ak• An•  A2•   A2•   A2•  0 = λ1 |A|+λ2  .  +....+λk  .  +...+λn  ..   .   .  = λ1 |A|,  .  . . An• An• An• pero λ1 = 0 y por lo tanto | A |= 0. Si las filas son l.i. probaremos que |A| = 0. En efecto, mediante opera- ciones elementales sobre las filas de A (suma de filas y permutaci´n de o filas) se llega a   a11 ˜ a12 ˜ ··· a1n ˜  0 a22 ˜ ··· a2n  ˜   ˜  . A= . . 0    . . ..   . . . . .  0 0 0 0 ann ˜ ´ n ˜ ˜ pero entonces | A |= ± | A |. Dado que | A |= aii = 0 (ver (4)), se ˜ i=1 concluye que | A |= 0. Falta probar que |A| = |At |. Esta proposici´n no es f´cil, para ello o a necesitamos la siguiente f´rmula: o ı 7. |A| = (signo σ) a1σ(1) a2σ(2) ...anσ(n) donde la suma se extiende sobre σ todas las permutaciones de {1, ..., n} y signo(σ) se define como   eσ(1)   signo (σ) =  .  , . . eσ(n) donde {e1 , ...en } es la base can´nica de o Ên Ejemplo: 1 2 3 ··· n σ= 2 1 3 ··· n eσ(1) = e2 eσ(2) = e1 eσ(i) = ei i≥2 135
  • 136.
     0 1 0 ··· 0 Departamento de Ingenier´a Matematica - Universidad de Chile 1 0 0 ··· 0   signo(σ) =  0 0 1 ··· 0  = (−1)3 | In−1 |= −1, luego signo . ..  .. . 0 1 (σ) = −1 El t´rmino asociado a esta permutaci´n σ en la f´rmula (7) es: e o o −1 a12 a21 a33 a44 ...ann Notemos que cada t´rmino de la f´rmula (7) es el producto de una ele- e o mento por fila y columna. Demostremos la f´rmula. Dado que A1• = a11 e1 + a12 e2 + ... + a1n en se o tendr´ a   ek n  A2•  | A |= a1k  .  .  .  . k=1 An• ´ n An´logamente A2• = a a2ℓ eℓ , luego ℓ=1       ek ek ek n  eℓ   eℓ   A2•       .  = a2ℓ  A3•  = a2ℓ  A3•  .  .   .   .  ı . ℓ=1  .  ℓ=k  .  . . An• An• An• Por lo tanto  ek  e  k1  eℓ     ek2  |A| = a1k a2ℓ  Aj•  = a1k1 a2k2 ...ankn  .   .   .  k=ℓ  .  k1 ,...,kn . . todos ekn a1k1 a2k2 ...ankn distintos Esta suma es la suma sobre todas las permutaciones   ek1 1 2 ··· n  .  σ= y  .  = signo (σ), . k1 k2 kn ekn lo que prueba la f´rmula deseada. Notemos que lo que se uso en probar o esta f´rmula es que el determinante es n-lineal y alternada. Por esto o estudiaremos un poco como son este tipo de funciones. 136
  • 137.
    Supongamos que tenemosuna funci´n F que asigna a cada matriz cua- o à Departamento de Ingenier´a Matematica - Universidad de Chile drada de n × n un n´ mero de , de manera que es n-lineal y alternada u en las filas de la matriz, entonces necesariamente: F (A) = |A| · F (I) à donde F (I) ∈ es el valor que toma para la identidad de tama˜ o n. Este n resultado dice que toda funci´n n-lineal alternada debe ser un m´ ltiplo o u del determinante. De igual forma como lo hicimos para el determinante se prueba que   eσ(1)   F (A) = a1σ(1) ...anσ(n) F  .  . . . σ eσ(n) Pero por ser F alternada se tendr´a   eσ(1)  .  F  .  = ±F (I) . eσ(n) el signo depende de si se necesitan un n´ mero par o impar de permuta- u ciones para llegar a la identidad pero ´   eσ(1)  .   .  . eσ(n) es exactamente ±1 dependiendo de la paridad del n´ mero de intercam- u bios necesarios para llegar a la identidad. Luego, F (A) = F (I) signo (σ)a1σ(1) ...anσ(n) = ı j F (I)|A|. 8. |AB| = |A||B| Sea à F : Mnn ( ) → à A → |AB| probemos que F es n-lineal. En efecto     A1• A1•  .   .   .  .  .  .     C1 =  X  C2 =  Y   .   .   .  .  .  . An• An•     A1• A1• B  .   .   .  .  . .  ˜ = X +Y  A   ˜ =  XB + Y B  , AB    .   .   .  .  . .  An• An• B 137
  • 138.
    y por lotanto Departamento de Ingenier´a Matematica - Universidad de Chile     A1• B A1• B  .   .   .   .  . . ˜ ˜     F (A) = |AB| =  XB  +  Y B  = |C1 B|+|C2 B| = F (C1 )+F (C2 ).  .   .   .   .  . . An• B An• B De igual forma se prueba que     A1• A1•  .   .   .  .  .  .     F  tAi•  = tF  Ai•  .  .   .   .  .  .  . An• An• Si intercambiamos las filas i y j de A y definimos     A1• A1• B  .   .   .  .  .  . ´      Aj•  ← i  Aj• B   .   .  ˜ A= .  ˜ AB =  .  ,  .   .       Ai•  ← j  Ai• B   .   .   .   .  . . An• An• B ı a ˜ ˜ se tendr´ |AB| = −|AB| por lo tanto F (A) = −F (A). Del resultado anterior concluimos que F (A) = |A|F (I) pero F (I) = |IB| = |B| por lo tanto |AB| = |A||B| 9. Si A es invertible entonces 1 |A−1 | = |A| 1 en efecto, |A−1 A| = |I| = 1 = |A−1 | · |A| luego |A−1 | = |A| . Proposici´n 5.3. Sean σ y σ ′ dos permutaciones entonces signo(σ ◦ o σ ′ ) = signo(σ) signo(σ ′ ). ´ Demostracion. Sean     eσ(1) eσ′ (1)     A= .  . . B= .  . . eσ(n) eσ′ (n) 138
  • 139.
       eσ◦σ′ (1) eσ(σ′ (1)) Departamento de Ingenier´a Matematica - Universidad de Chile  .   .  C= . . = . . . eσ◦σ ′ (n) eσ(σ ′ (n)) Si escribimos A en t´rminos de sus columnas, tendremos que el 1 de la e primera columna se ubica en la posici´n k (fila k) que hace que σ(k) = 1, o pero entonces k = σ −1 (1), por lo tanto A descrita por sus columnas es: A = (eσ−1 (1) eσ−1 (2) ...eσ−1 (n) ). Como 0 j=k et ek = j , se tiene que la primera fila de BA tendr´ la forma: a 1 j=k (BA)1j = et ′ (1) eσ−1 (j) = 1 σ ′ (1) = σ −1 (j) , σ 0 sino es decir (BA)1• es un vector de la base can´nica, lo que debemos ave- o riguar es en que posici´n tiene el ”1”, pero esto se deduce de la ecua- o ci´n σ ′ (1) = σ −1 (j) pues entonces j = σ(σ ′ (1)) = σ ◦ σ ′ (1), luego o (B · A)1• = eσoσ′ (1) . As´ se obtiene: ı   eσ◦σ′ (1)  eσ◦σ′ (2)    BA =  .  ´  . .  eσ◦σ′ (n) Por lo tanto C = B · A, de donde |C| = |B||A| y entonces signo(σ ◦ σ ′ )= signo(σ) signo(σ ′ ). En particular signo(σ −1 )= signo(σ) pues signo(σ ◦ σ −1 ) = signo(id) = 1 = signo(σ) signo(σ −1 ), donde id es la permutaci´n identidad. o ı 10. Probemos ahora que |A| = |At |. En efecto: |At | = signo (σ) (At )1σ(1) (At )2σ(2) ...(At )nσ(n) σ , = ( signo(σ))aσ(1)1 , aσ(2) ...aσ(n)n σ n n pero aσ(i)i = aiσ−1 (i) lo que se obtiene reordenando el producto i=1 i=1 de acuerdo a la primera coordenada. Luego |At | = ( signo(σ))a1σ−1 (1) a2σ−1 (2) ...anσ−1 (n) . σ Como signo(σ) = signo(σ −1 ) y la aplicaci´n σ → σ −1 es una biyecci´n o o se tiene: |At | = ( signo(ν))a1ν(1) ...a2ν(2) = |A| ν 139
  • 140.
    Formula para A−1 ´ Departamento de Ingenier´a Matematica - Universidad de Chile à à F (A) = n Sea F : Mnn ( ) → (−1)i+j aij |Aij | que corresponde a i=1 desarrollar el determinante de A por la columna j. Se puede probar al igual que hicimos para el determinante que F es n-lineal y alternada luego F (A) = |A| · F (I) pero F (I) = 1, por tanto F (A) = |A|. Adem´s si se usa |A| = |At | se prueba que se puede calcular a n |A| utilizando las filas de A esto es: |A| = (−1)i+j aij |Aij | j=1 Si |A| = 0 definamos B mediante: 1 bij = (−1)i+j |Aji |. |A| Calculemos AB: n n (−1)k+j (AB)ij = aik bkj = aik |Ajk |. |A| k=1 k=1 ´ Analicemos ahora dos casos: n 1 1. j = i (AB)ii = |A| (−1)k+i aik |Aik | = 1 k=1 n 2. j = i (AB)ij = (−1)k+j aik |Ajk |, que corresponde al determinante |A| k=1 de la siguiente matriz, calculado usando la fila j  a11  . ··· . a1n .   ı  .. . . .  .    ai1 ··· ain  ← i  . . .   . . .   . . .   ai1 ain  ← j  |A| ······  |A|    . . .   .. . . .  . an1 ··· ann n a Como las filas de esta matriz son l.d. se tiene (−1)k+j |A| |Ajk | = 0, jk k=1 y por tanto AB = I lo que implica que B = A−1 . Ejemplo: Sea a b A= . c d 140
  • 141.
    Se tendr´ que a Departamento de Ingenier´a Matematica - Universidad de Chile |A| = ad − bc |A11 | = d |A12 | = c |A21 | = b |A22 | = a t 1 d −c 1 d −b A−1 = = . |A| −b a |A| −c a ı ´ 141
  • 142.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 10 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. Suponga que A, B son semejantes, es decir, existen matrices invertibles P, Q tal que A = P BQ. Pruebe que A y B tienen el mismo rango: r(A) = r(B). 2. Probar que r(AB) ≤ r(A) y por lo tanto r(AB) ≤ m´ ınimo (r(A), r(B)). 3. Obtener la f´rmula del determinante de una matriz de 3×3. o Ê 4. Demuestre que si A, B ∈ Mnxn ( ), entonces P (A · B) = P (B · A) si A es invertible, y donde P (A) denota “el polinomio caracter´ ıstico de A” 5. Determinar los valores y los vectores propios correspondientes a las ma- trices siguientes:     3 0 1 0     2 1 0 0  3 2 2 3 −2 1 ´ 3 0 0  0 2 0 0 −2 1 −6 2 1 −1 1 3 0 0 0 3 1 −1 4 2 −6 4 0 0 0 3 Problemas à P1. (a) Pruebe que una matriz A ∈ Mmn ( ) tiene rango 1 si y s´lo si o à à ı existen u ∈ m , v ∈ n , ambos no nulos tales que A = uv t . (b) Si α0 , α1 , ..., αn−1 ∈ Ê y n 2, probar por inducci´n que el o polinomio caracter´ ıstico de la matriz   0 0 ... 0 −α0 1 0 ... 0 −α1     −α2  A = 0 1 ... 0  . . . . .  . . . . . . . . .  . 0 0 ... 1 −αn−1 n−1 es igual a: (−1)n ( αk λk + λn ). k=0 Ê P2. Sean A, B ∈ Mn,n ( ) invertibles y α ∈ Ê, 0 < α < 1. ıstico de A−1 B. Pruebe que a) Sea PA−1 B (·) el polinomio caracter´ α |(αA + (1 − α)B)| = (1 − α)n |A|PA−1 B . α−1 b) Demueste que existe 0 < α < 1 tal que (αA+(1−α)B) es invertible. 142
  • 143.
    P3. Sean A,B matrices de n×n con coeficientes reales tales que AB = BA Departamento de Ingenier´a Matematica - Universidad de Chile a) Pruebe que si Bv = 0 y v es vector propio de A asociado a λ entonces Bv tambi´n lo es. e b) Muestre que si v es vector propio de A perteneciente a un espacio propio de dimensi´n 1, entonces v es vector propio de B. o ı ´ 143
  • 144.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 11: VALORES Y VECTORES PROPIOS Departamento de Ingenier´a Matematica - Universidad de Chile à à Sea L : n → n lineal y sea A la matriz representante de L con respecto a la base can´nica B. Supongamos que existe B ′ = {v1 , . . . , vn } base de o vectores propios, es decir B ′ es una base de n y à ∀ i ∃λi ∈ à Avi = λi vi . ¿Cu´l es la matriz representante de L con respecto a B ′ ? a Av1 = λ1 v1 = λ1 v1 + 0v2 + · · · + 0vn Av2 = λ1 v2 = 0v1 + λ2 v2 + · · · + 0vn . . . Avn = λn vn = 0v1 + 0v2 + · · · + λn vn   λ1 0 0  .  .   0 λ2 . MB ′ B ′ (L) =  . ..  = D que es diagonal.  . . 0 . 0  ´ 0 0 λn Adem´s se tiene el diagrama a A B → B P −1 ↓ ↑ P. ı D B′ → B′ Por lo tanto A = P DP −1 Algunas ventajas de conocer D: (1) r(A) = r(D) = n´ mero de valores propios no nulos. u n (2) |A| = |P DP −1 | = |P ||D||P −1 | = |D| = λi . i=1 (3) |A| = 0 entonces ∀iλi = 0 y A−1 = P D−1 P −1 donde   λ−1 1 0  ..  D−1 =  . . 0 λ−1 n En efecto, A−1 = (P DP −1 )−1 = (P −1 )−1 D−1 P −1 = P D−1 P −1 , 144
  • 145.
    1  λ1 0 Departamento de Ingenier´a Matematica - Universidad de Chile  ..  pero D−1 =  .  1 0 λn (4) Am = (P DP −1 )m = (P DP −1 )(P DP −1 ) · · · (P DP −1 )  m  λ1 0  ..  −1 = P Dm P −1 = P  . P 0 λm n Como hemos visto A = P DP −1 donde P = MB ′ B (idÃn ) es decir tenemos que expresar los vectores propios en t´rminos de la base can´nica, y por lo e o tanto P = (v1 , v2 , . . . , vn ), donde los vectores vi son las columnas de P . Definici´n 5.4 (Matriz diagonalizable). Diremos que A ∈ Mnn ( ) es o à Matriz diagonalizable à diagonalizable si n admite una base de vectores propios de A. Teorema 5.1. A es diagonalizable si y s´lo si A es similar a una matriz o diagonal. ´ ´ Demostracion. (⇒) Hemos visto que si A es diagonalizable entonces   λ1 0 A = P DP −1 donde D =  ..  . 0 λn y P = (v1 , . . . , vn ). Luego A es similar a una diagonal. (⇐) Supongamos que A es similar a una diagonal, es decir existe P inver- tible tal que A = P DP −1 . De manera equivalente: ı AP = P D. d1 0 Si suponemos que P = (v1 , . . . , vn ) (notaci´n por columnas) y D = o .. , . 0 dn entoces la igualdad anterior se escribe: d1 0 A(v1 , . . . , vn ) = (v1 , . . . , vn ) .. . . 0 dn Y por propiedades de la multiplcaci´n de matrices esto equivale a: o (Av1 , . . . , Avn ) = (d1 v1 , . . . , dn vn ). Finalmente, la igualdad vista por columnas nos dice que ∀i ∈ {1, . . . , n} Avi = di vi . Es decir, los vectores v1 , . . . , vn son vectores propios de A (son no nulos pues P es invertibles), con valores propios respectivos d1 . . . , dn . à Adem´s, son claramente una base de n , pues son las columnas de P que a es invertible. 145
  • 146.
    Ã Departamento de Ingenier´a Matematica - Universidad de Chile Teorema 5.2. Sea A ∈ Mnn ( ) si {λi }i=1,...,k son valores propios de A distintos y {vi }i=1...,k son vectores propios de A tal que Avi = λi vi , entonces {vi }i=1,...,k es un conjunto l.i. ´ Demostracion. Por inducci´n sobre k. Para k = 1, la propiedad es ob- o viamente cierta. Supongamos α1 v1 + · · · + αk vk = 0, (5.2) donde Avi = λi vi y λi i = 1, . . . , k son todos distintos. Entonces α1 λ1 v1 + · · · + αk λk vk = A(α1 v1 + · · · + αk vk ) = A0 = 0. Multiplicado (5.2) por λk se tiene α1 λk v1 + · · · + αk λk vk = 0. Luego α1 (λ1 − λk )v1 + · · · + αk−1 (λk−1 − λk )vk−1 = 0 como {v1 . . . , vk−1 } son l.i. se tiene αi (λi − λk ) = 0 i = 1, . . . ., k − 1. Como λi = λk se debe tener que αi = 0 i = 1, . . . , k − 1 y de (5.2) se concluye que ´ αk = 0. Antes de seguir, veremos la extensi´n natural del concepto de suma di- o recta de m´s de dos subespacios vectoriales. Definamos primero, dados a k U1 , U2 , . . . , Uk s.e.v. de un espacio vectorial V , la suma de ellos como: + Ui i=1 k k ı + Ui = U1 + U2 + · · · + Uk v= ui | ∀i ∈ {1, . . . , k}, ui ∈ Ui . i=1 i=1 Esto es claramente un s.e.v. de V . Definici´n 5.5 (Suma directa m´ ltiple). Sea V espacio vectorial y U1 , . . . , Uk o u k subespacios vectoriales de V . Decimos que el subespacio Z = +i=1 Ui es k L suma directa de U1 , . . . , Uk , notado Z = k Ui = U1 ⊕ U2 ⊕ · · · ⊕ Uk , i=1 Ui i=1 si para todo v ∈ Z, v se escribe de manera unica como ´ k v= ui , con ui ∈ Ui , ∀i ∈ {1, . . . , k}. i=1 Las siguientes propiedades se tienen de manera an´loga al caso de dos a subespacios: Proposici´n 5.4. Sea V espacio vectorial y Z, U1 , . . . , Uk subespacios vec- o toriales de V , entonces:     k k k 1. Z = Ui ⇔ Z = + Ui ∧ ∀j ∈ {1, . . . , k}, Uj ∩  + Ui  = {0}. i=1 i=1 i=1 i=j 146
  • 147.
    k 2.Si Z = + Ui y Z es de dimensi´n finita, entonces son equivalentes: o Departamento de Ingenier´a Matematica - Universidad de Chile i=1 k (a) Z = Ui . i=1 (b) (∀i ∈ {1, . . . , k})(∀ui ∈ Ui {0}) {u1 , . . . , uk } es l.i. (c) La yuxtaposici´n de bases de los subespacios Ui es una base (y no o s´lo un generador) de Z. o k (d) dim(Z) = dim(Ui ). i=1 ´ Demostracion. Probaremos (a) ⇔ (b) en la parte 2. El resto de las de- mostraciones, quedan propuestas como ejercicio. ◭ Ejercicio (b) ⇒ (a) Sea v ∈ Z y dos formas distintas de escribirlo: k k ′ ′ v= wi = wi , con wi , wi ∈ Ui . i=1 i=1 ´ De aqu´ suponiendo sin p´rdida de generalidad que ∀i ∈ {1, . . . , k ∗ }, wi − ı, e ′ wi = 0, sale que: k∗ ′ (wi − wi ) = 0, i=1 lo cual es una combinaci´n lineal nula, con escalares no nulos (todos 1), de o ı ′ los vectores ui = wi − wi ∈ Ui {0}. Pero esto es una contradicci´n con el o hecho de que dichos vectores son l.i, por hip´tesis. o As´ se tiene que la escritura es unica y por ende la suma es directa ı ´ k (a) ⇒ (b) Supongamos ahora que Z = i=1 Ui . Sea {u1 , . . . , uk }, con ui ∈ Ui , ∀i ∈ {1, . . . , k}. Estudiemos k αi ui = 0. i=1 Como para cada i ∈ {1, . . . , k}, Ui es un s.e.v., luego αi ui ∈ Ui . As´ hemos ı, encontrado una forma de escribir al vector nulo como suma de elementos de los subespacios Ui . Por unicidad de dicha escritura, ∀i ∈ {1, . . . , k}, αi ui = 0. Y esto implica, ya que ui = 0, que αi = 0, ∀i ∈ {1, . . . , k}. Es decir, {u1 , . . . , uk } es l.i. 147
  • 148.
    Departamento de Ingenier´aMatematica - Universidad de Chile à Teorema 5.3. Sea A ∈ Mnn ( ), λ1 , . . . , λk los valores propios (distintos) de A y Wλi = Ker(A−λi I), i ∈ {1, . . . , k}. Si W = Wλ1 +Wλ2 +· · ·+Wλk , se tiene que W = Wλ1 ⊕ Wλ2 ⊕ · · · ⊕ Wλk . En particular, A es diagonalizable si y s´lo si o Ãn = Wλ 1 ⊕ Wλ2 ⊕ · · · ⊕ Wλk . ´ Demostracion. Directa de la Proposici´n 5.4. o à Corolario 5.1. Supongamos que A ∈ Mnn ( ) y que p(λ) = |A − λI|, el polinomio caracter´stico de A, tiene n ra´ces distintas en ı ı à : λ1 , . . . , λn , entonces 1. Wλi = Ker(A − λi I) es de dimensi´n 1. o 2. Sea vi ∈ Wλi con vi = 0 entonces {v1 , . . . , vn } es una base de vectores ´ propios. à Este teorema da un criterio simple para que A ∈ Mnn ( ) sea diagonizable, ´ste es que A tenga n valores propios distintos. e Ejemplo: Sea   1 −1 −1 ı A= −1 1 −1  −1 −1 1   1−λ −1 −1 p(λ) = |A − λI| =  −1 1−λ −1  −1 −1 1 − λ = (1 − λ){(1 − λ)2 − 1} − 1{(1 − λ) + 1} − {1 + (1 − λ)} = (1 − λ)3 − (1 − λ) − (1 − λ) − 1 − 1 − (1 − λ) = (1 − 3λ + 3λ2 − λ3 ) − 3 + 3λ − 2 = 3λ2 − λ3 − 4 Ahora λ = 2 es una ra´ de p(λ). Por otro lado p(λ)÷λ−2 = −λ2 +λ+2 ız ıces de p son λ = −1 y λ = 2. Por lo tanto p(λ) = As´ las otras ra´ ı −(λ − 2)(λ + 1)(λ − 2) Se puede probar que A tiene una base de vectores propios por lo que no es necesario que todos los valores propios sean distintos para que A sea diagonalizable. 148
  • 149.
    Ejemplo: Departamento de Ingenier´a Matematica - Universidad de Chile   1 0 0 Consideremos A =  2 2 0  los valores propios son λ1 = 1, λ2 = 0 0 2        1   0 0  2, λ3 = 2 y W1 =  −2  W2 = 1,0 .     0 0 1  1 0 0 Ê As´ 3 = W1 ⊕ W2 , y A es diagonalizable similar a D =  0 2 0  ı 0 0 2 Definici´n 5.6 (Multiplicidad geom´trica). Sean A ∈ Mnn ( ) y λ o e à Multiplicidad un valor propio de A. Definimos la multiplicidad geom´trica de λ, e geom´trica, γA (λ) e γA (λ), como la dimensi´n del espacio propio Wλ = Ker(A − λI). o à Teorema 5.4. Una matriz A ∈ Mnn ( ) es diagonalizable ssi la suma de las multiplicidades geom´tricas de sus valores propios es n. e ´ ´ Demostracion. Basta usar el Teorema 5.3 y el hecho de que si λ1 , . . . , λk son los v.p.’s de A, k dim(Wλ1 ⊕ · · · ⊕ Wλk ) = γA (λi ). k=1 ı Definici´n 5.7 (Multiplicidad algebraica). Sean A ∈ Mnn ( ) y λ un o à Multiplicidad valor propio de A. Definimos la multiplicidad algebraica de λ, αA (λ), algebraica, αA (λ) como la m´xima potencia de (x − λ) que divide al polinomio caracter´stico a ı de A, pA (x) = |A − xI|. à Proposici´n 5.5. Sean A ∈ Mnn ( ) y λ0 un valor propio de A, entonces: o 1 ≤ γA (λ0 ) ≤ αA (λ0 ) ≤ n. ◭ Ejercicio Ejercicio 5.2: Demuestre la Proposici´n 5.5. Para ello proceda de la o siguiente manera: 1. Pruebe las desigualdades 1 ≤ γA (λ0 ) y αA (λ0 ) ≤ n. 149
  • 150.
    Departamento de Ingenier´aMatematica - Universidad de Chile 2. Sea γ = γA (λ0 ). Considere una base βλ0 = {v1 , . . . , vγ } de Wλ0 = Ker(A − λ0 I). 3. Extienda dicha base a una base β = {v1 , . . . , vγ , vγ+1 , . . . , vn } de à n . 4. Calcule la matriz representante de T (x) = Ax, con respecto a la base β. Es decir, Mββ (T ). 5. Pruebe que pA (λ) = |A − λI| = (λ − λ0 )γ q(λ). En donde q(λ) es un polinomio de grado n − γ. Indicaci´n: Pruebe y use que A y Mββ (T ) son similares. o 6. Concluya el resultado. à Corolario 5.2. Sea A ∈ Mnn ( ) y pA (λ) su polinomio caracter´stico. Se ı tiene entonces que A es diagonalizable si y s´lo si pA (λ) se factoriza com- o ´ pletamente en à en factores lineales. Es decir: pA (λ) = cA · (λ − λ1 )αA (λ1 ) (λ − λ2 )αA (λ2 ) . . . (λ − λk )αA (λk ) , y adem´s, para todo valor propio λ de A, se tiene que γA (λ) = αA (λ). a ´ Demostracion. Supongamos que A es diagonalizable y sean λ1 , . . . , λk à ı sus valores propios. Entonces, gracias al Teorema 5.3 tenemos que n = k i=1 Wλi . Sea entonces la fatorizaci´n en o à del polinomio caracter´ ıstico de A: pA (λ) = cA · (λ − λ1 )αA (λ1 ) (λ − λ2 )αA (λ2 ) . . . (λ − λk )αA (λk ) q(λ), con q(λ) un polinomio. Pero, gracias a la Proposici´n 5.5, o k k k n = dim( Ãn) = dim( Wλi ) = γA (λi ) ≤ αA (λi ). i=1 i=1 i=1 k De donde i=1 αA (λi ) = n. Ahora n = gr(pA (λ)) = gr(cA · (λ − λ1 )αA (λ1 ) (λ − λ2 )αA (λ2 ) . . . (λ − λk )αA (λk ) ) + gr(q(λ)) k = αA (λi ) + gr(q(λ)). i=1 n 150
  • 151.
    As´ gr(q(λ)) =0. Es decir, es una constante y se tiene la fatorizaci´n ı, o Departamento de Ingenier´a Matematica - Universidad de Chile buscada. Ahora, supongamos que pA (λ) se factoriza completamente en à de la si- guiente manera: pA (λ) = cA · (λ − λ1 )αA (λ1 ) (λ − λ2 )αA (λ2 ) . . . (λ − λk )αA (λk ) . k De donde i αA (λi ) = n. Y, supongamos que A no es diagonalizable. Esto implica que k k k dim( Wλi ) = γA (λi ) < n = αA (λi ). i=1 i=1 i=1 Lo cual contradice la hip´tesis de igualdad de las multiplicidades. o Corolario 5.3. A ∈ Mnn ( ) es diagonalizable si y s´lo si para todo valor o propio λ de A, se tiene que γA (λ) = αA (λ). ı ´ 151
  • 152.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 11 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. Demostrar que dados V espacio vectorial y Z, U1 , . . . , Uk subespacios Proposici´n 5.4 o vectoriales de V , entonces:     k k k (a) Z = Ui ⇔ Z = + Ui ∧ ∀j ∈ {1, . . . , k}, Uj ∩  + Ui  = {0}. i=1 i=1 i=1 i=j k (b) Si Z = + Ui y Z es de dimensi´n finita, entonces son equivalentes: o i=1 k (1) Z = Ui . i=1 (2) (∀i ∈ {1, . . . , k})(∀ui ∈ Ui {0}) {u1 , . . . , uk } es l.i. (3) La yuxtaposici´n de bases de los subespacios Ui es una base (y o no s´lo un generador) de Z. o k (4) dim(Z) = dim(Ui ). i=1 Ã 2. Pruebe que, dados A ∈ Mnn ( ) y λ0 un valor propio de A, entonces: Proposici´n 5.5 o ´ 1 ≤ γA (λ0 ) ≤ αA (λ0 ) ≤ n. Para ello (a) Pruebe las desigualdades 1 ≤ γA (λ0 ) y αA (λ0 ) ≤ n. (b) Sea γ = γA (λ0 ). Considere una base βλ0 = {v1 , . . . , vγ } de Wλ0 = ı Ker(A − λ0 I). (c) Extienda dicha base a una base β = {v1 , . . . , vγ , vγ+1 , . . . , vn } de Ãn . (d) Calcule la matriz representante de T (x) = Ax, con respecto a la base β. Es decir, Mββ (T ). (e) Pruebe que pA (λ) = |A − λI| = (λ − λ0 )γ q(λ). En donde q(λ) es un polinomio de grado n − γ. Indicaci´n: Pruebe y use que A y Mββ (T ) son similares. o (f ) Concluya el resultado. Problemas Ê P1. (a) Sea P2 ( ) el espacio vectorial de los polinomios a coeficientes reales de grado menor o igual a 2, y sea T : P2 ( ) → P2 ( ) la Ê Ê transformaci´n lineal definida por o T (a0 + a1 x + a2 x2 ) = (a0 + 2a2 ) + a1 x + (2a0 + a2 )x2 . 152
  • 153.
    (1) Verifique quela matriz representante de T con respecto a la Ê Departamento de Ingenier´a Matematica - Universidad de Chile base can´nica {1, x, x2 } de P2 ( ) (en dominio y recorrido) o es   1 0 2 A = 0 1 0 . 2 0 1 (2) Calcule A2n para cada n ≥ 1 natural, diagonalizando A. (3) Calcule T 2n (1 + x + x2 ), donde T 2n = T ◦ T ◦ · · · ◦ T . 2n Indicaci´n: Recuerde que la matriz representante de T 2n es o A2n . (b) Encuentre los valores reales de α y β de modo que la matriz   2 α 0 0 0 0 2 α 0 0   0 0 2 0 0   0 0 0 1 β 0 0 0 0 1 sea diagonalizable. ´ Ê P2. Sea a ∈ . Se define una sucesi´n de n´ meros reales (un )n∈Æ de la o u siguiente manera: u0 = 1, u1 = a, (∀n ≥ 2) un = aun−1 − un−2 . Sean x0 = ( 1 ), (∀n ≥ 1) xn = ( uun ). 0 n−1 (a) Demuestre que para todo n ≥ 0 se tiene que xn = An x0 con A = a −1 . 1 0 ı (b) Demuestre que si |a| = 2 entonces A no es diagonalizable. (c) Demuestre que si |a| > 2 entonces A es diagonalizable. (d) Asuma que |a| > 2 y denote λ1 , λ2 los valores propios de A. Demuestre que (1) λ1y ( λ2 ) son vectores propios asociados a λ1 y λ2 , respec- 1 1 tivamente. Æ λn+1 −λn+1 (2) Para todo n ∈ se tiene que un = 1 λ1 −λ2 . 2 Ê P3. Sean R, S ∈ Mnn ( ), con S invertible. Considere A = RS y B = SR. Ê (a) Pruebe que v ∈ n es vector propio de A asociado al valor propio λ ∈ R ssi Sv es vector propio de B asociado al mismo valor propio λ. Concluya que A y B tienen los mismos valores propios. (b) Sean Wλ (A) = Ker(A− λI) el subespacio propio de A asociado al valor propio λ ∈ Êy Wλ (B) el subespacio propio de B asociado a λ. Pruebe que dim(Wλ (A)) = dim(Wλ (B)). (c) Pruebe que A es diagonalizable ssi B es diagonalizable. 153
  • 154.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 12: ORTOGONALIDAD Departamento de Ingenier´a Matematica - Universidad de Chile 6. Ortogonalidad 6.1. Conjuntos ortogonales y ortonormales Recordemos que la proyecci´n de u sobre v = 0 est´ definida por w = u,v v. o a v,v Este vector w es “el que est´ m´s cerca” de u en el espacio {v} . Es decir a a m´ u − λv = u − w . ın λ∈ Ê Notaremos por u⊥v si u, v = 0, es decir si u y v son ortogonales. u⊥v Definici´n 6.1 (Conjunto ortogonal/ortonormal). Un conjunto {v1 , . . . , vk } o Conjunto de Ê n se dice ortogonal si vi , vj = 0 i = j. Si adem´s vi = vi , vi = a 1 2 ortogonal/ortonormal 1, diremos que el conjunto es ortonormal. En el caso en que {v1 , . . . , vk } es adem´s base de un subespacio vectorial a W , diremos que se trata de una base ortonormal de W . Base ortogonal/ortonormal Ejemplo: Ên es una base ortonormal. ´ La base can´nica de o Veamos una propiedad util de los conjuntos ortogonales: ´ Proposici´n 6.1. Sea {v1 , . . . , vk } ⊆ o Ên{0} ortogonal, entonces {v1, . . . , vk } es l.i. ı k ´ Demostracion. Sea i=1 αi vi una combinaci´n lineal nula de los elemen- o tos de {v1 , . . . , vk }. Sea j ∈ {1, . . . , k}, luego por propiedades del producto interno: k k αi vi , vj =0 ⇔ αi vi , vj = 0. i=1 i=1 Pero dado que el conjunto es ortogonal, luego vi , vj = 0 para i = j, de manera que 2 αj vj , vj = αj vj = 0. Y como vj = 0, se deduce que αj = 0. Como este procedimiento es v´lido para todo j ∈ {1, . . . , k}, se concluye a que {v1 , . . . , vk } es l.i. Ahora, en el caso de conjuntos ortonormales, hay propiedades importantes que motivan su b´ squeda. u Proposici´n 6.2. Sea W un subespacio vectorial de o Ên y {u1, . . . , uk } una base ortonormal de W , entonces: 154
  • 155.
    1. Si x∈ W , Departamento de Ingenier´a Matematica - Universidad de Chile k x= x, ui ui . i=1 2. Si x ∈ Ên y definimos k z= x, ui ui ∈ W, i=1 entonces (x−z)⊥w, ∀w ∈ W . Y en particular d(x, z) = m´ w∈W d(x, w), ın de hecho ∀w ∈ W {z}, d(x, z) < d(x, w). ´ Demostracion. 1. Como {u1 , . . . , uk } es una base de W y x ∈ W , luego k x= αi ui . i=0 Tomemos j ∈ {1, . . . , k} y calculemos el producto interno entre x y ´ uj : k x, uj = αi ui , uj i=0 k = αi ui , uj . i=0 ı Como el conjunto {u1 , . . . , uk } es ortogonal, se tiene que ui , uj = 0, ∀i = j, de donde x, uj = αj uj , uj = αi · 1. Repitiendo este procedimiento para todo j ∈ {1, . . . , k}, se concluye que αj = x, uj k x= x, ui ui . i=1 2. Sea x ∈ Ên , z = k i=1 x, ui ui y w ∈ W , veamos: k k x − z, w = x, w − z, w = x, w − x, ui ui , w, uj uj , i=1 j=1 la ultima igualdad gracias a que w ∈ W . As´ usando las propiedades ´ ı, del producto interno: k k x − z, w = x, w − x, ui w, uj ui , uj i=1 j=1 155
  • 156.
    y como {u1, . . . , uk } es ortonormal, ui , uj = 0, ∀i = j y Departamento de Ingenier´a Matematica - Universidad de Chile k x − z, w = x, w − x, ui w, ui ui , ui i=1 k = x, w − x, ui w, ui i=1 k = x, w − x, w, ui ui = 0. i=1 w Para probar que d(x, z) = m´ w∈W d(x, w), sea w ∈ W distinto de z, ın Ê luego por el Teorema de Pit´goras en n , probado en el Ejercicio 2.4: a 2 2 2 x−z + w−z = x−w . 2 Pero como w − z > 0, luego 2 2 x−z < x−w . ´ De esta manera ∀w ∈ W, d(x, z) = x − z < x − w = d(x, w), de donde se concluye. ı 6.2. Proyecciones Ortogonales La Proposici´n 6.2 motiva la definici´n proyecci´n ortogonal sobre un sub- o o o Ê espacio vectorial de n . Asumiremos por ahora el siguiente resultado, el cual demostraremos en la Secci´n 6.4, que asegura la existencia de una o base ortonormal de cualquier subespacio vectorial de n . Ê Proposici´n 6.3. Todo subespacio vectorial de o Ên posee una base orto- normal. Definimos entonces: Definici´n 6.2 (Proyecci´n ortogonal sobre un s.e.v.). Sea W un o o Proyecci´n ortogonal o Ê subespacio vectorial n y {u1 , . . . , uk } una base ortonormal de W . Defi- nimos la proyecci´n ortogonal sobre W como la funci´n o o P: Ên −→ W k x −→ P (x) = x, ui ui ∈ W. i=1 156
  • 157.
    Departamento de Ingenier´aMatematica - Universidad de Chile Observaci´n: Notemos que esta definici´n es correcta, es decir que o o P no depende de la base ortonormal considerada y que es funci´n.o Gracias a la Proposici´n 6.2.2, sabemos que independiente de la base o ortonormal considerada para definirla, la proyecci´n es aquella que mi- o nimiza la distancia de x a W . As´ si hubiese dos proyecciones z1 , z2 , ı, asociadas a bases distintas y fuesen distintas, luego: d(x, z1 ) < d(x, z2 ), lo cual contradice la propiedad que satisface z2 . De la misma manera se prueba que P es funci´n. o Veamos ahora las propiedades de la proyecci´n ortogonal: o Proposici´n 6.4. Sea W un subespacio vectorial de o Ên y P su proyecci´n o ortogonal asociada, entonces: 1. P es una transformaci´n lineal. o 2. ∀x ∈ Ên, ∀w ∈ W, (x − P (x))⊥w. ´ 3. d(x, P (x)) = m´ w∈W d(x, w). ın ´ Demostracion. 2 y 3 se deducen de la Proposici´n 6.2. La demostraci´n o o de 1 queda de ejercicio. ◭ Ejercicio 6.3. Subespacio Ortogonal Definici´n 6.3 (Subespacio ortogonal). Sea W un subespacio de o definamos el ortogonal de W como: Ên Subespacio ortogonal ı W⊥ W ⊥ = {u ∈ Ên | ∀w ∈ W w, u = 0}. Proposici´n 6.5. o (i) W ⊥ es un subespacio de Ên . (ii) Ên = W ⊕ W ⊥ . Ên = W ⊕ W ⊥ (iii) dim(W ⊥ ) = n − dim(W ). ´ Demostracion. Ê (i) Sea u, v ∈ W ⊥ y λ ∈ , debemos probar que λu + v ∈ W ⊥ . Sea w ∈ W: w, λu + v = λ w, u + w, v = 0 lo que es v´lido para todo w ∈ W . Luego λu + v ∈ W ⊥ por lo tanto a W ⊥ es un subespacio vectorial de n .Ê 157
  • 158.
    Ê (ii) Esclaro que W + W ⊥ ⊆ n . Para la otra inclusi´n, dado x ∈ o Ên , Departamento de Ingenier´a Matematica - Universidad de Chile basta notar que x = P (x) + (x − P (x)). En donde P es la proyecci´n ortogonal sobre W . As´ P (x) ∈ W y o ı, x− P (x) ∈ W ⊥ (gracias a la Proposici´n 6.4), de donde x ∈ W + W ⊥ . o Nos basta entonces probar que W ∩ W ⊥ = {0}. En efecto si x ∈ W ∩ W ⊥ , en particular es ortogonal a s´ mismo, es decir x, x = 0, ı de donde x = 0. Se concluye entonces que Ên = W ⊕ W ⊥ . (iii) Se deduce directamente de (ii). 6.4. ´ Metodo de Gram-Schmidt El objetivo de esta parte es asociar de forma “can´nica” a un conjunto dado o Ê de n , una base ortonormal del subespacio generado por ´l. Este m´todo e e es conocido con el nombre de M´todo de Gram-Schmidt. e Probaremos el siguiente teorema: ´ Teorema 6.1 (Gram-Schmidt). Dado un conjunto {v0 , . . . , vm } ⊆ Ên , existe un conjunto ortonormal {u0 , . . . , uk } tal que {v0 , . . . , vm } = {u0 , . . . , uk } . ı ´ Demostracion. La demostraci´n de este teorema es precisamente el m´to- o e do Gram-Schmidt, que entrega un procedimiento algor´ ıtmico para construir el conjunto buscado. Sea entonces {v0 , . . . , vm } un conjunto de vectores y definimos el conjunto {u0 , . . . , uk } mediante el Algoritmo 1. M´todo Gram-Schimdt e Probemos que esta definici´n del {u0 , . . . , uk } cumple lo pedido. Lo haremos o por inducci´n en m. o Caso base. Para m = 0, si v0 = 0 luego w0 = 0 y el algoritmo termina sin generar vectores uj . Esto es consistente con que la unica ´ base de {0} es el conjunto vac´ ıo. Si v0 = 0, por ende w0 = 0, se tiene el resultado ya que v0 u0 = , v0 que es claramente de norma 1 y adem´s, como es ponderaci´n de v0 , a o se tiene que {u0 } = {v0 } . Paso inductivo. Supongamos que dado el conjunto {v0 , . . . , vm−1 }, el conjunto {u0 , . . . , uk−1 } es ortonormal y tal que {v0 , . . . , vm−1 } = {u0 , . . . , uk−1 } . 158
  • 159.
    Departamento de Ingenier´aMatematica - Universidad de Chile Algoritmo 1 M´todo Gram-Schmidt e v 1: Partamos con w1 = v1 ∗. 1 2: Luego, proyectamos v2 sobre el subespacio generado por u1 : z2 = v2 , v1 u1 y restamos esta proyecci´n a v2 : o w2 = v2 − z2 ´ w2 perpendicular a {u1 } y normalizamos, u2 = w2 ∗. 3: Luego podemos pasar a trabajar con v2 z3 = v3 , u1 u1 + v3 , u1 u2 w3 = v3 − z3 , w perpendicular a {u1 , u2 } y normalizamos, u3 = w3 ∗. 3 ı 4: se sigue del mismo modo: una vez obtenidos {u1 , . . . , uk }, proyectamos vk+1 sobre {u1 , . . . , uk } y definimos k zk+1 = vk+1 , ui ui i=0 wk+1 = vk+1 − zk+1 , wk+1 perpendicular a {u1 , . . . , uk } y normalizamos, uk+1 = wk+1 ∗. 5: El proceso termina cuando hemos procesado todos los vi . 159
  • 160.
    Con k =dim( {v0 , . . . , vm−1 } ). Departamento de Ingenier´a Matematica - Universidad de Chile Veamos los dos casos posibles: k−1 Si wk = 0, se tiene que vm = vm , ul ul , de donde vk ∈ {u0 , . . . , uk−1 } l=0 y por ende {v0 , . . . , vm } = {u0 , . . . , uk−1 } . Y la base ortonormal generada es {u0 , . . . , uk−1 }. Ahora si wk = 0, seg´ n el algoritmo, uk estar´ definido por: u a k−1 wk 1 uk = = vm − vm , ul ul . wk wk l=0 Veamos entonces, para cualquier i ∈ {0, . . . , k − 1} k−1 1 uk , ui = vm − vm , ul ul , ui wk l=0 k−1 1 = vk , ui − vm , ul ul , ui wk ´ l=0 y por hip´tesis de inducci´n, ∀l = i, ul , ui = 0 y ui , ui = 1, luego o o 1 uk , ui = ( vm , ui − vm , ui · 1) wk = 0. Es decir, el conjunto {u0 , . . . , uk } es ortogonal, y como es claro que ı ∀i ∈ {0, . . . , k} ui = 1, es adem´s ortonormal. a Ahora, por construcci´n de uk se tiene o k−1 vm = wk uk + vm , ul ul l=0 es decir, vm es combinaci´n lineal de {u0 , . . . , uk }, lo que equivale a o vm ∈ {u0 , . . . , uk } . As´ gracias a la hip´tesis inductiva, se tiene que ı, o {v0 , . . . , vm } ⊆ {u0 , . . . , uk } . (6.1) Por otra parte, uk es combinaci´n lineal de vm y u0 , . . . , uk−1 , ya que o k−1 1 vm , ul uk = vm − ul . wk wk l=0 Ê tales que k−1 vm ,ul Pero gracias a (6.1), existen α0 , . . . , αm ∈ wk ul = l=0 m αl ul . As´ uk ∈ {v0 , . . . , vm } y luego ı l=0 {u0 , . . . , uk } ⊆ {v0 , . . . , vm } . 160
  • 161.
    Obteniendo lo buscado. Departamento de Ingenier´a Matematica - Universidad de Chile Luego, por Principio de Inducci´n, se tiene el teorema. o Observaci´n: o Notemos que como corolario del Teorema 6.1, se obtiene la Pro- posici´n 6.3. o Adem´s, el Teorema 6.1 puede ser aplicado en particular a una a Ê base {v0 , . . . , vn−1 } de n . Observaci´n: ∗ o Observar que si alguno de los vectores a normalizar, v1 o los wi , vale 0, significa que el vi correspondiente no aportar´ un nuevo vector a la a base, y simplemente se descarta, pas´ndose a trabajar con vi+1 . a Esto trae como consecuencia que el n´ mero de vectores ui sea menor u que el de los vj si estos ultimos son l.d. ´ En general, esto har´ que al procesar el k-´simo vk , estemos producien- a e ´ do un ui , con i < k, pero no hemos introducido esto en la descripci´no del algoritmo para no confundir la notaci´n. o Ejemplo:           0 1 1 1  ı   0  ,  1  ,  1  ,  0  en  Ê3 . 1 0 1 1   1 0 u0 = v0 / v0 , v0 , como v0 , v0 = 1 se tiene u0 =  0  2 1           1 1 0 0 1 w1 =  1  −  1  ,  0   0  =  1  . 0 0 1 1 0   1 1 1 w1 , w1 = 2 ⇒ u1 = √ w1 = √  1  2 2 0               1 1 0 0 1 1 1 1   1   w2 =  1  −  1  ,  0   0  −  1  , √ 1 √ 1 1 1 1 1 1 2 0 2 0         1 0 1 0 1 1 = 1 − 0 − √ √ · 21 = 0 1 1 2 2 0 0 161
  • 162.
    1 w2= 0, por ende ignoramos 1 y redefinimos w2 . Departamento de Ingenier´a Matematica - Universidad de Chile 1               1 1 0 0 1 1 1 1   1   w2 =  0  −  0  ,  0   0  −  0  , √ 1 √ 1 1 1 1 1 1 2 0 2 0               1 0 1 1 0 1 1 1 1       1  1  = 0 − 0 − √ √ 1 = 0 − 0 − 1 = −1 . 2 2 0 2 2 1 1 1 1 0 0 1 1 1 Como w2 , w2 = 4 + 4 = 2 , luego   1 1 u2 = √   . −1 2 0 6.5. Producto Herm´tico ı Ahora, extendemos el producto interno de ·, · : Ê n × Ên → Ê a ·, · H : n × n → , de la siguiente forma. ´ u1 v1 Definici´n 6.4 (Producto Herm´ o ıtico). Dados u = . . ,v = . . ∈ Producto Herm´ ıtico, . . un vn u, v H n , n u, v H = uj vj . ı j=1 ◭ Ejercicio ıtico satisface: ∀λ ∈ Ejercicio 6.1: Probar que el producto herm´ , u, v, w ∈ n 1. u, v H = v, u H. 2. λu + v, w H = λ u, w H + v, w H. 3. u, u H ∈ Ê, m´s a´n a u u, u H ≥ 0 y u, u H = 0 ⇐⇒ u = 0. De 2a y 2b, se deduce que u, λv + w ¯ = λ u, v + u, w . H H H Observaci´n: Los conceptos de ortogonalidad, proyecci´n ortogonal, o o subespacio ortogonal y el m´todo de Gram-Schmidt, pueden desarro- e llarse tambi´n en n , como espacio vectorial sobre . e 162
  • 163.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 12 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. Dado W un s.e.v. de n y P : Ê Ên → W su proyecci´n ortogonal asocia- o Proposici´n 6.4 o da. Probar que P es lineal. 2. Demuestre las siguientes propiedades del producto herm´ ıtico: Ejercicio 6.1 (a) u, v H = v, u H. (b) λu + v, w H = λ u, w H + v, w H. (c) u, u H ∈ Ê, m´s a´n a u u, u H ≥ 0 y u, u H = 0 ⇐⇒ u = 0. Problemas Ê P1. Sea W el subespacio vectorial de 4 generado por:           1  1 1 2             1 −1 3 3 , ,   . 1  1 1 2    1 −1 3 3 (a) Encuentre una base ortonormal de W y de W ⊥ . ´ 1 (b) Encuentre la descomposici´n de v = o 2 3 en W + W ⊥ . 4 Ê P2. Sea A ∈ Mnn ( ) una matriz invertible y U un s.e.v. de Ên de simen- si´n 0 < k < n. Se define o Ên | ∀u ∈ U, Ax, Ay = 0}. W = {y ∈ ı (a) Probar que W es s.e.v. de Ên y probar que W ∩ U = {0}. (b) Sea V = {v ∈ Ên | ∃u ∈ U, v = Au}. Pruebe que V es s.e.v. de Ên. (c) Sea {v1 , . . . , vk } una base ortonormal de V . Probar que {u1 , . . . , uk } donde ui = A−1 vi , i ∈ {1, . . . , k}, es una base de U que verifica la propiedad: Aui , Auj = 0 si i = j y Aui , Auj = 1 si i = j. (d) Probar que w ∈ W ⇔ ∀i ∈ {1, . . . , k}, Aw, Aui = 0. Donde {u1 . . . . , uk } es la base del punto anterior. Ên entonces z = k (e) Probar que si v ∈ Av, Aui ui ∈ U y que i=1 v − z ∈ W. Ê (f ) Deducir que n = U ⊕ W y calcular la dimensi´n de W . o      1  2        1 1 P3. (a) Sea W = ,  . 1 1      1 0 163
  • 164.
    (a.1) Encuentre unabase ortonormal de W ⊥ . Ê Departamento de Ingenier´a Matematica - Universidad de Chile (a.2) Sean x1 , x2 , x3 , x4 ∈ . Encuentre (en t´rminos de x1 , x2 , x3 , x4 ) e x1 y1 x2 y2 los valores y1 , y2 , y3 , y4 que satisfacen T x3 = y3 , x4 y4 Ê Ê donde T : 4 → 4 es una transformaci´n lineal para la o cual Ker(T ) = W y, para todo x ∈ W ⊥ , T (x) = x. (b) Sean U, V subespacios vectoriales de Ên. Demuestre que (b.1) (U + V )⊥ = U ⊥ ∩ V ⊥ . (b.2) (U ⊥ )⊥ = U . (b.3) (U ∩ V )⊥ = U ⊥ + V ⊥ . (b.4) Ê U ⊕ V = n ⇔ U⊥ ⊕ V ⊥ = Ên. ı ´ 164
  • 165.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 13: ORTOGONALIDAD Departamento de Ingenier´a Matematica - Universidad de Chile 6.6. ´ Espectro de una matriz simetrica Ê Sea A ∈ Mnn ( ) una matriz sim´trica entonces e ∀u, v ∈ Ên Au, v = u, Av . (6.2) t t t t En efecto, Au, v = (Au) v = u A v = u Av = u, Av Ê Probemos ahora que si A ∈ Mnn ( ) satisface 6.2 entonces A es sim´trica. e Esto se deduce del siguiente hecho f´cil de probar: si {e1 , . . . , en } la base a Ê can´nica de n y A es una matriz de n × n entonces o Aei , ej = aji . (6.3) Utlizando esta propiedad y 6.2 se obtiene que aij = Aej , ei = ej , Aei = Aei , ej = aji , donde adem´s se usa el hecho que el producto interno en a Ên es sim´trico. e Dada A ∈ Mnn ( ), definimos la matriz adjunta de A, A∗ , de la siguiente Adjunta, A∗ ´ forma: ∀k, ℓ (A∗ )kℓ = aℓk . Ejemplo: 1 i 1 2−i A= A∗ = 2+i 3 −i 3 ∗ t ıtica si A = A∗ , notar que si A ∈ Mnn ( ) entonces Decimos que A es herm´ Ê Herm´ ıtica ı A=A ⇔A=A. De forma an´loga al caso sim´trico se prueba que a e n ∀u, v ∈ Au, v H = u, Av H n ıtica. As´ en particular, ∀u, v ∈ si y s´lo si A es herm´ o ı, Au, v = Ê H u, Av H si A ∈ Mnn ( ) y A es sim´trica. e ıstico p(λ) = |A − λI| es Sea A ∈ Mnn ( ) entonces el polinomio caracter´ un polinomio de grado n con coeficientes complejos y por lo tanto tiene n ra´ en (con posibles repeticiones). Denotaremos por ıces σ(A) = {λ ∈ /|A − λI| = 0} al conjunto de las raices del polinomio caracter´ ıstico. Este conjunto lo lla- Ê maremos el espectro de A. Como Mnn ( ) ⊆ Mnn ( ) podemos definir de espectro, σ(A) igual manera el espectro de A, para A ∈ Mnn ( ). Ê En general el espectro de A es un subconjunto de , a´ n cuando A ∈ u Ê Mnn ( ), como lo muestra el pr´ximo ejemplo. o 165
  • 166.
    Ejemplo: Departamento de Ingenier´a Matematica - Universidad de Chile   0 1 0 B= −1 0 0  0 0 1   −λ 1 0 B − λI =  −λ −1 0  |B − λI| = (1 − λ){λ2 + 1} 0 0 1−λ Las ra´ ıces son λ = 1 λ = ±i. Si B es considerada como matriz de Ê coeficientes reales (es decir estamos trabajando en n ) B tiene un s´loo valor propio que es 1. Si el cuerpo considerado es entonces B tiene 3 valores propios 1, i, −i. En cualquier caso el espectro de B es σ(B) = {1, i, −i}. Teorema 6.2. Sea A ∈ Mnn ( ) herm´tica entonces el espectro de A es ı subconjunto de .Ê ´ ´ Demostracion. Sea λ ∈ σ(A) (en general λ ser´ complejo) entonces, |A− a λI| = 0, es decir A − λI no es invertible, luego debe existir v ∈ n , v = 0 tal que (A − λI)v = 0. Por lo tanto Av, v H = λv, v H = λ v, v H , ı pero Av, v = v, Av = v, λv ¯ = λ v, v H H H H ¯ Ê como v = 0 v, v H = 0 entonces λ = λ es decir λ ∈ . Se tiene que para A herm´ ıstico p(λ) = |A − λI| tiene todas sus ra´ ıtica el polinomio caracter´ ıces reales. Ê Corolario 6.1. Si A ∈ Mnn ( ) es sim´trica entonces σ(A) ⊆ e Ê. Teorema 6.3. Si A ∈ Mnn ( ) es herm´tica y λ1 = λ2 son valores propios ı y v1 , v2 son vectores propios asociados a λ1 y λ2 respectivamente entonces v1 , v2 H = 0. ´ Demostracion. Consideremos Av1 , v2 H = λ1 v1 , v2 H = λ1 v1 , v2 H, pero Av1 , v2 H ¯ = v1 , Av2 H = v1 , λ2 v2 H = λ2 v1 , v2 H pero λ2 ∈ y por tanto Ê (λ1 − λ2 ) v1 , v2 H = 0, como λ1 = λ2 , v1 , v2 H = 0. 166
  • 167.
    Ê Notemos que siu, v ∈ n ⊆ n , entonces u, v H = u, v , por lo tanto se Departamento de Ingenier´a Matematica - Universidad de Chile obtiene el siguiente corolario importante. Ê Corolario 6.2. Vectores propios de A ∈ Mnn ( ), sim´trica, asociados a e valores propios distintos son ortogonales. Definici´n 6.5 (Transformaci´n sim´trica). Sea W un subespacio de o o e Transformaci´n o Ên y L : W → W una aplicaci´n lineal, diremos que L es sim´trica (en o e sim´trica e W ) si ∀u, v ∈ W L(u), v = u, L(v) Ê Ê Lema 2. L : n → n es sim´trica si y s´lo si la matriz representante e o o Ê con respecto a la base can´nica de n es sim´trica. e ´ Demostracion. Si A es la matriz representante de L con respecto a la base can´nica entonces L(u) = Au de donde o L(u), v = Au, v u, L(v) = u, Av , luego L es sim´trica si y s´lo si A es sim´trica. e o e ´ ◭ Ejercicio Ejercicio 6.2: Sea W subespacio vectorial de Ên y L : W → W lineal, probar que: 1. Si B = {u1 , . . . , un } es una base ortonormal de W , entonces L sim´trica ⇔ MBB (L) sim´trica. e e ı 2. Si B = {u1 , . . . , un } es una base de W y ϕ: W −→ Ên α1 x= k αi ui −→ ϕ(x) = . . . i=0 . αk Entonces x es vector propio de L asociado al v.p. λ si y s´lo si o ϕ(x) es vector propio de MBB (L) asociado al v.p. λ. Ahora estamos en posici´n de probar uno de los teoremas m´s importantes o a de la secci´n. o Ê Teorema 6.4. Sea W subespacio de n , dim W ≥ 1 y L : W → W lineal, sim´trica, entonces existe una base ortonormal de W de vectores propios e de L. 167
  • 168.
    Departamento de Ingenier´aMatematica - Universidad de Chile ´ Demostracion. Por inducci´n sobre la dimensi´n de W . Si dim W = 1. o o Entonces W = {v} , con v = 0. Notemos que L(v) ∈ W = {v} , luego existe λ ∈ Ê tal que L(v) = λv. Es decir, λ es un valor propio de L y v vector propio de L. Definiendo 1 v= ˜ v, v se tendr´ L˜ = λ˜ y adem´s {˜} es una base ortonormal de W . Esto prueba a v v a v el caso en que la dimensi´n sea 1. o Supongamos que la propiedad es cierta para espacios de dimensi´n k−1, por o demostrar que es cierta para espacios de dimensi´n k. Sea W subespacio o de dimensi´n k y L : W → W lineal sim´trica. Sea B = {w1 , . . . , wk } o e base ortonormal de W , gracias al Ejercicio 6.2 la matriz MBB (L) ∈ k es Ê sim´trica, por lo que tiene todos sus valores propios reales. e Sea λ0 un valor propio cualquiera, por lo tanto existe un vector z = ´ (z1 , . . . , zk )t = 0, tal que MBB (L)z = λ0 z. Sea v = z1 w1 + z2 w2 + · · · + zk wk ∈ W . Como v = 0 (pues z = 0 y {w1 , . . . , wk } es l.i.), luego gracias a la parte 2 del Ejercicio 6.2, es vector propio de L (ya que ϕ(v) = z). ˜ Sea W = {u ∈ W | u, v = 0} el ortogonal de {v} con respecto a W . Se ˜ tiene que k = dim W = 1 + dim W lo que implica que dim W = k − 1 ˜ ı Sea u ∈ W ˜ ⇒ L(u), v = u, L(v) = u, λ0 v = λ0 u, v = 0, luego ˜ ˜ L(W ) ⊆ W . Tomemos ˜ ˜ L:W →W ˜ ˜ (la restricci´n de L a W ), o ˜ u → Lu = Lu ˜ ˜ entonces L es lineal y sim´trica. Verifiquemos que L es sim´trica. Consi- e e deremos u, w ∈ W ˜ ˜ ˜ L(u), w = L(u), w = u, L(w) = u, L(w) , ˜ ˜ ˜ es decir L es sim´trica en W . Como dim W = k − 1 se tiene por hip´tesis e o ˜ de inducci´n que existe una base ortonormal de W de vectores propios de o ˜ ˜ ˜ ˜ ˜ L: {w1 , . . . , wk−1 }, es decir L(wi ) = L(wi ) = λi wi luego w1 , . . . , wk−1 son ˜ ˜ ˜ vectores propios de L. Finalmente, consideremos v B′ = , w1 , . . . ., wk−1 ˜ ˜ v es una base ortonormal de W , de vectores propios de L, y por lo tanto el resultado queda demostrado. 168
  • 169.
    Ê Corolario 6.3. SeaA ∈ Mnn ( ), sim´trica, entonces A es diagonalizable e Departamento de Ingenier´a Matematica - Universidad de Chile y m´s a´n, A = P DP t donde P = (v1 , . . . , vn ) y B ′ = {v1 , . . . , vn } es una a u A = P DP t base ortonormal de vectores propios de A. D es la matriz diagonal de los valores propios correspondientes. ´ Demostracion. Sea L(x) = Ax, entonces L es sim´trica. Por el teorema e anterior existe una base ortonormal B ′ = {v1 , . . . , vn } de vectores propios. Luego A es diagonizable y m´s a´ n A = P DP −1 donde P = (v1 , v2 , . . . , vn )   a u λ1 0 y D= ··· . Resta por demostrar que P −1 = P t . Calculemos 0 λn 1 i=j (P t P )ij = vi vj = vi , vj = t , 0 i=j por lo tanto P t P = I. Una matriz que satisface P −1 = P t se denomina ortogonal o unitaria. Matriz ortogonal o unitaria ◭ Ejercicio ´ Ejercicio 6.3: Verificar que P es ortogonal si y s´lo si o ∀u, v ∈ Ên P u, P v = u, v . Entonces si P es ortogonal P u 2 = P u, P u = u, u = u 2, es decir, P ı preserva la norma. Notemos que no hay unicidad en la base de vectores propios y por lo tanto una matriz diagonalizable A puede descomponerse de la forma “P DP −1 ” de muchas maneras. Lo que probamos para una matriz sim´trica es que se e puede tomar una base ortonormal de vectores propios y que para esta base se tiene la descomposici´n “P DP t ”. o ◭ Ejercicio Ejercicio 6.4: Probar que Pθ = cosθ −senθ senθ cosθ es unitaria en Ê2 . Ejemplo:   2 0 0 A = 0 2 0 0 0 1 los valores propios son λ = 2 y λ = 1 en efecto: 169
  • 170.
     2−λ 0 0 Departamento de Ingenier´a Matematica - Universidad de Chile |A − λI| =  0 2−λ 0  = (2 − λ)2 (1 − λ). 0 0 1−λ Calculemos el espacio propio de λ = 2.    0 0 0 x 0 = (A − 2I)u =  0 0 0   y  , 0 0 −1 z     x  luego W2 =  y  | z = 0 . Determinemos W1 :   z    1 0 0 x 0 = (A − I)u =  0 1 0   y  , 0 0 0 z     x  es decir W1 =  y  | x = y = 0 . Por lo tanto una base de vectores   z propios es: ´         1 1 0  B′ =  0  ,  1  ,  0    0 0 1     1 1 0 1 −1 0 P =  0 1 0  P −1 =  0 1 0  0 0 1 0 0 1 ı     1 1 0 2 0 0 1 −1 0 A = 0 1 00 2 00 1 0 0 0 1 0 0 1 0 0 1 Pero A tambi´n posee una base ortonormal de vectores propios: e        1 0 0  0,1, 0   0 0 1     1 0 0 2 0 0 1 0 0 A = 0 1 00 2 00 1 0. 0 0 1 0 0 1 0 0 1 Observaci´n: Cabe se˜ alar que en el caso de que si no hubiese sido o n sencillo obtener a simple vista una base ortonormal del subespacio propio asociado a λ = 2, podemos utilizar el m´todo de Gram-Schmidt en dicho e subespacio. En general, la base ortonormal de vectores propios de n Ê (que sabemos existe en el caso de A sim´trica) puede obtenerse utilizando e Gram-Schmidt en cada subespacio propio. 170
  • 171.
    El Teorema 6.4tambi´n es cierto para L(x) = Ax, con A herm´ e ıtica, y la Departamento de Ingenier´a Matematica - Universidad de Chile demostraci´n es an´loga. o a Ejemplo: Veamos el caso de las proyecciones ortogonales. Ê Dado W subespacio de n consideremos W ⊥ el ortogonal de W . Enton- Ê Ê Ê ces n = W ⊕ W ⊥ . Sea adem´s P : n → n , la proyecci´n ortogonal a o sobre W . Esta funcion P verifica 1. P 2 = P . En efecto: P (u) = w ∈ W luego w = w + 0 es la unica descompo- ´ sici´n, de donde o P P (u) = P (w) = w. Se tiene adem´s P (I − P ) = 0. a 2. Im(P ) = W y Ker(P ) = W ⊥ . En efecto, es claro que Im(P ) ⊆ W . Por otro lado, si w ∈ W P (w) = w, luego Im(P ) = W . Ahora si v ∈ W ⊥ v = 0 + v es la descomposici´n unica y por tanto P (v) = 0, as´ W ⊥ ⊆ Ker(P ). o ´ ı ´ Sea v ∈ Ker(P ), luego P (v) = 0 y por tanto v = 0 + v es decir v ∈ W ⊥. 3. P es sim´trica. e En efecto sean u1 = w1 + v1 , u2 = w2 + v2 , luego P (u1 ), u2 = w1 , w2 + v2 = w1 , w2 + w1 , v2 = w1 , w2 = ı w1 + v1 , w2 = u1 , P (u2 ) 4. Los valores propios de P son 0 ´ 1. o Sea P (u) = λu, u = 0, entonces como P 2 = P se tiene P (u) = P 2 (u) = P (P (u)) = P (λu) = λP (u) = λ2 u. De donde (λ2 − λ)u = 0. Como u = 0 λ2 − λ = 0 entonces λ = es 0 ´ 1.o Identificaremos P con su matriz representante respecto a la base can´ni- o ca. Dado que P es sim´trica P = ΓDΓt con Γ ortogonal y D satisface: e   1  ..     .    Ir 0  1    D= =  0   ..  0 0  .  0 Como P y D son similares tienen el mismo rango, as´ r = r(P ) = ı dim(Im(P )) = dim(W ). Γ puede construirse de la siguiente forma: Γ = 171
  • 172.
    (Γ1 , .. . , Γn ). Escogemos {Γ1 , . . . , Γr } una base ortonormal de W , la cual Ê Departamento de Ingenier´a Matematica - Universidad de Chile completamos a una base ortonormal de n {Γ1 , . . . , Γn }. Puede comprobarse directamente que I − P es la proyecci´n ortogonal o sobre W ⊥ . ı ´ 172
  • 173.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 13 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. Sea W subespacio vectorial de Ên y L : W → W lineal, probar que: Ejercicio 6.2 (a) Si B = {u1 , . . . , un } es una base ortonormal de W , entonces L sim´trica ⇔ MBB (L) sim´trica. e e (b) Si B = {u1 , . . . , un } es una base de W y ϕ: W −→ Ên α1 x= k αi ui −→ ϕ(x) = . . . i=0 . αk Entonces x es vector propio de L asociado al v.p. λ si y s´lo si ϕ(x) o es vector propio de MBB (L) asociado al v.p. λ. 2. Verificar que P es ortogonal si y s´lo si o Ejercicio 6.3 ∀u, v ∈ Ên P u, P v = u, v . Ê2 . ´ cos θ sen θ 3. Probar que Pθ = es ortogonal en Ejercicio 6.4 − sen θ cos θ Problemas P1. Considere la matriz A ∈ M33 ( ) Ê siguiente,   ı 2 1 1 A = 1 2 −1 . 1 −1 2 (a) Calcular los valores propios de A. (b) Calcular una base de vectores propios de A. Ê (c) Encontrar una matriz P ∈ M33 ( ) y D ∈ M33 ( ), D diagonal, Ê tal que A = P DP t . (d) ¿Es A una matriz invertible?, justifique su respuesta. Ê P2. (a) Sea A ∈ M33 ( ). Se sabe que A es sim´trica y que 0 es vector e 1 0 propio de A asociado al valor propio 2, y adem´s la dimensi´n del a o Ker(T ) es igual a 2. Calcular A. 1a 0 (b) Sea A = 0 1 a , donde a es un par´metro real. Calcule los valores a Ê 0 0 3 de a ∈ para los cuales la matriz A es diagonalizable. P3. Sean v1 , . . . , vk ∈ Ên ortogonales y de norma 1, sean α1 , . . . , αk ∈ Ê {0}, y t t A = α1 · v1 v1 + · · · + αk · vk vk ∈ Mnn ( ). Ê 173
  • 174.
    ⊥ (a) Pruebe queIm(A) = {v1 , . . . , vk } , que Ker(A) = {v1 , . . . , vk } , Departamento de Ingenier´a Matematica - Universidad de Chile y determine r(A), es decir el rango de A. (b) Sea {w1 , . . . wn−k } base ortonormal del Ker(A). Demuestre que Ê {v1 , . . . , vk , w1 , . . . wn−k } es una base de n de vectores propios de A. Especifique cu´l es el valor propio correspondiente a cada a uno de estos vectores propios. 5/4 −3/4 (c) Sea A = −3/4 5/4 . Determine {v1 , v2 } base ortonormal de Ê2 Ê y α1 , α2 ∈ tales que t t A = α1 · v1 v1 + α2 · v2 v2 . ı ´ 174
  • 175.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 ´ SEMANA 14: FORMAS CUADRATICAS Departamento de Ingenier´a Matematica - Universidad de Chile 7. ´ Formas cuadraticas 7.1. ´ Formas cuadraticas y matrices definidas positivas En esta secci´n estudiaremos las formas cuadr´ticas inducidas por una ma- o a triz sim´trica. Las formas cuadr´ticas aparecen en varias aplicaciones en e a matem´ticas. Una de ellas es la caracterizaci´n de m´ a o ınimos o m´ximos a para funciones de varias variables. Nosotros nos interesaremos en la carac- terizaci´n de matrices definidas positivas. Al final del cap´ o ıtulo estudiaremos las c´nicas en 2 . o Ê Definici´n 7.1 (Forma cuadr´tica). o a Ê Dada A ∈ Mnn ( ) sim´trica, e Forma cuadr´tica, a definimos: xt Ax q: n→ Ê Ê x → q(x) = xt Ax. q es llamada una forma cuadr´tica en a Ên . ´ a Ê Notemos que una forma cuadr´tica en n es homog´nea de grado 2, e Ê es decir, ∀x ∈ n q(λx) = λ2 q(x). En efecto, q(λx) = (λx)t A(λx) = λxt Aλx = λ2 xt Ax = λ2 q(x). Ejemplo: ı q: Ê2 → Ê, q(x1 , x2 ) = x2 + 2x1 x2 + x2 = (x1 , x2 ) 1 2 1 1 1 1 x1 x2 . Se tiene q(1, −1) = 0, en realidad q(x1 , −x1 ) = 0. Definici´n 7.2 ((Semi)Definida positiva/negativa). Sea A ∈ Mnn ( ), o Ê (Semi)Definida sim´trica diremos que e positiva, (Semi)Definida A es definida positiva si ∀x = 0 xt Ax > 0. negativa A es semidefinida positiva si ∀x xt Ax ≥ 0. A es definida negativa ∀x = 0 xt Ax < 0. A es semidefinida negativa ∀x xt Ax ≤ 0. Notar que A es definida (semidefinida) positiva ssi −A es definida (semide- finida) negativa. 175
  • 176.
    Ejemplo: Departamento de Ingenier´a Matematica - Universidad de Chile q(x) = 2x2 + 2x1 x2 + 2x2 = (x1 + x2 )2 + x2 + x2 1 2 1 2 2 1 x1 = (x1 x2 ) 1 2 x2 2 1 A = es definida positiva, en efecto, si q(x) = 0 ⇒ x2 = 1 1 2 2 0, x2 = 0, luego x1 = x2 = 0. Ê Teorema 7.1. Supongamos que A ∈ Mnn ( ) es sim´trica. Entonces las e siguientes proposiciones son equivalentes. 1. ∀x = 0 x t Ax > 0 (A es definida positiva) 2. Los valores propios de A son positivos. 3. Sea   a11 a12 ··· a1n ´  a21 a22 ··· a2n  A= .  .   . an1 an2 ··· ann   a11 a12 a13 a11 a12 A(1) = [a11 ] A(2) = A(3) =  a21 a23  . . . ı a22 a21 a22 a31 a32 A33 . . . A(n) = A entonces |A(1) | = a11 > 0 , |A(2) | > 0, · · · |A(i) | > 0 · · · |A(n) | = |A| > 0 4. El m´todo de Gauss utilizando s´lo operaciones elementales del ti- e o po Epq (α, 1); p < q permite escalonar A y adem´s los pivotes son a siempre positivos. ´ Demostracion. (1) ⇒ (2). Sea λ un valor propio de A y v = 0 un vector propio correspondiente al valor propio λ. 0 < v t Av = v t (λv) = λv t v = λ v 2 ⇒λ>0 176
  • 177.
    (2) ⇒ (1).Sabemos que por ser A sim´trica tiene la descomposici´n A = e o Departamento de Ingenier´a Matematica - Universidad de Chile P DP t , donde las columnas de P son una base ortonormal de vectores pro- pios y D es la diagonal de los valores propios respectivos. As´ ı xt Ax = xt P DP t x = (P t x)t DP t x, entonces si definimos z = P t x se tendr´ que en t´rminos de estas nuevas a e variables la forma cuadr´tica queda a xt Ax = z t Dz = λ1 z1 + · · · + λn zn ≥ 0, 2 2 pues los valores propios son positivos. M´s a´ n la unica forma en que esta a u ´ suma de cuadrados sea cero es que z1 = · · · = zn = 0 es decir z = 0, pero entonces P t x = 0 ⇒ x = P 0 = 0 (recordemos que P −1 = P t ). a 0 (1) ⇒ (3). Sea a = 0 y definamos x = . . , entonces . 0 n n n 0 < xt Ax = xi (Ax)i = xi aij xj i=1 i=1 j=1 . ´ 2 = a a11 , luego a11 > 0 Sea v = (v1 , . . . , vk )t ∈ Êk , tomemos x = (v1, . . . , vk , 0, . . . , 0)t ∈ Ên n k xt Ax = xi xj aij = vi vj aij = v t A(k) v i,j=1 i,j=1 ı si v = 0 se tiene x = 0, luego v t A(k) v = xt Ax > 0 es decir A(k) es definida positiva. De donde A(1) , A(2) , . . . , A(n) = A son todas definidas positivas. Pero una matriz definida positiva tiene todos sus valores propios positivos (por lo ya demostrado). Como el determinante es el producto de los valores propios entonces el determinante es positivo. Luego |A(1) | > 0, . . . , |A(n) | > 0. (3) ⇒ (4). Por inducci´n sobre i o a11 > 0 es el primer pivote. En la etapa i tendremos   a11 a12 ˜ ··· a1i · · · a1n ˜ ˜  . . .  .   0 a22˜ . .  . .. .    . . ai−1i−1 .    . ˜ .  B1 B2  .   A˜i =  . = .  0 ··· ··· 0 aii ˜ .    .  B3 B4  0 ··· ··· 0 aii+1 ˜ . .    . . . .. .   .. . . . . . .  . 0 ··· ··· 0 ain ˜ ann ˜ 177
  • 178.
    Donde B1 :i × i, B2 : i × n − i, B3 : n − i × i, B4 : n − i × n − i. Por hip´tesis o Departamento de Ingenier´a Matematica - Universidad de Chile ˜ de inducci´n, se obtuvo Ai mediante el algoritmo de Gauss, sin utilizar o permutaciones de filas pues todos los pivotes a11 , . . . , ai−1i−1 son positivos. ˜ ˜ ı, ˜ As´ Ai = ( Ek )A donde Ek son matrices simples del tipo Ep,q (α, 1) que k ˜ son invertibles y triangulares inferiores con diagonal 1. Por tanto A = C · Ai donde C = ( Ek )−1 es tambi´n triangular inferior con unos en la diagonal. e k As´ si C = C1 C2 donde C1 : i×i, C2 : i×n−i, C3 : n−i×i, C4 : n−i×n−i, ı C3 C4 se tendr´ C2 = 0 y adem´s C1 es triangular inferior con diagonal 1, y por a a lo tanto |C1 | = 1. Luego:      C1 0 B1 B2 C1 B1 C1 B2 A=  = . C2 C3 B3 B4 C2 B1 + C3 B3 C2 B2 + C3 B4 Por lo tanto A(i) = C1 B1 , de donde 0 < |A(i) | = |C1 B1 | = |C1 ||B1 | = i |B1 |. Por otro lado B1 es triangular superior, luego |B1 | = ajj , pero ˜ j=1 a11 , a22 , . . . , ai−1i−1 > 0 se concluye, aii > 0. As´ el m´todo de Gauss no ˜ ˜ ˜ ˜ ı e necesita intercambiar filas y adem´s todos los pivotes son > 0. a ´ (4) ⇒ (1). Como todos los pivotes son positivos y no hay que hacer intercambios de filas se tendra que A = LDU , con L triangular inferior D diagonal y U triangular superior. U y L tienen 1 en la diagonal y dii = aii . Como A es ˜ sim´trica U = Lt entonces e √ √ √ ı A = LDLt = (L D) ( DLt ) = RRt , con R = L D y √  a11 ˜ √ 0 √  a22 ˜  D=  .. .  . √ 0 ann ˜ ˜ Dado que |A| = |A| = a11 a22 , . . . , ann > 0 entonces 0 < |A| = |RRt | = |R|2 ˜ ˜ ˜ luego |R| = 0, y por lo tanto R es invertible y as´ su traspuesta. ı xt Ax = xt (RRt )x = (Rt x)t Rt x = Rt x 2 . Si x = 0 ⇒ Rt x = 0 pues Rt es invertible luego Rt x 2 > 0 de donde xt Ax > 0 si x = 0 es decir A es definida positiva. Hemos probado de paso la que toda matriz definida positiva tiene la si- guiente descomposici´n. o Definici´n 7.3 (Descomposici´n de Cholesky). Decimos que A ∈ Mnn ( ) Descomposici´n de o o o Ê admite una descomposici´n de Cholesky si existe R matriz triangular infe- o Cholesky rior, con diagonal estrictamente positiva tal que A = RRt . 178
  • 179.
    Notemos que Aes definida positiva ssi ∃R triangular inferior con diagonal Departamento de Ingenier´a Matematica - Universidad de Chile no nula tal que: A = RRt . Observaci´n: Hay que hacer una precisi´n sobre la propiedad 4 del o o teorema anterior. Es f´cil ver que la matriz a 2 1 A= , 1 2 es definida positiva, pero si al escalonar utilizamos E12 ( 1 , −1) obte- 2 nemos la matriz escalonada 2 1 , 0 −3 2 y los pivotes no son todos positivos!. Sin embargo si utilizamos 1 E12 (− 2 , 1) obtenemos ˜ 2 1 A= 3 . 0 2 ´ Por lo tanto es importante recordar que para estudiar si una matriz es definida positiva las operaciones elementales permitidas son Epq (α, 1). 7.2. ´ Formas canonicas Sea q(x) = xt Ax una forma cuadr´tica. Como A es sim´trica, entonces a e A = P DP t donde P = (v1 , · · · , vn ) con {v1 , · · · , vn } una base ortonormal ı de vectores propios de A y   λ1 0  λ2  D=  .. ,  . 0 λn siendo λ1 , . . . , λn los valores propios de A. Sea y = P t x entonces n xt Ax = xt P DP t x = y t Dy = 2 λi yi i=1 As´ haciendo este cambio de variables la forma cuadr´tica tiene la expresi´n ı a o 2 2 2 q (y) = λ1 y1 + λ2 y2 + · · · + λn yn . ˜ Ejemplo: √ √ 1 3 q(x) = x2 1 + 2x2 2 + 3x1 x2 = xt √ 3 2 x. 2 2 179
  • 180.
    Consideremos A lamatriz que define esta forma cuadr´tica. a Departamento de Ingenier´a Matematica - Universidad de Chile √ 3 1 2 A= √ 3 , 2 2 Calculemos los valores y vectores propios: √ 3 1−λ 2 3 |A − λI| = √ 3 = (1 − λ)(2 − λ) − = 0. 2 2−λ 4 Luego el polinomio caracter´ ıstico es 5 λ2 − 3λ + = 0, 4 cuyas raices son √ 5 3± 9−5 3±2 λ1 = 2 λ= = = 1 2 2 λ2 = 2 Calculemos los vectores propios: 5 λ= 2 √ √ 5 3 3 3 5 1− −2 ´ A− I = √ 2 2 = √ 2 2 3 5 3 1 2 2− 2 2 −2 las filas son ℓ.d. (¿ por qu´?) luego e √ 5 3 3 √ (A − I)v = 0 ⇐⇒ − v1 + v2 = 0 ⇔ v2 = 3v1 . 2 2 2 √ Sea v1 = 1, v2 = 3, un vector propio colineal de largo uno es: ı 1 √1 w1 = . 2 3 1 λ= 2 √ 1 3 1 2 2 A− I = √ 3 3 2 2 2 y por lo tanto √ 1 1 3 √ (A − I)v = 0 ⇐⇒ v1 + v2 = 0 ⇔ v1 = − 3v2 . 2 2 2 Un vector propio de largo uno es: √ 1 − 3 w2 = , 2 1 y una base de ortonormal de vectores propios est´ formada por {w1 , w2 }. a Se tiene que √ √ √ 3 1 3 5 1 3 t 1 2 2 − 2 2 0 2 2 A = P DP = √ = √ 1 √ . 3 2 3 1 0 2 − 23 1 2 2 2 2 180
  • 181.
    Consideremos el cambiode variables: Departamento de Ingenier´a Matematica - Universidad de Chile √ 1 3 y1 t 2 2 x1 y= =P x= √ . y2 − 23 1 x2 2 La forma cuadr´tica en t´rminos de y es q (y) = 5 y1 + 2 y2 . El cambio a e ˜ 2 2 1 2 de coordenadas de x a y corresponde a una rotaci´n (¿en qu´ ´ngulo?). o ea Volvamos al caso general. En el sistema y = P t x, la forma cuadr´tica se a escribe como n p r 2 2 2 q (y) = ˜ λi yi = λi yi + λi yi i=1 i=1 i=p+1 donde: λ1 , . . . , λp son > 0, λp+1 , . . . , λr son < 0, λr+1 = · · · = λn = 0. Definamos zi = λi yi i = 1, . . . , p zi = −λi yi i = p + 1, . . . , r ´ zi = yi i = r + 1, . . . , n es decir,  √λ 0 1 √  λ2   ..   .    ı  λp       −λp+1  z=  ..  y = Qy.   .   √   −λr     1   ..   .  0 1 luego tenemos z = QP t x. En las nuevas variables z, es la forma cuadr´tica: a 2 2 2 2 2 2 q (z) = z1 + z2 + · · · + zp − zp+1 − zp+2 · · · − zr , ˆ donde r corresponde al rango de A. El n´ mero 2p − r = n´ mero de valores u u propios positivos menos el n´ mero de valores propios negativos, es llamada u la signatura. El cambio de coordenadas y = P t x corresponde a una rotaci´n de sistemas o de coordenadas. El cambio z = Qy corresponde a dilatar y contraer ciertas direcciones (homotecia). 5 1 En nuestro ejemplo z1 = 2 y1 z2 = 2 y2 181
  • 182.
    Departamento de Ingenier´aMatematica - Universidad de Chile 2 2 5 2 1 2 5 2 1 2 z1 + z2 = ( y1 ) + ( y2 ) = y1 + y2 2 2 2 2 Para ubicar el nuevo sistema, con respecto al inicial, consideremos el pro- blema en dos etapas. En el cambio y = P t x, el eje correspondiente a “y1 ” est´ en la direcci´n “x” tal que a o     1 1 0 0 P t x =  .  luego x = P  .  = v1 , . . . . 0 0 la primera columma de P que corresponde al primer vector propio. De igual forma el i-´simo eje del sistema de coordenadas “y” es el i-´simo vector e e propio vi . De igual forma el sistema de coordenadas “z” tiene sus ejes en las direcciones v1 , . . . , vn , solamente que algunos ejes se han contra´ y ıdo otros expandido. Hemos probado el siguiente resultado ´ Teorema 7.2. Sea xt Ax una forma cuadr´tica, existe L invertible tal que a si z = Lx, entonces en t´rminos de las variables z la forma cuadr´tica se e a 2 2 2 2 expresa como q (z) = z1 + · · · + zp − (zp+1 + · · · + zr ), donde r=rango A = ˆ n´mero de valores propios = 0, p = n´mero de valores propios > 0. u u 7.3. ´ Conicas en Ê 2 ı Una c´nica en o Ê2 es el conjunto soluci´n de una ecuaci´n del tipo o o ax2 + by 2 + 2cxy + dy + f x = e o en forma matricial a c x x (x, y) + (d, f ) = e = v t Av + g t v = e, c b y y donde a c x d A= , v= , g= c b y f λ1 0 Supongamos que A = P DP t , con D = y P = (v1 v2 ). Entonces 0 λ2 la ecuaci´n de la c´nica es: o o e = v t P DP t v + g t v = v t P DP t v + gP P t v. 182
  • 183.
    Sea u =P t v. En este nuevo sistema de coordenadas la ecuaci´n de la c´nica o o Departamento de Ingenier´a Matematica - Universidad de Chile es: f˜ e = ut Du + g t u con g = P t g = ˜ . ˜ ˜ d La expresi´n que toma la c´nica es entonces o o ˜ ˜ e = λ1 u2 + λ2 u2 + f u1 + du2 1 2 1. λ1 = λ2 = 0 (⇔ a = b = c = 0) El conjunto soluci´n es {(x, y)/dy + f x = e} que en general es una o recta (pudiendo ser vac´ si d = f = 0 y e = 0). ıo 2. El caso interesante es cuando λ1 = 0 o λ2 = 0, llamemos u′ = u1 − α 1 u′ = u2 − β 2 ˜ ˜ λ1 (u′ + α)2 + λ2 (u′ + β)2 + f (u′ + α) + d(u′ + β) = e ´ 1 2 1 2 ˜ ˜ λ1 (u′ )2 + λ2 (u′ )2 + u′ {2λ1 α + f } + u′ {2βλ2 + d} = e ˜ 1 2 1 2 ˜ ˜ con e = e − (λ1 α2 + λ2 β 2 + f α + dβ) ˜ d ˜ Si λ1 = 0 (λ2 = 0) tomemos: β = − 2λ2 , α = 0 se llega a la ecuaci´n o ı ′ ˜ λ2 (u2 )2 + f u′ = e. ˜ 1 ˜ Si f = 0 (u′ )2 = e ˜ 2 λ2 . As´ el conjunto soluci´n ser´n dos rectas ı, o a e ˜ e ˜ paralelas: u′ 2 =± λ2 si ≥ 0 (que en realidad es una sola si e = 0) λ2 ˜ o ser´ vac´ si a ıo e ˜ ˜= 0 < 0. Si f λ2 e−λ (u′ )2 ˜ u′ = 1 2 ˜ f 2 , que corresponde a una par´bola, en las coordenada a ′ ′ u1 , u2 . El caso λ1 = 0 λ2 = 0 es totalmente an´logo. a f d˜ ˜ Falta ver el caso λ1 = 0 y λ2 = 0, tomamos α = − 2λ1 y β = − 2λ2 . En el sistema u′ , u′ tenemos la ecuaci´n 1 2 o λ1 (u′ )2 + λ2 (u2 )2 = e 1 ′ ˜ 3. λ1 > 0, λ2 > 0, e ≥ 0; o λ1 < 0, λ2 < 0, e ≤ 0 la soluci´n es una elipse ˜ ˜ o (una circunferencia si λ1 = λ2 ) en el sistema u′ , u′ Si λ1 > 0, λ2 > 1 2 0, e < 0; o λ1 < 0, λ2 < 0, e > 0 no hay soluci´n. ˜ ˜ o 183
  • 184.
    4. λ1 >0 y λ2 < 0 podemos suponer que e ≥ 0 de otra manera multi- ˜ Departamento de Ingenier´a Matematica - Universidad de Chile plicamos por −1 λ1 (u′ )2 − |λ2 |(u′ )2 = e, que corresponde a una hip´rbola con eje de 1 2 ˜ e simetr´ el eje u′ . El caso λ1 < 0, λ2 > 0, e ≥ 0 el conjunto soluci´n ıa 1 ˜ o es una hip´rbola con eje de simetr´ u′ . e ıa 2 Notemos que en general el sistema (u1 , u2 ) corresponde a una rotaci´n con o respecto al eje (x, y) y sus ejes est´n en la direcci´n de los vectores propio. a o El sistema (u1 , u′ ) corresponde a una traslaci´n o cambio de origen del ′ 2 o sistema (u1 , u2 ). ı ´ 184
  • 185.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 14 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. Escriba en forma xt Ax las siguientes formas cuadr´ticas, en donde x =  x1  a x2  . : . . xn 1 (a) q(x) = −2x1 − 2 x1 x2 + 5x2 . 2 2 (b) q(x) = x1 (2x1 − x2 ) + x2 (3x1 + x2 ). 1 2 2 (c) q(x) = x2 + y2 − y3 − x1 x2 + x1 x3 . (d) q(x) = (x1 + x2 )2 − (x1 + x3 )2 . 2. Se˜ ale si las matrices siguientes son definidas positivas/negativas, o nin- n guna de las dos: −1 1 −3 1 (a) . (c) . 1 −1 1 −1   1 0 0 0 0   0 2 0 0 0 −1 2 1 1   (b) 0  0 1/2 0 0.  2 1 1 1 (d)  . ´ 0 0 0 1 0 1 1 0 1 0 0 0 0 4 1 1 1 −1 Ê 3. Sea A ∈ Mnn ( ) una matriz sim´trica. e Ê (a) Probar que v ∈ n es vector propio de A si y s´lo si es vector propio o Ê de I − A. Si λ ∈ es el valor propio de A asociado a v, ¿cu´l es el a ı valor propio de I − A asociado a v? (b) Probar que la matriz I − A es definida positiva si y s´lo si todos los o valores propios de A son menores estrictos que uno. Problemas P1. Considere la c´nica de ecuaci´n 5x2 + 5y 2 + 6xy + 16x + 16y = −15. o o Realice el cambio de variables que permite escribir la c´nica de ma- o nera centrada y escriba la nueva expresi´n (escribir expl´ o ıcitamente el cambio de variables). Identifique la c´nica resultante y dib´ jela. o u Ê P2. Sea A ∈ M22 ( ) sim´trica definida postiva, b ∈ e Ê2 , c ∈ Ê y f : Ê2 → Êtal que f (x) = xt Ax − bt x + c. Se quiere minimizar f . 1 (a) Sea x0 = 2 A−1 b. Pruebe que f (x) = (x−x0 )t A(x−x0 )−x0 Ax0 +c. t (b) Concluya que el unico m´ ´ ınimo de f se alcanza en x0 , i.e., que Ê f (x) ≥ f (x0 ) para todo x ∈ 2 y que la igualdad se alcanza solamente cuando x = x0 - 185
  • 186.
    P3. Sea α∈ Ê y considere la ecuaci´n o Departamento de Ingenier´a Matematica - Universidad de Chile √ √ αx2 + αy 2 + 2(α − 1)xy − 2x + 2y = 0. Determine todos los valores de α tales que la ecuaci´n corresponde a: o (a) Circunferencia. (d) Par´bola. a (g) Un punto. (b) Elipse. (e) Hip´rbola. e (c) Recta o rectas. (f ) Conjunto vac´ ıo. ı ´ 186
  • 187.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 15: FORMA DE JORDAN Departamento de Ingenier´a Matematica - Universidad de Chile 8. Forma de Jordan 8.1. ´ Definicion Estudiaremos aqu´ un procedimiento que permite obtener, a partir de una ı matriz A, otra similar con gran cantidad de ceros. Obviamente, el ideal es obtener una matriz diagonal, pero esto no siempre es posible. Nos confor- maremos con una forma algo m´s compleja que la matriz diagonal, pero a con la ventaja de que ´sta puede obtenerse para matrices arbitarias. e La idea general de reducir una matriz consiste en determinar una base de modo que la transformaci´n lineal asociada a la matriz inicial tenga una o representaci´n simple en la nueva base. o Partamos con un ejemplo. Consideremos la transformaci´n lineal TA : 9 → o 9 dada por x → Ax, cuya matriz representante J, con respecto a una base βJ es: 2 1 0  ´  0 2 1     0 0 2     2 1    J = 0 2     (2)     5 1    0 5 ı (6) Es claro que σ(A) = {2, 5, 6}, con multiplicidades algebraicas 6, 2, 1 respec- tivamente. La base βJ la notaremos como sigue: 1 1 1 1 1 1 2 2 3 βJ = {v11 , v12 , v13 , v21 , v22 , v31 , v11 , v12 , v11 } De la definici´n de matriz representante, obtenemos: o 1 1 TA (v11 ) = 2v11 1 1 1 TA (v12 ) = v11 + 2v12 1 1 1 TA (v13 ) = v12 + 2v13 1 1 TA (v21 ) = 2v21 1 1 1 TA (v22 ) = v21 + 2v22 1 1 TA (v31 ) = 2v31 2 2 TA (v11 ) = 5v11 2 2 2 TA (v12 ) = v11 + 5v11 3 3 TA (v11 ) = 6v11 187
  • 188.
    1 Vemos quev11 es vector propio (cabeza de serie) asociado al valor propio Departamento de Ingenier´a Matematica - Universidad de Chile 1 1 1 1 λ1 = 2, v12 es una “cola” asociada a v11 y v13 es “cola” asociada a v12 . Posteriormente obtenemos otro vector propio asociado a λ1 = 2 con una cola y finalmente un tercer vector propio asociado a λ1 = 2. Luego se repite el mismo esquema: un vector propio y una cola asociados a λ2 = 5 y finalmente un vector propio asociado a λ3 = 6. En general la matriz J que nos interesa en este p´rrafo tiene la forma: a λ 1   1  ..  . 1     0 λ1     ..   .       λ1 1      ..    . 1     0 λ1     ..   .     λr 1      ..    . 1    ´  λr     ..   .       λr 1      ..  . 1  λr ı donde los bloques son de tama˜ o s(1, 1), . . . , s(1, p1 ), . . . , s(r, 1), . . . , s(r, pr ), n p1 pr y el espectro es σ(A) = {λ1 , . . . , λr }, con multiplicidades s(1, j), . . . , s(r, j), j=1 j=1 respectivamente. La base se escribe: 1 1 1 1 1 1 r r βJ = {v11 , . . . , v1s(1,1) , v21 , . . . , v2s(1,2) , . . . , vp1 1 , . . . , vp1 s(1,p1 ) , . . . , vpr 1 , . . . , vpr s(r,pr ) } o mediante una tabla de doble entrada: ↓ ↓ ↓ ↓ ↓ 1 1 1 r r r v11 v21 ··· vp1 1 ··· v11 v21 ··· vpr 1 1 1 1 r r r v12 v22 ··· vp1 2 ··· v12 v22 ··· vpr 2 . . . . . . . . . . . . . . . . . . 1 1 1 r r r v1s(1,1) v2s(2,1) ··· vp1 s(1,p1 ) ··· v1s(r,1) v2s(r,2) ··· vpr s(r,pr ) ↓ ↓ ↓ ↓ ↓ (8.1) 188
  • 189.
    Departamento de Ingenier´aMatematica - Universidad de Chile vectores de la base vectores de la base ··· asociados a λ1 asociados a λr las flechas indican el encadenamiento de los vectores de base. Por ejemplo 1 1 al vector v1s(1,1) le sigue v21 . El primer elemento de cada columna corresponde a un vector propio. Bajo un vector propio figuran las colas asociadas. Adem´s: a k k k λk vij si j = 1 (1era fila de la tabla) TA (vij ) = Avij = k k (8.2) vij−1 + λk vij si j > 1 Una base βJ , con estas caracter´ ısticas se denomina base de Jordan asociada Base de Jordan a la transformaci´n lineal T y su matriz representante es justamente J. o Tambi´n es claro que los subespacios propios son: e 1 1 Vλ1 = v11 , . . . , vp1 1 , dim Vλ1 = p1 2 2 Vλ2 = v11 , . . . , vp2 1 , dim Vλ2 = p2 . . . ´ r r Vλr = v11 , . . . , vpr 1 , dim Vλr = pr Los bloques se notan:   λi 1  .. ..   . .  Ji =  ..   . 1  ı λi Definici´n 8.1 (Forma de Jordan). Una transformaci´n lineal o o Forma de Jordan n n TA : −→ x −→ TA (x) = Ax se reduce a la forma de Jordan si y s´lo si es posible determinar una o base βJ con las caracter´sticas definidas en (8.1) y (8.2). ı Veamos otro ejemplo. Sea la matriz:   8 1 0 0 0   0 8 0 0 0 J1   J = 0 0 0 1 0 =  J2    0 0 0 0 0 J3 0 0 0 0 0 8 1 0 1 donde J1 = , J2 = , J3 = (0). 0 8 0 0 189
  • 190.
    Tenemos σ(J) ={λ1 = 8, λ2 = 0} con multiplicidades 2 y 3 respectivamen- Departamento de Ingenier´a Matematica - Universidad de Chile te. Vλ1 = V8 = {e1 } , Vλ2 = V0 = {e3 , e5 } donde {ei }5 es la base can´nica de i=1 o 5 . De acuerdo a nuestra notaci´n, o la base de Jordan, βJ es: 1 2 2 v11 v11 v21 1 2 v12 v12 asociados a asociados a Vλ1 Vλ2 Estudiemos el esquema de similitud entre la matriz A (representante de T con respecto a la base can´nica) y βJ : o A 5 5 T : → β β β : base can´nica o P ↑ ↑ P βJ : base de Jordan 5 5 → ´ βJ J βJ Luego J = P −1 AP o equivalentemente AP = P J. Pero P es la matriz de 1 1 2 2 2 pasaje de la base can´nica a βJ = {v11 , v12 , v11 , v21 , v21 }. Es directo que: o 1 1 2 2 2 P = (v11 , v12 , v11 , v12 , v21 ) y se tiene: ı     8 1 0 8 1   1 1   1 1 Av11 = P J•1 = P  0  = 8v11 , Av12 = P J•2 = P  0  = v11 + 8v12 ,     0 0 0 0     0 0 0 0 2   2 2   2 2 Av11 = P J•3 = P  0  = 0v11 , Av12 = P J•4 = P  1  = v11 + 0v12 ,     0 0 0 0   0 0 2   2 Av21 = P J•5 = P  0  = 0v21   0 0 recuper´ndose la relaci´n (8.2). a o Simplifiquemos por un momento la notaci´n. Si escribimos P = (v 1 , . . . , v n ) o tal que β = {v 1 , . . . , v n } es base de Jordan, se verifica: ∀i = 1, . . . , n Av i = λi v i o bien Av i = v i−1 + λv i . 190
  • 191.
    En el primercaso v i es un vector propio y en el segundo lo denominaremos Departamento de Ingenier´a Matematica - Universidad de Chile vector propio generalizado (existe una “cola”). En estas condiciones se tiene el teorema siguiente: Teorema 8.1. Una transformaci´n lineal arbitraria, TA = n → o n , x→ Ax, es reductible a la forma de Jordan, o de manera equivalente: ∀A ∈ Mnn ( ), ∃J ∈ Mnn ( ) matriz de Jordan, similar a la matriz A: A = P JP −1 donde las columnas de P son los vectores de la base asociada a βJ . ´ Demostracion. La demostraci´n la omitimos aqu´ y no se cubrir´ en o ı a clases, sin embargo se presenta en el ap´ndice de la semana, s´lo por e o completitud. 8.2. Aplicaciones de la forma de Jordan ´ 8.2.1. Potencias de una matriz Vimos anteriormente que la diagonalizaci´n de matrices nos entregaba una o forma f´cil de calcular las potencias de una matriz. Sin embargo, esto s´lo a o es aplicable a matrices que admitan una diagonalizaci´n.o A continuaci´n veremos que la forma de Jordan tiene tambi´n utilidad para o e el c´lculo de potencias, con la ventaja que cualquier matriz cuadrada admite a una forma de Jordan. Veamos primero que la forma de Jordan nos da una ı descomposici´n especial, para cualquier matriz cuadrada. o Si J es la matriz de Jordan de A, cada bloque de J es de la forma:     λi 1 0 0 1 0  .. ..   .. ..   . .   . .  Ji =    = λi Ii +    ,   .. .. . 1  . 1 0 λi 0 0 en donde Ii es la identidad de la dimensi´n correspondiente. Llamemos Ni o a la segunda matriz de la suma. Esta matriz tiene la siguiente propiedad, propuesta como ejercicio: ◭ Ejercicio Ejercicio 8.1: Suponga que Ni ∈ Mss ( ), pruebe entonces por in- Æ ducci´n que ∀m ∈ , ∀p, q ∈ {1, . . . , s}, o  1 si q = p + m,  m (Ni )pq =   0 si q = p + m. 191
  • 192.
    Departamento de Ingenier´aMatematica - Universidad de Chile Adem´s deduzca que Nis = 0. Una matriz con esta propiedad, se dice a nilpotente. Luego, reescribiendola matriz A por bloques:        λ1 I1 0 ... 0 N1 0 ... 0     0 λ2 I2 . . . 0  0   N2 ... 0  −1 A = P  .  . . .. . + . . .. .  P .  . . . . .   . . . . . . . .      0 0 . . . λr Ir 0 0 ... Nr  D N Notar que los valores propios λ1 , . . . , λr son los valores propios de A con posible repetici´n. o Se tiene que la matriz N es nilpotente, gracias al siguiente ejercicio: ◭ Ejercicio ´ Ejercicio 8.2: Sea B una matriz diagonal por bloques, es decir   B1 0 . . . 0  0 B2 . . . 0   B= . . .. .   .. . . . .  . 0 0 ... Br ı en donde B1 , . . . , Br son matrices cuadradas y el resto son matrices cero. Æ Sea m ∈ , pruebe que entonces  m  B1 0 ... 0  0 B2 . . . m 0    Bm =  . . .. . .  .. . . . .  . m 0 0 ... Br Concluya que la matriz N anterior es nilpotente. Hemos probado entonces la siguiente propiedad: Proposici´n 8.1. Dada A ∈ Mnn ( ), existen una matriz invertible P , o una matriz diagonal D y una matriz nilpotente N , tales que A = P (D + N )P −1 . 192
  • 193.
    Usaremos lo anteriorpara calcular potencias de una matriz. Sea A ∈ Æ Departamento de Ingenier´a Matematica - Universidad de Chile Mnn ( ) y m ∈ . Queremos calcular Am . Por lo visto en la parte de diagonalizaci´n: o Am = P (D + N )m P t . Debemos entonces estudiar (D + N )m , que gracias al Ejercicio 8.2 es equi- valente a estudiar (λi Ii + Ni )m , es decir cada bloque de la forma de Jordan. Se puede probar que el Teorema del Binomio de Newton es tambi´n v´lidoe a para matrices, si la multiplicaci´n de ´stas conmuta. Este es precisa- o e mente el caso de λi Ii y Ni , que conmutan pues λi Ii es ponderaci´n de la o identidad. Luego m m (λi Ii + Ni )m = (λi Ii )m−k Nik . k k=0 Para k ∈ {0, . . . , m}, (λi Ii )m−k = λm−k Ii . As´ gracias al Ejercicio 8.1: i ı,  m  0 ... k λm−k i 0  .. ..   . .  m m m−k k   m m−k   ´ (λi Ii )m−k Nik = λi Ni =  k λi  k k    .. .   . . .  0 0 En donde los t´rminos m λm−k est´n ubicados desde la posici´n (1, k) e k i a o hasta la (k, n). Notar adem´s que, si λi + Ni ∈ Mss ( ), la matriz anterior a ı es nula para k ≥ s. Finalmente, sumando sobre k, se obtiene:  m m m m m−(s−1)  λi 1 λm−1 i 2 λm−2 i ... s−1 λi  ..   0 λm m λm−1 m λm−2 .   i 1 i 2 i    (λi Ii + Ni )m = . . .. . .. . .. . .. . .  .   .   . . ... 0 λm m λm−1  i 1 i 0 ... ... 0 λm i (8.3) Y tenemos entonces que   (λ1 I1 + N1 )m 0 ... 0  0 (λ2 I2 + N2 )m ... 0    −1 Am = P  . . .. . P ,  . . . . . . .  0 0 ... (λr Ir + Nr )m con los bloques (λi Ii + Ni )m como en (8.3). 193
  • 194.
    8.2.2. Matriz exponencial Departamento de Ingenier´a Matematica - Universidad de Chile Otra aplicaci´n importante est´ relacionada con calcular la exponencial de o a una matrix, la generalizaci´n de la funci´n exponencial real para matrices. o o Dicha matriz exponencial tiene utilidad en ciertos m´todos de resoluci´n e o de ecuaciones diferenciales (que ver´s en cursos m´s adelante). a a Veamos primero la definici´n de la matriz exponencial. o Definici´n 8.2 (Matriz exponencial). Sea A ∈ Mnn ( ). La expo- o Matriz exponencial nencial de A, denotada por eA , es la matriz en Mnn ( ) dada por la serie de potencias ∞ 1 k eA = A . k! k=0 Esta serie siempre converge, por lo que eA est´ bien definida. a Observaci´n: El ultimo punto tratado en la definici´n, acerca de la o ´ o convergencia, lo aceptaremos aqu´ Esto sale de los t´picos a tratar en ı. o el curso. Veamos primero algunas propiedades de la exponencial, las cuales no pro- ´ baremos aqu´ ı: Proposici´n 8.2. Dadas matrices B, C ∈ Mnn ( ), se tiene o −1 1. Si C es invertible, eCBC = CeB C −1 . 2. Si BC = CB, entonces eB+C = eB eC = eC eB . 3. Si B es diagonal, B = diag(b1 , . . . , bn ), entonces eB = diag(eb1 , . . . , ebn ). ı Sea entonces A ∈ Mnn ( ), que gracias a la Proposici´n 8.1 se escribe como o A = P (D + N )P −1 , con D matriz diagonal con los vectores propios de A y N una matriz nilpotente. Calculamos entonces la exponencial de A, utilizando la Proposici´n 8.2 y o el hecho de que D y N conmutan (ya se sus bloques conmutan): eA = P e(D+N ) P −1 = P (eD eN )P −1 . Veamos eN , ∞ 1 k eN = N . k! k=0 Gracias al Ejercicio 8.2 y sumando en k, se tiene que (este paso se puede formalizar, pero no lo haremos aqu´ ı)  N1  e 0 ... 0  0 eN 2 . . . 0    eN =  . . .. . .  . . . . . .  . 0 0 . . . eN r 194
  • 195.
    Adem´s, por laProposici´n 8.2, a o Departamento de Ingenier´a Matematica - Universidad de Chile  λ  e 1 I1 0 ... 0  0 eλ2 I2 ... 0    eD =  . . .. . ,  . . . . . . .  0 0 ... eλr Ir el i-´simo bloque de eD eN es: e ∞ s−1 1 k 1 k eλi Ii eNi = eλi N = eλi N . k! i k! i k=0 k=0 Ya que si suponemos Ni ∈ Mss ( ), como Ni es nilpotente, para k ≥ s se tiene Nik = 0. As´ı:  λi 1 λi 1 λi 1 λi  e 1! e 2! e ... (s−1)! e  ..   0 eλi 1 λi 1 λi .   1! e 2! e    eλi eNi =  . . .. . .. . .. . .. .  (8.4)  .   .   . . ... 0 eλi 1 λi  1! e ´ 0 ... ... 0 eλi Finalmente   eλ1 eN1 0 ... 0  0 eλ2 eN2 ... 0    −1 eA = P  . . .. . P ,  . . . . . . .  eλr eNr ı 0 0 ... con cada bloque como en (8.4). 8.2.3. Teorema de Cayley-Hamilton El Teorema de Cayley-Hamilton se˜ ala que una matriz es siempre raiz de n ıstico. Para comprender a qu´ nos referimos con esto, su polinomio caracter´ e notemos que dado un polinomio p(x) = a0 + a1 x + a2 x2 + · · · + an xn ∈ Pn ( ), podemos asociarle naturalmente una funci´n de Mnn ( ) a Mnn ( ). Dada o X ∈ Mnn ( ): p(X) = a0 I + a1 X + a2 X 2 + · · · + an X n . Enunciemos entonces el teorema: Teorema 8.2 (Cayley-Hamilton). Dada una matriz A ∈ Mnn ( ) y Cayley-Hamilton pA (x) su polinomio caracter´stico, entonces ı pA (A) = 0. 195
  • 196.
    Departamento de Ingenier´aMatematica - Universidad de Chile Demostracion. Consideremos A = P JP −1 , la forma de Jordan de A. Sa- ´ bemos que dos matrices similares tienen el mismo polinomio caracter´ ıstico, luego pA (x) = pJ (x). Ahora, como J es triangular superior, pJ (x) puede ser calculado como: pJ (x) = |J − xI| = (x − λ1 )s1 (x − λ2 )s2 . . . (x − λr )sr , en donde cada t´rmino (x − λi )si corresponde al bloque de Jordan Ji . e Calculemos entonces pA (A). Gracias a lo visto en la parte de diagonaliza- ci´n, no es dif´ probar que: o ıcil pA (A) = pJ (A) = P ·pJ (J)·P −1 = P (J−λ1 I)s1 (J−λ2 I)s2 . . . (J−λr I)sr P −1 . Ahora, mirando el bloque i-´simo del t´rmino i de este producto (de di- e e mensiones s × s), tenemos que: (Ji − λi Ii )s = Nis = 0, ´ ya que gracias al Ejercicio 8.1, la matriz Ni es nilpotente. Luego, usando el Ejercicio 8.2, se concluye. 8.2.4. Traza de una matriz Una ultima utilidad de la forma de Jordan, que veremos, es permitir carac- ´ terizar la traza de una matriz. Definici´n 8.3 (Traza). La traza es la funci´n tr : Mnn ( ) → nida por: o o , defi- ı Traza n ∀A = (aij ) ∈ Mnn ( ), tr(A) = aii . k=0 Es decir, es la suma de los elementos de la diagonal de la matriz. Las siguientes propiedades quedan de ejercicio: Proposici´n 8.3. Se tienen las siguientes propiedades: o 1. La funci´n tr es lineal. o 2. ∀A, B ∈ Mnn ( ), tr(AB) = tr(BA). ´ Demostracion. Propuesta como ejercicio. ◭ Ejercicio As´ podemos probar el siguiente resultado: ı, 196
  • 197.
    Proposici´n 8.4. SeaA ∈ Mnn ( ), con valores propios distintos λ1 , . . . , λr . o Departamento de Ingenier´a Matematica - Universidad de Chile Entonces r tr(A) = αA (λi ) · λi . i=1 En donde recordemos que αA (λi ) es la multiplicidad algebraica de λi . Demostracion. Sea A = P JP −1 , la forma de Jordan de A, luego ´ tr(A) = tr(P JP −1 ) = tr(P −1 P J) = tr(J). En donde ocupamos la Proposici´n 8.3, con P J y P −1 . o Ahora, en la diagonal de J est´n precisamente los valores propios de A, a repetidos tantas veces como su mutiplicidad algebraica. As´ ı, r tr(A) = tr(J) = αA (λi ) · λi . i=1 ı ´ 197
  • 198.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS F´SICAS Y MATEMATICAS I ´ UNIVERSIDAD DE CHILE ´ Algebra Lineal 08-2 SEMANA 15: FORMA DE JORDAN Departamento de Ingenier´a Matematica - Universidad de Chile Probaremos el siguiente teorema: Teorema 8.3. Una transformaci´n lineal arbitraria, TA = n → o n , x→ Ax, es reductible a la forma de Jordan, o de manera equivalente: ∀A ∈ Mnn ( ), ∃J ∈ Mnn ( ) matriz de Jordan, similar a la matriz A: A = P JP −1 donde las columnas de P son los vectores de la base asociada a βJ . ´ Demostracion. Por inducci´n sobre la dimensi´n, n, del espacio. Es tri- o o vialmente cierto para n = 1 (verifique). Supongamos que el resultado se cumple ∀k ≤ n − 1. Veremos primero: Caso 1: La matriz A es singular (detA = 0). En este caso r(A) = r < n, es decir dim Im(TA ) = r(A) = r < n. Sea: ´ T ′ = T |ImTA : ImTA → ImTA Por hip´tesis, como dim ImTA < n, existe la descomposici´n de Jordan. o o Existe entonces una base de ImTA que verifica las hip´tesis. M´s expl´ o a ıci- tamente: Si σ(T ′ ) = {λ1 , . . . , λm } y adem´s los subespacios propios: a 1 1 m m Vλ1 = {v11 , . . . , vp1 1 } , . . . , Vλm = v11 , . . . , vpm 1 obteni´ndose la base β, de Jordan para T ′ : e 1 v11 ··· 1 vp1 1 → vectores propios de Vλ1 ı 1 1 v12 vp1 2 . . . . . . colas asociadas 1 1 v1s(1,1) vps(1,p1 ) a los vectores propios de Vλ1 . . . . . . . . . m m v11 ··· vpm 1 → vectores propios deVλm m m v12 ··· vpm 2 . . . . . . colas asociadas m m v1s(m,1) ··· vpm s(m,pm ) donde r = dim ImTA = s(i, j) y se verifica: i,j k λk vij si j = 1 T ′ (vij ) = k k k vij−1 + λk vij si j > 1 198
  • 199.
    Donde: Departamento de Ingenier´a Matematica - Universidad de Chile   J11  ..   .     Jp1     J12   ..   .    J =   Jp2 2   ..   .       J1m   ..   .  Jpm m y cada bloque:   λk 1  .. ..   . .  Jik = ..   . 1  λk ´ k k es de dimensi´n s(k, i)×s(k, i), asociado a los vectores de base vi1 , . . . , vis(k,i) . o Subcaso 1: KerTA ∩ ImTA = {0}. De acuerdo al Teorema del N´ cleo-Imagen (TNI), dim KerTA +dim ImTA = u n, luego n = KerTA ⊕ ImTA , de donde la base de Jordan ser´:a ı βJ = {w1 , . . . , wr } ∪ {z 1 , . . . , z n−r } n−r donde {wi }r es base de Jordan de ImTA y {z i }i=1 es una base del n´ cleo i=1 u de TA . La matriz asociada es:   J11  ..   .     Jpm m  J =   0  n − r bloques  ..   .  de 1 × 1 con 0 el valor propio 0 que verifica claramente: TA wi = λi wi o ´ TA wi = wi−1 + λi wi 1≤i≤r y adem´s, TA z i = 0z i a 1 ≤ i ≤ n − r. Subcaso 2: KerTA ∩ ImTA = u1 , . . . , up , subespacio de dimensi´n o p ≥ 1. 199
  • 200.
    Es decir ui∈ KerTA y ui ∈ ImTA . Estos vectores son propios TA (ui ) = Departamento de Ingenier´a Matematica - Universidad de Chile 0ui . Adem´s, como ui ∈ ImTA estos son vectores propios de T ′ = T |ImTA . a Por hip´tesis de Jordan existen, para cada uno de los vectores ui , un bloque o (eventualmente de 1×1). Sin p´rdida de generalidad, supongamos que en la e base de Jordan asociada a T ′ , se tiene λ1 = 0. Luego obtenemos los bloques siguientes: 1 1 1 v11 v21 ··· vp1 1 1 . . v12 v22 . . . . vectores propios asociados a λ1 = 0 . . . . . . 1 1 1 v1s(1,1) v2s(1,2) ··· vps(1,p) que verifican la recurrencia: 1 1 TA v11 = 0 · v11 1 1 1 TA v12 = v11 + 0 · v12 . . . 1 1 1 TA v1s(1,1) = v1s(1,1)−1 + 0 · v1s(1,1) (8.5) ´ . . . 1 1 TA vp1 = 0 · vp1 . . . 1 1 1 TA vps(1,p) = vps(1,p)−1 + 0 · vps(1,p) ı n Para “completar” la base de Jordan asociada a ImTA a una base de , elegimos el conjunto de vectores β2 = {y j }p tal que: j=1 Ay 1 = v1s(1,1) 1 Ay 2 = v2s(1,2) 1 . . . Ay p = vps(1,p) 1 Es decir, los vectores {y j }p son soluciones de los sistemas asociados al j=1 ultimo vector de cada bloque del vector λ1 = 0. Estos sistemas tienen ´ 1 soluci´n ya que, por hip´tesis, vjs(1,j) ∈ ImTA , ∀j = 1, . . . , p. o o p Adem´s, son vectores linealmente independientes. En efecto, si a cj y j = 0 j=1 entonces p p p j j 1 cj T A y = cj Ay = cj vjs(1,j) = 0 j=1 j=1 j=1 como, por hip´tesis el conjunto o {vjs(1,j) }p 1 j=1 es linealmente independiente, ımos que cj = 0, ∀j = 1, . . . , n. conclu´ 200
  • 201.
    M´s a´ n,los vectores {y j }p satisfacen: a u j=1 Departamento de Ingenier´a Matematica - Universidad de Chile TA (y j ) = Ay j = vjs(1,j) + 0y j 1 ≤ j ≤ p. luego podemos redefinir el orden de los vectores en el conjunto β2 ∪ βJ para obtener una descomposici´n en bloques de Jordan. Por ejemplo, veamos la o inclusi´n del vector y 1 . o Ten´ıamos (ver Ecuaci´n (8.5)): o 1 1 TA v11 = 0v11 . . . 1 1 1 TA v1s(1,1) = v1s(1,1)−1 + 0v1s(1,1) definiendo v1s(1,1)+1 = y 1 , se tiene que 1 1 1 1 TA v1s(1,1)+1 = v1s(1,1) + 0v1s(1,1)+1 y redefinimos el primer bloque: v11 , . . . , v1s(1,1) , v1s(1,1)+1 = y 1 1 1 1 que satisface la recurrencia de Jordan. ´ 1 En general, para cada bloque asociado a λ1 , agregamos el vector vjs(1,j)+1 = y j , lo cual satisface la recurrencia de Jordan. Los nuevos bloques tienen la forma:   0 1 0  .. .. . .  . . .  ..   . 1 0   ı  0 1 0 ··· ··· 0 Debemos verificar que el conjunto β2 ∪ βJ es ℓ.i.: Consideremos ϕ una combinaci´n lineal nula, escrita por bloques: o ϕ = [α1 v11 + α1 v12 + · · · + α1 11 1 12 1 1 1s(1,1) v1s(1,1) ] + . . . + · · · + [α1 vp1 + α1 vp2 + · · · + α1 p1 1 p2 1 1 ps(1,p) v1s(1,p) ] + . . . + [αk v11 + · · · + αk 11 k k 1s(k,1) v1s(k,1) ] + . . . (8.6) + [αkk 1 vpk s(1,pk ) p + · · · + αkk s(k,pk ) vpk s(k,pk ) ] p k + ... 1 + β1 y + β2 y 2 + · · · + β p y p = 0 Aplicando la transformaci´n TA a esta ecuaci´n obtenemos: o o 1 TA (ϕ) = Aϕ = [α11 Av11 + α1 A2 v12 + · · · + α1 1 12 1 1 1s(1,1) Av1s(1,1) ] + . . . · · · + [α1 Avp1 + α1 Avp2 + · · · + α1 p1 1 p2 1 1 ps(1,p) Av1s(1,p) ]+ · · · + [αk Av11 + · · · + αk 11 k k 1s(k,1) Av1s(k,1) ]+ · · · + [αpk 1 Avpk s(1,pk ) + · · · + αkk s(k,pk ) Avpk s(k,pk ) ] + . . . p k · · · + β1 Ay 1 + · · · + βp Ay p = 0 201
  • 202.
    Reemplazando seg´ nla recurrencia de Jordan y recordando que λ1 = 0: u Departamento de Ingenier´a Matematica - Universidad de Chile Aϕ = [α1 v11 + α1 v12 + · · · + α1 12 1 13 1 1 1s(1,1) v1s(1,1)−1 ] + . . . + [α1 vp1 + α1 vp2 + · · · + α1 p2 1 p3 1 1 ps(1,p) v1s(1,p)−1 ] + . . . + [αk λk v11 + · · · + αk 11 k k k 1s(k,1) (λk vpt s(k,1) + v1s(k,1)−1 )] · · · + [αkk 1 λk vpk 1 + · · · + αkk s(k,pk ) (λk vpk s(k,pk ) + vpk s(k,pk )−1 )] + . . . p k p k k 1 1 1 + β1 v1s(1,1) + β2 v2s(1,2) + · · · + βp vps(1,p) = 0 Reordenando, agregamos cada vector asociado a los escalares βj a su res- pectivo bloque: TA (ϕ) = [α1 v11 + · · · + α1 12 1 1 1 1 1s(1,1) v1s(1,1)−1 + β v1s(1,1) ] + . . . · · · + {(αk λk + αk )v11 + (αk λk + αk )v12 + . . . 11 12 k 12 13 k · · · + (α1s(k,1)−1 λk + αk k k k k 1s(k,1) )v1s(k,1)−1 + α1s(k,1) λk v1s(k,1) } + · · · = 0 como los vectores son ℓ.i se tiene que α1 = α1 = · · · = α1 12 13 1s(1,1) = β1 = 0 ´ . . . 1 αp2 = α1 = · · · = α1 p3 ps(1,p) = βp = 0 y ∀k ≥ 1 (bloques asociados a λk ): αk λk + αk = 0 11 12 ı αk λk + αk = 0 12 13 . . . α1s(k,1)−1 λk + αk k 1s(k,1) = 0 αk 1s(k,1) λk = 0 como λk = 0, reemplazando desde la ultima a la primera ecuaci´n, con- ´ o clu´ ımos αk = 0 ∀k, ∀i, j. Recordemos que, al aplicar TA , desaparecieron los coefi- ij cientes α1 , . . . , α1 , pero, como el resto de los coeficientes αk , βj , es nulo se tiene 11 p1 ij en (8.6): α1 v11 + · · · + α1 vp1 = 0 11 1 p1 1 Como {vj1 }p es ℓ.i, conclu´ 1 j=1 ımos α1 = · · · = α1 = 0, luego el conjunto 11 p1 β2 o βJ es ℓ.i. El conjunto anterior β2 ∪ βJ tiene r + p vectores, donde r = dim ImTA , es decir | β2 ∪ βJ |= p + r ≤ n. Nos falta entonces considerar KerTA ImTA ∩ KerTA . Pero esto es f´cil, sea: a KerTA = u1 , . . . , up ⊕ {z1 , . . . , zq } 202
  • 203.
    donde {u1 ,. . . , up } = ImTA ∩KerTA y {z1 , . . . , zq } es un suplementario Departamento de Ingenier´a Matematica - Universidad de Chile en KerTA . Afirmamos que la base de Jordan de n est´ dada por: a ′ q βJ = βJ ∪ β2 ∪ β3 , β3 = {zi }i=1 . Claramente estos n vectores son ℓ.i., pues si r p q αj wj + βj y j + γj zj = 0 j=1 j=1 j=1 aplicando TA y recordando que zj ∈ KerTA obtenemos: r p αj TA wj + βj T A y j = 0 j=1 j=1 que corresponde al an´lisis de la independencia lineal de β2 ∪βJ que hicimos a q previamente, luego αj = βj = 0. S´lo queda entonces o γj zj = 0 de donde j=1 γj = 0 pu´s {zj } es ℓ.i. e La matriz de Jordan, agregando los {zi }q al final de la base, es la siguiente: ´ i=1  ˜  J11  ..   .   ˜   Jp1     J12   ..    ı  .   Jp2 2     ..  J =   .     J1m   ..   .       Jpm m     0   ···  0 ˜ ˜ donde J11 , . . . , Jp1 son los bloques asociados a λ1 = 0 con la “cola” agre- gada {yi }. El ultimo grupo de q bloques de 0’s corresponde a la base del ´ suplementario de ImTA ∩ KerTA en KerTA . Con esto hemos demostrado que, si A es regular (no invertible), esta es reductible a la forma de Jordan. Veamos ahora el caso invertible: Como A ∈ Mnn ( ), ∃λ ∈ valor propio asociado a A. Consideremos la matriz singular A′ = A − λI. Por el proce- dimiento desarrollado anteriormente existen matrices J ′ y P invertible tal 203
  • 204.
    que: Departamento de Ingenier´a Matematica - Universidad de Chile J ′ = P −1 A′ P ⇔ J ′ = P −1 (A − λI)P ⇔ P J ′ P −1 = A − λI ⇔ A = P J ′ P −1 + λI = = P J ′ P −1 + λP P −1 = P (J ′ + λI)P −1 luego la matriz de Jordan asociada a TA es J = J ′ + λI, donde λ aparece en la diagonal principal. ◭ Ejercicio Ejercicio 8.3: La forma de Jordan es unica, salvo permutaci´n del ´ o orden de la base. ı ´ 204
  • 205.
    ´ Ingenier´a Matematica ı FACULTAD DE CIENCIAS Gu´a ı F´SICAS Y MATEMATICAS ´ I UNIVERSIDAD DE CHILE Semana 15 ´ Algebra Lineal 08-2 Ejercicios Departamento de Ingenier´a Matematica - Universidad de Chile 1. Sea Ni ∈ Mss ( ), definida por   0 1 0  .. ..   . .   .  ..   . 1 0 0 Æ Pruebe por inducci´n que ∀m ∈ , ∀p, q ∈ {1, . . . , s}, o  1 si q = p + m,  (Nim )pq =   0 si q = p + m. Adem´s deduzca que Nis = 0. Una matriz con esta propiedad, se dice a nilpotente. 2. Sea B una matriz diagonal por bloques, es decir   ´ B1 0 . . . 0  0 B2 . . . 0    B= . . .. .   .. . . . .  . 0 0 . . . Br en donde B1 , . . . , Br son matrices cuadradas y el resto son matrices cero. Æ, pruebe que entonces ı Sea m ∈  m  B1 0 ... 0  0 B2m ... 0    Bm = . . .. . .  .. . . . . .  m 0 0 ... Br 3. Pruebe las siguientes propiedades: (a) La funci´n tr : Mnn ( ) → o es lineal. (b) ∀A ∈ Mmn ( ), ∀B ∈ Mnm ( ), tr(AB) = tr(BA). 4. A ∈ Mnn ( ), una matriz no necesariamente diagonalizable tal que Ê σ(A) ⊆ . Pruebe que |eA | = etr(A) . 5. Calcule eA , A3 y A5 , para las siguientes matrices:     −1 1 1 1 0 0 0 2 1 0 0 (a) . 0 1 0 0 −1  0 0 0 2 1 0  (c)  . (b) 0 0 1/2  0 0. 0  0 2 0 0 0 0 4 1 0 0 0 −1 0 0 0 0 4 205
  • 206.
    Problemas Departamento de Ingenier´a Matematica - Universidad de Chile P1. Se define la siguiente recurrencia de n´ meros reales u xn+1 = 2xn − xn−1 , ∀n ≥ 1 x1 = 1, x0 = 0. (a) Para n ∈ Æ, defina vn = ( xx n n−1 )∈ Ê2. Encuentre A ∈ M22(Ê) tal que vn+1 = Avn . (b) Pruebe que vn = An v0 , ∀n ∈ Æ. (c) Use lo anterior para resolver la recurrencia, obteniendo un valor expl´ ıcito para xn . Indicaci´n: Use la forma de Jordan. o P2. (a) Sea λ ∈ Ê {0}. Pruebe por inducci´n que o n λ 1 λn nλn−1 = ∀n ≥ 1. 0 λ 0 λn ´ (b) Considere   4 −1 −3 0 4 1 . 0 0 2 Encuentre P invertible y J en forma de Jordan tal que A = P JP −1 . ı (c) Para la matriz A de la parte anterior y n ≥ 1 cualquiera calcule An expl´ıcitamente, encontrando expresiones para los coeficientes de An en funci´n de n. o 206