SlideShare una empresa de Scribd logo
1 de 17
Descargar para leer sin conexión
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



Unidad Nº 6: VALORES Y VECTORES PROPIOS. DIAGONALIZACIÓN

1.- VALORES Y VECTORES PROPIOS DE UN OPERADOR LINEAL

Definición 1
 Sea V un espacio vectorial sobre un cuerpo F (R o C). Un operador lineal sobre V es
una transformación lineal de V en V.

Definición 2
  Sea V ≠ {0v} un espacio vectorial sobre un cuerpo F, y sea T un operador lineal sobre V.
Un escalar λ ∈ F es un valor propio de T si y sólo si existe algún vector no nulo v ∈ V tal
que T (v) = λ v .

Definición 3
   Sea V ≠ {0v} un espacio vectorial sobre un cuerpo F, y sea T un operador lineal sobre V.
Si λ ∈ F es un valor propio de T , se llama vector propio de T asociado al valor propio λ,
a todo vector no nulo v ∈ V que verifica la condición T (v) = λ v.

Notas:
1.- Los valores propios de un operador lineal T sobre un espacio vectorial VF pertenecen al cuerpo F en el
   que está definido el espacio vectorial V.
2.- Son sinónimos
   a)    valor propio, valor característico, raíz característica, autovalor, eigenvalor, valor espectral
   b) vector propio, vector característico, autovector, eigenvector

3.- Si v es un vector propio de T asociado a un valor propio λ, entonces T (v) es un múltiplo escalar de v,
   ya que T (v) = λ v. En el caso en que λ ≠ 0 entonces v y T(v) son paralelos, por definición de
   paralelismo de vectores.

4.- Los valores y vectores propios tienen una interpretación geométrica útil en los espacios vectoriales reales
   R2 y R3. Esto es así, ya que si v es un vector propio de un operador lineal T sobre R2 (o R3 ), asociado a
   un valor propio λ, entonces T dilata a v, contrae a v, invierte el sentido de v, etc. según sea el valor de λ.


                                     λv
                                                           v                          v

                          v                           λv
                                                                              λv
                         O                             O                              O


                       λ>0                        0<λ<1                            1< λ < 0


Proposición 1
 Sea λ ∈ F un valor propio de un operador lineal T : V F → VF . El conjunto Eλ formado
por todos los vectores v ∈ V tales que T (v) = λ v es un subespacio vectorial de V. Esto es,
                                          S λ = {v ∈ V / T (v) = λ v} π V
Demostración: Queda de tarea para el alumno



                                                                                                                      1
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



Definición 4
 S λ se denomina espacio propio asociado al valor propio λ ∈ F .

Proposición 2
 Sea T : V F → VF un operador lineal. Entonces el conjunto de vectores propios de T
asociados a valores propios diferentes es linealmente independiente.

Demostración:
 Sean v1 , v 2 ,..., v n vectores propios de T asociados a λ1 , λ2 , ..., λ n ∈ F respectivamente,
tales que λi ≠ λ j , si i ≠ j .
 Es decir:
                                        T ( v i ) = λi v i ,    con λi ≠ λ j , si i ≠ j .

 Debemos probar que { v1 , v 2 ,..., v n } es linealmente independiente, es decir que

                                   n
                                                                                    
                     ∀ n∈ N, 
                             
                             
                                   ∑ ai vi = 0 v ⇒ ∀ i = 1, ..., n; ai = 0 
                                   i =1
                                                                           
                                                                           
                                                                                        : P(n)

 Para ello, demostraremos que la proposición P(n) es verdadera empleando inducción en n

    Si n = 1 , entonces

                 a1 v1 = 0 v ⇒ a1 = 0

ya que v1 es vector propio y por lo tanto v1 ≠ 0 v
Luego, se verifica que la Proposición P(n) es verdadera para n = 1 , es decir {v1} es
linealmente independiente.

   Si suponemos que la Proposición P(n) es válida para n = h , debemos probar que la
Proposición P(n) es verdadera para n = h + 1.
En esta situación la hipótesis inductiva es: la Proposición P(n) es verdadera para n = h , es
decir que el conjunto {v1 , v 2 ,..., vh } es linealmente independiente.

Debemos probar que la Proposición P(n) es verdadera para n = h + 1 , es decir que el
conjunto {v1 , v 2 ,..., v h , v h+1 } es linealmente independiente.

Para ello tomemos la siguiente combinación lineal, de valor 0 v , de estos h + 1 vectores
propios
                                               h +1

                                               ∑a
                                               i =1
                                                      i   vi = 0 v      (1)

Aplicamos T en ambos miembros de (1):
                                                  h+1     
                                               T  ∑ ai vi  = T (0 v )
                                                  i =1    



                                                                                                                  2
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



Por Propiedades 1 y 3 de Transformaciones lineales, resulta
                                                    h +1

                                                    ∑ a T (v ) = 0 v
                                                    i =1
                                                               i     i



Por hipótesis T (vi ) = λi vi ,   con λi ≠ λ j , si i ≠ j entonces reemplazando se tiene
                                            h +1

                                            ∑a
                                            i =1
                                                    i   λ i vi = 0 v      (2)

Ahora, multiplicamos ambos miembros por λh+1 en (1)
                                                        h +1
                                            λh+1 ∑ ai vi = λh+1 0 v
                                                        i =1
Por propiedad distributiva del producto de un escalar por una combinación lineal, es
                                                   h+1
                                                   ∑ λh+1 ai vi = 0 v
                                                   i =1

Como el producto es conmutativo en el cuerpo F, resulta
                                            h+1
                                            ∑ ai λh+1 vi = 0 v
                                            i =1
                                                                          (3)

Si restamos miembro a miembro (3)-(2), tenemos
                                     h+1                           h +1
                                     ∑ ai λh+1 vi − ∑ ai λi vi = 0 v
                                     i =1                          i =1

y realizando las operaciones correspondientes, obtenemos
                                             h
                                            ∑ ai (λh+1 − λi ) vi = 0 v
                                            i =1

esto es,
                  a1 (λh+1 − λ1 ) v1 + a 2 (λh+1 − λ2 ) v2 + ... + a h (λh+1 − λh ) vh = 0 v
Observemos que ésta expresión es una combinación lineal de valor 0v de vectores del
conjunto {v1 , ..., vh }, que es linealmente independiente por hipótesis inductiva, de modo
que los escalares deben ser simultáneamente nulos.
Es decir,
                                        a1 (λ h+1 − λ1 ) = 0 ⇒ a1 = 0
                                       a 2 (λh +1 − λ 2 ) = 0 ⇒ a 2 = 0
                                                   :                 :
                                                   :                 :
                                       a h (λ h+1 − λ h ) = 0 ⇒ a h = 0

Esto es así ya que los valores propios son diferentes entre sí, por hipótesis del teorema, por
lo tanto los escalares son simultáneamente nulos
                                            a1 = a2 = ... = ah = 0



                                                                                                                 3
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



Reemplazando en (1) el valor de estos escalares, obtenemos
                                   0 v1 + 0 v2 + ... + 0 vh + a h+1 vh+1 = 0 v
de donde,
                                       a h+1 vh+1 = 0 v ⇒ a h+1 = 0
ya que vh+1 ≠ 0 v por ser vector propio de T.

Luego {v1 , v2 ,..., vh , vh+1} es linealmente independiente, y por lo tanto la proposición P(n)
es verdadera para todo n ∈ N.
                                                                                                           Q.E.D.
Observación:
La proposición recíproca de la Proposición 2 es falsa, pues puede ocurrir que un conjunto de vectores propios
sea linealmente independiente y estos vectores estén asociados a valores propios no necesariamente distintos,
hasta puede ocurrir que todos los valores propios sean iguales. Tal es el caso del operador lineal Identidad
sobre el espacio vectorial real R3 , este es, Id : R3 → R3/ Id (x, y, z) = (x, y, z) en donde el conjunto de
vectores propios {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es linealmente independiente y estos vectores propios están
asociados al valor propio λ1 = λ2 = λ3 = 1.

Teorema 1
 Sea VF un espacio vectorial de dimensión finita n y sea T un operador lineal sobre V. Si
existe una base B de V formada por vectores propios v1 , v2 , ..., vn de T, asociados a los
valores propios λ1 , λ 2 , ..., λn , no necesariamente diferentes, entonces la matriz asociada a T
respecto a la base B de V es una matriz diagonal y en su diagonal principal se encuentran
los valores propios de T.

Demostración:
Por hipótesis, tenemos que B = {v1 , v2 , ..., v n } es una base de V tal que
                     T (v1 ) = λ1 v1 , T (v2 ) = λ2 v2 , ..., T (vn ) = λ n vn ,
con los λi no necesariamente diferentes.

Expresamos a cada uno de los vectores T (v1 ), T (v2 ) , ... , T (vn ) en término de los
vectores de la base B , es decir, como combinación lineal de los vectores de B :
                                        T (v1 ) = λ1 v1 + 0 v2 + ... + 0 vn

                                       T (v2 ) = 0 v1 + λ 2 v2 + ... + 0 vn
                                              :                    :
                                              :                    :
                                       T (vn ) = 0 v1 + 0 v2 + ... + λ n vn
Es claro que las columnas de la matriz asociada a T respecto a la base B son las
coordenadas de los vectores T (v1 ), T (v2 ) , ..., T (vn ) respecto de la base B.
Es decir que las columnas de la matriz asociada a T respecto a la base B son los vectores:




                                                                                                                   4
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



              λ1                         0                             0
              0                          λ                             0
                                          2                             
 [T (v1 )]B =  :  ∈ F nx1 , [T (v2 )]B =  :  ∈ F nx1 , …, [T (vn )]B =  :  ∈ F nx1
                                                                        
              :                          :                             :
              0
                                         0
                                                                         λ n 
                                                                            
Luego la matriz asociada a T respecto a la base B es


                                       λ1        0       ...       0 
                                        0        λ2      ...       0 
                                                                     
                             M =        :         :      ...       :  ∈ F nxn
                                                                     
                                        :         :      ...       : 
                                
                                        0         0      ...      λn 
                                                                      
M es una matriz diagonal, cuya diagonal principal está formada por los valores propios del
operador lineal T; con lo que queda demostrado el teorema.

Observación:
En el Teorema 1 no se requiere que los escalares λi sean distintos, incluso pueden ser todos iguales como
vimos en el caso del operador lineal Identidad Id : R3 → R3/ Id (x, y, z) = (x, y, z) que tiene tres valores
propios coincidentes λ1 = λ2 = λ3 = 1 y los vectores propios asociados son los tres vectores canónicos
(1, 0, 0), (0, 1, 0), (0, 0, 1) que constituyen un conjunto linealmente independientes y por lo tanto es una base
de R3 y en consecuencia la matriz asociada al operador lineal Identidad con respecto de esta base, es una
matriz diagonal, más aún es una matriz escalar, los elementos de su diagonal principal son unos .

Definición 5
 Sea VF un espacio vectorial de dimensión finita n y sea T un operador lineal sobre V.
T es diagonalizable si y sólo si existe una base de V formada por vectores propios de T.

Proposición 3
  Sea VF un espacio vectorial de dimensión finita n y sea T un operador lineal sobre V. Si T
tiene n valores propios diferentes, entonces T es diagonalizable.

Demostración:
Por hipótesis el operador lineal T admite n valores propios λ1, λ2, …,λ n diferentes, entonces
por el Teorema 1, el conjunto {v1, v2, …, vn } formado por los n vectores propios de T
asociados a los valores propios λ1, λ2, …,λ n             respectivamente, es linealmente
independiente.
Además, como la dimensión del espacio vectorial V es igual a n, resulta que {v1, v2, …, vn}
es una base de V. Luego por la Definición 5 el operador lineal T es diagonalizable.




                                                                                                                   5
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



2.- VALORES Y VECTORES PROPIOS DE UNA MATRIZ

Definición 1
Sea A ∈ F n x n . λ ∈ F es un valor propio de A si y sólo si existe algún vector no nulo
v ∈ F n x 1 tal que A v = λ v .

Definición 2
 Si λ ∈ F es un valor propio de A ∈ F n x n . Los vectores no nulos v ∈ F n x 1 que verifican
la condición A v = λ v se denominan vectores propios de A asociados al valor propio λ .

Proposición 1
 El conjunto Eλ de los vectores v ∈ F n x 1 tales que verifican la condición A v = λ v es un
subespacio vectorial de V. Esto es
                                         {
                                  Eλ = v ∈ F nx1 / A v = λ v π V   }
Demostración:
Queda para el alumno.(Es similar a la Proposición 1 correspondiente a los operadores
lineales).

Definición 3
 El conjunto Eλ de los vectores v ∈ F n x 1 tales que verifican la condición A v = λ v se
denomina espacio propio correspondiente al valor propio λ .

Proposición 2
 Sea A ∈ F n x n . El conjunto de vectores propios de A asociados a valores propios
diferentes es linealmente independiente.

Demostración:
Queda para el alumno.(Es similar a la Proposición 2 correspondiente a los operadores
lineales).

Proposición 3
 Sea A ∈ F n x n , λ ∈ F es un valor propio de A si y sólo si la matriz λI n − A es singular
(no inversible), siendo In la matriz unidad de orden n.

Demostración
λ∈F      es     un   valor   propio      de    A ⇔ ∃ v ∈ F n x1 ∧ v ≠ 0v ,            tal    que      Av = λ v
⇔ ∃ v∈ F      n x1
                   ∧ v ≠ 0 v tal que λ I n v − A v = 0 v ⇔ ∃ v ∈ F      ∧ v ≠ 0 v tal que
                                                                                    n x1

(λ I n − A) v = 0 v ⇔ el sistemas de ecuaciones homogéneo (λ I n − A) v = 0 v es compatible
indeterminado ⇔ la matriz λ I n − A no es inversible (es singular).




                                                                                                                6
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



 Definición 4
  Sea A ∈ F nxn :
      λI n − A se denomina Matriz Característica.
      det (λI n − A) se denomina Polinomio Característico. Es un polinomio de grado n en la
      variable λ con coeficientes en el cuerpo F. La notación usual es P (λ ) = det (λI n − A) .

      det (λI n − A) = 0 se denomina Ecuación Característica. Es una ecuación de grado n en
      la variable λ con coeficientes en el cuerpo F.

 Nota:

 Por el Corolario del Teorema Fundamental de Álgebra, la ecuación característica det (λI n − A) = 0 admite
 exactamente n raíces. Estas raíces pueden o no pertenecer al cuerpo F. Únicamente las raíces pertenecientes
 al cuerpo F son los valores propios de la matriz   A ∈ F nxn .


 Procedimiento para determinar los valores y vectores propios
  Sea A ∈ F n x n
 I.   det (λ I n − A) = 0 . Las raíces de esta ecuación pertenecientes al cuerpo F son los
      valores propios de la matriz A.
II. Para cada valor propio              λi ∈ F,        formamos el sistema de ecuaciones lineales
      homogéneo (λi I n − A) v = 0 v , donde v es el vector incógnita. De cada uno de estos
      sistemas de ecuaciones lineales se determina el conjunto solución, que es precisamente
      el espacio propio E λ correspondiente al valor propio λi .
                           i
III. Determinamos una base B i de cada espacio propio E λ . Cada una de estas bases
                                                         i
      está formada por los vectores propios linealmente independientes asociados al valor
      propio λi .


 Proposición 4

  Los valores propios de una matriz triangular son los elementos de su diagonal principal.

 Demostración
  Sea A ∈ F n x n , una matriz triangular superior, con
                                            a11         *     ... * 
                                            0          a 22   ... * 
                                                                       
                                          A= 0          0     ... *  .
                                                                       
                                             :          :     ... : 
                                            0
                                                        0     ... a nn 
                                                                        




                                                                                                                    7
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



 El polinomio característico de A viene dado por:

                             λ − a11       *          ...    *
                                0       λ − a22       ...    *
           det(λI n − A) =      0          0          ...    *    = (λ − a11 )(λ − a 22 )...(λ − a nn )
                                :          :          ...    :
                                0          0          ... λ − ann

Consideramos la ecuación característica
det (λI n − A) = 0 ,
esto es,
(λ − a11 )(λ − a22 )...(λ − ann ) = 0
Al resolver la ecuación característica, observamos que las raíces son precisamente los
elementos de la diagonal principal de la matriz triangular superior A, esto es:

                                             λ1 = a11
                                             λ2 = a22
                                                  :
                                                  :
                                             λn = ann

Es decir, que los valores propios de la matriz A son los elementos de su diagonal principal.
En forma análoga procedemos si la matriz A es una matriz triangular inferior.
                                                                                                           Q.E.D.

Proposición 5

 Los valores propios de una matriz diagonal son los elementos de su diagonal principal.

Demostración: Queda para el alumno




                                                                                                                   8
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



2.1. SEMEJANZA DE MATRICES

Definición 5
 Sean dos matrices A, B ∈ F nxn .
A es semejante a B si y sólo si existe una matriz P ∈ F nxn inversible, tal que B = P −1 A P .

Proposición 6
 La relación de semejanza de matrices es una relación de equivalencia.

Demostración:
i) La relación de semejanza de matrices es Reflexiva
 Sea la matriz A ∈ F nxn . Es claro que A es semejante a A, ya que existe la matriz unidad
Id ∈ Fnxn , que es inversible, tal que A = Id –1 A Id


ii) La relación de semejanza de matrices es Simétrica
 Sean dos matrices A, B ∈ F nxn . Probaremos que “si A es semejante a B, entonces B es
semejante a A”.
Como A es semejante a B, entonces existe una matriz P ∈ F nxn inversible, tal que
                                               B = P −1 A P
                                                                                               -
Multiplicamos en ambos miembros a la izquierda por P y a la derecha por P 1, y tenemos
                                          –1               –1            –1
                                P B P            = P (P         A P) P
Como el producto de matrices es asociativo resulta
                                          –1               –             –
                                P B P           = (P P 1) A (P P 1)
De aquí se sigue
                                                      –1
                                            P B P              =A
                                                                    –
Luego B es semejante a A, ya que P es la inversa de P 1.

iii) La relación de semejanza de matrices es Transitiva
 Sean tres matrices A, B, C ∈ F
                                         nxn
                                               . Probaremos que “si A es semejante a B y B es
semejante a C, entonces A es semejante a C.
Como A es semejante a B y B es semejante a C entonces, existen dos matrices inversibles
P, S ∈ Fnxn tales que
                                  B = P −1 A P ∧ C = S −1 B S
entonces,
                                        C = S −1 ( P −1 A P ) S




                                                                                                                9
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



Y como el producto de matrices es asociativo, resulta
                                          C = ( S −1 P −1 ) A (P S )
Empleando la propiedad de la inversa del producto de matrices inversibles, esto es

                                            (P S )−1 =       S −1 P −1 ,
observamos que existe una matriz inversible P S ∈ Fnxn tal que

                                           C = (P S) −1 A (P S)
Por lo tanto A es semejante a C.
 Finalmente de i), ii) y iii) se sigue que la relación de semejanza de matrices es una
relación de equivalencia.
                                                                                                           Q.E.D.
Nota:
En adelante, si una matriz A es semejante a otra matriz B diremos simplemente que “A y B son semejantes”,
esto es debido a que la equivalencia de matrices es una relación de equivalencia.


Proposición 7
  Si dos matrices son semejantes entonces tienen el mismo polinomio característico y por lo
tanto tienen los mismos valores propios.

Demostración
 Sean A, B ∈ F nxn matrices semejantes y sea P ∈ F nxn inversible tal que B = P −1 A P .
Probaremos que det (λ In - B) = det (λ In - A)
En efecto,
                           (                    )        (
   det (λ I n − B ) = det λ I n − P −1 A P = det λ I n ( P −1 P) − P −1 A P =        )
        (                         )         (                     )        ( )
= det P −1 (λ I n ) P − P −1 A P = det P −1 (λ I n − A) P = det P −1 det (λI n − A) det (P ) =


        ( )                                     (    )
= det P −1 det (P ) det (λ I n − A) = det P −1 P det (λ I n − A) = det (I n ) det (λ I n − A) =


= det (λI n − A) = det (λ I n − A)

                                                                                                            Q.E.D.

Observación:
El recíproco de la Proposición 7 es falso, ya que dos matrices pueden tener los mismos valores propios sin ser
matrices semejantes.




                                                                                                                 10
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



2.2.- MATRICES DIAGNALIZABLES

Definición 6
 Sea A ∈ F nxn . La matriz A es diagonalizable si y sólo si existe una matriz diagonal
D ∈ F nxn tal que A es semejante a D.

Observaciones:
1.- Como vimos en la Proposición 7, si una matriz A es semejante a una matriz D, entonces resulta que A y D
tienen los mismos valores propios. Además, la Proposición 5, asegura que si D es una matriz diagonal
entonces los valores propios de D son los elementos de su diagonal principal. De estos resultados se
desprende que si una matriz A es semejante a una matriz diagonal D entonces los valores propios de A son
precisamente los elementos de la diagonal principal de la matriz diagonal D y por Definición 6 la matriz A
es diagonalizable .

2.- Empleando las definiciones 6 y 5 podemos realizar el siguiente razonamiento:
          nxn                                                                 nxn
   A∈ F         es diagonalizable ⇔    existe una matriz diagonal D ∈ F             tal que A es semejante a D ⇔
                              por Def. 6
                                             nxn                    -1
    ⇔ existe una matriz inversible P ∈ F           tal que D = P         AP
   por Def. 5

 3.- De las observaciones 1 y 2 podemos advertir que la matriz inversible P diagonaliza a la matriz A y la
matriz diagonal D semejante a A, tiene en su diagonal principal a los valores propios de la matriz A.


Proposición 8
 Una matriz A ∈ F nxn es diagonalizable si y sólo si A tiene n vectores propios que forman
un conjunto linealmente independiente. En tal caso la matriz diagonal D semejante a la
matriz A está dada por:

                                        λ1        0    ... 0 
                                        0         λ2   ... 0 
                                                              
                                      D=:         :    ... :  ∈ F nxn
                                                              
                                        :         :    ... : 
                                        0
                                                  0    ... λn 
                                                               
donde λ1 , λ2 , ..., λn son los valores propios de A. Si P ∈ F nxn es una matriz cuyas
columnas son vectores propios linealmente independientes de la matriz A entonces
                                                D = P −1 A P .

Demostración:
a) Supongamos que A tiene n vectores linealmente independientes v1 , v2 , ..., vn

respectivamente asociados a los valores propios λ1 , λ2 , ..., λn (no necesariamente
diferentes) de la matriz A. Es decir,
                         A v1 = λ1 v1 , A v2 = λ2 v2 , ... , A vn = λn vn                (1)



                                                                                                                   11
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



Probaremos que la matriz A es diagonalizable.
Para ello, sea P ∈ F nxn la matriz cuyas columnas son los vectores propios v1 , v2 , ..., vn de
la matriz A, esto es,
                                                           p1 j 
                                                          p 
              |  |     |                   |             2j
              v v ... v
           P=  1 2                            , con v =  :  ∈ F nx1 , ∀ j = 1,..., n
                                       ... vn 
                          j                            j
                                                           
              |
                 |     |                   | 
                                                          : 
                                                           pnj 
                                                           

Observemos que la columna j-ésima de A P es igual a A v j de modo que:


                                 |             |                |              | 
                          A P =  A v1
                                            A v2 ... A v j             ...   A vn 
                                                                                   
                                 |
                                              |        |                       | 
 Luego, por (1), se tiene


                              |    |       |                                  | 
                             λ v λ v ... λ v
                        AP =  1 1                                     ... λn vn        (2)
                                   2 2     j j                                   
                              |
                                   |       |                                |  

 Por otro lado,
                                                      0             p1 j λ j   p1 j 
                                                      :            p λ        p 
                                                                    2j j       2j
la columna j-ésima de PD es igual a                 P λ j  =        :  = λj  :  =λj vj ,
                                                                               
                                                      :             :          : 
                                                      0             pnj λ j    p nj 
                                                                               

por lo tanto,

                          |    |       |                                          | 
                         λ v λ v ... λ v
                    PD =  1 1                                         ...    λn v n    (3)
                               2 2     j j                                           
                          |
                               |       |                                       |   


Teniendo en cuenta (2) y (3) se sigue que

                                            PD= AP               (4)




                                                                                                               12
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



y como {v1 , v2 ,..., v n } es linealmente independiente entonces P es inversible, por lo tanto si
multiplicamos a izquierda en ambos miembros de (4) por P -1 , resulta

                                          D = P −1 A P        (5)

  Es claro que D es una matriz diagonal semejante a A, ya que existe una matriz P
inversible que verifica la igualdad (5), luego, por Definición 6, A es diagonalizable.


b) Ahora demostraremos que:
Si la matriz A es diagonalizable, entonces A tiene n vectores propios que forman un
conjunto linealmente independiente.

 Por hipótesis la matriz A es diagonalizable, entonces por Definición 6 existe una matriz
diagonal D semejante a A, y en consecuencia por Definición 5, existe una matriz P
inversible tal que
                                        D = P −1 A P            (α)

multiplicamos a izquierda en ambos miembros de (α) por P y resulta
                                         P D = P ( P −1 A P )
Aplicando la propiedad asociativa del producto de matrices tenemos
                                         P D = ( P P −1 ) A P
Luego
                                                PD= AP           (β)

Ahora, si a la matriz diagonal D la representamos por

                                   λ1 0            ... 0 
                                   0 λ             ... 0 
                                       2                     nxn
                                 D=:  :            ... :  ∈ F ,
                                                          
                                   :  :            ... : 
                                   0 0
                                                   ... λn 
                                                           

donde λ1 , λ2 , ..., λn no son necesariamente diferentes. Y si a la matriz P la expresamos a
través de sus columnas, es decir

      |  |     |                | 
      v v ... v
   P=  1 2                 ... vn  ∈ F
                                         nxn
                                             , con vj columna de P; ∀ j = 1, …, n
                  j                
      |
         |     |                | 
                                   




                                                                                                              13
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



Entonces los productos PD y AP expresados en términos de sus columnas son

                          |    |       |                                   |   
                         λ v λ v ... λ v
                    PD =  1 1                                    ...    λ n vn      (δ)
                               2 2     j j                                      
                          |
                               |       |                                   |  

y
                           |             |               |               | 
                    A P =  A v1
                                       A v2     ...   Avj       ...    A vn 
                                                                                     (ρ)
                           |
                                         |             |                 | 

Luego, de (β), (δ) y (ρ) se sigue que las respectivas columnas de PD y de AP son
iguales es decir
                          A v1 = λ1 v1 , A v2 = λ2 v2 , ... , A vn = λn vn

Esto nos indica que v1 , v2 , ..., vn son vectores propios de A asociados a los valores propios

λ1 , λ2 , ..., λn respectivamente; y como P es inversible entonces { v1 , v2 , ..., vn } es
linealmente independiente.
                                                                                                        Q.E.D.

Corolario
 Si A ∈ F nxn admite n valores propios diferentes entonces A es diagonalizable.

Demostración
Por hipótesis la matriz A tiene n valores propios diferentes. Sean λ1 , λ2 , ..., λn los n valores

propios diferentes de la matriz A, y sean v1 , v2 , ..., vn n vectores propios de A asociados a
cada uno de los valores propios respectivamente, esto es

                         A v1 = λ1 v1 , A v2 = λ2 v2 , ... , A vn = λn vn ,

entonces, por Proposición 2, el conjunto { v1 , v2 , ..., vn } es linealmente independiente.
Esto es, la matriz A tiene n vectores propios que forman un conjunto linealmente
independiente, entonces por la Proposición 8 resulta que A es diagonalizable.

                                                                                                        Q.E.D.
Teorema de Cayley-Hamilton (sin demostración)

 Toda matriz A ∈ F nxn es un cero de su polinomio característico.




                                                                                                              14
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



3.- MATRICES REALES SIMÉTRICAS-DIAGONALIZACIÓN ORTOGONAL

Definición 1
Sea la matriz A ∈ R nxn . La matriz A es simétrica si y sólo si A es igual a su transpuesta.
En símbolos
                                         A ∈ R nxn es simétrica ⇔ A = At

También podemos expresar este concepto como sigue:
                   [ ]
               A = aij ∈ R nxn es simétrica ⇔ aij = a ji , ∀ i = 1, 2, ... , n, ∀ j = 1, 2, ... , n .

Teorema1

  Sea A una matriz real simétrica de orden n, entonces:
 I.          A tiene n valores propios (reales).
II.          A tiene n vectores propios linealmente independientes.

Teorema 2

 Sea A ∈ R nxn una matriz simétrica. Si λ1 y λ2 son valores propios diferentes con
vectores propios asociados v1 y v2 respectivamente, entonces v1 y v2 son ortogonales.

Demostración
Por hipótesis λ1 y λ2 son valores propios de A, con λ1 ≠ λ 2 .
Además,
             nx1
      v1 ∈ F     es un vector propio de A asociado al valor propio λ1 , es decir
                                           A v1 = λ1v1                           (1)
                    nx1
             v2 ∈ F       es un vector propio de A asociado al valor propio λ2 , es decir

                                           A v 2 = λ2 v 2                        (2)

Probaremos que v1 ⊥ v2 . Esto es equivalente a probar que v1 • v2 = 0 , donde                                   •   es un
                                 n
producto interior en R               .
En efecto, empleando el producto interior calculemos

  A v1   •    v2 = (λ1 v1 ) • v2 = λ1 (v1 • v2 )                       (3)

               por (1)     /     por Axioma de Prod. Interior

Por otro lado

 A v1    •   v2 = v1      •    At v 2    = v1 • A v2               (         )
                                                            = v1 • λ2 v2 = λ2 v1 • v2  (      )    (4)

  por Propiedad Auxiliar / A es simétrica           / por (2)    / por Propiedad de Producto Interior




                                                                                                                       15
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



 De (3) y (4) se sigue:
                                                    λ1 (v1 • v2 ) = λ2 (v1 • v2 )

 Como λ1 ≠ λ 2 , entonces v • v = 0. Por lo tanto, v y v son ortogonales, con lo que
                                        1       2                                        1            2
queda demostrado el teorema.

Propiedad Auxiliar:
          nxn                   nx1                                             t
 Si A ∈ R       y u, v ∈ R            , entonces A u       •       v = u   •   A v
 En efecto,
                                                t              t     t               t       t                              t
                      Au   •   v = (A u)            v=    (u       A ) v = u (A                  v) = u             •   A       v
 Con lo que queda así demostrado.


Definición
                                    nxn
  Sea una matriz Q ∈ R                      .   Q es ortogonal si y sólo si su inversa coincide con su
transpuesta.
  En símbolos,
                                            nxn                                                  −1
                                Q ∈ R                es ortogonal ⇔                      Q                = Q   t


Teorema

 Sea A una matriz simétrica real de orden n. Entonces A tiene n vectores propios
                                                                                                                            t
ortogonales. De donde, la matriz A puede expresarse por A = Q D Q o bien D = Q t AQ ,

siendo la matriz Q ortogonal y D una matriz diagonal cuyos elementos en su diagonal son
los vectores propios de A.
Demostración
 Por el Teorema 1I., la matriz A tiene n valores propios reales. Determinamos una base de
cada Espacio propio asociado a cada valor propio real. Si aplicamos el proceso de Gram-
Schmidt a cada una de estas bases, obtenemos su correspondiente base ortogonal cuyos
vectores siguen siendo vectores propios asociados al respectivo valor propio. Por el
Teorema 2 los vectores propios asociados a valores propios diferentes son ortogonales, por
lo tanto los vectores de bases distintas son ortogonales, y por el Teorema 1II. la matriz A
tiene n vectores linealmente independientes, entonces si realizamos la unión de las bases
ortogonales se obtiene un conjunto de n vectores propios ortogonales. En consecuencia la
matriz A es diagonalizable. Normalizando los n vectores propios ortogonales de A se
consigue un conjunto de n vectores propios ortonormales. Luego, si Q es la matriz cuyas
columnas son los n vectores propios ortonormales de A entonces, Q es una matriz
ortogonal y por tanto




                                                                                                                                    16
Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E.



                                                 D = Q t AQ
 donde D es una matriz diagonal semejante a A, con los valores propios de A en su diagonal.
 Un esquema práctico es el siguiente:
 Procedimiento para diagonalizar una matriz real simétrica

 I. Resolver la ecuación característica det (λI n − A) = 0 . Como A es real simétrica, se
    obtienen n valores propios reales.
II. Para cada valor propio, se encuentra el espacio propio asociado.
III. Para cada espacio propio se encuentra una base.
IV. A cada base se aplica el proceso de ortogonalización de Gram-Schmidt y se normaliza,
    si es necesario, a fin de obtener una base ortonormal de cada espacio propio.
V.     Se construye la matriz Q, cuyas columnas son los n vectores propios ortonormales que
       constituyen la unión las bases ortonormales.
 Q es la matriz que diagonaliza ortogonalmente a la matriz A.

 Definición
                        nxn
     Una matriz A ∈ R         es diagonalizable ortogonalmente si y sólo si existe una matriz Q

 ortogonal tal que D = Q t A Q , donde D = diag (λ1 , λ2 , ..., λ`n ) , donde λi son valores
 propios de A y las columnas de Q son los vectores propios ortogonales de A.



                                                  -.-.-.-.-.-




                                                                                                                17

Más contenido relacionado

La actualidad más candente (19)

Apuntes transformaciones lineales - UTFSM
Apuntes transformaciones lineales - UTFSMApuntes transformaciones lineales - UTFSM
Apuntes transformaciones lineales - UTFSM
 
Aplicaciones de la derivada 2012
Aplicaciones de la derivada 2012Aplicaciones de la derivada 2012
Aplicaciones de la derivada 2012
 
Derivadast
DerivadastDerivadast
Derivadast
 
Clase intro mec_cinem_1_y_2
Clase intro mec_cinem_1_y_2Clase intro mec_cinem_1_y_2
Clase intro mec_cinem_1_y_2
 
Transformaciones lineales
Transformaciones linealesTransformaciones lineales
Transformaciones lineales
 
Deber%2 B7
Deber%2 B7Deber%2 B7
Deber%2 B7
 
00075115
0007511500075115
00075115
 
Problems linear transforms_es
Problems linear transforms_esProblems linear transforms_es
Problems linear transforms_es
 
2f 01 gravitación3
2f 01 gravitación32f 01 gravitación3
2f 01 gravitación3
 
Mov curvilineo
Mov curvilineoMov curvilineo
Mov curvilineo
 
Propiedades de la Transformada de Laplace
Propiedades de la Transformada de LaplacePropiedades de la Transformada de Laplace
Propiedades de la Transformada de Laplace
 
Derivabilidad
DerivabilidadDerivabilidad
Derivabilidad
 
Teorema de Convolución
Teorema de ConvoluciónTeorema de Convolución
Teorema de Convolución
 
Cap6
Cap6Cap6
Cap6
 
Derivada direccional
Derivada direccionalDerivada direccional
Derivada direccional
 
I-Algebras
I-AlgebrasI-Algebras
I-Algebras
 
Cap7
Cap7Cap7
Cap7
 
Calculo1 aula12
Calculo1 aula12Calculo1 aula12
Calculo1 aula12
 
Vector
VectorVector
Vector
 

Similar a Valores y vectores propios de operadores lineales

Similar a Valores y vectores propios de operadores lineales (20)

Linear transforms es
Linear transforms esLinear transforms es
Linear transforms es
 
Art5
Art5Art5
Art5
 
Lineal prac2
Lineal prac2Lineal prac2
Lineal prac2
 
Espacios vectoriales
Espacios vectorialesEspacios vectoriales
Espacios vectoriales
 
Operadores lineales
Operadores linealesOperadores lineales
Operadores lineales
 
Folleto de algebra
Folleto de algebraFolleto de algebra
Folleto de algebra
 
Folleto de algebra
Folleto de algebraFolleto de algebra
Folleto de algebra
 
Transformaciones lineales
Transformaciones linealesTransformaciones lineales
Transformaciones lineales
 
Algebra
AlgebraAlgebra
Algebra
 
Valores y vectores propios
Valores y vectores propiosValores y vectores propios
Valores y vectores propios
 
Al ap 04
Al ap 04Al ap 04
Al ap 04
 
Formulario
FormularioFormulario
Formulario
 
Transformaciones lineales
Transformaciones linealesTransformaciones lineales
Transformaciones lineales
 
00053700
0005370000053700
00053700
 
Tema_6.pdf
Tema_6.pdfTema_6.pdf
Tema_6.pdf
 
Archivo con demostraciones de espacios vectoriales
Archivo con demostraciones de espacios vectorialesArchivo con demostraciones de espacios vectoriales
Archivo con demostraciones de espacios vectoriales
 
Al ap 02
Al ap 02Al ap 02
Al ap 02
 
Transformación lineal
Transformación linealTransformación lineal
Transformación lineal
 
Movimientoarmonicosimpleyondulatorio
MovimientoarmonicosimpleyondulatorioMovimientoarmonicosimpleyondulatorio
Movimientoarmonicosimpleyondulatorio
 
Presentación1 recta
Presentación1 recta Presentación1 recta
Presentación1 recta
 

Último

Manual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdfManual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdfMaryRotonda1
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADauxsoporte
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.DaluiMonasterio
 
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdfResolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
GLOSAS Y PALABRAS ACTO 2 DE ABRIL 2024.docx
GLOSAS  Y PALABRAS ACTO 2 DE ABRIL 2024.docxGLOSAS  Y PALABRAS ACTO 2 DE ABRIL 2024.docx
GLOSAS Y PALABRAS ACTO 2 DE ABRIL 2024.docxAleParedes11
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para eventoDiegoMtsS
 
cortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuacortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuaDANNYISAACCARVAJALGA
 
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfAngélica Soledad Vega Ramírez
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónLourdes Feria
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMarjorie Burga
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxEXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxPryhaSalam
 
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxSINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxlclcarmen
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinavergarakarina022
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PCCesarFernandez937857
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoFundación YOD YOD
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptxFelicitasAsuncionDia
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdfBaker Publishing Company
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptELENA GALLARDO PAÚLS
 

Último (20)

Manual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdfManual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdf
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDAD
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.
 
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdfResolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
 
GLOSAS Y PALABRAS ACTO 2 DE ABRIL 2024.docx
GLOSAS  Y PALABRAS ACTO 2 DE ABRIL 2024.docxGLOSAS  Y PALABRAS ACTO 2 DE ABRIL 2024.docx
GLOSAS Y PALABRAS ACTO 2 DE ABRIL 2024.docx
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para evento
 
cortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuacortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahua
 
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcción
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grande
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxEXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
 
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxSINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karina
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PC
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativo
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptx
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
 

Valores y vectores propios de operadores lineales

  • 1. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. Unidad Nº 6: VALORES Y VECTORES PROPIOS. DIAGONALIZACIÓN 1.- VALORES Y VECTORES PROPIOS DE UN OPERADOR LINEAL Definición 1 Sea V un espacio vectorial sobre un cuerpo F (R o C). Un operador lineal sobre V es una transformación lineal de V en V. Definición 2 Sea V ≠ {0v} un espacio vectorial sobre un cuerpo F, y sea T un operador lineal sobre V. Un escalar λ ∈ F es un valor propio de T si y sólo si existe algún vector no nulo v ∈ V tal que T (v) = λ v . Definición 3 Sea V ≠ {0v} un espacio vectorial sobre un cuerpo F, y sea T un operador lineal sobre V. Si λ ∈ F es un valor propio de T , se llama vector propio de T asociado al valor propio λ, a todo vector no nulo v ∈ V que verifica la condición T (v) = λ v. Notas: 1.- Los valores propios de un operador lineal T sobre un espacio vectorial VF pertenecen al cuerpo F en el que está definido el espacio vectorial V. 2.- Son sinónimos a) valor propio, valor característico, raíz característica, autovalor, eigenvalor, valor espectral b) vector propio, vector característico, autovector, eigenvector 3.- Si v es un vector propio de T asociado a un valor propio λ, entonces T (v) es un múltiplo escalar de v, ya que T (v) = λ v. En el caso en que λ ≠ 0 entonces v y T(v) son paralelos, por definición de paralelismo de vectores. 4.- Los valores y vectores propios tienen una interpretación geométrica útil en los espacios vectoriales reales R2 y R3. Esto es así, ya que si v es un vector propio de un operador lineal T sobre R2 (o R3 ), asociado a un valor propio λ, entonces T dilata a v, contrae a v, invierte el sentido de v, etc. según sea el valor de λ. λv v v v λv λv O O O λ>0 0<λ<1 1< λ < 0 Proposición 1 Sea λ ∈ F un valor propio de un operador lineal T : V F → VF . El conjunto Eλ formado por todos los vectores v ∈ V tales que T (v) = λ v es un subespacio vectorial de V. Esto es, S λ = {v ∈ V / T (v) = λ v} π V Demostración: Queda de tarea para el alumno 1
  • 2. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. Definición 4 S λ se denomina espacio propio asociado al valor propio λ ∈ F . Proposición 2 Sea T : V F → VF un operador lineal. Entonces el conjunto de vectores propios de T asociados a valores propios diferentes es linealmente independiente. Demostración: Sean v1 , v 2 ,..., v n vectores propios de T asociados a λ1 , λ2 , ..., λ n ∈ F respectivamente, tales que λi ≠ λ j , si i ≠ j . Es decir: T ( v i ) = λi v i , con λi ≠ λ j , si i ≠ j . Debemos probar que { v1 , v 2 ,..., v n } es linealmente independiente, es decir que  n  ∀ n∈ N,    ∑ ai vi = 0 v ⇒ ∀ i = 1, ..., n; ai = 0  i =1   : P(n) Para ello, demostraremos que la proposición P(n) es verdadera empleando inducción en n Si n = 1 , entonces a1 v1 = 0 v ⇒ a1 = 0 ya que v1 es vector propio y por lo tanto v1 ≠ 0 v Luego, se verifica que la Proposición P(n) es verdadera para n = 1 , es decir {v1} es linealmente independiente. Si suponemos que la Proposición P(n) es válida para n = h , debemos probar que la Proposición P(n) es verdadera para n = h + 1. En esta situación la hipótesis inductiva es: la Proposición P(n) es verdadera para n = h , es decir que el conjunto {v1 , v 2 ,..., vh } es linealmente independiente. Debemos probar que la Proposición P(n) es verdadera para n = h + 1 , es decir que el conjunto {v1 , v 2 ,..., v h , v h+1 } es linealmente independiente. Para ello tomemos la siguiente combinación lineal, de valor 0 v , de estos h + 1 vectores propios h +1 ∑a i =1 i vi = 0 v (1) Aplicamos T en ambos miembros de (1):  h+1  T  ∑ ai vi  = T (0 v )  i =1  2
  • 3. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. Por Propiedades 1 y 3 de Transformaciones lineales, resulta h +1 ∑ a T (v ) = 0 v i =1 i i Por hipótesis T (vi ) = λi vi , con λi ≠ λ j , si i ≠ j entonces reemplazando se tiene h +1 ∑a i =1 i λ i vi = 0 v (2) Ahora, multiplicamos ambos miembros por λh+1 en (1) h +1 λh+1 ∑ ai vi = λh+1 0 v i =1 Por propiedad distributiva del producto de un escalar por una combinación lineal, es h+1 ∑ λh+1 ai vi = 0 v i =1 Como el producto es conmutativo en el cuerpo F, resulta h+1 ∑ ai λh+1 vi = 0 v i =1 (3) Si restamos miembro a miembro (3)-(2), tenemos h+1 h +1 ∑ ai λh+1 vi − ∑ ai λi vi = 0 v i =1 i =1 y realizando las operaciones correspondientes, obtenemos h ∑ ai (λh+1 − λi ) vi = 0 v i =1 esto es, a1 (λh+1 − λ1 ) v1 + a 2 (λh+1 − λ2 ) v2 + ... + a h (λh+1 − λh ) vh = 0 v Observemos que ésta expresión es una combinación lineal de valor 0v de vectores del conjunto {v1 , ..., vh }, que es linealmente independiente por hipótesis inductiva, de modo que los escalares deben ser simultáneamente nulos. Es decir, a1 (λ h+1 − λ1 ) = 0 ⇒ a1 = 0 a 2 (λh +1 − λ 2 ) = 0 ⇒ a 2 = 0 : : : : a h (λ h+1 − λ h ) = 0 ⇒ a h = 0 Esto es así ya que los valores propios son diferentes entre sí, por hipótesis del teorema, por lo tanto los escalares son simultáneamente nulos a1 = a2 = ... = ah = 0 3
  • 4. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. Reemplazando en (1) el valor de estos escalares, obtenemos 0 v1 + 0 v2 + ... + 0 vh + a h+1 vh+1 = 0 v de donde, a h+1 vh+1 = 0 v ⇒ a h+1 = 0 ya que vh+1 ≠ 0 v por ser vector propio de T. Luego {v1 , v2 ,..., vh , vh+1} es linealmente independiente, y por lo tanto la proposición P(n) es verdadera para todo n ∈ N. Q.E.D. Observación: La proposición recíproca de la Proposición 2 es falsa, pues puede ocurrir que un conjunto de vectores propios sea linealmente independiente y estos vectores estén asociados a valores propios no necesariamente distintos, hasta puede ocurrir que todos los valores propios sean iguales. Tal es el caso del operador lineal Identidad sobre el espacio vectorial real R3 , este es, Id : R3 → R3/ Id (x, y, z) = (x, y, z) en donde el conjunto de vectores propios {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es linealmente independiente y estos vectores propios están asociados al valor propio λ1 = λ2 = λ3 = 1. Teorema 1 Sea VF un espacio vectorial de dimensión finita n y sea T un operador lineal sobre V. Si existe una base B de V formada por vectores propios v1 , v2 , ..., vn de T, asociados a los valores propios λ1 , λ 2 , ..., λn , no necesariamente diferentes, entonces la matriz asociada a T respecto a la base B de V es una matriz diagonal y en su diagonal principal se encuentran los valores propios de T. Demostración: Por hipótesis, tenemos que B = {v1 , v2 , ..., v n } es una base de V tal que T (v1 ) = λ1 v1 , T (v2 ) = λ2 v2 , ..., T (vn ) = λ n vn , con los λi no necesariamente diferentes. Expresamos a cada uno de los vectores T (v1 ), T (v2 ) , ... , T (vn ) en término de los vectores de la base B , es decir, como combinación lineal de los vectores de B : T (v1 ) = λ1 v1 + 0 v2 + ... + 0 vn T (v2 ) = 0 v1 + λ 2 v2 + ... + 0 vn : : : : T (vn ) = 0 v1 + 0 v2 + ... + λ n vn Es claro que las columnas de la matriz asociada a T respecto a la base B son las coordenadas de los vectores T (v1 ), T (v2 ) , ..., T (vn ) respecto de la base B. Es decir que las columnas de la matriz asociada a T respecto a la base B son los vectores: 4
  • 5. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. λ1  0 0 0 λ  0    2   [T (v1 )]B =  :  ∈ F nx1 , [T (v2 )]B =  :  ∈ F nx1 , …, [T (vn )]B =  :  ∈ F nx1       : :  : 0   0   λ n    Luego la matriz asociada a T respecto a la base B es  λ1 0 ... 0   0 λ2 ... 0    M = : : ... :  ∈ F nxn    : : ... :    0 0 ... λn   M es una matriz diagonal, cuya diagonal principal está formada por los valores propios del operador lineal T; con lo que queda demostrado el teorema. Observación: En el Teorema 1 no se requiere que los escalares λi sean distintos, incluso pueden ser todos iguales como vimos en el caso del operador lineal Identidad Id : R3 → R3/ Id (x, y, z) = (x, y, z) que tiene tres valores propios coincidentes λ1 = λ2 = λ3 = 1 y los vectores propios asociados son los tres vectores canónicos (1, 0, 0), (0, 1, 0), (0, 0, 1) que constituyen un conjunto linealmente independientes y por lo tanto es una base de R3 y en consecuencia la matriz asociada al operador lineal Identidad con respecto de esta base, es una matriz diagonal, más aún es una matriz escalar, los elementos de su diagonal principal son unos . Definición 5 Sea VF un espacio vectorial de dimensión finita n y sea T un operador lineal sobre V. T es diagonalizable si y sólo si existe una base de V formada por vectores propios de T. Proposición 3 Sea VF un espacio vectorial de dimensión finita n y sea T un operador lineal sobre V. Si T tiene n valores propios diferentes, entonces T es diagonalizable. Demostración: Por hipótesis el operador lineal T admite n valores propios λ1, λ2, …,λ n diferentes, entonces por el Teorema 1, el conjunto {v1, v2, …, vn } formado por los n vectores propios de T asociados a los valores propios λ1, λ2, …,λ n respectivamente, es linealmente independiente. Además, como la dimensión del espacio vectorial V es igual a n, resulta que {v1, v2, …, vn} es una base de V. Luego por la Definición 5 el operador lineal T es diagonalizable. 5
  • 6. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. 2.- VALORES Y VECTORES PROPIOS DE UNA MATRIZ Definición 1 Sea A ∈ F n x n . λ ∈ F es un valor propio de A si y sólo si existe algún vector no nulo v ∈ F n x 1 tal que A v = λ v . Definición 2 Si λ ∈ F es un valor propio de A ∈ F n x n . Los vectores no nulos v ∈ F n x 1 que verifican la condición A v = λ v se denominan vectores propios de A asociados al valor propio λ . Proposición 1 El conjunto Eλ de los vectores v ∈ F n x 1 tales que verifican la condición A v = λ v es un subespacio vectorial de V. Esto es { Eλ = v ∈ F nx1 / A v = λ v π V } Demostración: Queda para el alumno.(Es similar a la Proposición 1 correspondiente a los operadores lineales). Definición 3 El conjunto Eλ de los vectores v ∈ F n x 1 tales que verifican la condición A v = λ v se denomina espacio propio correspondiente al valor propio λ . Proposición 2 Sea A ∈ F n x n . El conjunto de vectores propios de A asociados a valores propios diferentes es linealmente independiente. Demostración: Queda para el alumno.(Es similar a la Proposición 2 correspondiente a los operadores lineales). Proposición 3 Sea A ∈ F n x n , λ ∈ F es un valor propio de A si y sólo si la matriz λI n − A es singular (no inversible), siendo In la matriz unidad de orden n. Demostración λ∈F es un valor propio de A ⇔ ∃ v ∈ F n x1 ∧ v ≠ 0v , tal que Av = λ v ⇔ ∃ v∈ F n x1 ∧ v ≠ 0 v tal que λ I n v − A v = 0 v ⇔ ∃ v ∈ F ∧ v ≠ 0 v tal que n x1 (λ I n − A) v = 0 v ⇔ el sistemas de ecuaciones homogéneo (λ I n − A) v = 0 v es compatible indeterminado ⇔ la matriz λ I n − A no es inversible (es singular). 6
  • 7. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. Definición 4 Sea A ∈ F nxn : λI n − A se denomina Matriz Característica. det (λI n − A) se denomina Polinomio Característico. Es un polinomio de grado n en la variable λ con coeficientes en el cuerpo F. La notación usual es P (λ ) = det (λI n − A) . det (λI n − A) = 0 se denomina Ecuación Característica. Es una ecuación de grado n en la variable λ con coeficientes en el cuerpo F. Nota: Por el Corolario del Teorema Fundamental de Álgebra, la ecuación característica det (λI n − A) = 0 admite exactamente n raíces. Estas raíces pueden o no pertenecer al cuerpo F. Únicamente las raíces pertenecientes al cuerpo F son los valores propios de la matriz A ∈ F nxn . Procedimiento para determinar los valores y vectores propios Sea A ∈ F n x n I. det (λ I n − A) = 0 . Las raíces de esta ecuación pertenecientes al cuerpo F son los valores propios de la matriz A. II. Para cada valor propio λi ∈ F, formamos el sistema de ecuaciones lineales homogéneo (λi I n − A) v = 0 v , donde v es el vector incógnita. De cada uno de estos sistemas de ecuaciones lineales se determina el conjunto solución, que es precisamente el espacio propio E λ correspondiente al valor propio λi . i III. Determinamos una base B i de cada espacio propio E λ . Cada una de estas bases i está formada por los vectores propios linealmente independientes asociados al valor propio λi . Proposición 4 Los valores propios de una matriz triangular son los elementos de su diagonal principal. Demostración Sea A ∈ F n x n , una matriz triangular superior, con a11 * ... *  0 a 22 ... *    A= 0 0 ... *  .    : : ... :  0  0 ... a nn   7
  • 8. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. El polinomio característico de A viene dado por: λ − a11 * ... * 0 λ − a22 ... * det(λI n − A) = 0 0 ... * = (λ − a11 )(λ − a 22 )...(λ − a nn ) : : ... : 0 0 ... λ − ann Consideramos la ecuación característica det (λI n − A) = 0 , esto es, (λ − a11 )(λ − a22 )...(λ − ann ) = 0 Al resolver la ecuación característica, observamos que las raíces son precisamente los elementos de la diagonal principal de la matriz triangular superior A, esto es: λ1 = a11 λ2 = a22 : : λn = ann Es decir, que los valores propios de la matriz A son los elementos de su diagonal principal. En forma análoga procedemos si la matriz A es una matriz triangular inferior. Q.E.D. Proposición 5 Los valores propios de una matriz diagonal son los elementos de su diagonal principal. Demostración: Queda para el alumno 8
  • 9. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. 2.1. SEMEJANZA DE MATRICES Definición 5 Sean dos matrices A, B ∈ F nxn . A es semejante a B si y sólo si existe una matriz P ∈ F nxn inversible, tal que B = P −1 A P . Proposición 6 La relación de semejanza de matrices es una relación de equivalencia. Demostración: i) La relación de semejanza de matrices es Reflexiva Sea la matriz A ∈ F nxn . Es claro que A es semejante a A, ya que existe la matriz unidad Id ∈ Fnxn , que es inversible, tal que A = Id –1 A Id ii) La relación de semejanza de matrices es Simétrica Sean dos matrices A, B ∈ F nxn . Probaremos que “si A es semejante a B, entonces B es semejante a A”. Como A es semejante a B, entonces existe una matriz P ∈ F nxn inversible, tal que B = P −1 A P - Multiplicamos en ambos miembros a la izquierda por P y a la derecha por P 1, y tenemos –1 –1 –1 P B P = P (P A P) P Como el producto de matrices es asociativo resulta –1 – – P B P = (P P 1) A (P P 1) De aquí se sigue –1 P B P =A – Luego B es semejante a A, ya que P es la inversa de P 1. iii) La relación de semejanza de matrices es Transitiva Sean tres matrices A, B, C ∈ F nxn . Probaremos que “si A es semejante a B y B es semejante a C, entonces A es semejante a C. Como A es semejante a B y B es semejante a C entonces, existen dos matrices inversibles P, S ∈ Fnxn tales que B = P −1 A P ∧ C = S −1 B S entonces, C = S −1 ( P −1 A P ) S 9
  • 10. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. Y como el producto de matrices es asociativo, resulta C = ( S −1 P −1 ) A (P S ) Empleando la propiedad de la inversa del producto de matrices inversibles, esto es (P S )−1 = S −1 P −1 , observamos que existe una matriz inversible P S ∈ Fnxn tal que C = (P S) −1 A (P S) Por lo tanto A es semejante a C. Finalmente de i), ii) y iii) se sigue que la relación de semejanza de matrices es una relación de equivalencia. Q.E.D. Nota: En adelante, si una matriz A es semejante a otra matriz B diremos simplemente que “A y B son semejantes”, esto es debido a que la equivalencia de matrices es una relación de equivalencia. Proposición 7 Si dos matrices son semejantes entonces tienen el mismo polinomio característico y por lo tanto tienen los mismos valores propios. Demostración Sean A, B ∈ F nxn matrices semejantes y sea P ∈ F nxn inversible tal que B = P −1 A P . Probaremos que det (λ In - B) = det (λ In - A) En efecto, ( ) ( det (λ I n − B ) = det λ I n − P −1 A P = det λ I n ( P −1 P) − P −1 A P = ) ( ) ( ) ( ) = det P −1 (λ I n ) P − P −1 A P = det P −1 (λ I n − A) P = det P −1 det (λI n − A) det (P ) = ( ) ( ) = det P −1 det (P ) det (λ I n − A) = det P −1 P det (λ I n − A) = det (I n ) det (λ I n − A) = = det (λI n − A) = det (λ I n − A) Q.E.D. Observación: El recíproco de la Proposición 7 es falso, ya que dos matrices pueden tener los mismos valores propios sin ser matrices semejantes. 10
  • 11. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. 2.2.- MATRICES DIAGNALIZABLES Definición 6 Sea A ∈ F nxn . La matriz A es diagonalizable si y sólo si existe una matriz diagonal D ∈ F nxn tal que A es semejante a D. Observaciones: 1.- Como vimos en la Proposición 7, si una matriz A es semejante a una matriz D, entonces resulta que A y D tienen los mismos valores propios. Además, la Proposición 5, asegura que si D es una matriz diagonal entonces los valores propios de D son los elementos de su diagonal principal. De estos resultados se desprende que si una matriz A es semejante a una matriz diagonal D entonces los valores propios de A son precisamente los elementos de la diagonal principal de la matriz diagonal D y por Definición 6 la matriz A es diagonalizable . 2.- Empleando las definiciones 6 y 5 podemos realizar el siguiente razonamiento: nxn nxn A∈ F es diagonalizable ⇔ existe una matriz diagonal D ∈ F tal que A es semejante a D ⇔ por Def. 6 nxn -1 ⇔ existe una matriz inversible P ∈ F tal que D = P AP por Def. 5 3.- De las observaciones 1 y 2 podemos advertir que la matriz inversible P diagonaliza a la matriz A y la matriz diagonal D semejante a A, tiene en su diagonal principal a los valores propios de la matriz A. Proposición 8 Una matriz A ∈ F nxn es diagonalizable si y sólo si A tiene n vectores propios que forman un conjunto linealmente independiente. En tal caso la matriz diagonal D semejante a la matriz A está dada por: λ1 0 ... 0  0 λ2 ... 0    D=: : ... :  ∈ F nxn   : : ... :  0  0 ... λn   donde λ1 , λ2 , ..., λn son los valores propios de A. Si P ∈ F nxn es una matriz cuyas columnas son vectores propios linealmente independientes de la matriz A entonces D = P −1 A P . Demostración: a) Supongamos que A tiene n vectores linealmente independientes v1 , v2 , ..., vn respectivamente asociados a los valores propios λ1 , λ2 , ..., λn (no necesariamente diferentes) de la matriz A. Es decir, A v1 = λ1 v1 , A v2 = λ2 v2 , ... , A vn = λn vn (1) 11
  • 12. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. Probaremos que la matriz A es diagonalizable. Para ello, sea P ∈ F nxn la matriz cuyas columnas son los vectores propios v1 , v2 , ..., vn de la matriz A, esto es,  p1 j  p  | | | |   2j v v ... v P=  1 2  , con v =  :  ∈ F nx1 , ∀ j = 1,..., n ... vn  j j   |  | | |    :   pnj    Observemos que la columna j-ésima de A P es igual a A v j de modo que:  | | | |  A P =  A v1  A v2 ... A v j ... A vn    |  | | |  Luego, por (1), se tiene  | | | |  λ v λ v ... λ v AP =  1 1 ... λn vn  (2) 2 2 j j   |  | | |   Por otro lado, 0  p1 j λ j   p1 j  :  p λ  p     2j j  2j la columna j-ésima de PD es igual a P λ j  =  :  = λj  :  =λj vj ,       :   :   :  0  pnj λ j   p nj        por lo tanto,  | | | |  λ v λ v ... λ v PD =  1 1 ... λn v n  (3) 2 2 j j   |  | | |   Teniendo en cuenta (2) y (3) se sigue que PD= AP (4) 12
  • 13. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. y como {v1 , v2 ,..., v n } es linealmente independiente entonces P es inversible, por lo tanto si multiplicamos a izquierda en ambos miembros de (4) por P -1 , resulta D = P −1 A P (5) Es claro que D es una matriz diagonal semejante a A, ya que existe una matriz P inversible que verifica la igualdad (5), luego, por Definición 6, A es diagonalizable. b) Ahora demostraremos que: Si la matriz A es diagonalizable, entonces A tiene n vectores propios que forman un conjunto linealmente independiente. Por hipótesis la matriz A es diagonalizable, entonces por Definición 6 existe una matriz diagonal D semejante a A, y en consecuencia por Definición 5, existe una matriz P inversible tal que D = P −1 A P (α) multiplicamos a izquierda en ambos miembros de (α) por P y resulta P D = P ( P −1 A P ) Aplicando la propiedad asociativa del producto de matrices tenemos P D = ( P P −1 ) A P Luego PD= AP (β) Ahora, si a la matriz diagonal D la representamos por λ1 0 ... 0  0 λ ... 0   2  nxn D=: : ... :  ∈ F ,   : : ... :  0 0  ... λn   donde λ1 , λ2 , ..., λn no son necesariamente diferentes. Y si a la matriz P la expresamos a través de sus columnas, es decir | | | |  v v ... v P=  1 2 ... vn  ∈ F nxn , con vj columna de P; ∀ j = 1, …, n j  |  | | |   13
  • 14. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. Entonces los productos PD y AP expresados en términos de sus columnas son  | | | |  λ v λ v ... λ v PD =  1 1 ... λ n vn  (δ) 2 2 j j   |  | | |   y  | | | |  A P =  A v1  A v2 ... Avj ... A vn   (ρ)  |  | | |  Luego, de (β), (δ) y (ρ) se sigue que las respectivas columnas de PD y de AP son iguales es decir A v1 = λ1 v1 , A v2 = λ2 v2 , ... , A vn = λn vn Esto nos indica que v1 , v2 , ..., vn son vectores propios de A asociados a los valores propios λ1 , λ2 , ..., λn respectivamente; y como P es inversible entonces { v1 , v2 , ..., vn } es linealmente independiente. Q.E.D. Corolario Si A ∈ F nxn admite n valores propios diferentes entonces A es diagonalizable. Demostración Por hipótesis la matriz A tiene n valores propios diferentes. Sean λ1 , λ2 , ..., λn los n valores propios diferentes de la matriz A, y sean v1 , v2 , ..., vn n vectores propios de A asociados a cada uno de los valores propios respectivamente, esto es A v1 = λ1 v1 , A v2 = λ2 v2 , ... , A vn = λn vn , entonces, por Proposición 2, el conjunto { v1 , v2 , ..., vn } es linealmente independiente. Esto es, la matriz A tiene n vectores propios que forman un conjunto linealmente independiente, entonces por la Proposición 8 resulta que A es diagonalizable. Q.E.D. Teorema de Cayley-Hamilton (sin demostración) Toda matriz A ∈ F nxn es un cero de su polinomio característico. 14
  • 15. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. 3.- MATRICES REALES SIMÉTRICAS-DIAGONALIZACIÓN ORTOGONAL Definición 1 Sea la matriz A ∈ R nxn . La matriz A es simétrica si y sólo si A es igual a su transpuesta. En símbolos A ∈ R nxn es simétrica ⇔ A = At También podemos expresar este concepto como sigue: [ ] A = aij ∈ R nxn es simétrica ⇔ aij = a ji , ∀ i = 1, 2, ... , n, ∀ j = 1, 2, ... , n . Teorema1 Sea A una matriz real simétrica de orden n, entonces: I. A tiene n valores propios (reales). II. A tiene n vectores propios linealmente independientes. Teorema 2 Sea A ∈ R nxn una matriz simétrica. Si λ1 y λ2 son valores propios diferentes con vectores propios asociados v1 y v2 respectivamente, entonces v1 y v2 son ortogonales. Demostración Por hipótesis λ1 y λ2 son valores propios de A, con λ1 ≠ λ 2 . Además, nx1 v1 ∈ F es un vector propio de A asociado al valor propio λ1 , es decir A v1 = λ1v1 (1) nx1 v2 ∈ F es un vector propio de A asociado al valor propio λ2 , es decir A v 2 = λ2 v 2 (2) Probaremos que v1 ⊥ v2 . Esto es equivalente a probar que v1 • v2 = 0 , donde • es un n producto interior en R . En efecto, empleando el producto interior calculemos A v1 • v2 = (λ1 v1 ) • v2 = λ1 (v1 • v2 ) (3) por (1) / por Axioma de Prod. Interior Por otro lado A v1 • v2 = v1 • At v 2 = v1 • A v2 ( ) = v1 • λ2 v2 = λ2 v1 • v2 ( ) (4) por Propiedad Auxiliar / A es simétrica / por (2) / por Propiedad de Producto Interior 15
  • 16. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. De (3) y (4) se sigue: λ1 (v1 • v2 ) = λ2 (v1 • v2 ) Como λ1 ≠ λ 2 , entonces v • v = 0. Por lo tanto, v y v son ortogonales, con lo que 1 2 1 2 queda demostrado el teorema. Propiedad Auxiliar: nxn nx1 t Si A ∈ R y u, v ∈ R , entonces A u • v = u • A v En efecto, t t t t t t Au • v = (A u) v= (u A ) v = u (A v) = u • A v Con lo que queda así demostrado. Definición nxn Sea una matriz Q ∈ R . Q es ortogonal si y sólo si su inversa coincide con su transpuesta. En símbolos, nxn −1 Q ∈ R es ortogonal ⇔ Q = Q t Teorema Sea A una matriz simétrica real de orden n. Entonces A tiene n vectores propios t ortogonales. De donde, la matriz A puede expresarse por A = Q D Q o bien D = Q t AQ , siendo la matriz Q ortogonal y D una matriz diagonal cuyos elementos en su diagonal son los vectores propios de A. Demostración Por el Teorema 1I., la matriz A tiene n valores propios reales. Determinamos una base de cada Espacio propio asociado a cada valor propio real. Si aplicamos el proceso de Gram- Schmidt a cada una de estas bases, obtenemos su correspondiente base ortogonal cuyos vectores siguen siendo vectores propios asociados al respectivo valor propio. Por el Teorema 2 los vectores propios asociados a valores propios diferentes son ortogonales, por lo tanto los vectores de bases distintas son ortogonales, y por el Teorema 1II. la matriz A tiene n vectores linealmente independientes, entonces si realizamos la unión de las bases ortogonales se obtiene un conjunto de n vectores propios ortogonales. En consecuencia la matriz A es diagonalizable. Normalizando los n vectores propios ortogonales de A se consigue un conjunto de n vectores propios ortonormales. Luego, si Q es la matriz cuyas columnas son los n vectores propios ortonormales de A entonces, Q es una matriz ortogonal y por tanto 16
  • 17. Álgebra Lineal (Ing) - Álgebra II (LM-PM) - Álgebra II (LSI y PI) – F.C.E. y T. – U.N.S.E. D = Q t AQ donde D es una matriz diagonal semejante a A, con los valores propios de A en su diagonal. Un esquema práctico es el siguiente: Procedimiento para diagonalizar una matriz real simétrica I. Resolver la ecuación característica det (λI n − A) = 0 . Como A es real simétrica, se obtienen n valores propios reales. II. Para cada valor propio, se encuentra el espacio propio asociado. III. Para cada espacio propio se encuentra una base. IV. A cada base se aplica el proceso de ortogonalización de Gram-Schmidt y se normaliza, si es necesario, a fin de obtener una base ortonormal de cada espacio propio. V. Se construye la matriz Q, cuyas columnas son los n vectores propios ortonormales que constituyen la unión las bases ortonormales. Q es la matriz que diagonaliza ortogonalmente a la matriz A. Definición nxn Una matriz A ∈ R es diagonalizable ortogonalmente si y sólo si existe una matriz Q ortogonal tal que D = Q t A Q , donde D = diag (λ1 , λ2 , ..., λ`n ) , donde λi son valores propios de A y las columnas de Q son los vectores propios ortogonales de A. -.-.-.-.-.- 17