Ortogonalidad 
1 Producto interior. Longitud y ortogonalidad 
De¯nici¶on 1 Sean u y v vectores de Rn. Se de¯ne el producto escalar (o producto interior) de u y v como 
u ¢ v = uT v = (u1; u2; : : : ; un) 
0 
BBBB@ 
v1 
v2 
... 
vn 
1 
CCCCA 
= u1v1 + u2v2 + : : : unvn: 
Ejemplo 1 Calcular el producto escalar de u = 
0 
B@ 
2 
¡5 
1 
1 
CA 
y v = 
0 
B@ 
3 
2 
¡3 
1 
CA 
: 
Dados u, v y w vectores de Rn y ¸ un escalar, el producto escalar veri¯ca las siguientes propiedades: 
1. u ¢ v = v ¢ u. 
3. (¸u) ¢ v = ¸(u ¢ v) = u ¢ (¸v). 
2. (u + v) ¢ w = u ¢ w + v ¢ w. 
4. u ¢ u ¸ 0 y u ¢ u = 0 si y s¶olo si u = 0. 
De¯nici¶on 2 Dado un vector u 2 Rn. De¯nimos su norma (o longitud) como el escalar no negativo 
kuk = 
p 
uTu = 
p 
u ¢ u = 
q 
u21 
+ u22 
+ ¢ ¢ ¢ + u2 
n: 
Ejercicio 2 Demostrar que para cualquier escalar c se tiene kcuk = jcj kuk. 
Un vector cuya longitud es 1 se llama vector unitario. Para obtener un vector unitario u a partir de otro dado, v, 
basta dividir el vector v por su norma. Ambos vectores tienen la misma direcci¶on, pero distinta longitud. Al proceso 
mediante el cual se obtiene u a partir de v se le conoce con el nombre de normalizaci¶on. 
Ejercicio 3 Sea v = 
0 
BBB@ 
1 
¡2 
2 
0 
1 
CCCA 
. Encontrar un vector unitario u en la misma direcci¶on que v. 
3 ; 1)T . Encontrar un vector unitario z que sea una base de W. 
Ejercicio 4 Sea W el subespacio generado por x = ( 2 
De¯nici¶on 3 Sean u; v 2 Rn. Se de¯ne la distancia entre los vectores u y v como la norma del vector u ¡ v, 
dist(u; v) = ku ¡ vk = kv ¡ uk = dist(v; u): 
Ejercicio 5 Calcular la distancia entre u = 
à 
7 
2 
! 
y v = 
à 
3 
2 
! 
. 
De¯nici¶on 4 Sean u; v 2 Rn. Diremos que u y v son ortogonales si u ¢ v = 0. 
1
Obs¶ervese que el vector 0 es ortogonal a cualquier vector u, porque 0 ¢ u = 0, siempre. 
De¯nici¶on 5 Dado un vector v y un subespacio W diremos que v es ortogonal a W si v ¢ w = 0 para todo vector 
w 2 W. 
Dos subespacios vectoriales V y W de un espacio vectorial se dicen ortogonales si v ¢w = 0 para todo vector v 2 V y 
w 2 W. En este caso, diremos que V es el complemento ortogonal de W y lo denotamos por V = W? (y W es tambi¶en 
el complemento ortogonal de V ). Dicho de otra forma: el complemento ortogonal de W es el conjunto de todos los 
vectores v que son perpendiculares a W, 
W? = fv 2 Rn : v ¢ w = 0; para todo w 2 Wg: 
Observaci¶on. Obs¶ervese que para comprobar si un vector v pertenece al complemento ortogonal 
de un espacio dado W, basta con comprobar si v es ortogonal a un conjunto que genere W. 
Ejemplo 6 Hay cuatro subespacios importantes N(A);C(A); F(A);N(AT ). >Cu¶ales son ortogonales? 
El espacio F(A) es por de¯nici¶on el generado por las ¯las de A, F(A) = Genff1; f2; : : : ; fng (visto como vectores columna). 
Para demostrar que los subespacios son ortogonales, basta con ver que dado x 2 N(A), entonces x es ortogonal a cada una de 
las ¯las. Pero como x 2 N(A), por de¯nici¶on 
Ax = 
0 
BBBB@ 
¡f1 
T¡ 
¡f2 
T¡ 
... 
¡fn 
T¡ 
1 
CCCCA 
x = 0; <Cuidado con la notaci¶on! 
y por tanto 
f1 
T x = 0; : : : ; fn 
T x = 0: 
An¶alogamente, para demostrar que C(A) = Genfa1; a2; : : : ; amg es el complemento ortogonal de N(AT ) comprobamos que 
un vector y 2 N(AT ) arbitrario es ortogonal a todas las columnas de A: Si y 2 N(AT ), entonces 
AT y = 
0 
BBBB@ 
¡a1 
T¡ 
¡a2 
T¡ 
... 
¡am 
T¡ 
1 
CCCCA 
y = 0; <Cuidado con la notaci¶on! 
y por tanto 
a1 
T y = 0; : : : ; am 
T y = 0: 
Importante. Sea A una matriz m £ n. El complemento ortogonal del espacio ¯la de A es el 
espacio nulo de A y el complemento ortogonal del espacio columna de A es el espacio nulo de AT : 
(F(A))? = N(A); (C(A))? = N(AT ): 
2 Proyecciones ortogonales 
>Cu¶al es la sombra que proyecta el vector b = (2; 3; 4)T sobre el plano xy? >Y sobre el eje z? >C¶omo podemos 
calcular la proyecci¶on de un vector sobre un subespacio arbitrario? 
Idea. Dado v 2 Rn y W un subespacio de Rn, queremos descomponer v 
como suma de dos vectores 
v = pW + e; 
tal que pW 2 W y e 2 W?. 
2
Ejemplo 7 Proyectar un vector v sobre un subespacio vectorial de dimensi¶on 1 (una recta): 
Sea a el vector director de la recta. Buscamos ¸ y pW tal que 
pW = ¸a 
Sabemos que si v = pW + e, entonces 
a ¢ e = 0 
e = v ¡ pW = v ¡ ¸a 
Juntando estas dos expresiones se obtiene: 
0 = a ¢ e = a ¢ (v ¡ ¸a) = a ¢ v ¡ ¸a ¢ a 
y por tanto ¸ = 
aT v 
aT a 
y pW = 
aT v 
aT a 
a 
Ejercicio 8 Calcular la proyecci¶on del vector v = (1; 1; 1)T sobre la recta cuyo vector director es a = (1; 2; 2)T . 
Si W es un subespacio vectorial generado por los vectores fa1; : : : ; apg linealmente independientes para proyectar 
v sobre W usamos la misma idea que en dimensi¶on 1. Buscamos 
pW = [a1j : : : jap]p£nx = Ax: 
Utilizando que AT ¢ e = 0 concluimos x tiene que ser soluci¶on del sistema AT v = ATAx y entonces la proyecci¶on es 
pW = A(ATA)¡1AT v . 
Ejercicio 9 Dados el vector v = (6; 0; 0)T y el subespacio W = f(1; 1; 1)T ; (0; 1; 2)T g. Calcular la proyecci¶on de v sobre W. 
Importante. 
Teorema de la descomposici¶on ortogonal 
Sea W un subespacio de Rn. Todo vector v 2 Rn se escribe de manera ¶unica como 
suma de dos vectores 
v = pW + e; 
tales que pW 2 W y e 2 W?. 
Distancia m¶³nima 
pW es el elemento de W que m¶as cerca est¶a de v: 
kpW ¡ vk · kpW ¡ bk; 
para todo b 2 W: 
Ejercicio 10 Encontrar la distancia del vector v = (¡1;¡5; 10)T al subespacio W generado por (5;¡2; 1)T ; (1; 2;¡1)T . 
3 Problemas de m¶³nimos cuadrados 
Idea. En muchos problemas pr¶acticos Ax = b no tiene soluci¶on. Hay demasiadas ecuaciones. Sin 
embargo necesitamos encontrar una soluci¶on", de forma que Ax se parezca lo m¶as posible a b. 
Sea e = b ¡ Ax; como el sistema no tiene soluci¶on e6= 0, y buscamos x tal que e sea lo m¶as peque~no posible. 
De¯nici¶on 6 Dada A una matriz m£n y b 2 Rn. Una soluci¶on de m¶³nimos cuadrados de Ax = b es y 2 Rn tal que 
kb ¡ Ayk · kb ¡ Axk; para todo x 2 Rn: 
3
>C¶omo calculamos la soluci¶on de m¶³nimos cuadrados? 
Idea. A es rectangular y Ax = b no tiene soluci¶on. Multiplicar ambos lados 
de la ecuaci¶on por AT , 
ATAx = ATb: 
Es un nuevo sistema, que s¶³ tiene soluci¶on. La soluci¶on de este sistema, es la 
soluci¶on de m¶³nimos cuadrados del problema original. 
Ejemplo 11 Dados los puntos (0; 6); (1; 0) y (2; 0) encontrar la recta que est¶e m¶as cerca de los tres puntos. 
Buscamos y = mx + n con inc¶ognitas m y n. El sistema que tenemos que resolver se escribe en forma matricial como 
0 
B@ 
1 0 j 6 
1 1 j 0 
1 2 j 0 
1 
CA 
Es f¶acil ver que este sistema es incompatible. 
Buscamos una soluci¶on de m¶³nimos cuadrados. Para ello calculamos 
ATA = 
à 
1 1 1 
0 1 2 
!0 
B@ 
1 0 
1 1 
1 2 
1 
CA 
= 
à 
3 3 
3 5 
! 
; ATb = 
à 
1 1 1 
0 1 2 
!0 
B@ 
6 
0 
0 
1 
CA 
= 
à 
6 
0 
! 
y resolvemos el sistema à 
3 3 
3 5 
! Ã 
n 
m 
!Ã 
6 
0 
! 
: 
La soluci¶on de m¶³nimos cuadrados es m = ¡3 y n = 5, luego la recta que mejor aproxima a los tres puntos es y = ¡3x + 5. 
4 El proceso de ortogonalizaci¶on de Gram-Schmidt 
Un problema de m¶³nimos cuadrados es m¶as f¶acil de resolver si ATA es diagonal. 
De¯nici¶on 7 Los vectores fq1; : : : qng son 
ortogonales si qi ¢ qj = 0, para i6= j. 
ortonormales si son ortogonales y qi ¢ qi = 1 para todo i. 
De¯nici¶on 8 Una matriz Q con columnas ortonormales entre s¶³ se llama ortogonal 
Propiedad. Si Q es cuadrada y ortogonal 
QT = Q¡1 
Dada una base fa1; : : : ; ang de un subespacio, queremos encontrar otra fq1; : : : ; qng base de ese mismo espacio 
cuyos elementos sean ortogonales (o incluso ortonormales). La ventaja que tiene el trabajar con bases ortonormales 
es que, si bien el espacio generado por ambas bases el mismo, las cuentas se simpli¯can si utilizamos Q = [q1j : : : jqn] 
(Recordar que QTQ = I). 
Proceso de Gram-Schmidt. Dados n vectores linealmente independientes fa1; : : : ; ang de 
un subespacio vectorial, construimos una base ortogonal de vectores fw1; : : : ;wng a partir de la 
base original. La base ortonormal fq1; : : : ; qng se obtiene dividiendo cada wi por su norma. 
Paso i: Elegimos w1 = a1. 
4
Paso ii: El vector w2 tiene que ser ortogonal a w1. Por el teorema de de descomposici¶on ortogonal sabemos que 
a2 = pW + e; 
donde pW es la proyecci¶on de a2 sobre el subespacio W y e 2 W?. Sea en este caso W = Genfw1g. Entonces e y w1 
son ortogonales. Por tanto tomamos e = w2 y as¶³ 
w2 = a2 ¡ pW = a2 ¡ 
w1 
T a2 
w1 
Tw1 
w1: 
Paso iii: Usamos la misma idea que en el paso anterior. El vector w3 tiene que ser ortogonal a w1 y w2. De nuevo, 
por el teorema de de descomposici¶on ortogonal sabemos que 
a3 = pW + e; 
donde pW es la proyecci¶on de a2 sobre el subespacio W y e 2 W?. De¯namos W = Genfw1;w2g. Entonces e es 
ortogonal a w1 y w2, (que a su vez son ortogonales entre s¶³). Tomamos e = w3 y as¶³, como estamos proyectando sobre 
un espacio generado por un conjunto ortogonal fw1;w2g tenemos 
w3 = a3 ¡ pW = a3 ¡ 
w1 
T a3 
w1 
Tw1 
w1 ¡ 
w2 
T a3 
w2 
Tw2 
w2: 
... 
Paso n: Para calcular wn proyectamos an sobre el espacio generado por fw1; : : :wn¡1g, que por la construcci¶on que 
hemos hecho, son ortogonales entre s¶³. Entonces 
wn = an ¡ pW = an ¡ 
w1 
T an 
w1 
Tw1 
w1 ¡ 
w2 
T an 
w2 
Tw2 
w2 ¡ ¢ ¢ ¢ ¡ 
wn¡1 
T an 
wn¡1 
Twn¡1 
wn¡1: 
De esta forma obtenemos una base ortogonal fw1; : : : ;wng y tal que Genfa1; : : : ; ang = Genfw1; : : : ;wng. Para 
conseguir una base ortonormal basta con dividir cada uno de los vectores de la base ortogonal por su norma; es decir 
fq1; : : : ; qng = 
n w1 
kw1k 
; : : : ; 
wn 
kwnk 
o 
: 
5 Diagonalizaci¶on de matrices sim¶etricas 
Recordatorio. 
A es sim¶etrica si AT = A. 
A es diagonalizable si existen matrices D diagonal y P invertible tal que 
A = PDP¡1 
Si Q es cuadrada y ortogonal Q¡1 = QT 
Ejemplo 12 La matriz 
A = 
0 
B@ 
6 ¡2 ¡1 
¡2 6 ¡1 
¡1 ¡1 4 
1 
CA 
tiene por valores propios ¸ = 8; 6; 3 y por vectores propios 
v1 = 
0 
B@ 
¡1 
1 
0 
1 
CA 
; v2 = 
0 
B@ 
¡1 
¡1 
2 
1 
CA 
; v3 = 
0 
B@ 
1 
1 
1 
1 
CA 
: 
5
que son ortogonales entre s¶³. Si v1; v2; v3 son vectores propios 
w1 = 
v1 
kv1k 
; w2 = 
v2 
kv2k 
; w3 = 
v3 
kv3k 
; 
tambi¶en lo son y A se puede diagonalizar como 
A = [w1jw2jw3]D[w1jw2jw3]¡1 = [w1jw2jw3]D[w1jw2jw3]T : 
>Cu¶ando se puede hacer este tipo de diagonalizaci¶on (diagonalizaci¶on ortogonal)? 
Importante. Dada A sim¶etrica. Entonces 
A es siempre diagonalizable 
Vectores propios de espacios propios diferentes son siempre ortogonales 
Los vectores propios se pueden escoger todos ortogonales entre s¶³ (con el proceso de Gram- 
Schmidt, cuando sea necesario) 
Es m¶as: 
A es diagonalizable ortogonalmente () A es sim¶etrica. 
Ejercicio 13 Diagonalizar ortogonalmente la siguiente matriz 
A = 
0 
B@ 
5 ¡4 ¡2 
¡4 5 2 
¡2 2 2 
1 
CA 
: 
6

Ortogonalidad

  • 1.
    Ortogonalidad 1 Productointerior. Longitud y ortogonalidad De¯nici¶on 1 Sean u y v vectores de Rn. Se de¯ne el producto escalar (o producto interior) de u y v como u ¢ v = uT v = (u1; u2; : : : ; un) 0 BBBB@ v1 v2 ... vn 1 CCCCA = u1v1 + u2v2 + : : : unvn: Ejemplo 1 Calcular el producto escalar de u = 0 B@ 2 ¡5 1 1 CA y v = 0 B@ 3 2 ¡3 1 CA : Dados u, v y w vectores de Rn y ¸ un escalar, el producto escalar veri¯ca las siguientes propiedades: 1. u ¢ v = v ¢ u. 3. (¸u) ¢ v = ¸(u ¢ v) = u ¢ (¸v). 2. (u + v) ¢ w = u ¢ w + v ¢ w. 4. u ¢ u ¸ 0 y u ¢ u = 0 si y s¶olo si u = 0. De¯nici¶on 2 Dado un vector u 2 Rn. De¯nimos su norma (o longitud) como el escalar no negativo kuk = p uTu = p u ¢ u = q u21 + u22 + ¢ ¢ ¢ + u2 n: Ejercicio 2 Demostrar que para cualquier escalar c se tiene kcuk = jcj kuk. Un vector cuya longitud es 1 se llama vector unitario. Para obtener un vector unitario u a partir de otro dado, v, basta dividir el vector v por su norma. Ambos vectores tienen la misma direcci¶on, pero distinta longitud. Al proceso mediante el cual se obtiene u a partir de v se le conoce con el nombre de normalizaci¶on. Ejercicio 3 Sea v = 0 BBB@ 1 ¡2 2 0 1 CCCA . Encontrar un vector unitario u en la misma direcci¶on que v. 3 ; 1)T . Encontrar un vector unitario z que sea una base de W. Ejercicio 4 Sea W el subespacio generado por x = ( 2 De¯nici¶on 3 Sean u; v 2 Rn. Se de¯ne la distancia entre los vectores u y v como la norma del vector u ¡ v, dist(u; v) = ku ¡ vk = kv ¡ uk = dist(v; u): Ejercicio 5 Calcular la distancia entre u = Ã 7 2 ! y v = Ã 3 2 ! . De¯nici¶on 4 Sean u; v 2 Rn. Diremos que u y v son ortogonales si u ¢ v = 0. 1
  • 2.
    Obs¶ervese que elvector 0 es ortogonal a cualquier vector u, porque 0 ¢ u = 0, siempre. De¯nici¶on 5 Dado un vector v y un subespacio W diremos que v es ortogonal a W si v ¢ w = 0 para todo vector w 2 W. Dos subespacios vectoriales V y W de un espacio vectorial se dicen ortogonales si v ¢w = 0 para todo vector v 2 V y w 2 W. En este caso, diremos que V es el complemento ortogonal de W y lo denotamos por V = W? (y W es tambi¶en el complemento ortogonal de V ). Dicho de otra forma: el complemento ortogonal de W es el conjunto de todos los vectores v que son perpendiculares a W, W? = fv 2 Rn : v ¢ w = 0; para todo w 2 Wg: Observaci¶on. Obs¶ervese que para comprobar si un vector v pertenece al complemento ortogonal de un espacio dado W, basta con comprobar si v es ortogonal a un conjunto que genere W. Ejemplo 6 Hay cuatro subespacios importantes N(A);C(A); F(A);N(AT ). >Cu¶ales son ortogonales? El espacio F(A) es por de¯nici¶on el generado por las ¯las de A, F(A) = Genff1; f2; : : : ; fng (visto como vectores columna). Para demostrar que los subespacios son ortogonales, basta con ver que dado x 2 N(A), entonces x es ortogonal a cada una de las ¯las. Pero como x 2 N(A), por de¯nici¶on Ax = 0 BBBB@ ¡f1 T¡ ¡f2 T¡ ... ¡fn T¡ 1 CCCCA x = 0; <Cuidado con la notaci¶on! y por tanto f1 T x = 0; : : : ; fn T x = 0: An¶alogamente, para demostrar que C(A) = Genfa1; a2; : : : ; amg es el complemento ortogonal de N(AT ) comprobamos que un vector y 2 N(AT ) arbitrario es ortogonal a todas las columnas de A: Si y 2 N(AT ), entonces AT y = 0 BBBB@ ¡a1 T¡ ¡a2 T¡ ... ¡am T¡ 1 CCCCA y = 0; <Cuidado con la notaci¶on! y por tanto a1 T y = 0; : : : ; am T y = 0: Importante. Sea A una matriz m £ n. El complemento ortogonal del espacio ¯la de A es el espacio nulo de A y el complemento ortogonal del espacio columna de A es el espacio nulo de AT : (F(A))? = N(A); (C(A))? = N(AT ): 2 Proyecciones ortogonales >Cu¶al es la sombra que proyecta el vector b = (2; 3; 4)T sobre el plano xy? >Y sobre el eje z? >C¶omo podemos calcular la proyecci¶on de un vector sobre un subespacio arbitrario? Idea. Dado v 2 Rn y W un subespacio de Rn, queremos descomponer v como suma de dos vectores v = pW + e; tal que pW 2 W y e 2 W?. 2
  • 3.
    Ejemplo 7 Proyectarun vector v sobre un subespacio vectorial de dimensi¶on 1 (una recta): Sea a el vector director de la recta. Buscamos ¸ y pW tal que pW = ¸a Sabemos que si v = pW + e, entonces a ¢ e = 0 e = v ¡ pW = v ¡ ¸a Juntando estas dos expresiones se obtiene: 0 = a ¢ e = a ¢ (v ¡ ¸a) = a ¢ v ¡ ¸a ¢ a y por tanto ¸ = aT v aT a y pW = aT v aT a a Ejercicio 8 Calcular la proyecci¶on del vector v = (1; 1; 1)T sobre la recta cuyo vector director es a = (1; 2; 2)T . Si W es un subespacio vectorial generado por los vectores fa1; : : : ; apg linealmente independientes para proyectar v sobre W usamos la misma idea que en dimensi¶on 1. Buscamos pW = [a1j : : : jap]p£nx = Ax: Utilizando que AT ¢ e = 0 concluimos x tiene que ser soluci¶on del sistema AT v = ATAx y entonces la proyecci¶on es pW = A(ATA)¡1AT v . Ejercicio 9 Dados el vector v = (6; 0; 0)T y el subespacio W = f(1; 1; 1)T ; (0; 1; 2)T g. Calcular la proyecci¶on de v sobre W. Importante. Teorema de la descomposici¶on ortogonal Sea W un subespacio de Rn. Todo vector v 2 Rn se escribe de manera ¶unica como suma de dos vectores v = pW + e; tales que pW 2 W y e 2 W?. Distancia m¶³nima pW es el elemento de W que m¶as cerca est¶a de v: kpW ¡ vk · kpW ¡ bk; para todo b 2 W: Ejercicio 10 Encontrar la distancia del vector v = (¡1;¡5; 10)T al subespacio W generado por (5;¡2; 1)T ; (1; 2;¡1)T . 3 Problemas de m¶³nimos cuadrados Idea. En muchos problemas pr¶acticos Ax = b no tiene soluci¶on. Hay demasiadas ecuaciones. Sin embargo necesitamos encontrar una soluci¶on", de forma que Ax se parezca lo m¶as posible a b. Sea e = b ¡ Ax; como el sistema no tiene soluci¶on e6= 0, y buscamos x tal que e sea lo m¶as peque~no posible. De¯nici¶on 6 Dada A una matriz m£n y b 2 Rn. Una soluci¶on de m¶³nimos cuadrados de Ax = b es y 2 Rn tal que kb ¡ Ayk · kb ¡ Axk; para todo x 2 Rn: 3
  • 4.
    >C¶omo calculamos lasoluci¶on de m¶³nimos cuadrados? Idea. A es rectangular y Ax = b no tiene soluci¶on. Multiplicar ambos lados de la ecuaci¶on por AT , ATAx = ATb: Es un nuevo sistema, que s¶³ tiene soluci¶on. La soluci¶on de este sistema, es la soluci¶on de m¶³nimos cuadrados del problema original. Ejemplo 11 Dados los puntos (0; 6); (1; 0) y (2; 0) encontrar la recta que est¶e m¶as cerca de los tres puntos. Buscamos y = mx + n con inc¶ognitas m y n. El sistema que tenemos que resolver se escribe en forma matricial como 0 B@ 1 0 j 6 1 1 j 0 1 2 j 0 1 CA Es f¶acil ver que este sistema es incompatible. Buscamos una soluci¶on de m¶³nimos cuadrados. Para ello calculamos ATA = à 1 1 1 0 1 2 !0 B@ 1 0 1 1 1 2 1 CA = à 3 3 3 5 ! ; ATb = à 1 1 1 0 1 2 !0 B@ 6 0 0 1 CA = à 6 0 ! y resolvemos el sistema à 3 3 3 5 ! à n m !à 6 0 ! : La soluci¶on de m¶³nimos cuadrados es m = ¡3 y n = 5, luego la recta que mejor aproxima a los tres puntos es y = ¡3x + 5. 4 El proceso de ortogonalizaci¶on de Gram-Schmidt Un problema de m¶³nimos cuadrados es m¶as f¶acil de resolver si ATA es diagonal. De¯nici¶on 7 Los vectores fq1; : : : qng son ortogonales si qi ¢ qj = 0, para i6= j. ortonormales si son ortogonales y qi ¢ qi = 1 para todo i. De¯nici¶on 8 Una matriz Q con columnas ortonormales entre s¶³ se llama ortogonal Propiedad. Si Q es cuadrada y ortogonal QT = Q¡1 Dada una base fa1; : : : ; ang de un subespacio, queremos encontrar otra fq1; : : : ; qng base de ese mismo espacio cuyos elementos sean ortogonales (o incluso ortonormales). La ventaja que tiene el trabajar con bases ortonormales es que, si bien el espacio generado por ambas bases el mismo, las cuentas se simpli¯can si utilizamos Q = [q1j : : : jqn] (Recordar que QTQ = I). Proceso de Gram-Schmidt. Dados n vectores linealmente independientes fa1; : : : ; ang de un subespacio vectorial, construimos una base ortogonal de vectores fw1; : : : ;wng a partir de la base original. La base ortonormal fq1; : : : ; qng se obtiene dividiendo cada wi por su norma. Paso i: Elegimos w1 = a1. 4
  • 5.
    Paso ii: Elvector w2 tiene que ser ortogonal a w1. Por el teorema de de descomposici¶on ortogonal sabemos que a2 = pW + e; donde pW es la proyecci¶on de a2 sobre el subespacio W y e 2 W?. Sea en este caso W = Genfw1g. Entonces e y w1 son ortogonales. Por tanto tomamos e = w2 y as¶³ w2 = a2 ¡ pW = a2 ¡ w1 T a2 w1 Tw1 w1: Paso iii: Usamos la misma idea que en el paso anterior. El vector w3 tiene que ser ortogonal a w1 y w2. De nuevo, por el teorema de de descomposici¶on ortogonal sabemos que a3 = pW + e; donde pW es la proyecci¶on de a2 sobre el subespacio W y e 2 W?. De¯namos W = Genfw1;w2g. Entonces e es ortogonal a w1 y w2, (que a su vez son ortogonales entre s¶³). Tomamos e = w3 y as¶³, como estamos proyectando sobre un espacio generado por un conjunto ortogonal fw1;w2g tenemos w3 = a3 ¡ pW = a3 ¡ w1 T a3 w1 Tw1 w1 ¡ w2 T a3 w2 Tw2 w2: ... Paso n: Para calcular wn proyectamos an sobre el espacio generado por fw1; : : :wn¡1g, que por la construcci¶on que hemos hecho, son ortogonales entre s¶³. Entonces wn = an ¡ pW = an ¡ w1 T an w1 Tw1 w1 ¡ w2 T an w2 Tw2 w2 ¡ ¢ ¢ ¢ ¡ wn¡1 T an wn¡1 Twn¡1 wn¡1: De esta forma obtenemos una base ortogonal fw1; : : : ;wng y tal que Genfa1; : : : ; ang = Genfw1; : : : ;wng. Para conseguir una base ortonormal basta con dividir cada uno de los vectores de la base ortogonal por su norma; es decir fq1; : : : ; qng = n w1 kw1k ; : : : ; wn kwnk o : 5 Diagonalizaci¶on de matrices sim¶etricas Recordatorio. A es sim¶etrica si AT = A. A es diagonalizable si existen matrices D diagonal y P invertible tal que A = PDP¡1 Si Q es cuadrada y ortogonal Q¡1 = QT Ejemplo 12 La matriz A = 0 B@ 6 ¡2 ¡1 ¡2 6 ¡1 ¡1 ¡1 4 1 CA tiene por valores propios ¸ = 8; 6; 3 y por vectores propios v1 = 0 B@ ¡1 1 0 1 CA ; v2 = 0 B@ ¡1 ¡1 2 1 CA ; v3 = 0 B@ 1 1 1 1 CA : 5
  • 6.
    que son ortogonalesentre s¶³. Si v1; v2; v3 son vectores propios w1 = v1 kv1k ; w2 = v2 kv2k ; w3 = v3 kv3k ; tambi¶en lo son y A se puede diagonalizar como A = [w1jw2jw3]D[w1jw2jw3]¡1 = [w1jw2jw3]D[w1jw2jw3]T : >Cu¶ando se puede hacer este tipo de diagonalizaci¶on (diagonalizaci¶on ortogonal)? Importante. Dada A sim¶etrica. Entonces A es siempre diagonalizable Vectores propios de espacios propios diferentes son siempre ortogonales Los vectores propios se pueden escoger todos ortogonales entre s¶³ (con el proceso de Gram- Schmidt, cuando sea necesario) Es m¶as: A es diagonalizable ortogonalmente () A es sim¶etrica. Ejercicio 13 Diagonalizar ortogonalmente la siguiente matriz A = 0 B@ 5 ¡4 ¡2 ¡4 5 2 ¡2 2 2 1 CA : 6