SlideShare una empresa de Scribd logo
1 de 237
Descargar para leer sin conexión
Tópicos
en Álgebra Lineal
Miguel A. Marmolejo L. Manuel M. Villegas L.
Departamento de Matemáticas
Universidad del Valle
Índice general
Introducción 1
Índice de guras iii
Capítulo 1. Prerrequisitos 1
1.1. Matrices 1
1.2. Espacios vectoriales 7
1.3. Transformaciones lineales 16
1.4. Espacios fundamentales de una Matriz. Rango de una matriz.
Sistemas de ecuaciones lineales 20
Capítulo 2. Matrices particionadas. Traza de una matriz 25
2.1. Submatrices. Operaciones con matrices
particionadas 25
2.2. Determinantes e inversas de algunas matrices especiales 29
2.3. Traza de una matriz 37
2.4. Ejercicios 39
Capítulo 3. Valores propios y vectores propios. Diagonalización 43
3.1. Valores propios y vectores propios 44
3.2. Diagonalización 53
3.3. Diagonalización de matrices simétricas 64
3.4. Diagonalización simultánea de matrices simétricas 82
3.5. Ejercicios 90
Capítulo 4. Formas cuadráticas 97
4.1. Clasicación de las formas cuadráticas. 97
4.2. Cambio de variables. Diagonalización simultánea de formas
cuadráticas 101
4.3. Formas cuadráticas positivas, negativas e indenidas. 110
4.4. Ejercicios 118
Índice general
Capítulo 5. Anexo 1: Matrices no negativas. Matrices idempotentes 123
5.1. Matrices no negativas 123
5.2. Matrices idempotentes 129
Capítulo 6. Inversa generalizada e inversa condicional de matrices. 137
6.1. Inversa generalizada de una matriz 137
6.2. Cálculo de la g-inversa de una matriz 147
6.3. Inversa condicional de una matriz 152
6.4. Sistemas de ecuaciones lineales: g-inversa y c-inversa de una
matriz. mínimos cuadrados. 160
6.5. Ejercicios 174
Capítulo 7. Factorización de matrices 179
7.1. Descomposición LU 179
7.2. Descomposición QR 188
7.3. Descomposición de Cholesky 198
7.4. Descomposición en valores singulares (SVD) 205
7.5. Ejercicios 212
Capítulo 8. Rectas e hiperplanos. Conjuntos convexos. 215
8.1. Rectas. Segmentos de recta. Hiperplanos 215
8.2. Conjuntos convexos 223
8.3. Ejercicios 226
Índice alfabético 229
Bibliografía 233
ii
Índice de guras
1.1. Transformación lineal 22
3.1. Interpretación geométrica de vector propio 44
3.2. Vectores propios de T(x, y) = (2x, x + 3y) 45
6.1. Problema de los mínimos cuadrados 162
6.2. Ajuste por mínimos cuadrados 163
6.3. Ajuste lineal por mínimos cuadrados 165
6.4. Ajuste lineal ejemplo 6.4.13 170
6.5. Ajuste lineal ejemplo 6.4.14 171
6.6. Ajuste cuadrático ejemplo 6.4.15 173
7.1. Esquema de la factorización LU 186
8.1. Puntos y vectores en R3
. 216
8.2. Una recta en R2
. 217
8.3. Gráca de una recta que pasa por los puntos P y Q. 218
8.4. Segmento de recta que une los puntos P y Q 219
8.5. Gráca de un plano en R3
. 220
8.6. Grácas de un plano y una recta en R3
222
8.7. Ilustración de semiespacios abiertos 223
8.1. Conjuntos convexos y no convexos 224
iii
CAPÍTULO 1
Prerrequisitos
El propósito de este capítulo es hacer una recopilación de algunas deni-
ciones y de algunos resultados básicos del álgebra lineal, los cuales nos
serán de gran utilidad en el desarrollo de los capítulos siguientes. Tratare-
mos aquí los aspectos relacionados con: matrices, espacios vectoriales y
transformaciones lineales, aunque aclaramos, que el orden en que se pre-
sentan los temas, no corresponde necesariamente al orden usual encontra-
do en la mayoría de textos utilizados en el primer curso de álgebra lineal.
Al lector que desee estudiar más sobre el contenido de este capítulo se le
recomienda consultar [1, 2, 12].
1.1. Matrices
Las matrices juegan un papel importante en las matemáticas y sus apli-
caciones. Una matriz A de tamaño m × n (o simplemente Am×n) es un
arreglo rectangular de números dispuestos en m las (líneas horizon-
tales) y n columnas (líneas verticales); el número que está en la i-ésima
la y en la j-ésima columna se denota por aij o A ij y se llama elemen-
to ij de la matriz A. Para indicar dicho arreglo usualmente se escribe
A = [aij]m×n, o en forma expandida
(1.1) A =





a11 a12 · · · a1n
a21 a22 · · · a2n
.
.
.
.
.
.
. . .
.
.
.
am1 am2 · · · amn





.
1
1.1. Matrices Prerrequisitos
Si Ai = ai1 ai2 · · · ain denota la i-ésima la de la matriz A y
Aj
=





a1j
a2j
.
.
.
amj





la j-ésima columna de A, el arreglo (1.1) puede represen-
tarse por las o columnas como aparece a continuación
A =





A1
A2
.
.
.
Am





= A1
A2
· · · An
.
Las matrices se denotan, como lo hemos sugerido, con letras mayúsculas
A, B, C, etc. El conjunto de todas las matrices m × n con elementos
reales se denotará por Mm×n(R) o simplemente Mm×n. Los elementos de
Mn×n se llaman matrices cuadradas de orden n; a la diagonal formada
por los elementos a11, a22, . . . , ann de una tal matriz A, se llama diagonal
principal de A.
Toda matriz cuadrada A de orden n, cuyos elementos fuera de la diagonal
principal son nulos (aij = 0 para i = j, i, j = 1, 2, . . . , n), se denomina
matriz diagonal y se denota por A = diag(a11, a22, . . . , ann).
La matriz diagonal de orden n, cuyos elementos en su diagonal princi-
pal son todos iguales a 1, se llama matriz idéntica y se denota por In o
simplemente I, cuando no sea necesario especicar el orden.
Una matriz nula es una matriz cuyos elementos son todos nulos. Una
matriz nula será denotada por 0 (0m×n denotará la matriz nula m × n.)
Dos matrices A y B de igual tamaño m × n son iguales si y sólo si sus
componentes correspondientes son iguales. Esto es,
A ij = B ij ; i = 1, 2, . . . , m, j = 1, 2, . . . , n.
La suma A + B de dos matrices A y B de tamaño m × n, es la matriz
m × n tal que:
A + B ij = A ij + B ij ; i = 1, 2, . . . , m, j = 1, 2, . . . , n.
La multiplicación αA del número α por la matriz A de tamaño m × n, es
la matriz de tamaño m × n, tal que:
αA ij = α A ij ; i = 1, 2, . . . , m, j = 1, 2, . . . , n.
2
Prerrequisitos 1.1. Matrices
El producto AB de la matriz A ∈ Mm×s por la matriz B ∈ Ms×n, es la
matriz de tamaño m × n, tal que:
AB ij =
s
k=1
A ik B kj ≡ Ai · Bj
; i = 1, 2, . . . , m, j = 1, 2, . . . , n.
1.1.1. Inversa de una matriz. Sea A ∈ Mn×n. Si existe una
matriz B ∈ Mn×n tal que AB = I se puede demostrar que BA = I y
que B es única. Cuando existe una matriz B tal que AB = I, a B se le
llama la matriz inversa de A y se le denota por A−1
. Es este caso se dice
que A es no singular o invertible; en caso contrario, se dice que A es no
invertible o singular.
En el siguiente teorema se establecen algunas propiedades de la inversa
de una matriz
1.1.1. Teorema. Si A, B ∈ Mn×n son matrices invertibles y si α es un
número no nulo, entonces:
1. La matriz A−1
es invertible y A−1 −1
= A.
2. La matriz AB es invertible y (AB)−1
= B−1
A−1
.
3. La matriz αA es invertible y (αA)−1
= α−1
A−1
.
1.1.2. Transpuesta de una matriz. Sea A una matriz m × n.
La matriz transpuesta de A es la matriz n × m, denotada por AT
, cuya
i-ésima la corresponde a la i-ésima columna de la matriz A. Esto es,
la transpuesta de A es la matriz AT
tal que AT
ij
= A ji, para i =
1, 2, . . . m, y j = 1, 2, . . . n.
Sea A una matriz cuadrada. Si AT
= A, se dice que A es una matriz
simétrica, y si AT
= −A, se dice que A es una matriz antisimétrica. En
particular, las matrices diagonales son simétricas.
Las propiedades más relevantes de la transpocisión se dan en el siguiente
teorema
1.1.2. Teorema. Sean A y B matrices de tamaño apropiado, tales que las
operaciones siguientes están bien denidas. Entonces:
1. Para cualquier matriz A se verica (AT
)T
= A.
2. AT
= BT
sí y sólo si A = B.
3
1.1. Matrices Prerrequisitos
3. Si A es una matriz diagonal, entonces AT
= A.
4. Si α, β son números, entonces (αA + βB)T
= αAT
+ βBT
.
5. Si AB está denido, entonces (AB)T
= BT
AT
.
6. Para cualquier matriz A, las matrices AT
A y AAT
son simétri-
cas.
7. Si A es invertible, entonces AT
es invertible y (AT
)−1
= (A−1
)T
.
1.1.3. Determinantes. Recordamos en este apartado las nociones
de menor, cofactor, matriz de cofactores, matriz adjunta y determinante
de matrices cuadradas y resumimos algunos de los resultados más impor-
tantes relacionados con el cálculo propiedades del determinante. El lector
recordará, que el concepto de determinante es de gran importancia no
sólo en el contexto del álgebra lineal, sino en otras áreas como el cálculo
integral. En lo sucesivo, el determinante de una matriz A será denotado
por |A| o por det(A).
1.1.3. Denición (Determinane de matrices 2 × 2). Sea A =
a b
c d
una matriz cuadrada de tamaño 2 × 2. El determinante de la matriz A es
el número real dado por
det(A) = ad − bc.
1.1.4. Denición. Sea A una matriz cuadrada de tamaño n × n; el de-
terminante de la matriz que resulta al suprimir la i-ésima la de A y la
j-ésima columna de A es denominado menor del elemento A ij y se de-
nota por mij. El cofactor del elemento A ij se denota por Cij y se dene
como
Cij = (−1)i+j
mij .
La matriz C, cuyos elementos son los cofactores Cij de A se denomina
matriz de los cofactores de A, cof(A). La matriz transpuesta de la matriz
de cofactores C, se denomina adjunta de A y se denota por adj(A), es
decir, adj(A) = CT
.
El siguiente teorema nos muestra, cómo calcular el determinante de una
matriz (cuadrada) en términos de sus cofactores. Además muestra, que el
valor del determinante no depende de la la o columna a lo largo de la
cual se haga la expansión. Dicho teorema presenta también, una forma
alternativa para calcular inversas de matriz en términos del determinante
de dicha matriz y su adjunta.
4
Prerrequisitos 1.1. Matrices
1.1.5. Teorema. Sea A una matriz cuadrada de orden n.
1. Si Cij denota el cofactor del elemento A ij, entonces:
a) det(A) =
n
j=1
A ij Cij, para cada i = 1, 2, . . . , n.
b) det(A) =
n
i=1
A ij Cij, para cada j = 1, 2, . . . , n.
2. Para cualquier matriz cuadrada A, se tiene que
A · adj(A) = adj(A) · A = det(A)I .
3. La matriz A es invertible sii |A| = 0, en este caso se tiene que
A−1
= (det(A))−1
· adj(A) .
1.1.6. Teorema. Sean A, B y C matrices cuadradas de orden n, entonces:
1. |A| = |AT
| .
2. Si A tiene una la nula, entonces |A| = 0.
3. Si las matrices A y B dieren únicamente en sus k-ésimas las
y si dichas las satisfacen la igualdad Ak = α · Bk, entonces
|A| = α|B|.
4. Si α es un escalar, entonces |αA| = αn
|A|.
5. Si A, B y C dieren únicamente en la k-ésima la y si Ck =
Ak + Bk, entonces |C| = |A| + |B|.
6. Si A tiene dos las iguales, entonces |A| = 0.
7. Si B se obtiene al intercambiar dos las de A, entonces |B| =
−|A|.
8. El determinante de una matriz no cambia si los elementos de la
i-ésima la son multiplicados por un escalar α y los resultados
son sumados a los correspondientes elementos de la k-ésima la,
para k = i.
9. |AB| = |A||B|.
Nota. Por (1), cualquier proposición sobre |A| que sea verdadera en las
las de A es también verdadera para las columnas de A.
1.1.4. Operaciones elementales. Matrices elementales. En
este apartado recopilamos algunas deniciones y resultados relacionados
con las operaciones que se pueden hacer en las las (respectivamente
columnas) de una matriz, las cuales realizadas de manera apropiada nos
5
1.1. Matrices Prerrequisitos
permiten obtener nuevas matrices con estructuras más adecuadas, por
ejemplo cuando se quiere resolver sistemas de ecuaciones. Dichas opera-
ciones son las operaciones elementales y están resumidas en la siguiente
denición.
1.1.7. Denición (Operaciones y matrices elementales). Dada una ma-
triz A, cada una de las siguientes operaciones es llamada una operación
elemental en las las (columnas) de A.
(i) El intercambio de dos las (columnas) de A.
(ii) La multiplicación de los elementos de una la (columna) de A
por un escalar no nulo.
(iii) Reemplazar una la (columna) de A, por la suma de ella y un
múltiplo escalar no nulo de otra la (columna) de dicha matriz.
Una matriz elemental por las (columnas) es aquella que resulta de efec-
tuar una operación elemental sobre las las (columnas) de una matriz
identidad.
1.1.8. Teorema.
1. Cada matriz elemental es invertible. Además, la inversa de cada
matriz elemental es una matriz elemental.
2. Sea A una matriz m × n. Si B es una matriz que resulta al
efectuar una operación elemental sobre las las de A y si E es
la matriz elemental que resulta de efectuar la misma operación
elemental sobre las las de la matriz idéntica Im, entonces E ·
A = B.
3. Sea A una matriz m × n. Si B es una matriz que resulta al
efectuar una operación elemental sobre las columnas de A y si E
es la matriz elemental que resulta de efectuar la misma operación
elemental sobre las columnas de la matriz idéntica In, entonces
A · E = B.
1.1.9. Denición (Forma escalonada reducida). Se dice que una matriz R
tiene la forma escalonada reducida, si satisface las siguientes condiciones:
(i) Si una la de R es no nula, el primer elemento no nulo de dicha
la, de izquierda a derecha, es 1.
(ii) Si las las i e i + 1 de R son no nulas, el primer elemento no
nulo de la la i + 1 está a la derecha del primer elemento no
nulo de la la i.
6
Prerrequisitos 1.2. Espacios vectoriales
(iii) Si una columna de R contiene el primer elemento no nulo de
una la de R, los demás elementos de dicha columna son nulos.
(iv) Si R tiene las nulas, éstas aparecen en la parte inferior de R.
El siguiente teorema nos relaciona los conceptos de matrices elementales
y forma escalonada reducida para una matriz arbitraria.
1.1.10. Teorema. Para toda matriz A existen: una única matriz R que
tiene la forma escalonada reducida y un número nito de matrices ele-
mentales por las E1, E2, . . . , Ek tales que:
Ek · · · E2 · E1 · A = R .
La matriz R mencionada en el teorema anterior se denomina la forma
escalonada reducida de A.
1.1.11. Teorema. Sea A una matriz cuadrada de orden n.
1. A es invertible sii la forma escalonada reducida de A es In.
2. A es invertible sii A se puede expresar como el producto de un
número nito de matrices elementales.
Los dos últimos teoremas dan lugar a un método para decidir cuándo una
matriz cuadrada A es invertible, y simultáneamente proveen un algoritmo
para calcular su inversa.
El método consiste en lo siguiente: Forme la matriz [A | In]. Seguidamente
efectúe operaciones elementales sobre la las de esta matriz hasta obtener
su forma escalonada reducida; al nal se obtiene una matriz que describire-
mos así [R | P]; donde R es la forma escalonada reducida de A. Ahora: A
es invertible sii R = In. Si A es invertible entonces A−1
= P.
1.2. Espacios vectoriales
El conjunto de matrices m×n, junto con las dos operaciones suma de ma-
trices y multiplicación de un escalar por una matriz, denidas al principio
de la sección 1.1, tiene una estructura algebraica denominada espacio vec-
torial. Esta estructura es importante porque incluye otros conjuntos que
se presentan frecuentemente en las matemáticas y sus aplicaciones.
7
1.2. Espacios vectoriales Prerrequisitos
1.2.1. Denición. Un espacio vectorial (real) es un conjunto V , cuyos
elementos son llamados vectores, junto con dos operaciones: suma de vec-
tores (+) y multiplicación de un escalar por un vector (·), que satisfacen
las propiedades siguientes:
(i) Si u ∈ V y v ∈ V , entonces u + v ∈ V .
(ii) Si u ∈ V y v ∈ V , entonces u + v = v + u.
(iii) Si u ∈ V , v ∈ V y w ∈ V , entonces
(u + v) + w = u + (v + w) = u + v + w.
(iv) Existe un vector 0 ∈ V tal que para todo u ∈ V , u+0 = 0+u =
u.
(v) Si u ∈ V , entonces existe un vector −u ∈ V tal que
u + (−u) = (−u) + u = 0.
(vi) Si u ∈ V y α es un escalar, αu ∈ V .
(vii) Si u ∈ V y α, β son escalares, entonces (αβ)u = α(βu) =
β(αu).
(viii) Si u ∈ V y α, β son escalares, entonces (α + β)u = αu + βu.
(ix) Si u ∈ V y v ∈ V y α es un escalar, entonces α(u+v) = αu+αv.
(x) Si u ∈ V , entonces 1u = u.
1.2.2. Ejemplo. Los siguientes conjuntos son ejemplos de espacios vecto-
riales:
1. V = Rn
= {(x1, x2, . . . , xn) : xi ∈ R, i = 1, 2, . . . , n} con las
operaciones denidas así:
(x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn)
α (x1, x2, . . . , xn) = (αx1, αx2, . . . , αxn) .
2. V = Mm×n, el conjunto de matrices m × n con las operaciones
denidas usualmente (ver sección 1.1).
3. V = F, el conjunto de funciones de R en R con las operaciones
denidas así:
(f + g)(t) = f(t) + g(t) , t ∈ R .
(αf)(t) = αf(t) , t ∈ R .
4. V = Pn, el conjunto de las funciones polinómicas de grado menor
o igual que n, con coecientes reales con las operaciones denidas
en (3).
8
Prerrequisitos 1.2. Espacios vectoriales
Como se establece en la denición, un espacio vectorial (real) es un tripla
que consta de un conjunto V y de dos operaciones con ciertas propiedades.
Cuando no haya lugar a confusión o cuando no sea necesario explicar
las operaciones mencionadas, se hará referencia simplemente al espacio
vectorial V.
Con frecuencia es necesario considerar subconjuntos de un espacio vec-
torial V , tales que; junto con las operaciones denidas en V , son por sí
mismo espacios vectoriales. Estos son denominados subespacios de V . En
forma más precisa tenemos la siguiente
1.2.3. Denición. Sea V un espacio vectorial y W un subconjunto no
vacío de V. Diremos que un W es subespacio de V , si W, junto con las
operaciones de suma de vectores y la multiplicación de un escalar por un
vector denidas en V , es en sí mismo un espacio vectorial.
1.2.4. Denición. Sean V un espacio vectorial, v0 un elemento de V y
W es un subespacio de V . El subconjunto determinado así:
L = {v ∈ V : v = v0 + w, para w ∈ W} ,
es denominado una variedad lineal de V .
El siguiente concepto es básico en el estudio de los espacios vectoriales.
En particular, servirá para caracterizar ciertos espacios de un espacio
vectorial.
1.2.5. Denición. Sean v1, v2, . . . , vn vectores de un espacio vectorial
V . Se dice que un vector v ∈ V es combinación lineal de los vectores
v1, v2, . . . , vn si existen escalares α1, α2, . . . , αn tales que:
v = α1v1 + α2v2 + · · · + αnvn =
n
i=1
αivi .
1.2.6. Teorema. Sea W un subconjunto no vacío de un espacio vectorial
V . W es un subespacio de V sii W es cerrado bajo la operación suma de
vectores y la multiplicación por un escalar, esto es, sii
1. Si u ∈ W y v ∈ W, entonces u + v ∈ W.
2. Si u ∈ W y α ∈ R, entonces αu ∈ W.
9
1.2. Espacios vectoriales Prerrequisitos
1.2.7. Teorema. Si U y W son subespacios de un espacio vectorial V ,
entonces:
1. La intersección de U con W; U ∩ W es un subespacio vectorial
de V .
2. La suma de U con W; denida por
U + W = {v ∈ V : v = u + w, con u ∈ U y w ∈ W} ,
es un subespacio vectorial de V .
1.2.8. Teorema. Sea C un conjunto no vacío de vectores de un espacio
vectorial V . El conjunto de todas las combinaciones lineales de los vectores
de C;
W = v ∈ V : v =
k
i=1
αivi; k ∈ N, vi ∈ C y αi ∈ R, i = 1, 2, . . . , k
es un subespacio de V.
Sea C un conjunto no vacío de vectores de un espacio vectorial V . El
subespacio de V, de todas las combinaciones lineales de los vectores de
C mencionado en el teorema anterior, es denominado el espacio gen-
erado por los vectores de C o simplemente, espacio generado por C.
Cuando C = {v1, v2, . . . , vn} (es nito), este espacio será denotado por
v1, v2, . . . , vn o por gen {v1, v2, . . . , vn}.
Cuando consideramos un conjunto C de vectores de un espacio vectori-
al, es a veces importante determinar cuándo algún vector o algunos de
los vectores de C se pueden expresar como combinaciones lineales de los
restantes vectores en C. Para ello, necesitamos de la denición de de-
pendencia lineal de un conjunto de vectores y algunos resultados sobre
ella.
1.2.9. Denición (Independencia lineal). Sea C = {v1, v2, . . . , vn} un
conjunto C de vectores (distintos) de un espacio vectorial V . Se dice que
C es linealmente dependiente o que los vectores v1, v2, . . . , vn son lin-
ealmente dependientes, si existen escalares α1, α2, . . . , αn no todos nulos
tales que:
0 = α1v1 + α2v2 + · · · + αnvn =
n
i=1
αivi ,
en caso contrario, se dice que C es linealmente independiente o que los
vectores v1, v2, . . . , vn son linealmente independientes. Es decir, C es
10
Prerrequisitos 1.2. Espacios vectoriales
linealmente independiente si para los escalares α1, α2, . . . , αn; si 0 =
n
i=1 αivi , entonces
α1 = α2 = . . . , = αn = 0 .
1.2.10. Teorema. En un espacio vectorial V se tiene:
1. Todo conjunto que contenga el vector nulo, 0, es linealmente
dependiente.
2. Todo conjunto que contenga un subconjunto linealmente depen-
diente es linealmente dependiente.
3. Todo subconjunto de un conjunto linealmente independiente, es
linealmente independiente.
4. Un conjunto de vectores C = {v1, v2, . . . , vn}, n ≥ 2, es lineal-
mente dependiente sii uno de los vectores de C es combinación
lineal de los restantes vectores de C.
1.2.1. Bases y dimensión. Dado un espacio vectorial V, en oca-
siones es útil determinar un subconjunto B de V de vectores linealmente
independientes que genere al espacio V. Esto es, un conjunto de vectores
linealmente independientes mediante los cuales, cada vector de V se pueda
expresar como combinación lineal de los vectores de B. Como veremos en
esta sección, tal conjunto B se llamará una base de V y de acuerdo con
el número de elementos que contenga, tal base hablaremos de dimensión
nita o innita del espacio vectorial.
Se dice que un espacio vectorial V es de dimensión nita, si existe un
conjunto nito C de vectores de V , tal que el espacio generado por C en
V . Por el contrario, si no es posible generar un espacio vectorial V con
un ningún subconjunto nito de vectores, diremos que dicho espacio tiene
dimensión innita. Ejemplos de éstos últimos espacios son: el conjunto
de funciones continuas denidas sobre R, o el conjunto de todos los poli-
nomios con variable real. Nosotros sin embargo sólo trataremos aquí con
espacios de dimensión nita.
1.2.11. Denición (Base). Sea B un conjunto de vectores de un espacio
vectorial V. Se dice que B es una base de V si se tienen las dos condi-
ciones:
(i) El espacio generado por B es V .
(ii) El conjunto B es linealmente independiente.
11
1.2. Espacios vectoriales Prerrequisitos
Si un espacio vectorial V tiene una base B = {v1, v2, . . . , vn} compuesta
por n vectores, entonces se puede demostrar que el número de vectores de
cualquier otra base de V es también n. Es decir, si un espacio vectorial
V tiene una base Bcon un número nito, n, de elementos, cualquier otra
base de dicho espacio vectorial, tiene exactamente n elementos. A dicho
número común se le llama dimensión del espacio V y se dice que V es de
dimensión nita n y se escribe dim V = n.
1.2.12. Denición. Sea W un subespacio de un espacio vectorial V, v0
un vector en V y L la variedad
L = {v ∈ V : v = v0 + w, w ∈ W} ,
si dim W = k, se dice que la variedad lineal L tiene dimensión k.
El siguiente teorema resume algunos aspectos importante sobre bases de
espacios vectoriales, independencia lineal y conjuntos generadores.
1.2.13. Teorema. Sea V un espacio vectorial de dimensión n.
1. Si B = {v1, v2, . . . , vn} es un conjunto de n vectores de V,
entonces:
a) B es una base de V sii B es linealmente independiente.
b) B es una base de V sii B genera a V .
2. Si C = {u1, u2, . . . , ur} es un conjunto linealmente indepen-
diente, entonces r ≤ n.
3. Si C = {u1, u2, . . . , ur} es un conjunto linealmente indepen-
diente, con r  n, entonces existen n−r vectores de V ; w1, w2,
. . . , wn−r, tales que B = {u1, u2, . . . , ur, w1, . . . , wn−r} es
una base de V.
4. Si C = {u1, u2, . . . , ur} genera a V entonces r ≥ n.
5. Si el conjunto C = {u1, u2, . . . , ur} genera a V y r  n, en-
tonces existen n − r vectores de C; w1, w2, . . . , wn−r, tales que
B = C  {w1, w2, . . . , wn−r} es una base de V.
6. Si W es un subespacio de V entonces dim W ≤ n. Si dim W = n,
entonces W = V.
1.2.14. Teorema. Si U y W son subespacios de un espacio vectorial V
entonces
dim(U + W) = dim U + dim V − dim(U ∩ W) .
12
Prerrequisitos 1.2. Espacios vectoriales
1.2.15. Nota. En el teorema anterior: U ∩ W = {0} sii dim(U + W) =
dim U+dim V . Cuando U∩W = {0} al espacio U+W de V se le denomina
suma directa de U con W y se escribe U ⊕W en lugar de U +W. Además,
en este caso para cada vector v ∈ U ⊕ W , existen vectores únicos u ∈ U
y w ∈ W tales que v = u + w.
1.2.16. Teorema. Si U es un subespacio de un espacio vectorial V , en-
tonces existe un subespacio W de V tal que U ⊕ W = V.
El subespacio W del teorema anterior no es necesariamente único y es
llamado complemento de U. También se dice que U y W son subespacios
complementarios.
1.2.2. Coordenadas. El conjunto de coordenadas de un espacio
respecto de una base es útil en el estudio de las transformaciones lineales.
Para introducir este concepto es necesario denir primero lo que es una
base ordenada de un espacio vectorial V. En la denición 1.2.11 era irre-
levante en qué orden apareciera los elementos de una base. Sin embargo,
a partir de ahora el orden será importante. En tal sentido, nosotros con-
sideramos la siguiente denición.
1.2.17. Denición (Base ordenada). Si v1, v2, . . . , vn es una sucesión
nita de vectores linealmente independientes de un espacio vectorial V,
que generan a V , entonces diremos que B = {v1, v2, . . . , vn} es una
base ordenada de V.
1.2.18. Teorema. Si B = {v1, v2, . . . , vn} es una base ordenada de V ,
entonces para cada vector v ∈ V existen escalares α1, α2, . . . , αn únicos
tales que
v = α1v1 + α2v2 + · · · + αnvn =
n
i=1
αivi ,
1.2.19. Denición. Sea B = {v1, v2, . . . , vn} una base ordenada de un
espacio vectorial V . Sea v un vector de V y sean α1, α2, . . . , αn los es-
calares únicos tales que v =
n
i=1 αivi , el vector (vector columna) de
coordenadas de v respecto de la base ordenada B se denota por [v]B y se
dene así:
[v]B =





α1
α2
.
.
.
αn





.
13
1.2. Espacios vectoriales Prerrequisitos
Si u y v son dos vectores de V y si α es un escalar, entonces [u + v]B =
[u]B + [v]B y [αu]B = α [u]B.
De otro lado, a cada vector n×1 (matriz n×1) c = α1 α2 · · · αn
T
le corresponde un único vector v de V tal que [v]B = c, a saber v =
n
i=1 αivi.
Así, cada base ordenada B de V determina una correspondencia biunívo-
ca, v → [v]B, entre los espacios V y Mn×1, que preserva las suma de
vectores y la multiplicación de un escalar por un vector. Más aún, preser-
va la independencia lineal; ésto es, el conjunto C = {u1, u2, . . . , uk} es
un conjunto de vectores linealmente independientes de V sii el conjunto
C∗
= {[u1]B , [u2]B , . . . , [ uk]B} es un conjunto de vectores linealmente
independientes de Mn×1.
En el caso en que V = Rn
y B = {e1, e2, . . . , en} sea la base canónica,
con e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0),. . . , en = (0, 0, 0, . . . , 1),
la mencionada correspondencia está dada por
x = (x1, x2, . . . , xn) −→ [x]B =





x1
x2
.
.
.
xn





.
En algunas situaciones resulta conveniente tener presente esta correspon-
dencia, que utilizaremos identicando a x con [x]B .
1.2.3. Producto interno. Bases ortonormales. En este aparta-
do consideraremos los conceptos de producto interno y de bases ortonor-
males que nos será particularmente útiles en el capítulo 3 al tratar la
diagonalización de matrices simétricas.
1.2.20. Denición (Producto interno). Sea V un espacio vectorial. Sean
además u, v y w vectores arbitrarios de V y α un escalar real. Un pro-
ducto interno en V es una función ·; · : V × V → R que satisface las
propiedades:
(i) u; v = v; u .
(ii) u; u ≥ 0 y u; u = 0 si y sólo si u = 0.
(iii) αu; v = α u; v .
(iv) u + v; w = u; w + v; w .
14
Prerrequisitos 1.2. Espacios vectoriales
Observación. Si B es una base ordenada de un espacio vectorial V ,
entonces la función ·; · : V × V → R denida por u; v = [u]
T
B [v]B es
un producto interno. En particular, si V = Rn
y B es la base canónica de
Rn
, se tiene que
x; y = [x]
T
B [y]B = x1y1 + x2y2 + · · · + xnyn ,
donde x = (x1, x2, . . . , xn) y y = (y1, y2, . . . , yn).
En lo que sigue consideraremos a Rn
con este producto interno (producto
escalar) y a veces escribiremos x · y o xT
y para indicar a x; y .
Si ·; · es un producto interno sobre un espacio vectorial V , la norma o
longitud de un vector v de V se denota por v y se dene así: v =
v; v . Cuando v = 1, se dice que v es un vector unitario.
1.2.21. Teorema (Desigualdad de Schwarz). Sea V un espacio vectori-
al con producto interno ·; · . Para cada par de vectores u y v de V se
satisface la desigualdad
| u; v | ≤ u v .
Sean u y v vectores de un espacio vectorial V con producto interno ·; · ,
si u y v no son nulos, la medida del ángulo entre ellos se dene como
θ = arc cos
| u; v |
u v
.
1.2.22. Denición. Sea V un espacio vectorial con producto interno ·; · :
1. Se dice que dos vectores u y v de V son ortogonales si u; v = 0.
2. Se dice que un conjunto C = {v1, v2, . . . , vn} de vectores de V
es ortogonal si vi; vj = 0 para i = j, i, j = 1, 2, . . . , n.
3. Se dice que un conjunto C = {v1, v2, . . . , vn} de vectores de V
es ortonormal si C es ortogonal y cada vector de C es unitario,
o sea si:
vi; vj = δij =
1 si i = j
0 si i = j
; i, j = 1, 2, . . . , n .
4. Se dice que dos conjuntos no vacíos, C1 y C2 de vectores son
ortogonales, si para cada par de vectores u ∈ C1 y v ∈ C2,
u; v = 0.
15
1.3. Transformaciones lineales Prerrequisitos
1.2.23. Teorema. Sea V un espacio vectorial con producto interno ·; · .
Si C = {v1, v2, . . . , vn} es un conjunto ortogonal que no contiene al
vector 0, entonces C es linealmente independiente.
1.2.24. Teorema (Proceso de ortogonalización de Gram-Schmidt). Sea
W un subespacio no nulo de un espacio vectorial V de dimensión nita
k con producto interno ·; · y sea B = {w1, w2, . . . , wk} una base de
W. Entonces C = {v1, v2, . . . , vk} es una base ortogonal de W y C∗
=
{v∗
1, v∗
2, . . . , v∗
k} es una base ortonormal de W, donde:
v1 = w1
v2 = w2 −
w2; v1
v1; v1
v1
v3 = w3 −
w3; v1
v1; v1
v1 −
w3; v2
v2; v2
v2
.
.
.
vk = wk −
k−1
i=1
wk; vi
vi; vi
vi ,
y donde v∗
i =
vi
vi
para i = 1, 2, . . . , k.
1.2.25. Teorema. Sean v1, v2, . . . , vk vectores no nulos de un espacio
vectorial V de dimensión n  k, con producto interno ·; · . Si C1 =
{v1, v2, . . . , vk} es un conjunto ortogonal (respectivamente ortonormal),
entonces existe un conjunto ortogonal (respectivamente ortonormal) C2 =
{w1, w2, . . . , wn−k} de vectores de V tal que B = C1 ∪ C2 es una base
ortogonal (ortonormal) de V. Más aún, si U = v1, v2, . . . , vk y si
W = w1, w2, . . . , wn−k entonces V = U ⊕ W y además, U y W son
ortogonales.
1.3. Transformaciones lineales
En esta sección consideraremos los aspectos más importantes sobre las
transformaciones lineales. En lo que sigue; U, V y W denotarán espacios
vectoriales.
1.3.1. Denición. Una función T : U → V es una transformación lineal,
si para cualquier para de vectores u1, u2 en U y todo escalar α, se tiene
que:
16
Prerrequisitos 1.3. Transformaciones lineales
(i) T(u1 + u2) = T(u1) + T(u2)
(ii) T(αu1) = αT(u1).
1.3.2. Ejemplo. Algunos ejemplos de transformaciones lineales son:
1. Para cada U, la función idéntica I : U → U, u → I(u) = u.
2. Para cada matriz A ∈ Mm×n, la función A : Rn
→ Rm
, denida
por x → y = Ax.
1.3.3. Teorema. Sean U y V espacios vectoriales, B = {u1, u2, . . . , un}
una base de U y T : U → V es una transformación lineal. Entonces T
queda determinada por los vectores T(u1), T(u2), . . . , T(un).
Asociados a toda transformación lineal hay dos subespacios importantes
a saber; su núcleo y su imagen. El primero de ellos corresponde a todos
lo elementos del espacio U que son transformados en el elemento nulo del
espacio V ; el segundo, corresponde a todos los elementos del espacio V
que tienen al menos una preimagen en el espacio U. En forma más precisa
tenemos
1.3.4. Denición. Sea T : U → V es una transformación lineal.
1. El núcleo de T se denota por N(T) y se dene así:
N(T) = {u ∈ U : T(u) = 0} .
2. La imagen de T se denota por Img(T) y se dene así:
Img(T) = {T(u) : u ∈ U} .
1.3.5. Denición. Sea T : U → V una transformación lineal.
1. Diremos que T es inyectiva (biunívoca o uno a uno), si dos ele-
mentos distintos u1, u2 ∈ U, tienen imagen distinta. Esto es si
y sólo si
u1 = u2 implica T(u1) = T(u2); para todo u1, u2 ∈ U.
2. Diremos que T es sobreyectiva (o simplemente sobre), si cada
elemento de del espacio V posee al menos una preimagen en U.
Esto es si y sólo si
Para todo v ∈ V existe un u ∈ U tal que T(u) = v.
El siguiente teorema resume algunos aspectos básicos de las transforma-
ciones lineales.
17
1.3. Transformaciones lineales Prerrequisitos
1.3.6. Teorema. Sea B = {u1, u2, . . . , un} un subconjunto de vectores
de U y sea T : U → V una transformación lineal y .
1. N(T) es un subespacio vectorial de U.
2. T es inyectiva sii N(T) = {0} .
3. Img(T) es un subespacio vectorial de V.
4. Si B es una base de U, entonces {T(u1), T(u2), . . . , T(un)} ge-
nera al espacio Img(T).
5. Si T es inyectiva y B es linealmente independiente, entonces
{T(u1), T(u2), . . . , T(un)} es un subconjunto linealmente inde-
pendiente de vectores de V .
6. dim N(T) + dim Img(T) = dim U.
A la dimensión de N(T) se le llama nulidad de T y a la dimensión de
Img(T) se llama rango de T.
1.3.1. Matriz de una transformación lineal referida a un par
de bases ordenadas. A cada transformación lineal se le puede asignar
una matriz A, la cual está determinada por las bases de los espacios vec-
toriales involucrados en dicha transformación. Veremos en esta sección,
que una tal asignación simplicará muchos cálculos. Es decir, será más
conveniente trabajar con la matriz asociada a una transformación lineal
(referida a ciertas bases), que con la transformación lineal misma.
1.3.7. Denición. Sean U y V espacios vectoriales, T : U → V una trans-
formación lineal y sean B1 = {u1, u2, . . . , un} y B2 = {v1, v2, . . . , vm}
bases ordenadas de U y de V respectivamente. La matriz de T referida a
las bases B1 y B2 se denotará por [T]B1B2
y corresponde a la matriz m×n
dada por:
[T]B1B2
= [T(u1)]B2
[T(u2)]B2
· · · [T(un)]B2
.
1.3.8. Teorema. Sean U y V espacios vectoriales, T : U → V una trans-
formación lineal y sean B1 = {u1, u2, . . . , un} y B2 = {v1, v2, . . . , vm}
bases ordenadas de U y de V respectivamente. Para cada u ∈ U se tiene
que:
[T(u)]B2
= [T]B1B2
[u]B1
.
Nota. Por el teorema anterior y por el teorema 1.3.3, la transforma-
ción lineal T queda completamente determinada por el conocimiento de
las bases B1 y B2, y de la matriz [T]B1B2
.
18
Prerrequisitos 1.3. Transformaciones lineales
1.3.2. Álgebra de transformaciones lineales. Inversa de una
transformación lineal. En esta sección consideraremos las operaciones
de suma, multiplicación por un escalar y composición entre transforma-
ciones lineales. Así mismo veremos la relación existente entre las matrices
asociadas correspondientes. En este apartado U, V y W denotan espacios
vectoriales.
1.3.9. Teorema. Sean T : U → V y S : U → V transformaciones lineales
y α un escalar. Sean además B1 y B2 bases ordenadas de U y V, respec-
tivamente:
1. La suma de T y S; (T + S) : U → V, denida por (T + S)(u) =
T(u) + S(u) es una transformación lineal. Más aún
[T + S]B1B2
= [T]B1B2
+ [S]B1B2
.
2. La función múltiplo escalar de T; (αT) : U → V, denida por
(αT)(u) = αT(u) es una transformación lineal. Más aún
[αT]B1B2
= α [T]B1B2
.
Nota. El conjunto de todas las transformaciones lineales de U en V ,
L(U, V ), junto con las operaciones mencionadas en el teorema anterior
es un espacio vectorial. además, si dim U = n y dim V = m entonces
dim L(U, V ) = m × n.
De otro lado, de la misma forma como una base B1 de U determina la
correspondencia biunívoca entre los espacios vectoriales V y Mm×1, dada
por , v → [v]B2
; las bases B1 y B2 de U y V , determinan la corresponden-
cia biunívoca entre los espacios L(U, V ) y Mm×n, la cual está dada por
T → [T]B1B2
. Esta correspondencia preserva la suma de vectores y la mul-
tiplicación de un escalar por un vector, tal como se establece en el teorema
anterior. En otras palabras, esta correspondencia es una transformación
lineal.
1.3.10. Teorema. Sean T : U → V y S : V → W transformaciones
lineales. Entonces, la composición S ◦ T : U → W es una transforma-
ción lineal. Si además, B1, B2 y B3 representan bases ordenadas para los
espacios U, V y W respectivamente, entonces se tiene que:
[S ◦ T]B1B3
= [S]B2B3
[T]B1B2
.
19
1.4. Espacios fundamentales de matrices Prerrequisitos
1.3.11. Teorema. Si T : U → V es una transformación lineal biyectiva,
entonces la función inversa de T, T−1
: V → U es una transformación
lineal y la matriz [T]B1B2
es invertible. Además,
T−1
B2B1
= [T]
−1
B1B2
.
1.3.3. Matrices semejantes. Cambio de base. Los conceptos
de matrices semejantes y cambio de base nos serán particularmente útiles
en el capítulo 4 para el estudio de los valores propios y los vectores propios
de una transformación lineal.
1.3.12. Denición (Matrices semejantes). Sean A y B matrices cuadradas
de orden n, se dice que A y B son semejantes, si existe una matriz in-
vertible P tal que B = P−1
AP.
1.3.13. Denición (Matriz cambio de base). Sean B1 y B2 bases orde-
nadas del espacio vectorial U, y sea I : U → U la transformación lineal
idéntica. La matriz P = [I]B1B2
se denomina matriz de cambio de base de
la base B1 a la base B2, (ésto debido a lo enunciado por el teorema 1.3.8,
[u]B2
= [T]B1B2
[u]B1
).
1.3.14. Teorema. Sean T : U → U una transformación lineal y B1 y B2
bases ordenadas de U.
1. La matriz de cambio de base de la base B1 a la base B2, P =
[I]B1B2
, es invertible y su inversa es la matriz de cambio de base
de la base B2 a la base B1.
2. Las matrices A = [T]B2B2
y B = [T]B1B1
son matrices seme-
jantes, además se tiene
[T]B1B1
= [I]
−1
B1B2
[T]B2B2
[I]B1B2
= P−1
[T]B2B2
P .
1.4. Espacios fundamentales de una Matriz. Rango de una
matriz. Sistemas de ecuaciones lineales
En esta sección consideraremos los llamados espacios fundamentales de
una matriz A. Dos de estos espacios son precisamente el núcleo y la imagen
de la transformación lineal x → y = Ax, los cuales están relacionados con
el conjunto solución de un sistema de ecuaciones lineales Ax = y. El
lector recordará de los resultados de un primer curso de álgebra lineal,
que el espacio la y es espacio columna de A tienen igual dimensión. A
ese número común se le denomina rango de A y se denota por ρ(A).
20
Prerrequisitos 1.4. Espacios fundamentales de matrices
Sea A una matriz m × n. El subespacio de Rn
generado por las las de A
se denomina espacio la de A y lo denotamos por F(A); esto es, F(A) =
A1, A2, . . . , Am . El subespacio de Rm
generado por las columnas de
A se denomina espacio columna de A y lo denotamos por C(A); esto
es, C(A) = A1
, A2
, . . . , An
. El espacio formado todas soluciones de un
sistema homogéneo de ecuaciones lineales Ax = 0 se denomina espacio
nulo de una matriz, esto es, el espacio nulo es el conjunto
N(A) = {x ∈ Rn
: Ax = 0} .
De otro lado, el subespacio de Rn
;
Img(A) = {Ax : x ∈ Rn
}
= {y ∈ Rm
: y = Ax para algún x ∈ Rn
} .
se denomina imagen de A.
1.4.1. Teorema. Para cualquier matriz A se tiene que
dim F(A) = dim C(A) .
1.4.2. Teorema. Sea A una matriz arbitraria entonces:
1. F(A) y N(A) son ortogonales. Ésto es, sus elementos son or-
togonales entre si.
2. C(A) y N(At
) son ortogonales. Ésto es, sus elementos son or-
togonales entre si.
1.4.3. Teorema. Sean A y B matrices de tamaño adecuado, tales que las
operaciones siguientes están denidas.
1. C(AB) ⊆ C(A) y F(AB)⊆ F(B).
2. Si P y Q son matrices invertibles de tamaño apropiado
a) C(A) = C(AQ).
b) F(A) = F(PA).
3. C(A + B) ⊆ C(A) + C(B) y F(A + B) ⊆ F(A) + F(B).
4. Para cualquier matriz A se tiene que: N(A) = N(AT
A).
Nota. Según el inciso 2(b) del teorema anterior y según el teorema 1.1.10,
si R es la forma escalonada reducida de la matriz A, entonces F(A) =
F(R).
1.4.4. Teorema. Sea A una matriz m×n. La imagen de la transformación
lineal A : Rn
→ Rm
, x → y = Ax, es el espacio columna de A; esto es,
Img(A) = C(A) = {Ax : x ∈ Rn
} .
21
1.4. Espacios fundamentales de matrices Prerrequisitos
Nota. De acuerdo con el inciso (3) del teorema 1.3.6 y de acuerdo con
los teoremas 1.4.1 y 1.4.4: si A es una matriz m × n, entonces
dim N(A) + dim F(A) = n.
Análogamente, puesto que F(At
) = C(A),
dim N(AT
) + dim C(A) = m.
De otra parte, con base en la nota 1.2.15,
Rn
= F(A) ⊕ N(A) y Rm
= C(A) ⊕ N(AT
),
es decir, los subespacios F(A) y N(A) de Rn
son complementarios. Así
mismo, los subespacios C(A) y N(At
) de Rm
son complementarios.
Esto implica entonces, que cada x ∈ Rn
y cada y ∈ Rm
se pueden expresar
en forma única así: x = f + n y y = c + u, donde f, n, c y u pertenecen
a F(A), N(A), C(A) y N(AT
), respectivamente (ver gura 1.1).
IR
m
f
x=f+n
Ax=Af
c
u
y=c+u
n
F C
N N
(A) (A)
(A) T
R
n
I
(A )
Figura 1.1. Transformación lineal
Nota. Según las deniciones, el núcleo de la transformación lineal x →
y = Ax es el espacio nulo de A.
De otro lado, si denimos el rango de la matriz A, ρ(A), como el rango
de la transformación lineal x → y = Ax, entonces tenemos que rango de
A es la dimensión del espacio columna de A.
1.4.5. Teorema. Sea A una matriz m × n, entonces:
1. ρ(A) es igual al número máximo de las linealmente independi-
entes de A.
2. ρ(A) es el número máximo de columnas linealmente independi-
entes de A.
22
Prerrequisitos 1.4. Espacios fundamentales de matrices
3. ρ(A) es el número de las no nulas de la forma escalonada re-
ducida de A.
4. Para cualquier matriz A, ρ(A) = ρ(AT
) = ρ(AAT
) = ρ(AT
A).
5. Si A es una matriz m × n y B es una matriz n × k, entonces
ρ(AB) ≤ ρ(A) y ρ(AB) ≤ ρ(B).
6. Si P es una matriz invertible m×m y Q es una matriz invertible
n × n, entonces ρ(A) = ρ(PA) = ρ(AQ) = ρ(PAQ).
7. Si A y B son matrices m×n, entonces ρ(A+B) ≤ ρ(A)+ρ(B).
1.4.6. Teorema. Sea A una matriz m × n y sea y un vector m × 1.
1. El sistema de ecuaciones Ax = y tiene solución sii y ∈ C(A).
2. El sistema de ecuaciones Ax = y tiene solución sii el rango de
la matriz A es igual al rango de la matriz aumentada del sistema
[A | y], es decir sii ρ(A) = ρ([A| y]).
3. Para el sistema de ecuaciones lineales Ax = y se da una y sólo
una de las opciones siguientes:
a) El sistema no tiene solución, en cuyo caso y /∈ C(A).
b) El sistema tiene innitas soluciones, en cuyo caso su con-
junto solución es una variedad lineal de la forma
S = {xp + xh : xh ∈ N(A)} ,
donde xp es una solución particular del sistema; ésto es,
Axp = y, además, dim N(A)  0.
c) El sistema tiene una única solución. En este caso se tiene
que N(A) = {0 }
El teorema siguiente recoge, teóricamente, el método de Gauss-Jordan
para resolver sistemas de ecuaciones lineales.
1.4.7. Teorema. Sean A una matriz m × n y y un vector n × 1. Si P
es una matriz invertible m × m tal que PA = R, donde R es la forma
escalonada reducida de A, entonces Ax = y sii Rx = Py; esto es, los
sistemas de ecuaciones lineales Ax = y y Rx = Py tienen el mismo
conjunto solución. En particular, si y = 0; Ax = 0 sii Rx = 0.
1.4.8. Teorema (Resumen). Sea A una matriz cuadrada de orden n. Las
armaciones siguientes son equivalentes:
1. det(A) = 0.
2. A es invertible.
3. La forma escalonada de A en In.
23
1.4. Espacios fundamentales de matrices Prerrequisitos
4. Los vectores la de A son linealmente independientes.
5. El espacio la de A es Rn
, es decir, F(A) = Rn
.
6. Los vectores columna de A son linealmente independientes.
7. El espacio columna de A es Rn
, es decir, C(A) = Rn
.
8. El rango de la matriz A es n.
9. N(A) = {0}.
10. El sistema de ecuaciones lineales Ax = 0 tiene la única solución
x = 0.
11. Para todo y ∈ Rn
, El sistema de ecuaciones lineales Ax = y
tiene solución.
Por último, consideramos un método para calcular una base de cada uno
de los espacios fundamentales de una matriz m×n arbitraria A. El método
consiste en efectuar los pasos siguientes:
Paso 1 Forme la matriz AT
| In .
Paso 2 Efectúe operaciones elementales sobre las las de la matriz
anterior hasta obtener la forma escalonada reducida. Al nal
se obtiene la matriz que podemos describir por bloques así:

 Er×m
.
.
. Pr×n
0(n−r)×m
.
.
. P(n−r)×n


donde r = ρ(A).
Los vectores la de la matriz Er×m conforman una base para
C(A) y los vectores la de la matriz P(n−r)×n conforman una
base para N(A).
Al llevar a cabo el paso 2 con la matriz [A | Im] se obtienen sendas bases
para C(AT
) = F(A) y N(AT
).
24
CAPÍTULO 2
Matrices particionadas. Traza de una matriz
Este capítulo consta de tres secciones. Las dos primeras versan sobre ma-
trices particionadas. La tercera sección trata sobre la traza de una matriz.
Consignaremos aquí los principales resultados sobre la traza de una ma-
triz. Existen razones para querer particionar una matriz A, algunas de ellas
son: (i) La partición puede simplicar la escritura de A. (ii) La partición
puede exhibir detalles particulares e interesantes de A. (iii) La partición
puede permitir simplicar cálculos que involucran la matriz A.
2.1. Submatrices. Operaciones con matrices
particionadas
A veces es necesario considerar matrices que resultan de eliminar algunas
las y/o columnas de alguna matriz dada, como se hizo por ejemplo,
al denir el menor correspondiente al elemento aij de una matriz A =
[aij]m×n (véase el apartado 1.1.3 del capítulo 1).
2.1.1. Denición. Sea A una matriz. Una submatriz de A es una matriz
que se puede obtener al suprimir algunas las y/o columnas de la matriz
A.
2.1.2. Ejemplo. Las matrices S1, S2 y S3dadas a continuación, sonson
submatrices de la matriz
A =


1 2 3 4
5 6 7 8
9 0 −1 −2

 .
S1 =
1 2 4
9 0 −2
(suprimiendo en A la la 2 y la columna 3)
25
2.1. Submatrices Matrices particionadas
S2 =
1 2 3 4
9 0 7 8
(suprimiendo en A la la 3)
S3 =
2 3
6 7
(suprimiendo en A la la 3 y las columnas 1 y 4).
Dada una matriz A = [aij]m×n; mediante un sistema de rectas horizon-
tales o verticales podemos particionarla en submatrices de A, como se
ilustra en el siguiente ejemplo:
A =













a11
.
.
. a12 a13
.
.
. a14
a21
.
.
. a22 a23
.
.
. a24
a31
.
.
. a32 a33
.
.
. a34
· · · · · · · · · · · · · · · · · ·
a41
.
.
. a42 a43
.
.
. a44
a51
.
.
. a52 a53
.
.
. a55













Hecho esto, podemos escribir, usando una notación obvia:
A =
A11 A12 A13
A21 A22 A23
donde
A11 =


a11
a21
a31

 , A12 =


a12 a13
a22 a23
a32 a33

 , A13 =


a14
a24
a34

 ,
A21 =
a41
a51
, A22 =
a42 a43
a52 a53
, A23 =
a44
a55
.
Debe ser claro para el lector, que una matriz puede ser particionada de
diferentes maneras, por ejemplo:
26
Matrices particionadas 2.1. Submatrices
A =






1 2 3 4 5
2 0 3 0 1
−1 2 3 1 1






=







1 2
.
.
. 3 4
.
.
. 5
2 0
.
.
. 3 0
.
.
. 1
· · · · · · · · · · · · · · · · · · · · ·
−1 2
.
.
. 3 1
.
.
. 1







.
A =







1
.
.
. 2 3 4 5
2
.
.
. 0 3 0 1
· · · · · · · · · · · · · · · · · ·
−1
.
.
. 2 3 1 1







Tal vez, la principal conveniencia de particionar matrices, es que se puede
operar con matrices particionadas como si las submatrices fuesen elemen-
tos ordinarios, tal como se establece en el teorema siguiente.
2.1.3. Teorema.
1. Si las matrices A y B están particionadas así:
A =





A11 A12 · · · A1n
A21 A22 · · · A2n
.
.
.
.
.
.
. . .
.
.
.
Am1 Am2 · · · Amn





y B =





B11 B12 · · · B1n
B21 B22 · · · B2n
.
.
.
.
.
.
. . .
.
.
.
Bm1 Bm2 · · · Bmn





y si las sumas Aij +Bij están denidas para i = 1, 2, . . . , m, j =
1, 2, . . . , n, entonces
A + B =





A11 + B11 A12 + B12 · · · A1n + B1n
A21 + B21 A22 + B22 · · · A2n + B2n
.
.
.
.
.
.
. . .
.
.
.
Am1 + Bm1 Am2 + Bm2 · · · Amn + Bmn





.
2. Si las matrices A y B están particionadas así:
A =





A11 A12 · · · A1n
A21 A22 · · · A2n
.
.
.
.
.
.
. . .
.
.
.
Am1 Am2 · · · Amn





y B =





B11 B12 · · · B1s
B21 B22 · · · B2s
.
.
.
.
.
.
. . .
.
.
.
Bn1 Bn2 · · · Bns





27
2.1. Submatrices Matrices particionadas
y si el número de columnas de cada bloque Aik es igual al número
de las de cada bloque Bkj; i = 1, 2, . . . , m, k = 1, 2, . . . , n, j =
1, 2, . . . , s, entonces
AB =





C11 C12 · · · C1s
C21 C22 · · · C2s
.
.
.
.
.
.
. . .
.
.
.
Cm1 Cm2 · · · Cms





,
donde Cij =
n
k=1
AikBkj.
3. Si la matriz A está particionada como en (1) y si α es un escalar,
entonces
αA =





αA11 αA12 · · · αA1n
αA21 αA22 · · · αA2n
.
.
.
.
.
.
. . .
.
.
.
αAm1 αAm2 · · · αAmn





.
4. Si la matriz A está particionada como en (1) , entonces
AT
=






AT
11 AT
21 · · · AT
n1
AT
12 AT
22 · · · AT
n2
.
.
.
.
.
.
. . .
.
.
.
AT
1m AT
2m · · · AT
nm






.
Los incisos (1), (3) y (4) del teorema anterior son fáciles de vericar. La
demostración del inciso (2) es laboriosa y no la haremos. Sin embargo, el
lector interesado puede consultar una indicación de dicha demostración
en [10] página 19.
A continuación ilustraremos el inciso (2) de dicho teorema.
Si
A =







1
.
.
. 0 0
.
.
. 0 3
2
.
.
. 0 0
.
.
. 3 −4
· · · · · · · · · · · · · · · · · · · · ·
1
.
.
. 2 1
.
.
. 0 0







=


A11 A12 A13
A21 A23 A23


28
Matrices particionadas 2.2. Determinantes
y
B =










1 2
· · · · · ·
0 0
1 3
· · · · · ·
0 1
1 2










=





B11
B21
B31





entonces
AB =


A11B11 + A12B21 + A13B31
A21B11 + A22B21 + A23B31

 =


4 8
−2 −7
2 5


pues
A11B11 =
1
2
1 2 =
1 2
2 4
,
A12B21 =
0 0
0 0
0 0
1 3
=
0 0
0 0
,
A13B31 =
0 3
3 −4
0 −1
1 2
=
3 6
−4 −1
,
A21B11 = [1] 1 2 = 1 2
A22B21 = 2 1
0 0
1 3
= 1 3 ,
A23B31 = 0 0
0 −1
1 2
= 0 0 .
2.2. Determinantes e inversas de algunas matrices especiales
En algunas situaciones es conveniente utilizar matrices particionadas para
describir determinantes e inversas de ciertas matrices en términos de las
submatrices. En particular, los teoremas 2.2.3 y 2.2.8, son usados en la
deducción de las distribuciones condicionales de un vector aleatorio con
distribución normal multivariante (véase el Teorema 3.6.1 de [4])
29
2.2. Determinantes Matrices particionadas
El lector recordará, que el determinante de una matriz triangular (supe-
rior o inferior) es justamente el producto de los elementos de la diagonal
principal. El siguiente teorema, por ejemplo, lo podríamos ver como una
generalización de dicho resultado.
2.2.1. Proposición. Sean A y C matrices cuadradas,
1. Si M =
A B
0 C
, entonces |M| = |A||C|.
2. Si M =
A 0
B C
, entonces |M| = |A||C|.
Demostración. Para la demostración del literal (1) usamos induc-
ción sobre el orden n de la matriz M.
Si n = 2 tenemos que |M| = ac = |A| |C| donde
M =
A B
0 C
=
a b
0 c
.
Supongamos ahora que (1) es válida para n = k y demostremos que es
válida para n = k + 1.
Sea M una matriz cuadrada de orden n = k +1 particionada como en (1).
Suponga además que B = [bij]r×s y C = [cij]s×s. Denotemos por ˆBj
a la
submatriz de B que se obtiene suprimiendo en B la columna j y por ˆCj
a la submatriz de C que se obtiene suprimiendo en C la columna j y la
la s, j = 1, 2, . . . , s.
Ahora, desarrollando el determinante de C por los cofactores de la la
s (véase el Teorema 1.1.5(1)), obtenemos:
det(C) = cs1(−1)s+1
| ˆC1
| + cs2(−1)s+2
| ˆC2
| + . . . + css(−1)s+s
| ˆCs
|.
Así mismo, desarrollando el determinante de M por los cofactores de la
la k + 1 obtenemos:
30
Matrices particionadas 2.2. Determinantes
det(M) = cs1(−1)2(k+1)−s+1 A ˆB1
0 ˆC1 +
+cs2(−1)2(k+1)−s+2 A ˆB2
0 ˆC2
+ . . . + css(−1)2(k+1)−s+s A ˆBs
0 ˆCs
Utilizando la hipótesis de inducción se obtiene:
det(M) = (−1)2(k+1)−2s
cs1(−1)s+1
|A| | ˆC1
| + cs2(−1)s+2
|A| | ˆC2
|
+ . . . + css(−1)s+s
|A| | ˆCs
|
= |A| cs1(−1)s+1
| ˆC1
| + cs2(−1)s+2
| ˆC2
| + . . . +
+css(−1)s+s
| ˆCs
|
= |A| |C| .
Lo que completa la demostración de (1).
La demostración de (2) se sigue del hecho de que |M| = MT
(teore-
ma 1.1.6(1)) y del inciso (1). En efecto, se tiene:
det(M) = det(MT
)
= det
A B
0 C
= det(AT
) det(CT
)
= det(A) det(C)
2.2.2. Ejemplo. Use partición de matrices y los resultados de la proposi-
ción anterior para calcular el determinante de cada una de las matrices
siguientes:
31
2.2. Determinantes Matrices particionadas
M =


7 0 0
4 5 6
3 7 9

 y N =




1 2 4 5
1 3 6 7
0 0 2 3
0 0 3 5



 ,
las cuales se pueden particionar respectivamente como sigue:
M =








7
.
.
. 0 0
· · ·
.
.
. · · · · · ·
4
.
.
. 5 6
3
.
.
. 7 9








=
A 0
B C
y
N =











1 2
.
.
. 4 5
1 3
.
.
. 6 7
· · · · · ·
.
.
. · · · · · ·
0 0
.
.
. 2 3
0 0
.
.
. 3 5











.
Entonces
|M| = |7|
5 6
7 9
= 21 y |N| =
1 2
1 3
2 3
3 5
= 1.
El siguiente teorema nos brinda una alternativa para calcular determi-
nantes de matrices más generales particionadas por bloques.
2.2.3. Teorema. Sean A y B matrices cuadradas y sea M =
A B
C D
.
1. Si D es invertible, entonces |M| = |D| A − BD−1
C .
2. Si A es invertible, entonces |M| = |A| D − CA−1
B .
Demostración. Haremos sólo la demostración del literal (1), el se-
gundo resultado se verica de manera análoga y se deja como ejercicio al
lector.
32
Matrices particionadas 2.2. Determinantes
Sea S =
I 0
−D−1
C I
. Entonces MS =
A − BD−1
C B
0 D
.
Ahora por el teorema 1.1.6(9) y por la proposición anterior, se tiene :
|M| = |M| |I| |I| = |M| |S| = |MS| = |D| A − BD−1
C .
Los siguientes resultados son consecuencia inmediata de este teorema y
sus vericaciones se dejan como ejercicio.
2.2.4. Corolario. Sean A, B, C y D matrices cuadradas de orden n y sea
M la matriz dada por
M =
A B
C D
.
1. Si D es invertible y si DB = BD, entonces |M| = |DA − BC|.
2. Si A es invertible y si AC = CA, entonces |M| = |AD − CB|.
3. Si D = 0 y A es invertible, entonces |M| = (−1)n
|B| |C|.
4. Si A = 0 y D es invertible, entonces |M| = (−1)n
|B| |C|.
2.2.5. Ejemplo. Utilizando los resultados del corolario anterior encon-
tremos los determinantes para las matrices M y N dadas por:
M =


1 2 4
1 3 5
1 1 1

 y N =




1 2 2 1
1 3 2 3
4 5 0 0
3 3 0 0



 .
Particionemos entonces M y N de adecuadamente.
Para M tomamos







1 2
.
.
. 4
1 3
.
.
. 5
· · · · · · · · · · · ·
1 1
.
.
. 1







=
A B
C D
, siendo D = [1].
Puesto que D es una matriz invertible entonces,
|M| = |D| A − BD−1
C = |1|
−3 −2
−4 −2
= −2 .
33
2.2. Determinantes Matrices particionadas
Similarmente para N, N =










1 2
.
.
. 2 1
1 3
.
.
. 2 3
· · · · · · · · · · · · · · ·
4 5
.
.
. 0 0
3 3
.
.
. 0 0










=
A B
C 0
,
siendo A =
1 2
1 3
. Dado que A es invertible tenemos que
|M| = (−1)2
|B| |C| = −12 .
2.2.6. Proposición. Sean A y C matrices cuadradas.
1. La matriz M =
A B
0 C
es invertible sii las matrices A y C
son invertibles. Además, si M es invertible entonces
M−1
=
A−1
−A−1
BC−1
0 C−1 .
2. La matriz M =
A 0
B C
es invertible sii las matrices A y C
son invertibles. Además, si M es invertible entonces
M−1
=
A−1
0
−C−1
BA−1
C−1 .
La prueba de este resultado se propone como ejercicio. El ejemplo siguien-
te, nos ilustra el inciso (1) de la proposición anterior.
2.2.7. Ejemplo. Verique que la matriz
M =




1 2 1 1
1 3 1 1
0 0 2 1
0 0 5 3




es invertible y calcule su matriz inversa.
34
Matrices particionadas 2.2. Determinantes
Observando la estructura de la matriz M podemos ver que una buena
partición es: M =










1 2
.
.
. 1 1
1 3
.
.
. 1 1
· · · · · · · · · · · · · · ·
0 0
.
.
. 2 1
0 0
.
.
. 5 3










=
A B
0 C
. Puesto que
las matrices A y C son invertibles, entonces M también lo es y además,
M−1
=
A−1
−A−1
BC−1
0 C−1 =




3 −2 2 −1
1 3 0 0
0 0 3 −1
0 0 −5 2



 .
El siguiente teorema presenta una fórmula para calcular inversas de ma-
trices más generales
2.2.8. Teorema. Sea B una matriz invertible particionada así:
B =
B11 B12
B21 B22
, con B11 y B22 matrices invertibles.
Si B−1
está particionada así:
B−1
=
A11 A12
A21 A22
,
donde Aii (i = 1, 2), matrices cuadradas de igual orden que la matriz Bii
respectivamente entonces:
1. Las matrices A11 y A22 son invertibles.
2. Las matrices B11 − B12B−1
22 B21 y B22 − B21B−1
11 B12 son inver-
tibles.
3. La matriz B−1
está dada por



B11 − B12B−1
22 B21
−1
−B−1
11 B12 B22 − B21B−1
11 B12
−1
−B−1
22 B21 B11 − B12B−1
22 B21
−1
B22 − B21B−1
11 B12
−1



35
2.2. Determinantes Matrices particionadas
Demostración. De la igualdad
BB−1
=
B11 B12
B21 B22
A11 A12
A21 A22
=
I 0
0 I
= I
se obtienen las igualdades
(2.1)
B11A11 + B12A21 = I
B21A11 + B22A21 = 0
B11A12 + B12A22 = 0
B21A12 + B22A22 = I
Ahora, premultiplicando ambos miembros de (2.1(b)) por B−1
22 , se obtiene
:
B−1
22 B21A11 + A21 = 0, o sea, A21 = −B−1
22 B21A11.
Sustituyendo A21 en (2.1(a)), se obtiene
B11 − B12B−1
22 B21 A11 = I .
Esto quiere decir que las matrices B11 −B12B−1
22 B21 y A11 son invertibles
y que una es la inversa de la otra.
Premultiplicando ambos miembros de (2.1(c)) por B−1
11 , se obtiene :
A12 + B−1
11 B12A22 = 0, o sea, A12 = −B−1
11 B12A22.
Sustituyendo A12 en (2.1(d)), se obtiene:
B22 − B21B−1
11 B12 A22 = I .
Esto quiere decir que las matrices B22 −B21B−1
11 B12 y A22 son invertibles
y que una es la inversa de la otra.
Por lo anterior,
A11 = B11 − B12B−1
22 B21
−1
A12 = −B−1
11 B12 B22 − B21B−1
11 B12
−1
A21 = −B−1
22 B21 B11 − B12B−1
22 B21
−1
A22 = B22 − B21B−1
11 B12
−1
A continuación enunciamos y demostramos un teorema que involucra ma-
trices particionadas y el rango de una matriz.
36
Matrices particionadas 2.3. Traza de una matriz
2.2.9. Teorema. Sea A =
A11 A12
A21 A22
, donde A11 es una matriz in-
vertible r × r. Si ρ(A) = ρ(A11), entonces A22 = A21A−1
11 A12.
Demostración. Puesto que A11 es una matriz invertible, entonces
ρ(A11) = r (ver teorema 1.4.8).
Ahora, las matrices P =


I 0
− A21A−1
11 I

 y PQ =


I −A−1
11 A12
0 I


son invertibles, puesto que |P| = |Q| = 1 = 0. En consecuencia, por el
teorema 1.4.5, la matriz A y la matriz
PAQ =
A11 0
0 A22 − A21A−1
11 A12
tienen rango r. Puesto que el número máximo de las linealmente inde-
pendientes de las matrices PAQ y A11 es r (véase el teorema 1.4.5(2)), en-
tonces necesariamente A22−A21A−1
11 A12 = 0, o sea A22 = A21A−1
11 A12.
2.3. Traza de una matriz
En ciertos contextos, la suma de los elementos de la diagonal de una matriz
juega un papel importante. Por ejemplo, la traza de una matriz aparece en
la evaluación de las integrales requeridas en el estudio de la distribución
normal multivariante (véase el teorema 1.10.1 de [3]) y el valor esperado
de formas cuadráticas (véase el teorema 4.6.1 de [4]).
2.3.1. Denición. Sea A una matriz cuadrada. La traza de A se deno-
ta por Tr(A) y se dene como la suma de los elementos de la diagonal
principal de A. Ésto es,
Tr(A) =
n
s=1
A ss .
2.3.2. Nota. Puesto que los elementos de la diagonal principal de A son
los mismos que los elementos de la diagonal principal de AT
, entonces
Tr(A) = Tr(AT
) .
37
2.3. Traza de una matriz Matrices particionadas
2.3.3. Teorema. Sean A y B son matrices cuadradas del mismo orden.
Si α y β son escalares, entonces
Tr(αA + βB) = α Tr(A) + β Tr(B) .
Demostración. Usando la estructura de espacio vectorial de las ma-
trices, así como la denición de traza se tiene:
Tr(αA + βB) =
n
s=1
αA + βB ss
=
n
s=1
(α A ss + β B ss)
= α
n
s=1
A ss + β
n
s=1
B ss
= α Tr(A) + β Tr(B) .
2.3.4. Teorema. Si A es una matriz m × n y B es una matriz n × m ,
entonces
Tr(AB) = Tr(BA) .
Demostración. Usando la denición de traza y la denición de pro-
ducto de matrices obtenemos,
Tr(AB) =
n
s=1
AB ss
=
n
s=1
m
k=1
A sk B ks
=
m
k=1
n
s=1
B ks A sk
=
m
k=1
BA kk = Tr(BA) .
38
Matrices particionadas 2.4. Ejercicios
2.3.5. Corolario. Sea A una matriz cuadrada de orden n. Si P es una
matriz invertible n × n, entonces
Tr(A) = Tr(P−1
AP) = Tr(PAP−1
).
Demostración. Por el teorema anterior,
Tr(A) = Tr(AI) = Tr(APP−1
) = Tr(P−1
AP)
= Tr(PP−1
A) = Tr(P−1
PA) = Tr(PAP−1
).
2.3.6. Corolario. Si A es una matriz m × n, entonces
Tr(AAT
) = Tr(AT
A) =
n
s=1
m
k=1
A
2
sk .
Además, Tr(AAT
) = 0 sii A = 0.
Demostración. Por denición de traza y por el teorema 2.3.4,
Tr(AAT
) =
m
s=1
AAT
ss
=
m
s=1
n
k=1
A sk
AT
ks
=
m
s=1
n
k=1
A
2
sk
;
Esto es, Tr(AAT
) es la suma de los cuadrados de los elementos de A. De
esto se sigue entonces que, Tr(AAT
) = Tr(AT
A) y además que Tr(AAT
) =
0 si y sólo si A = 0.
2.4. Ejercicios
1. Utilice matrices particionadas para calcular el determinante y la
matriz inversa (si existe) de cada una de las matrices siguientes
:
M1 =




5 3 0 0
3 2 0 0
3 −2 2 1
2 1 5 3



 M2 =




3 1 1 −1
2 1 −1 1
0 0 1 1
0 0 4 5




2. Demuestre el inciso (2) del teorema 2.2.3.
3. Demuestre el corolario 2.2.4.
4. Demuestre la proposición 2.2.6.
39
2.4. Ejercicios Matrices particionadas
5. Sean a, b, c y d escalares no nulos y sea n ∈ N. Calcule el deter-
minante y la matriz inversa, cuando exista, de la matriz
M =
aIn bIn
cIn dIn
.
6. Sean A una matriz cuadrada de orden n y B una matriz cuadra-
da de orden k. Demuestre que si M =
0 A
B C
o si M =
C A
B 0
, entonces |M| = (−1)nk
|A| |B|. (Sug.: Utilice induc-
ción sobre el orden de la matriz B).
7. Sean A y B matrices cuadradas.
a) Dar condiciones necesarias y sucientes para que la matriz
M =
0 A
B C
sea invertible. Si M es invertible, exprese M−1
en términos
de las matrices A, B y C.
b) Dar condiciones necesarias y sucientes para que la matriz
M =
C A
B 0
sea invertible. Si M es invertible, exprese M−1
en términos
de las matrices A, B y C.
8. Utilice los resultados que obtuvo en el problema anterior para
calcular la matriz inversa de cada una de las matrices siguientes:
M1 =




0 0 2 1
0 0 5 3
5 3 3 −2
3 2 2 1



 M2 =




1 −1 1 1
−1 1 4 5
3 1 0 0
2 1 0 0



 .
9. Sean A = [aij]m×n y B = [bij]n×k. Utilice matrices particionadas
para demostrar que:
a) Si A tiene una la nula, entonces AB tiene una la nula.
(Sug.: Particione la matriz A por las).
b) Si B tiene una columna nula, entonces AB tiene una colum-
na nula. (Sugerencia: Particione la matriz B por columnas).
40
Matrices particionadas 2.4. Ejercicios
10. Sean A11, A22 y A33 matrices cuadradas. Demuestre que si
M =


A11 A12 A13
0 A22 A23
0 0 A33

 ó M =


A11 0 0
A21 A22 0
A31 A32 A33


entonces |M| = |A11| |A22| |A33|.
11. Demuestre que si A11, A22 y A33 son matrices invertibles, en-
tonces la matriz M = diag (A11, A22, A33) es invertible y
M−1
=


A−1
11 0 0
0 A−1
22 0
0 0 A−1
33


12. Sean a ∈ R y An×n una matriz invertible, entonces
det
a x
y A
= |A| (a − xA−1
y).
(Sugerencia: Use el teorema 2.2.3)
13. Verique que
det
I A
B C
= det(C − BA).
(Sugerencia: Use el corolario 2.2.4)
14. Muestre que
det
In B
A Im
= det
Im A
B In
y concluya que |Im − AB| = |In − BA|.
15. Suponga que las matrices que abajo aparecen son de tamaño
apropiado, donde I es la matriz identica y que A11 es una matriz
invertible. Encuentre matrices X y Y tales que el producto que
sige tiene la forma indicada. Encuentre además B22.


I 0 0
X I 0
Y 0 I




A11 A12
A21 A22
A32 A33

 =


B11 B12
0 B22
0 B32


16. Demuestre que si A es una matriz invertible 2 × 2, entonces
Tr(A) = det(A) · Tr(A−1
).
17. Sea V el espacio vectorial de las matrices n × n; (V = Mn×n)
. Demuestre que la función ; : V × V → M denida por
A; B = Tr(ABT
) es un producto interno en V . (Vea el apartado
1.2.3 del capítulo 1).
41
2.4. Ejercicios Matrices particionadas
18. Sean A y B matrices cuadradas de orden n. Demuestre que
Tr(ABT
) ≤ (Tr(AAT
) Tr(BBT
))1/2
.
19. Si A, B ∈ Mn×n, muestre que AB−BA = I. (Sugerencia: Utilice
la función traza)
20. Si T : Mn×n → R es una transformación lineal, entonces existe
una matriz A tal que T(M) = Tr(AM). (Escriba T(M) en tér-
minos de T(Eij), siendo Eij los elementos de la base estándar
de las matrices)
21. Calcule dim W, donde W = {A : Tr(A) = 0}.
22. Sean A y B matrices cuadradas del mismo orden
a) Muestre que Tr((AB)k
) = Tr((BA)k
).
b) Muestre con un ejemplo que Tr((AB)k
) = Tr(Ak
Bk
).
42
CAPÍTULO 3
Valores propios y vectores propios.
Diagonalización
Este capítulo consta de cuatro secciones. Con el n de dar una idea de
lo que haremos en las dos primeras secciones, consideraremos un espacio
vectorial U y una transformación lineal T : U → U. Ahora; si existe una
base ordenada B = {u1, u2, . . . , un} de U tal que [T]BB es una matriz
diagonal, es decir,
[T]BB = D =





λ1 0 · · · 0
0 λ2 · · · 0
.
.
.
.
.
.
. . .
.
.
.
0 0 · · · λn





,
entonces
T(ui) = λiui; i = 1, 2, . . . , n ,
esto es, T(ui) es un múltiplo escalar de ui. Este hecho da información
inmediata acerca de la transformación lineal T. Por ejemplo, la imagen
de T es el espacio generado por los vectores ui para los cuales λi = 0,
y el núcleo de T es el espacio generado por los restantes vectores ui. En
la sección 3.2 responderemos las preguntas: ¾Para qué transformaciones
lineales T existe una tal base B? y si existe, ¾Cómo encontrarla?. Las
respuestas a estas preguntas están directamente ligadas a los conceptos
de valor propio y vector propio, los cuales serán abordados en la sección
3.1. Veremos en esta sección, que el cálculo de los valores propios y los
vectores propios de una transformación lineal T se reduce al cálculo de
los valores propios y los vectores propios de una cierta matriz A. Por
otro lado, en las secciones 3.3 y 3.4 consideraremos los conceptos de valor
propio, vector propio y diagonalización de matrices simétricas, los cuales
son particularmente importantes en la teoría y en aplicaciones del álgebra
lineal.
43
3.1. Valores propios y vectores propios Diagonalización de matrices
3.1. Valores propios y vectores propios
Un problema que se presenta con frecuencia en el Álgebra lineal y sus apli-
caciones es el siguiente: Dado un espacio vectorial U y dada una transfor-
mación lineal T : U → U, encontrar valores de un escalar λ para los cuales
existan vectores u = 0 tales que T(u) = λu. Tal problema se denomina
un problema de valores propios (la gura 3.1 nos ilustra las posibles situa-
ciones). En esta sección veremos cómo resolver dicho problema.
3.1.1. Denición. Sean U un espacio vectorial y T : U → U una trans-
formación lineal. Se dice que el escalar λ es un valor propio de T, si existe
un vector u = 0 de U tal que T(u) = λu. A dicho vector no nulo u se le
llama un vector propio de T correspondiente al valor propio λ, o se dice
que es λ-vector de T.
Nota. Los valores propios se denominan también eigenvalores o valores
característicos y los vectores propios se denominan también eigenvectores.
u
0λ1
u
T(u)= 0
u
λ0 λ=0λ1
uT(u)= u
T(u)= u
T(u)= u
λ
λ
λ
Figura 3.1. Interpretación geométrica de vector propio
3.1.2. Ejemplo. Calcule los valores propios de la transformación lineal
T : R2
→ R2
, dada por T (x, y) = (2x, x + 3y).
De acuerdo con la denición anterior; el escalar λ es un vector propio T sii
existe un vector u = (x, y) = 0 de R2
tal que T [(x, y)] = (2x, x + 3y) =
λ(x, y), lo que equivale a que exista un vector u = (x, y) = 0 de R2
que
satisfaga el sistema
2x = λx
x + 3y = λy .
44
Diagonalización de matrices 3.1. Valores propios y vectores propios
Ahora, si x = 0, entonces se tiene que λ = 2 y por lo tanto y = −x. Esto
quiere decir que todos los vectores de la forma
u = (x, y) = (x, −x); x ∈ R, x = 0
son 2-vectores propios de T. En efecto:
T [(x, −x)] = (2x, −2x) = 2(x, −x) .
De otro lado, si x = 0 y y = 0 entonces λ = 3. Esto quiere decir que todos
los vectores de la forma
u = (x, y) = (0, y); y ∈ R, y = 0
son 3-vectores propios de T. En efecto:
T [(0, y)] = (0, 3y) = 3(0, y) . Λ
La gura 3.2 nos ilustra el ejemplo anterior.
y
T(u ) =3 (0, y)
u = (x, −x)
T(u) =2 (x, −x)
x
,
,
u = (0, y)
Figura 3.2. Vectores propios de T(x, y) = (2x, x + 3y)
45
3.1. Valores propios y vectores propios Diagonalización de matrices
En el ejemplo anterior observamos que a cada vector propio de T le cor-
responde un número innito de vectores propios (todo un subespacio de
U ⊂ R2
, sin el vector nulo). Esto es válido en general, tal como se establece
en la proposición siguiente.
3.1.3. Proposición. Sean U un espacio vectorial, T : U → U una trans-
formación lineal y λ un valor propio de T. El conjunto S(λ) de todos los
λ-vectores propios de T junto con el vector 0, es un subespacio de U.
Demostración. De acuerdo con la denición de transformación lin-
eal, así como de vector y valor propio se tiene:
1. Si u1 ∈ S(λ) y u2 ∈ S(λ) entonces
T(u1 + u2) = T(u1) + T(u2) = λ(u1 + u2) .
Esto es, u1 + u2 ∈ S(λ).
2. Si u ∈ S(λ) y α ∈ R entonces
T(αu) = αT(u) = λ(α · u) .
Esto es, αu ∈ S(λ).
De acuerdo con el teorema 1.2.6, S(λ) es un subespacio vectorial de U.
3.1.4. Denición. Sean U un espacio vectorial, T : U → U una transfor-
mación lineal y λ un valor propio de T.
1. El subespacio de U, S(λ), mencionado en el teorema anterior, se
denomina espacio propio asociado al valor propio λ.
2. La dimensión de S(λ) se denomina multiplicidad geométrica del
valor propio λ.
3.1.5. Nota. Sean U un espacio vectorial, T : U → U una transforma-
ción lineal, B una base ordenada para U y A = [T]BB , la matriz de la
transformación T referida a la base B. Entonces para cada u ∈ U se tiene
[T(u)]B = A [u]B (ver teorema 1.3.8). En particular, u es un λ-vector pro-
pio de T si y sólo si u = 0 y A [u]B = [T(u)]B = [λu]B = λ [u]B . Esto es,
u es un λ-vector propio de T si y sólo si u = 0 y A [u]B = λ [u]B . Por esta
razón, y porque resulta en otros contextos, consideramos a continuación
los conceptos particulares de valor propio y vector propio de una matriz
cuadrada A.
46
Diagonalización de matrices 3.1. Valores propios y vectores propios
3.1.6. Denición. Sea A una matriz cuadrada de orden n.
1. Se dice que el escalar λ es un valor propio de A, si existe un
vector n × 1, x = 0 tal que Ax = λx.
2. Si λ es un valor propio de A y si el vector n × 1, x = 0 es tal
que Ax = λx. Entonces se dice que x es un vector propio de A
correspondiente al valor propio λ, o que x es un λ-vector de A.
En el caso especial de la transformación lineal; A : Rn
→ Rn
; x → y =
Ax, esta la denición anterior concuerda con la denición 3.1.1 (véase la
sección 1.3). De otro lado, según la denición anterior y la nota 3.1.5,
odemos enunciar el siguiente teorema.
3.1.7. Teorema. Sean U un espacio vectorial, T : U → U una transfor-
mación lineal, B una base ordenada para U y A = [T]BB .
1. λ es un valor propio de T sii λ es un valor propio de A.
2. u ∈ U es un λ-vector propio de T sii x = [u]BB es un λ-vector
propio de A.
Dicho teorema nos garatiza entonces, que el cálculo de los valores y vec-
tores propios de una transformación lineal se reduce al cálculo de los val-
ores y vectores propios de una cierta matriz A. En lo que sigue, veremos
cómo calcular los valores y vectores propios de una matriz.
Sea A una matriz n × n. Por denición, el escalar λ es un valor propio
de A sii existe un vector n × 1, x = 0 tal que Ax = λx, lo cual equivale
a que el sistema homogéneo de ecuaciones lineales (A − λI)x = 0 tenga
una solución no trivial x = 0. Ahora por el teorema 1.4.8 del capítulo 1,
el sistema de ecuaciones lineales (A − λI)x = 0 tiene una solución x = 0
sii |A − λI| = 0. En consecuencia, el escalar λ es un valor propio de A sii
pA(λ) = |A − λI| =
a11 − λ a12 a13 · · · a1n
a21 a22 − λ a23 · · · a2n
a31 a32 a33 − λ · · · a3n
.
.
.
.
.
.
.
.
.
. . .
.
.
.
an1 an2 an3 · · · ann − λ
= 0
47
3.1. Valores propios y vectores propios Diagonalización de matrices
La expresión pA(λ) = |A − λI| es un polinomio en λ de grado n, el cual
puede expresarse así (ver ejercicio 3.5(9)).
pA(λ) = |A − λI| = a0 + a1λ + a2λ2
+ · · · + an−1λn−1
+ (−1)n
λn
.
3.1.8. Denición. Sea A una matriz cuadrada
1. El polinomio pA(λ) = |A − λI| se denomina polinomio carac-
terístico de A.
2. La ecuación pA(λ) = |A − λI| = 0 se denomina ecuación carac-
terística de A.
El siguiente teorema resume buena parte de la discusión anterior.
3.1.9. Teorema. Sea A una matriz cuadrada de orden n
1. El escalar λ es un valor propio de A sii λ es una solución (real)
1
de la ecuación característica de A.
2. A tiene a lo más n valores propios (reales)
2.
3.1.10. Denición. Sea A una matriz cuadrada y λ un valor propio de
A. La multiplicidad algebraica de λ es k, si λ es una raíz del polinomio
característico de A de multiplicidad k.
El siguiente algoritmo, recoge entonces el esquema para calcular los valores
propios y los vectores propios de una matriz A.
Paso 1 Se determina el polinomio característico pA(λ) = |A − λI| .
Paso 2 Se resuelve la ecuación característica pA(λ) = |A − λI| = 0.
Las soluciones (reales) de ésta, son los valores propios de A.
Paso 3 Para cada valor propio λ∗
de la matriz A, se resuelve el sistema
de ecuaciones (A − λ∗
I)x = 0. Las soluciones no nulas de este
sistema son los λ∗
−vectores propios de A.
1Un valor propio de A es un escalar, y, como hemos establecido, en estas notas
los escalares serán números reales a menos que se exprese lo contrario. De hecho, uno
puede estudiar espacios vectoriales donde los escalares son números complejos. No sobra
mencionar que en cursos avanzados de espacios vectoriales, la única restricción para los
escalares es que sean elementos de un sistema matemático llamado cuerpo o campo.
2El teorema fundamental del álgebra establece que toda ecuación polinómica de
grado n, con coecientes complejos, tiene exactamente n raíces complejas, contadas
con sus multiplicidades.
48
Diagonalización de matrices 3.1. Valores propios y vectores propios
3.1.11. Ejemplo. Determine los valores propios y vectores propios de la
matriz
A =


1 1 −1
−1 3 −1
−1 2 0

 .
Determinemos inicialmente, el polinomio característico de A, pA(λ) =
|A − λI| . Desarrollemos |A − λI| por cofactores por la primera la (véase
el teorema 1.1.5)
pA(λ) = |A − λI| =
1 − λ 1 −1
−1 3 − λ −1
−1 2 −λ
= (1 − λ)
3 − λ −1
2 −λ
− 1
−1 −1
−1 −λ
− 1
−1 3 − λ
−1 2
= (1 − λ)(λ2
− 3λ + 2) − (1 − λ) − (−λ + 1)
= (1 − λ)(λ2
− 3λ + 2) = −(1 − λ)2
(λ − 2).
De aquí se tiene, que λ = 1 ó λ = 2 son las soluciones de la ecuación carac-
terística pA(λ) = |A − λI| = 0. λ = 1 y λ = 2 so pues los valores propios
de A, con multiplicidades algebraicas k = 2 y k = 1 respectivamente.
Determinemos los vectores propios de A. Los 1−vectores propios de A son
las soluciones no nulas del sistema de ecuaciones lineales (A − 1 · I)x = 0.
Resolvamos dicho sistema usando el método de eliminación de Gauss-
Jordan (véase el teorema 1.4.7 ).
A − 1 · I =


0 1 −1
−1 2 −1
−1 2 −1

 ≈


1 0 −1
0 1 −1
0 0 0

 = R
Donde R es la forma escalonada reducida de la matriz A − 1 · I (véase el
teorema 1.1.10).
Las soluciones del sistema (A − 1 · I)x = 0 son, por lo tanto, los vectores
de la forma:
x =


x1
x2
x3

 =


x3
x3
x3

 = x3


1
1
1

 , x3 ∈ R.
49
3.1. Valores propios y vectores propios Diagonalización de matrices
En consecuencia,
Uλ1
= U1 =





1
1
1





es una base para S(λ1) = S(1) y la multiplicidad geométrica del valor
propio λ1 = 1 es 1.
De otro lado, los 2−vectores propios de A son las soluciones no nulas
del sistema de ecuaciones lineales (A − 2 · I)x = 0. Procediendo como en
el cálculo anterior, se tiene:
A − 2 · I =


−1 1 −1
−1 1 −1
−1 2 −2

 ≈


1 0 0
0 1 −1
0 0 0

 = R
Donde R es la forma escalonada reducida de la matriz A − 2 · I. Las
soluciones del sistema (A − 2 · I)x = 0 son los vectores de la forma:
x =


x1
x2
x3

 =


0
x3
x3

 = x3


0
1
1

 , x3 ∈ R.
En consecuencia,
Uλ2 = U2 =





0
1
1





es una base para S(λ2) = S(2) y la multiplicidad geométrica del valor
propio λ2 = 2 es 1.
En el ejemplo anterior, la multiplicidad geométrica del valor propio λ1 = 1
es menor que su correspondiente multiplicidad algebraica y la multiplici-
dad geométrica del valor propio λ2 = 2 es igual que su correspondiente
multiplicidad algebraica (ver el ejercicio 3.5.2(10)).
3.1.12. Ejemplo. Calculemos los valores y vectores propios de la matriz
A =
0 1
−1 0
.
Para ello calculemos el polinomio característico de A, pA(λ) = |A − λI| .
pA(λ) = |A − λI| =
−λ 1
−1 −λ
= λ2
+ 1 ,
50
Diagonalización de matrices 3.1. Valores propios y vectores propios
y resolvemos la ecuación característica de A, pA(λ) = |A − λI| = 0
pA(λ) = λ2
+ 1 = (λ + i)(λ − i) sii λ = i ó λ = −i.
Puesto que las soluciones de la ecuación característica de A no son reales,
entonces A no tiene valores propios y por lo tanto no tiene vectores pro-
pios, en el sentido considerado en este texto.
3.1.13. Ejemplo. Sea T : P2 → P2 la transformación lineal denida por:
T a + bx + cx2
= (a + b − c) + (−a + 3b − c)x + (−a + 2b)x2
Determine los valores y los vectores propios de la transformación.
Sea B = 1, x, x2
la base canónica de P2, se tiene entonces que:
[T]BB = A =


1 1 −1
−1 3 −1
−1 2 0

 .
De acuerdo con el teorema 3.1.7(1); los valores propios de la transforma-
ción lineal T son los valores propios de la matriz A, los cuales son, según
el ejemplo 3.1.11 λ1 = 1 y λ2 = 2.
De otro lado, del ejemplo 3.1.11 se sabe que Uλ1
= {x1} es una base
de S(λ1) y que Uλ2
= {x2} es una base de S(λ2), donde
x1 =


1
1
1

 y x2 =


0
1
1

 .
Como se estableció en el teorema 3.1.7(2), éstos son respectivamente, los
vectores de coordenadas respecto a la base B (véase apartado 1.2.2) de los
vectores de P2;
u1 = 1 + x + x2
y u2 = x + x2
.
En consecuencia; Uλ1
= {u1} = 1 + x + x2
es una base del espa-
cio de vectores propios de T correspondientes al valor propio λ1 = 1 y
Uλ2
= {u2} = x + x2
es una base del espacio de vectores propios de T
correspondientes al valor propio λ2 = 2.
Terminamos esta sección con dos resultados que involucran matrices se-
mejantes. El primero de ellos relaciona los polimomios característicos de
matrices semenjantes y el segundo relaciona los vectores propios de dichas
matrices.
51
3.1. Valores propios y vectores propios Diagonalización de matrices
3.1.14. Teorema. Si A y B son matrices semejantes, entonces los poli-
nomios característicos de A y B son iguales, y por consiguiente, las ma-
trices A y B tienen los mismos valores propios.
Demostración. Si A y B son matrices semejantes, entonces existe
una matriz invertible P tal que B = P−1
AB. De aquí:
pB(λ) = |B − λI| = P−1
AP − λP−1
P
= P−1
(A − λI)P = |P−1
| |A − λI| |P|
= |P−1
| |P| |A − λI| = |A − λI|
= pA(λ).
3.1.15. Nota. El converso del teorema anterior no es cierto; o sea, si A y
B son matrices con el mismo polinomio característico, no necesariamente
A y B son matrices semejantes. Para mostrar esto, basta considerar el
siguiente ejemplo.
3.1.16. Ejemplo. Las matrices
A =
1 0
0 1
y B =
1 0
3 1
tienen el mismo polinomio característico; explícitamente pA(λ) = pB(λ) =
(λ − 1)2
. Sin embargo, A y B no son matrices semejantes, pues para
cualquier matriz invertible P de orden 2 se tiene que:
P−1
AP = P−1
IP = P−1
P = I = B.
3.1.17. Proposición. Si A y B = P−1
AP son matrices semejantes, en-
tonces x es un λ−vector propio de A sii P−1
X es un λ−vector propio de
B.
Demostración. Por denición se tiene
Ax = λx ⇐⇒ AIx = λx
⇐⇒ APP−1
x = λx
⇐⇒ P−1
APP−1
x = λP−1
x
Tomando B = P−1
AP tenemos entonces que: x = 0 es un λ-vector propio
de A si y sólo si P−1
x = 0 es un λ-vector propio de B = P−1
AP.
52
Diagonalización de matrices 3.2. Diagonalización
3.2. Diagonalización
En esta sección responderemos las preguntas siguientes: Dado un espacio
vectorial U y dada una transformación lineal T : U → U ¾Existe una base
B de U tal que [T]BB es una matriz diagonal? y si existe ¾cómo encontrar
una tal base?
Como se estableció en el teorema 1.3.14(2), si T : U → U es una trans-
formación lineal, B1 y B2 son bases ordenadas de U, A = [T]B1B1
y
P = [I]B2B1
, entonces D = [T]B2B2
= P−1
AP, esto es, las matrices A
y D son semejantes.
Esta consideración nos permite formular las preguntas anteriores en tér-
minos de matrices, así: Dada una matriz cuadrada A, ¾Existe una matriz
diagonal D semejante a la matriz?, en otros términos, existirá una matriz
invertible P tal que P−1
AP = D sea una matriz diagonal? y si existe
¾cómo encontrar una tal matriz P ?
3.2.1. Denición. Sea A una matriz cuadrada. Diremos que A es diago-
nalizable si A es semejante a una matriz diagonal.
3.2.2. Teorema. Sea A una matriz cuadrada de orden n. Si existen n
vectores propios de A linealmente independientes, entonces A es diago-
nalizable; esto es, existe una matriz invertible P tal que P−1
AP = D es
una matriz diagonal. Además, los vectores columna de P son los vectores
propios de A y los elementos de la diagonal de D son los correspondientes
valores propios de A.
Demostración. Sean λ1, λ2, . . . ,λn, los n valores propios de A,
los cuales no son necesariamente diferentes y sean x1, x2, . . . , xn, vec-
tores propios de A linealmente independientes, correspondientes respecti-
vamente a cada uno de dichos valores propios.
Sea ahora P la matriz cuya j−ésima columna es el vector propio xj,
j = 1, 2, . . . , n, la cual particionamos como sigue:
P = x1 x2 · · · xn .
Puesto que las columnas de P son linealmente independientes, entonces
P es invertible (teorema 1.4.8).
53
3.2. Diagonalización Diagonalización de matrices
Ahora,
AP = A x1 x2 · · · xn
= Ax1 Ax2 · · · Axn = λ1x1 λ2x2 · · · λnxn
= x1 x2 · · · xn





λ1 0 · · · 0
0 λ2 · · · 0
.
.
.
.
.
.
. . .
.
.
.
0 0 · · · λ3





= PD
Donde D es la matriz diagonal indicada arriba. Por lo tanto, P−1
AP = D,
y el teorema queda demostrado.
El recíproco de este resultado también es válido y está dado por el siguiente
teorema. La demostración se deja como ejercicio.
3.2.3. Teorema. Sea A una matriz cuadrada de orden n. Si A es diagona-
lizable, es decir, si existe una matriz invertible P tal que P−1
AP = D es
una matriz diagonal, entonces existen n vectores propios de A linealmente
independientes. Además, los vectores columna de P son vectores propios
de A y los elementos de la diagonal de D son los correspondientes valores
propios de A.
3.2.4. Ejemplo. Veriquemos que la matriz A =


4 −1 2
−6 5 −6
−6 3 −4

 es
diagonalizable y encontremos una matriz invertible P tal que P−1
AP = D
sea una matriz diagonal. Para tal n, veamos que A tiene 3 vectores
propios linealmente independientes. En efecto:
El polinomio característico de A, está dado por
pA(λ) = |A − λI| =
4 − λ −1 2
−6 5 − λ −6
−6 3 −4 − λ
= −(λ − 2)2
(λ − 1).
La ecuación característica de A, pA(λ) = |A − λI| = 0 tiene entonces
como solución a λ = 2 (de multiplicidad 2) y a λ = 1 (de multiplicidad
1). Estos escalares son pues, los valores propios de A.
Determinemos ahora los vectores propios asociados:
54
Diagonalización de matrices 3.2. Diagonalización
Los 2-vectores propios de A son las soluciones no nulas del sistema de
ecuaciones (A − 2I)x = 0, y los 1-vectores propios de A son las soluciones
no nulas del sistema de ecuaciones (A − 1I)x = 0. Es decir, debemos re-
solver sistemas homogéneos de ecuaciones cuyas matrices de coecientes
son respectivamente:
A − 2I =


2 −1 2
−6 3 −6
−6 3 −6

 y A − 1I =


3 −1 2
−6 4 −6
−6 3 −5

 .
Es fácil vericar que las soluciones del sistema homogéneo (A − 2I)x = 0
son los vectores de la forma
x =


x1
x2
x3

 =


1
2 x2 − x3
x2
x3


=
1
2
x2


1
2
0

 + x3


−1
0
1

 , x2, x3 ∈ R,
en consecuencia,
Uλ1 = U2 =





1
2
0

 ,


−1
0
1





es una base para S(λ1) = S(2).
De otra parte, se encuentra que las soluciones del sistema (A − 1I)x = 0
son los vectores de la forma
x =


x1
x2
x3

 =


−1
3 x3
x3
x3

 =
1
3
x3


−1
3
3

 , x3 ∈ R.
En consecuencia,
Uλ2
= U1 =





−1
3
3





es una base para S(λ2) = S(1).
55
3.2. Diagonalización Diagonalización de matrices
Ahora, los vectores
x1 =


1
2
0

 , x2 =


−1
0
1

 y x3 =


−1
3
3


son vectores propios de A correspondientes a los valores propios 2, 2 y
1, respectivamente, y son linealmente independientes como se comprueba
fácilmente.
De acuerdo con el teorema 3.2.2, la matriz A es diagonalizable. Por otro
lado, según la demostración del teorema, la matriz
P = x1 x2 x3 =


1 −1 −1
2 0 3
0 1 3


es invertible y es tal que:
P−1
AP = D =


2 0 0
0 2 0
0 0 1

 .
3.2.5. Ejemplo. La matriz del ejemplo 3.1.11,
A =


1 1 −1
−1 3 −1
−1 2 0


no es diagonalizable, pues vimos en dicho ejemplo, que la matriz A tiene
dos valores propios: λ1 = 1 y λ2 = 2, y que
U1 =





1
1
1





y U2 =





0
1
1





son bases para los espacios propios asociados, respectivamente. Así que A
sólo tiene dos vectores propios linealmente independientes.
3.2.6. Teorema. Si λ1, λ2, . . . , λk son los valores propios diferentes de
una matriz A y si x1, x2, . . . , xk son vectores propios de A correspondi-
entes a los valores propios λ1, λ2, . . . , λk, respectivamente, entonces C =
{x1, , x2, . . . , xk} es un conjunto linealmente independiente.
Demostración. Haremos la demostración utilizando inducción so-
bre el número k de vectores del conjunto C.
56
Diagonalización de matrices 3.2. Diagonalización
Si C = {x1}, entonces C es linealmente independiente, pues x1 = 0.
El teorema es cierto para cuando k = 2. En efecto: Si
(3.1) α1x1 + α2x2 = 0,
premultiplicando (3.1) por el escalar λ2 se obtiene:
(3.2) λ2α1x1 + λ2α2x2 = 0.
De otra parte; premultiplicando (3.1) por la matriz A se llega a:
(3.3) λ1α1x1 + λ2α2x2 = 0.
Restando (3.3) de (3.2) se obtiene:
(λ2 − λ1)α1x1 = 0.
Puesto que x1 = 0, entonces (λ2 − λ1)α1 = 0. Dado que λ1 = λ2 se tiene
entonces que α1 = 0. Reemplazando este valor de α1 en (3.1) se llega a
que α2x2 = 0, pero x2 = 0, entonces α2 = 0.
Supongamos ahora que el teorema es cierto para cuando k = j y de-
mostremos que el teorema es cierto para cuando k = j+1. Si
(3.4) α1x1 + α2x2 + . . . + αjxj + αj+1xj+1 = 0,
premultiplicando (3.4) por el escalar λj+1 se obtiene:
(3.5) λj+1α1x1 + λj+1α2x2 + . . . + λj+1αjxj + λj+1αj+1xj+1 = 0,
De otra parte; premultiplicando (3.4) por la matriz A se llega a:
(3.6) λ1α1x1 + λ2α2x2 + . . . + λjαjxj + λj+1αj+1xj+1 = 0.
Restando (3.6) de (3.5) se obtiene:
(λj+1 − λ1)α1x1 + (λj+1 − λ2)α2x2 + . . . + (λj+1 − λj)αjxj = 0.
Por hipótesis de inducción se tiene
(λj+1 − λ1)α1 = (λj+1 − λ2)α2 = . . . = (λj+1 − λj)αj = 0 .
De otro lado, por hipótesis del teorema los escalares λ1, . . . , λj, λj+1 son
diferentes, entonces se obtiene que α1 = α2 = . . . = αj = 0. Reemplazan-
do estos valores en 3.4 se llega a que αj+1xj+1 = 0, pero xj+1 = 0,
entonces αj+1 = 0. El teorema queda entonces demostrado.
La prueba del siguiente corolario es consecuencia inmediata de los teore-
mas 3.2.6 y 3.2.2.
57
3.2. Diagonalización Diagonalización de matrices
3.2.7. Corolario. Sea A una matriz cuadrada de orden n. Si A posee n
valores propios distintos, entonces A es diagonalizable.
3.2.8. Ejemplo. La matriz
A =


1 2 3
0 4 5
0 0 6


3×3
es diagonalizable. En efecto, la ecuación característica de A es:
pA(λ) = |A − λI| = (−1)3
(λ − 1)(λ − 4)(λ − 6) = 0.
De esto se sigue que A tiene tres valores propios distintos, a saber: λ1 = 1,
λ2 = 4 y λ3 = 6.
De acuerdo con los teoremas 3.2.2 y 3.2.3, dada la matriz cuadrada A
de orden n; existe una matriz invertible P tal que P−1
AP = D es una
matriz diagonal sii A tiene n vectores propios linealmente independientes.
Además, si existe una tal matriz P, los vectores columna de P son vectores
propios de A y los elementos de la diagonal de D son los valores propios
de A. Quedan así contestadas las preguntas propuestas al comienzo de
esta sección sobre la diagonalización de matrices. El siguiente teorema
responde a las preguntas sobre diagonalización pero formuladas en el con-
texto de las transformaciones lineales.
3.2.9. Teorema. Sea U un espacio de dimensión n y sea T : U → U
una transformación lineal. Existe una base ordenada B2 de U tal que
[T]B2B2
= D es una matriz diagonal sii T tiene n vectores propios lin-
ealmente independientes. Además, si B2 = { u1, u2, . . . , un} es un base
ordenada de U tal que
[T]B2B2
= D =





λ1 0 · · · 0
0 λ2 · · · 0
.
.
.
.
.
.
. . .
.
.
.
0 0 · · · λn





es una matriz diagonal, entonces ui es un λi-vector propio de T, o sea
T(ui) = λiui, i = 1, 2, . . . , n.
Demostración. Puesto que las matrices asociadas a transforma-
ciones lineales y referidas a bases arbitrarias son semejantes, y puesto
que el polinomio característico de matrices semejantes es el mismo (ver
teorema 3.1.14), podemos considerar una base arbitraria B1 para U.
58
Diagonalización de matrices 3.2. Diagonalización
Sea pues A = [T]B1B1
, la matriz de la transformación T referida a dicha
base B1, Existe una base ordenada B2 de U tal que D = [T]B2B2
=
[I]
−1
B2B1
A [I]B2B1
es una matriz diagonal sii A es semejante a una ma-
triz diagonal. Ahora por los teoremas 3.2.2 y 3.2.3; A es semejante a una
matriz diagonal sii A tiene n vectores propios linealmente independientes,
lo cual equivale a que T tenga n vectores propios linealmente independi-
entes (ver el apartado 1.2.2)
Además, si B2 = {u1, u2, . . . , un} es una base ordenada de U tal que
[T]B2B2
= D =





λ1 0 · · · 0
0 λ1 · · · 0
.
.
.
.
.
.
. . .
.
.
.
0 0 · · · λ1





es una matriz diagonal, entonces, de acuerdo con la denición de la ma-
triz [T]B2B2
, T(ui) = λiui ; o sea, ui es un λi-vector propio de T,
i = 1, 2, . . . , n .
3.2.10. Ejemplo. Consideremos la transformación lineal T : P3 → P3
denida por:
T a + bx + cx2
= (4a − b + 2c) + (−6a + 5b − 6c)x + (−6a + 3b − 4c)x2
.
Encontremos una base ordenada B2 de U = P2 tal que [T]B2B2
= D es
una matriz diagonal.
Sea B1 = 1, x, x2
la llamada base canónica de P2 entonces:
A = [T]B1B1
=


4 −1 2
−6 5 −6
−6 3 −4

 ,
que es la matriz del ejemplo 3.2.4. De dicho ejemplo sabemos que
x1 =


1
2
0

 , x2 =


−1
0
1

 y x3 =


−1
3
3

 ,
son vectores propios linealmente independientes de A, correspondientes
respectivamente a los valores propios 2, 2 y 1. Los vectores x1, x2 y x3
son respectivamente, los vectores de coordenadas respecto a la base B1 de
los vectores de P2:
u1 = 1 + 2x; u2 = −1 + x2
y u3 = −1 + 3x + 3x2
.
59
3.2. Diagonalización Diagonalización de matrices
Ahora, los valores propios de T son los valores propios de A (ver teorema
3.1.7), esto es, los diferentes valores propios de T son λ1 = 2 y λ2 = 1.
De otro lado, por lo establecido en el apartado 1.2.2, u1, u2 y u3 son
vectores propios de T linealmente independientes, correspondientes a los
valores propios 2, 2 y 1, respectivamente. En consecuencia, de acuerdo con
el teorema anterior, B2 = {u1, u2, u3} es una base para P2 tal que:
[T]B2B2
= D =


2 0 0
0 2 0
0 0 1

 .
Como hemos visto, dada una matriz cuadrada A de orden n, existe una
matriz invertible P tal que P−1
AP = D es una matriz diagonal sii existen
n vectores propios de A linealmente independientes. En el caso en que A
no posea n vectores propios linealmente independientes, es posible, bajo
cierta condición, que A sea semejante a una matriz triangular superior
T; es decir , que A sea semejante a una matriz T = [tij]n×n para la cual
tij = 0 si i  j. El siguiente teorema explicita esta armación.
3.2.11. Teorema. Sea A una matriz cuadrada (real) de orden n. Todas
las soluciones de la ecuación característica de A son reales sii existe una
matriz invertible P (real) tal que P−1
AP = T es una matriz triangular
superior. Además, si existe una tal matriz P, entonces los elementos de
la diagonal de T son los valores propios de A.
Demostración. (=⇒) Haremos la demostración en este sentido, uti-
lizando inducción sobre el orden n de la matriz A. Para cuando n = 2, la
implicación es verdadera. En efecto, de la hipótesis se sigue que A tiene
dos valores propios (reales) los cuales no son necesariamente distintos. Sea
λ un valor propio de A. Existe por lo tanto un vector 2×1, x1 = 0 tal que
Ax1 = λ x1. Por el teorema1.2.13(3), existe un vector 2×1, x2 = 0 tal que
B = {x1, x2} es una base para M2×1. Ahora, la matriz P = x1 x2
es invertible; escribamos a P−1
particionada por las así:
P−1
=
y1
y2
, y1, y2 ∈ M1×2 ,
entonces se tiene que
P−1
AP =
y1
y2
A x1 x2 =
λ y1Ax2
0 y2Ax2
= T
es una matriz triangular superior.
60
Diagonalización de matrices 3.2. Diagonalización
Supongamos ahora que la implicación es verdadera para cuando n = j −1
y demostremos que ésta es verdadera cuando n = j, j ≥ 3. Sea A una
matriz cuadrada de orden j para la cual todas las soluciones de su ecuación
característica son reales. De ésto se sigue que A tiene j valores propios
(reales) los cuales no son necesariamente distintos. Sea λ un valor propio
de A. Existe por lo tanto un vector j × 1, x1 = 0 tal que Ax1 = λx1.
Por el teorema 1.2.13(3), existen j − 1 vectores x2, x3, . . . , xj de Mj×1
tales que B = {x1, x2, x3, . . . , xj} es una base para Mj×1. Ahora por el
teorema 1.4.8, la matriz
P = x1 x2 · · · xj = x1 M
es invertible. Escribamos la inversa P−1
así:
P−1
=
y1
N
, y1 ∈ M1×j, y N ∈ M(j−1)×(j−1) .
Entonces se tiene
P−1
AP =
y1
N
A x1 M =
λ y1AM
0 NAM
=
λ B
0 C
= T1
es una matriz triangular superior por bloques.
Ahora, las matrices A y T1 tienen el mismo polinomio característico (teo-
rema 3.1.14):
pA(λ) = pT1
(λ) = (λ1 − λ) |C − λI| .
De ésto se sigue, que todas las soluciones de la ecuación característica
de la matriz cuadrada de orden j − 1, C, son reales. Por hipótesis de
inducción, existe una matriz invertible Q tal que Q−1
CQ = T1 es una
matriz triangular superior. Sea ahora:
P2 =
1 0
0 Q
,
entonces se tiene que la matriz invertible P = P1P2 es tal que
P−1
AP = P−1
2 P−1
1 AP1P2 =
1 0
0 Q−1
λ1 B
0 C
1 0
0 Q
=
λ1 BQ
0 Q−1
CQ
=
λ1 BQ
0 T2
= T
es una matriz triangular superior.
La demostración de la otra implicación y de la segunda armación del
teorema quedan como ejercicio para el lector.
61
3.2. Diagonalización Diagonalización de matrices
3.2.12. Ejemplo. Todas las soluciones de la ecuación característica de la
matriz del ejemplo 3.2.5
A =


1 1 −1
−1 3 −1
−1 2 0


3×3
son reales, pues:
pA(λ) = −(λ − 1)2
(λ − 2) = 0 sii λ1 = 1 ó λ2 = 2 .
De otro lado, como lo establecimos en el ejemplo 3.2.5, la matriz A no es
diagonalizable, pues A sólo posee dos vectores propios linealmente inde-
pendientes. En particular:
x1 =


1
1
1

 y x2 =


0
1
1


son vectores propios linealmente independientes correspondientes a los
valores propios λ1 = 1 y λ2 = 2, respectivamente.
Por el teorema anterior, existe una matriz invertible P tal que P−1
AP = T
es una matriz triangular superior. Para encontrar una tal matriz P, demos
un vector x3 tal que B = {x1, x2, x3} sea una base para M3×1, el vector
x3 =


0
2
3


sirve para tal efecto. Ahora bien, la matriz
P = x1 x2 x3 =


1 0 0
1 1 2
1 1 3


es invertible y es tal que
P−1
AP = T =


1 0 −1
0 2 2
0 0 1


es una matriz triangular superior.
De acuerdo con el teorema anterior, si A es una matriz cuadrada (real)
cuyos valores propios no son todos reales entonces, no puede existir una
matriz invertible P (real) tal que P−1
AP = T sea una matriz triangular
62
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal
Topicosenalgebralineal

Más contenido relacionado

La actualidad más candente

LÍMITE DE FUNCIONES DE DOS VARIABLES
LÍMITE DE FUNCIONES DE DOS VARIABLESLÍMITE DE FUNCIONES DE DOS VARIABLES
LÍMITE DE FUNCIONES DE DOS VARIABLES
claualemana
 
Aplicaciones de calculo de integrales dobles y triples
Aplicaciones de calculo de integrales dobles y triplesAplicaciones de calculo de integrales dobles y triples
Aplicaciones de calculo de integrales dobles y triples
walterabel03
 
Transformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectorialesTransformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectoriales
arturoperez
 
Ejercicios de parametrizacion de curvas calculo vectorial.
Ejercicios  de parametrizacion de curvas  calculo vectorial.Ejercicios  de parametrizacion de curvas  calculo vectorial.
Ejercicios de parametrizacion de curvas calculo vectorial.
ualvarezhernandez
 

La actualidad más candente (20)

Espacios vectoriales
Espacios vectorialesEspacios vectoriales
Espacios vectoriales
 
Int superficie
Int superficieInt superficie
Int superficie
 
LÍMITE DE FUNCIONES DE DOS VARIABLES
LÍMITE DE FUNCIONES DE DOS VARIABLESLÍMITE DE FUNCIONES DE DOS VARIABLES
LÍMITE DE FUNCIONES DE DOS VARIABLES
 
Limites
LimitesLimites
Limites
 
Problemas resueltos 1oct_max
Problemas resueltos 1oct_maxProblemas resueltos 1oct_max
Problemas resueltos 1oct_max
 
Mate4 guia3
Mate4 guia3Mate4 guia3
Mate4 guia3
 
Aplicaciones funciones vectoriales
Aplicaciones funciones vectorialesAplicaciones funciones vectoriales
Aplicaciones funciones vectoriales
 
APUNTES Y EJERCICIOS RESUELTOS DE ANALISIS NUMERICO
APUNTES Y EJERCICIOS RESUELTOS DE ANALISIS NUMERICOAPUNTES Y EJERCICIOS RESUELTOS DE ANALISIS NUMERICO
APUNTES Y EJERCICIOS RESUELTOS DE ANALISIS NUMERICO
 
metodo-de-diferencias-divididas
 metodo-de-diferencias-divididas metodo-de-diferencias-divididas
metodo-de-diferencias-divididas
 
Aplicaciones de calculo de integrales dobles y triples
Aplicaciones de calculo de integrales dobles y triplesAplicaciones de calculo de integrales dobles y triples
Aplicaciones de calculo de integrales dobles y triples
 
Guia de vectores 2 d
Guia de vectores 2 dGuia de vectores 2 d
Guia de vectores 2 d
 
Transformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectorialesTransformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectoriales
 
Integrales dobles
Integrales doblesIntegrales dobles
Integrales dobles
 
Ejercicios de parametrizacion de curvas calculo vectorial.
Ejercicios  de parametrizacion de curvas  calculo vectorial.Ejercicios  de parametrizacion de curvas  calculo vectorial.
Ejercicios de parametrizacion de curvas calculo vectorial.
 
espacios vectoriales
espacios vectoriales espacios vectoriales
espacios vectoriales
 
Calculo integral informe laboratorio
Calculo integral informe  laboratorioCalculo integral informe  laboratorio
Calculo integral informe laboratorio
 
Derivadas de orden superior y derivación implícita
Derivadas de orden superior y derivación implícita Derivadas de orden superior y derivación implícita
Derivadas de orden superior y derivación implícita
 
Ejemplo del Método de Bisección
Ejemplo del Método de BisecciónEjemplo del Método de Bisección
Ejemplo del Método de Bisección
 
Graficas polares (estudiantes)
Graficas polares (estudiantes)Graficas polares (estudiantes)
Graficas polares (estudiantes)
 
Sucesiones
SucesionesSucesiones
Sucesiones
 

Similar a Topicosenalgebralineal

matrices determinanates y sistema de ecuaciones lineales
matrices determinanates y sistema de ecuaciones linealesmatrices determinanates y sistema de ecuaciones lineales
matrices determinanates y sistema de ecuaciones lineales
Hanz Seymour
 
Matrices Mol
Matrices MolMatrices Mol
Matrices Mol
Ray Mera
 

Similar a Topicosenalgebralineal (20)

Matrices pdf
Matrices pdfMatrices pdf
Matrices pdf
 
Matrices+y+determinantes 1
Matrices+y+determinantes 1Matrices+y+determinantes 1
Matrices+y+determinantes 1
 
matrices y determinantes
matrices y determinantesmatrices y determinantes
matrices y determinantes
 
Álgebra Lineal (Escuela Politécnica Nacional)
Álgebra Lineal (Escuela Politécnica Nacional)Álgebra Lineal (Escuela Politécnica Nacional)
Álgebra Lineal (Escuela Politécnica Nacional)
 
Algebra lineal toro
Algebra lineal toroAlgebra lineal toro
Algebra lineal toro
 
Libro de cueva toro
Libro de cueva toroLibro de cueva toro
Libro de cueva toro
 
Algebra lineal
Algebra linealAlgebra lineal
Algebra lineal
 
Matrices y Determinantes
Matrices y DeterminantesMatrices y Determinantes
Matrices y Determinantes
 
Matrices
MatricesMatrices
Matrices
 
Matrices y determinantes
Matrices y determinantes Matrices y determinantes
Matrices y determinantes
 
Matrices y determinantes
Matrices y determinantesMatrices y determinantes
Matrices y determinantes
 
Matrices y determinantes nuevo
Matrices y determinantes nuevoMatrices y determinantes nuevo
Matrices y determinantes nuevo
 
Matrices y determinantes nuevo
Matrices y determinantes nuevoMatrices y determinantes nuevo
Matrices y determinantes nuevo
 
Matrices y determinantes nuevo
Matrices y determinantes nuevoMatrices y determinantes nuevo
Matrices y determinantes nuevo
 
Matrices y determinantes nuevo
Matrices y determinantes nuevoMatrices y determinantes nuevo
Matrices y determinantes nuevo
 
matrices determinanates y sistema de ecuaciones lineales
matrices determinanates y sistema de ecuaciones linealesmatrices determinanates y sistema de ecuaciones lineales
matrices determinanates y sistema de ecuaciones lineales
 
Temas de matrices y determinantes m1 ccesa007
Temas  de matrices y  determinantes  m1 ccesa007Temas  de matrices y  determinantes  m1 ccesa007
Temas de matrices y determinantes m1 ccesa007
 
Matrices Mol
Matrices MolMatrices Mol
Matrices Mol
 
Mod matrices y determinantes
Mod matrices y determinantesMod matrices y determinantes
Mod matrices y determinantes
 
Varios matrices y determinantes
Varios   matrices y determinantesVarios   matrices y determinantes
Varios matrices y determinantes
 

Topicosenalgebralineal

  • 1. Tópicos en Álgebra Lineal Miguel A. Marmolejo L. Manuel M. Villegas L. Departamento de Matemáticas Universidad del Valle
  • 2. Índice general Introducción 1 Índice de guras iii Capítulo 1. Prerrequisitos 1 1.1. Matrices 1 1.2. Espacios vectoriales 7 1.3. Transformaciones lineales 16 1.4. Espacios fundamentales de una Matriz. Rango de una matriz. Sistemas de ecuaciones lineales 20 Capítulo 2. Matrices particionadas. Traza de una matriz 25 2.1. Submatrices. Operaciones con matrices particionadas 25 2.2. Determinantes e inversas de algunas matrices especiales 29 2.3. Traza de una matriz 37 2.4. Ejercicios 39 Capítulo 3. Valores propios y vectores propios. Diagonalización 43 3.1. Valores propios y vectores propios 44 3.2. Diagonalización 53 3.3. Diagonalización de matrices simétricas 64 3.4. Diagonalización simultánea de matrices simétricas 82 3.5. Ejercicios 90 Capítulo 4. Formas cuadráticas 97 4.1. Clasicación de las formas cuadráticas. 97 4.2. Cambio de variables. Diagonalización simultánea de formas cuadráticas 101 4.3. Formas cuadráticas positivas, negativas e indenidas. 110 4.4. Ejercicios 118
  • 3. Índice general Capítulo 5. Anexo 1: Matrices no negativas. Matrices idempotentes 123 5.1. Matrices no negativas 123 5.2. Matrices idempotentes 129 Capítulo 6. Inversa generalizada e inversa condicional de matrices. 137 6.1. Inversa generalizada de una matriz 137 6.2. Cálculo de la g-inversa de una matriz 147 6.3. Inversa condicional de una matriz 152 6.4. Sistemas de ecuaciones lineales: g-inversa y c-inversa de una matriz. mínimos cuadrados. 160 6.5. Ejercicios 174 Capítulo 7. Factorización de matrices 179 7.1. Descomposición LU 179 7.2. Descomposición QR 188 7.3. Descomposición de Cholesky 198 7.4. Descomposición en valores singulares (SVD) 205 7.5. Ejercicios 212 Capítulo 8. Rectas e hiperplanos. Conjuntos convexos. 215 8.1. Rectas. Segmentos de recta. Hiperplanos 215 8.2. Conjuntos convexos 223 8.3. Ejercicios 226 Índice alfabético 229 Bibliografía 233 ii
  • 4. Índice de guras 1.1. Transformación lineal 22 3.1. Interpretación geométrica de vector propio 44 3.2. Vectores propios de T(x, y) = (2x, x + 3y) 45 6.1. Problema de los mínimos cuadrados 162 6.2. Ajuste por mínimos cuadrados 163 6.3. Ajuste lineal por mínimos cuadrados 165 6.4. Ajuste lineal ejemplo 6.4.13 170 6.5. Ajuste lineal ejemplo 6.4.14 171 6.6. Ajuste cuadrático ejemplo 6.4.15 173 7.1. Esquema de la factorización LU 186 8.1. Puntos y vectores en R3 . 216 8.2. Una recta en R2 . 217 8.3. Gráca de una recta que pasa por los puntos P y Q. 218 8.4. Segmento de recta que une los puntos P y Q 219 8.5. Gráca de un plano en R3 . 220 8.6. Grácas de un plano y una recta en R3 222 8.7. Ilustración de semiespacios abiertos 223 8.1. Conjuntos convexos y no convexos 224 iii
  • 5. CAPÍTULO 1 Prerrequisitos El propósito de este capítulo es hacer una recopilación de algunas deni- ciones y de algunos resultados básicos del álgebra lineal, los cuales nos serán de gran utilidad en el desarrollo de los capítulos siguientes. Tratare- mos aquí los aspectos relacionados con: matrices, espacios vectoriales y transformaciones lineales, aunque aclaramos, que el orden en que se pre- sentan los temas, no corresponde necesariamente al orden usual encontra- do en la mayoría de textos utilizados en el primer curso de álgebra lineal. Al lector que desee estudiar más sobre el contenido de este capítulo se le recomienda consultar [1, 2, 12]. 1.1. Matrices Las matrices juegan un papel importante en las matemáticas y sus apli- caciones. Una matriz A de tamaño m × n (o simplemente Am×n) es un arreglo rectangular de números dispuestos en m las (líneas horizon- tales) y n columnas (líneas verticales); el número que está en la i-ésima la y en la j-ésima columna se denota por aij o A ij y se llama elemen- to ij de la matriz A. Para indicar dicho arreglo usualmente se escribe A = [aij]m×n, o en forma expandida (1.1) A =      a11 a12 · · · a1n a21 a22 · · · a2n . . . . . . . . . . . . am1 am2 · · · amn      . 1
  • 6. 1.1. Matrices Prerrequisitos Si Ai = ai1 ai2 · · · ain denota la i-ésima la de la matriz A y Aj =      a1j a2j . . . amj      la j-ésima columna de A, el arreglo (1.1) puede represen- tarse por las o columnas como aparece a continuación A =      A1 A2 . . . Am      = A1 A2 · · · An . Las matrices se denotan, como lo hemos sugerido, con letras mayúsculas A, B, C, etc. El conjunto de todas las matrices m × n con elementos reales se denotará por Mm×n(R) o simplemente Mm×n. Los elementos de Mn×n se llaman matrices cuadradas de orden n; a la diagonal formada por los elementos a11, a22, . . . , ann de una tal matriz A, se llama diagonal principal de A. Toda matriz cuadrada A de orden n, cuyos elementos fuera de la diagonal principal son nulos (aij = 0 para i = j, i, j = 1, 2, . . . , n), se denomina matriz diagonal y se denota por A = diag(a11, a22, . . . , ann). La matriz diagonal de orden n, cuyos elementos en su diagonal princi- pal son todos iguales a 1, se llama matriz idéntica y se denota por In o simplemente I, cuando no sea necesario especicar el orden. Una matriz nula es una matriz cuyos elementos son todos nulos. Una matriz nula será denotada por 0 (0m×n denotará la matriz nula m × n.) Dos matrices A y B de igual tamaño m × n son iguales si y sólo si sus componentes correspondientes son iguales. Esto es, A ij = B ij ; i = 1, 2, . . . , m, j = 1, 2, . . . , n. La suma A + B de dos matrices A y B de tamaño m × n, es la matriz m × n tal que: A + B ij = A ij + B ij ; i = 1, 2, . . . , m, j = 1, 2, . . . , n. La multiplicación αA del número α por la matriz A de tamaño m × n, es la matriz de tamaño m × n, tal que: αA ij = α A ij ; i = 1, 2, . . . , m, j = 1, 2, . . . , n. 2
  • 7. Prerrequisitos 1.1. Matrices El producto AB de la matriz A ∈ Mm×s por la matriz B ∈ Ms×n, es la matriz de tamaño m × n, tal que: AB ij = s k=1 A ik B kj ≡ Ai · Bj ; i = 1, 2, . . . , m, j = 1, 2, . . . , n. 1.1.1. Inversa de una matriz. Sea A ∈ Mn×n. Si existe una matriz B ∈ Mn×n tal que AB = I se puede demostrar que BA = I y que B es única. Cuando existe una matriz B tal que AB = I, a B se le llama la matriz inversa de A y se le denota por A−1 . Es este caso se dice que A es no singular o invertible; en caso contrario, se dice que A es no invertible o singular. En el siguiente teorema se establecen algunas propiedades de la inversa de una matriz 1.1.1. Teorema. Si A, B ∈ Mn×n son matrices invertibles y si α es un número no nulo, entonces: 1. La matriz A−1 es invertible y A−1 −1 = A. 2. La matriz AB es invertible y (AB)−1 = B−1 A−1 . 3. La matriz αA es invertible y (αA)−1 = α−1 A−1 . 1.1.2. Transpuesta de una matriz. Sea A una matriz m × n. La matriz transpuesta de A es la matriz n × m, denotada por AT , cuya i-ésima la corresponde a la i-ésima columna de la matriz A. Esto es, la transpuesta de A es la matriz AT tal que AT ij = A ji, para i = 1, 2, . . . m, y j = 1, 2, . . . n. Sea A una matriz cuadrada. Si AT = A, se dice que A es una matriz simétrica, y si AT = −A, se dice que A es una matriz antisimétrica. En particular, las matrices diagonales son simétricas. Las propiedades más relevantes de la transpocisión se dan en el siguiente teorema 1.1.2. Teorema. Sean A y B matrices de tamaño apropiado, tales que las operaciones siguientes están bien denidas. Entonces: 1. Para cualquier matriz A se verica (AT )T = A. 2. AT = BT sí y sólo si A = B. 3
  • 8. 1.1. Matrices Prerrequisitos 3. Si A es una matriz diagonal, entonces AT = A. 4. Si α, β son números, entonces (αA + βB)T = αAT + βBT . 5. Si AB está denido, entonces (AB)T = BT AT . 6. Para cualquier matriz A, las matrices AT A y AAT son simétri- cas. 7. Si A es invertible, entonces AT es invertible y (AT )−1 = (A−1 )T . 1.1.3. Determinantes. Recordamos en este apartado las nociones de menor, cofactor, matriz de cofactores, matriz adjunta y determinante de matrices cuadradas y resumimos algunos de los resultados más impor- tantes relacionados con el cálculo propiedades del determinante. El lector recordará, que el concepto de determinante es de gran importancia no sólo en el contexto del álgebra lineal, sino en otras áreas como el cálculo integral. En lo sucesivo, el determinante de una matriz A será denotado por |A| o por det(A). 1.1.3. Denición (Determinane de matrices 2 × 2). Sea A = a b c d una matriz cuadrada de tamaño 2 × 2. El determinante de la matriz A es el número real dado por det(A) = ad − bc. 1.1.4. Denición. Sea A una matriz cuadrada de tamaño n × n; el de- terminante de la matriz que resulta al suprimir la i-ésima la de A y la j-ésima columna de A es denominado menor del elemento A ij y se de- nota por mij. El cofactor del elemento A ij se denota por Cij y se dene como Cij = (−1)i+j mij . La matriz C, cuyos elementos son los cofactores Cij de A se denomina matriz de los cofactores de A, cof(A). La matriz transpuesta de la matriz de cofactores C, se denomina adjunta de A y se denota por adj(A), es decir, adj(A) = CT . El siguiente teorema nos muestra, cómo calcular el determinante de una matriz (cuadrada) en términos de sus cofactores. Además muestra, que el valor del determinante no depende de la la o columna a lo largo de la cual se haga la expansión. Dicho teorema presenta también, una forma alternativa para calcular inversas de matriz en términos del determinante de dicha matriz y su adjunta. 4
  • 9. Prerrequisitos 1.1. Matrices 1.1.5. Teorema. Sea A una matriz cuadrada de orden n. 1. Si Cij denota el cofactor del elemento A ij, entonces: a) det(A) = n j=1 A ij Cij, para cada i = 1, 2, . . . , n. b) det(A) = n i=1 A ij Cij, para cada j = 1, 2, . . . , n. 2. Para cualquier matriz cuadrada A, se tiene que A · adj(A) = adj(A) · A = det(A)I . 3. La matriz A es invertible sii |A| = 0, en este caso se tiene que A−1 = (det(A))−1 · adj(A) . 1.1.6. Teorema. Sean A, B y C matrices cuadradas de orden n, entonces: 1. |A| = |AT | . 2. Si A tiene una la nula, entonces |A| = 0. 3. Si las matrices A y B dieren únicamente en sus k-ésimas las y si dichas las satisfacen la igualdad Ak = α · Bk, entonces |A| = α|B|. 4. Si α es un escalar, entonces |αA| = αn |A|. 5. Si A, B y C dieren únicamente en la k-ésima la y si Ck = Ak + Bk, entonces |C| = |A| + |B|. 6. Si A tiene dos las iguales, entonces |A| = 0. 7. Si B se obtiene al intercambiar dos las de A, entonces |B| = −|A|. 8. El determinante de una matriz no cambia si los elementos de la i-ésima la son multiplicados por un escalar α y los resultados son sumados a los correspondientes elementos de la k-ésima la, para k = i. 9. |AB| = |A||B|. Nota. Por (1), cualquier proposición sobre |A| que sea verdadera en las las de A es también verdadera para las columnas de A. 1.1.4. Operaciones elementales. Matrices elementales. En este apartado recopilamos algunas deniciones y resultados relacionados con las operaciones que se pueden hacer en las las (respectivamente columnas) de una matriz, las cuales realizadas de manera apropiada nos 5
  • 10. 1.1. Matrices Prerrequisitos permiten obtener nuevas matrices con estructuras más adecuadas, por ejemplo cuando se quiere resolver sistemas de ecuaciones. Dichas opera- ciones son las operaciones elementales y están resumidas en la siguiente denición. 1.1.7. Denición (Operaciones y matrices elementales). Dada una ma- triz A, cada una de las siguientes operaciones es llamada una operación elemental en las las (columnas) de A. (i) El intercambio de dos las (columnas) de A. (ii) La multiplicación de los elementos de una la (columna) de A por un escalar no nulo. (iii) Reemplazar una la (columna) de A, por la suma de ella y un múltiplo escalar no nulo de otra la (columna) de dicha matriz. Una matriz elemental por las (columnas) es aquella que resulta de efec- tuar una operación elemental sobre las las (columnas) de una matriz identidad. 1.1.8. Teorema. 1. Cada matriz elemental es invertible. Además, la inversa de cada matriz elemental es una matriz elemental. 2. Sea A una matriz m × n. Si B es una matriz que resulta al efectuar una operación elemental sobre las las de A y si E es la matriz elemental que resulta de efectuar la misma operación elemental sobre las las de la matriz idéntica Im, entonces E · A = B. 3. Sea A una matriz m × n. Si B es una matriz que resulta al efectuar una operación elemental sobre las columnas de A y si E es la matriz elemental que resulta de efectuar la misma operación elemental sobre las columnas de la matriz idéntica In, entonces A · E = B. 1.1.9. Denición (Forma escalonada reducida). Se dice que una matriz R tiene la forma escalonada reducida, si satisface las siguientes condiciones: (i) Si una la de R es no nula, el primer elemento no nulo de dicha la, de izquierda a derecha, es 1. (ii) Si las las i e i + 1 de R son no nulas, el primer elemento no nulo de la la i + 1 está a la derecha del primer elemento no nulo de la la i. 6
  • 11. Prerrequisitos 1.2. Espacios vectoriales (iii) Si una columna de R contiene el primer elemento no nulo de una la de R, los demás elementos de dicha columna son nulos. (iv) Si R tiene las nulas, éstas aparecen en la parte inferior de R. El siguiente teorema nos relaciona los conceptos de matrices elementales y forma escalonada reducida para una matriz arbitraria. 1.1.10. Teorema. Para toda matriz A existen: una única matriz R que tiene la forma escalonada reducida y un número nito de matrices ele- mentales por las E1, E2, . . . , Ek tales que: Ek · · · E2 · E1 · A = R . La matriz R mencionada en el teorema anterior se denomina la forma escalonada reducida de A. 1.1.11. Teorema. Sea A una matriz cuadrada de orden n. 1. A es invertible sii la forma escalonada reducida de A es In. 2. A es invertible sii A se puede expresar como el producto de un número nito de matrices elementales. Los dos últimos teoremas dan lugar a un método para decidir cuándo una matriz cuadrada A es invertible, y simultáneamente proveen un algoritmo para calcular su inversa. El método consiste en lo siguiente: Forme la matriz [A | In]. Seguidamente efectúe operaciones elementales sobre la las de esta matriz hasta obtener su forma escalonada reducida; al nal se obtiene una matriz que describire- mos así [R | P]; donde R es la forma escalonada reducida de A. Ahora: A es invertible sii R = In. Si A es invertible entonces A−1 = P. 1.2. Espacios vectoriales El conjunto de matrices m×n, junto con las dos operaciones suma de ma- trices y multiplicación de un escalar por una matriz, denidas al principio de la sección 1.1, tiene una estructura algebraica denominada espacio vec- torial. Esta estructura es importante porque incluye otros conjuntos que se presentan frecuentemente en las matemáticas y sus aplicaciones. 7
  • 12. 1.2. Espacios vectoriales Prerrequisitos 1.2.1. Denición. Un espacio vectorial (real) es un conjunto V , cuyos elementos son llamados vectores, junto con dos operaciones: suma de vec- tores (+) y multiplicación de un escalar por un vector (·), que satisfacen las propiedades siguientes: (i) Si u ∈ V y v ∈ V , entonces u + v ∈ V . (ii) Si u ∈ V y v ∈ V , entonces u + v = v + u. (iii) Si u ∈ V , v ∈ V y w ∈ V , entonces (u + v) + w = u + (v + w) = u + v + w. (iv) Existe un vector 0 ∈ V tal que para todo u ∈ V , u+0 = 0+u = u. (v) Si u ∈ V , entonces existe un vector −u ∈ V tal que u + (−u) = (−u) + u = 0. (vi) Si u ∈ V y α es un escalar, αu ∈ V . (vii) Si u ∈ V y α, β son escalares, entonces (αβ)u = α(βu) = β(αu). (viii) Si u ∈ V y α, β son escalares, entonces (α + β)u = αu + βu. (ix) Si u ∈ V y v ∈ V y α es un escalar, entonces α(u+v) = αu+αv. (x) Si u ∈ V , entonces 1u = u. 1.2.2. Ejemplo. Los siguientes conjuntos son ejemplos de espacios vecto- riales: 1. V = Rn = {(x1, x2, . . . , xn) : xi ∈ R, i = 1, 2, . . . , n} con las operaciones denidas así: (x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn) α (x1, x2, . . . , xn) = (αx1, αx2, . . . , αxn) . 2. V = Mm×n, el conjunto de matrices m × n con las operaciones denidas usualmente (ver sección 1.1). 3. V = F, el conjunto de funciones de R en R con las operaciones denidas así: (f + g)(t) = f(t) + g(t) , t ∈ R . (αf)(t) = αf(t) , t ∈ R . 4. V = Pn, el conjunto de las funciones polinómicas de grado menor o igual que n, con coecientes reales con las operaciones denidas en (3). 8
  • 13. Prerrequisitos 1.2. Espacios vectoriales Como se establece en la denición, un espacio vectorial (real) es un tripla que consta de un conjunto V y de dos operaciones con ciertas propiedades. Cuando no haya lugar a confusión o cuando no sea necesario explicar las operaciones mencionadas, se hará referencia simplemente al espacio vectorial V. Con frecuencia es necesario considerar subconjuntos de un espacio vec- torial V , tales que; junto con las operaciones denidas en V , son por sí mismo espacios vectoriales. Estos son denominados subespacios de V . En forma más precisa tenemos la siguiente 1.2.3. Denición. Sea V un espacio vectorial y W un subconjunto no vacío de V. Diremos que un W es subespacio de V , si W, junto con las operaciones de suma de vectores y la multiplicación de un escalar por un vector denidas en V , es en sí mismo un espacio vectorial. 1.2.4. Denición. Sean V un espacio vectorial, v0 un elemento de V y W es un subespacio de V . El subconjunto determinado así: L = {v ∈ V : v = v0 + w, para w ∈ W} , es denominado una variedad lineal de V . El siguiente concepto es básico en el estudio de los espacios vectoriales. En particular, servirá para caracterizar ciertos espacios de un espacio vectorial. 1.2.5. Denición. Sean v1, v2, . . . , vn vectores de un espacio vectorial V . Se dice que un vector v ∈ V es combinación lineal de los vectores v1, v2, . . . , vn si existen escalares α1, α2, . . . , αn tales que: v = α1v1 + α2v2 + · · · + αnvn = n i=1 αivi . 1.2.6. Teorema. Sea W un subconjunto no vacío de un espacio vectorial V . W es un subespacio de V sii W es cerrado bajo la operación suma de vectores y la multiplicación por un escalar, esto es, sii 1. Si u ∈ W y v ∈ W, entonces u + v ∈ W. 2. Si u ∈ W y α ∈ R, entonces αu ∈ W. 9
  • 14. 1.2. Espacios vectoriales Prerrequisitos 1.2.7. Teorema. Si U y W son subespacios de un espacio vectorial V , entonces: 1. La intersección de U con W; U ∩ W es un subespacio vectorial de V . 2. La suma de U con W; denida por U + W = {v ∈ V : v = u + w, con u ∈ U y w ∈ W} , es un subespacio vectorial de V . 1.2.8. Teorema. Sea C un conjunto no vacío de vectores de un espacio vectorial V . El conjunto de todas las combinaciones lineales de los vectores de C; W = v ∈ V : v = k i=1 αivi; k ∈ N, vi ∈ C y αi ∈ R, i = 1, 2, . . . , k es un subespacio de V. Sea C un conjunto no vacío de vectores de un espacio vectorial V . El subespacio de V, de todas las combinaciones lineales de los vectores de C mencionado en el teorema anterior, es denominado el espacio gen- erado por los vectores de C o simplemente, espacio generado por C. Cuando C = {v1, v2, . . . , vn} (es nito), este espacio será denotado por v1, v2, . . . , vn o por gen {v1, v2, . . . , vn}. Cuando consideramos un conjunto C de vectores de un espacio vectori- al, es a veces importante determinar cuándo algún vector o algunos de los vectores de C se pueden expresar como combinaciones lineales de los restantes vectores en C. Para ello, necesitamos de la denición de de- pendencia lineal de un conjunto de vectores y algunos resultados sobre ella. 1.2.9. Denición (Independencia lineal). Sea C = {v1, v2, . . . , vn} un conjunto C de vectores (distintos) de un espacio vectorial V . Se dice que C es linealmente dependiente o que los vectores v1, v2, . . . , vn son lin- ealmente dependientes, si existen escalares α1, α2, . . . , αn no todos nulos tales que: 0 = α1v1 + α2v2 + · · · + αnvn = n i=1 αivi , en caso contrario, se dice que C es linealmente independiente o que los vectores v1, v2, . . . , vn son linealmente independientes. Es decir, C es 10
  • 15. Prerrequisitos 1.2. Espacios vectoriales linealmente independiente si para los escalares α1, α2, . . . , αn; si 0 = n i=1 αivi , entonces α1 = α2 = . . . , = αn = 0 . 1.2.10. Teorema. En un espacio vectorial V se tiene: 1. Todo conjunto que contenga el vector nulo, 0, es linealmente dependiente. 2. Todo conjunto que contenga un subconjunto linealmente depen- diente es linealmente dependiente. 3. Todo subconjunto de un conjunto linealmente independiente, es linealmente independiente. 4. Un conjunto de vectores C = {v1, v2, . . . , vn}, n ≥ 2, es lineal- mente dependiente sii uno de los vectores de C es combinación lineal de los restantes vectores de C. 1.2.1. Bases y dimensión. Dado un espacio vectorial V, en oca- siones es útil determinar un subconjunto B de V de vectores linealmente independientes que genere al espacio V. Esto es, un conjunto de vectores linealmente independientes mediante los cuales, cada vector de V se pueda expresar como combinación lineal de los vectores de B. Como veremos en esta sección, tal conjunto B se llamará una base de V y de acuerdo con el número de elementos que contenga, tal base hablaremos de dimensión nita o innita del espacio vectorial. Se dice que un espacio vectorial V es de dimensión nita, si existe un conjunto nito C de vectores de V , tal que el espacio generado por C en V . Por el contrario, si no es posible generar un espacio vectorial V con un ningún subconjunto nito de vectores, diremos que dicho espacio tiene dimensión innita. Ejemplos de éstos últimos espacios son: el conjunto de funciones continuas denidas sobre R, o el conjunto de todos los poli- nomios con variable real. Nosotros sin embargo sólo trataremos aquí con espacios de dimensión nita. 1.2.11. Denición (Base). Sea B un conjunto de vectores de un espacio vectorial V. Se dice que B es una base de V si se tienen las dos condi- ciones: (i) El espacio generado por B es V . (ii) El conjunto B es linealmente independiente. 11
  • 16. 1.2. Espacios vectoriales Prerrequisitos Si un espacio vectorial V tiene una base B = {v1, v2, . . . , vn} compuesta por n vectores, entonces se puede demostrar que el número de vectores de cualquier otra base de V es también n. Es decir, si un espacio vectorial V tiene una base Bcon un número nito, n, de elementos, cualquier otra base de dicho espacio vectorial, tiene exactamente n elementos. A dicho número común se le llama dimensión del espacio V y se dice que V es de dimensión nita n y se escribe dim V = n. 1.2.12. Denición. Sea W un subespacio de un espacio vectorial V, v0 un vector en V y L la variedad L = {v ∈ V : v = v0 + w, w ∈ W} , si dim W = k, se dice que la variedad lineal L tiene dimensión k. El siguiente teorema resume algunos aspectos importante sobre bases de espacios vectoriales, independencia lineal y conjuntos generadores. 1.2.13. Teorema. Sea V un espacio vectorial de dimensión n. 1. Si B = {v1, v2, . . . , vn} es un conjunto de n vectores de V, entonces: a) B es una base de V sii B es linealmente independiente. b) B es una base de V sii B genera a V . 2. Si C = {u1, u2, . . . , ur} es un conjunto linealmente indepen- diente, entonces r ≤ n. 3. Si C = {u1, u2, . . . , ur} es un conjunto linealmente indepen- diente, con r n, entonces existen n−r vectores de V ; w1, w2, . . . , wn−r, tales que B = {u1, u2, . . . , ur, w1, . . . , wn−r} es una base de V. 4. Si C = {u1, u2, . . . , ur} genera a V entonces r ≥ n. 5. Si el conjunto C = {u1, u2, . . . , ur} genera a V y r n, en- tonces existen n − r vectores de C; w1, w2, . . . , wn−r, tales que B = C {w1, w2, . . . , wn−r} es una base de V. 6. Si W es un subespacio de V entonces dim W ≤ n. Si dim W = n, entonces W = V. 1.2.14. Teorema. Si U y W son subespacios de un espacio vectorial V entonces dim(U + W) = dim U + dim V − dim(U ∩ W) . 12
  • 17. Prerrequisitos 1.2. Espacios vectoriales 1.2.15. Nota. En el teorema anterior: U ∩ W = {0} sii dim(U + W) = dim U+dim V . Cuando U∩W = {0} al espacio U+W de V se le denomina suma directa de U con W y se escribe U ⊕W en lugar de U +W. Además, en este caso para cada vector v ∈ U ⊕ W , existen vectores únicos u ∈ U y w ∈ W tales que v = u + w. 1.2.16. Teorema. Si U es un subespacio de un espacio vectorial V , en- tonces existe un subespacio W de V tal que U ⊕ W = V. El subespacio W del teorema anterior no es necesariamente único y es llamado complemento de U. También se dice que U y W son subespacios complementarios. 1.2.2. Coordenadas. El conjunto de coordenadas de un espacio respecto de una base es útil en el estudio de las transformaciones lineales. Para introducir este concepto es necesario denir primero lo que es una base ordenada de un espacio vectorial V. En la denición 1.2.11 era irre- levante en qué orden apareciera los elementos de una base. Sin embargo, a partir de ahora el orden será importante. En tal sentido, nosotros con- sideramos la siguiente denición. 1.2.17. Denición (Base ordenada). Si v1, v2, . . . , vn es una sucesión nita de vectores linealmente independientes de un espacio vectorial V, que generan a V , entonces diremos que B = {v1, v2, . . . , vn} es una base ordenada de V. 1.2.18. Teorema. Si B = {v1, v2, . . . , vn} es una base ordenada de V , entonces para cada vector v ∈ V existen escalares α1, α2, . . . , αn únicos tales que v = α1v1 + α2v2 + · · · + αnvn = n i=1 αivi , 1.2.19. Denición. Sea B = {v1, v2, . . . , vn} una base ordenada de un espacio vectorial V . Sea v un vector de V y sean α1, α2, . . . , αn los es- calares únicos tales que v = n i=1 αivi , el vector (vector columna) de coordenadas de v respecto de la base ordenada B se denota por [v]B y se dene así: [v]B =      α1 α2 . . . αn      . 13
  • 18. 1.2. Espacios vectoriales Prerrequisitos Si u y v son dos vectores de V y si α es un escalar, entonces [u + v]B = [u]B + [v]B y [αu]B = α [u]B. De otro lado, a cada vector n×1 (matriz n×1) c = α1 α2 · · · αn T le corresponde un único vector v de V tal que [v]B = c, a saber v = n i=1 αivi. Así, cada base ordenada B de V determina una correspondencia biunívo- ca, v → [v]B, entre los espacios V y Mn×1, que preserva las suma de vectores y la multiplicación de un escalar por un vector. Más aún, preser- va la independencia lineal; ésto es, el conjunto C = {u1, u2, . . . , uk} es un conjunto de vectores linealmente independientes de V sii el conjunto C∗ = {[u1]B , [u2]B , . . . , [ uk]B} es un conjunto de vectores linealmente independientes de Mn×1. En el caso en que V = Rn y B = {e1, e2, . . . , en} sea la base canónica, con e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0),. . . , en = (0, 0, 0, . . . , 1), la mencionada correspondencia está dada por x = (x1, x2, . . . , xn) −→ [x]B =      x1 x2 . . . xn      . En algunas situaciones resulta conveniente tener presente esta correspon- dencia, que utilizaremos identicando a x con [x]B . 1.2.3. Producto interno. Bases ortonormales. En este aparta- do consideraremos los conceptos de producto interno y de bases ortonor- males que nos será particularmente útiles en el capítulo 3 al tratar la diagonalización de matrices simétricas. 1.2.20. Denición (Producto interno). Sea V un espacio vectorial. Sean además u, v y w vectores arbitrarios de V y α un escalar real. Un pro- ducto interno en V es una función ·; · : V × V → R que satisface las propiedades: (i) u; v = v; u . (ii) u; u ≥ 0 y u; u = 0 si y sólo si u = 0. (iii) αu; v = α u; v . (iv) u + v; w = u; w + v; w . 14
  • 19. Prerrequisitos 1.2. Espacios vectoriales Observación. Si B es una base ordenada de un espacio vectorial V , entonces la función ·; · : V × V → R denida por u; v = [u] T B [v]B es un producto interno. En particular, si V = Rn y B es la base canónica de Rn , se tiene que x; y = [x] T B [y]B = x1y1 + x2y2 + · · · + xnyn , donde x = (x1, x2, . . . , xn) y y = (y1, y2, . . . , yn). En lo que sigue consideraremos a Rn con este producto interno (producto escalar) y a veces escribiremos x · y o xT y para indicar a x; y . Si ·; · es un producto interno sobre un espacio vectorial V , la norma o longitud de un vector v de V se denota por v y se dene así: v = v; v . Cuando v = 1, se dice que v es un vector unitario. 1.2.21. Teorema (Desigualdad de Schwarz). Sea V un espacio vectori- al con producto interno ·; · . Para cada par de vectores u y v de V se satisface la desigualdad | u; v | ≤ u v . Sean u y v vectores de un espacio vectorial V con producto interno ·; · , si u y v no son nulos, la medida del ángulo entre ellos se dene como θ = arc cos | u; v | u v . 1.2.22. Denición. Sea V un espacio vectorial con producto interno ·; · : 1. Se dice que dos vectores u y v de V son ortogonales si u; v = 0. 2. Se dice que un conjunto C = {v1, v2, . . . , vn} de vectores de V es ortogonal si vi; vj = 0 para i = j, i, j = 1, 2, . . . , n. 3. Se dice que un conjunto C = {v1, v2, . . . , vn} de vectores de V es ortonormal si C es ortogonal y cada vector de C es unitario, o sea si: vi; vj = δij = 1 si i = j 0 si i = j ; i, j = 1, 2, . . . , n . 4. Se dice que dos conjuntos no vacíos, C1 y C2 de vectores son ortogonales, si para cada par de vectores u ∈ C1 y v ∈ C2, u; v = 0. 15
  • 20. 1.3. Transformaciones lineales Prerrequisitos 1.2.23. Teorema. Sea V un espacio vectorial con producto interno ·; · . Si C = {v1, v2, . . . , vn} es un conjunto ortogonal que no contiene al vector 0, entonces C es linealmente independiente. 1.2.24. Teorema (Proceso de ortogonalización de Gram-Schmidt). Sea W un subespacio no nulo de un espacio vectorial V de dimensión nita k con producto interno ·; · y sea B = {w1, w2, . . . , wk} una base de W. Entonces C = {v1, v2, . . . , vk} es una base ortogonal de W y C∗ = {v∗ 1, v∗ 2, . . . , v∗ k} es una base ortonormal de W, donde: v1 = w1 v2 = w2 − w2; v1 v1; v1 v1 v3 = w3 − w3; v1 v1; v1 v1 − w3; v2 v2; v2 v2 . . . vk = wk − k−1 i=1 wk; vi vi; vi vi , y donde v∗ i = vi vi para i = 1, 2, . . . , k. 1.2.25. Teorema. Sean v1, v2, . . . , vk vectores no nulos de un espacio vectorial V de dimensión n k, con producto interno ·; · . Si C1 = {v1, v2, . . . , vk} es un conjunto ortogonal (respectivamente ortonormal), entonces existe un conjunto ortogonal (respectivamente ortonormal) C2 = {w1, w2, . . . , wn−k} de vectores de V tal que B = C1 ∪ C2 es una base ortogonal (ortonormal) de V. Más aún, si U = v1, v2, . . . , vk y si W = w1, w2, . . . , wn−k entonces V = U ⊕ W y además, U y W son ortogonales. 1.3. Transformaciones lineales En esta sección consideraremos los aspectos más importantes sobre las transformaciones lineales. En lo que sigue; U, V y W denotarán espacios vectoriales. 1.3.1. Denición. Una función T : U → V es una transformación lineal, si para cualquier para de vectores u1, u2 en U y todo escalar α, se tiene que: 16
  • 21. Prerrequisitos 1.3. Transformaciones lineales (i) T(u1 + u2) = T(u1) + T(u2) (ii) T(αu1) = αT(u1). 1.3.2. Ejemplo. Algunos ejemplos de transformaciones lineales son: 1. Para cada U, la función idéntica I : U → U, u → I(u) = u. 2. Para cada matriz A ∈ Mm×n, la función A : Rn → Rm , denida por x → y = Ax. 1.3.3. Teorema. Sean U y V espacios vectoriales, B = {u1, u2, . . . , un} una base de U y T : U → V es una transformación lineal. Entonces T queda determinada por los vectores T(u1), T(u2), . . . , T(un). Asociados a toda transformación lineal hay dos subespacios importantes a saber; su núcleo y su imagen. El primero de ellos corresponde a todos lo elementos del espacio U que son transformados en el elemento nulo del espacio V ; el segundo, corresponde a todos los elementos del espacio V que tienen al menos una preimagen en el espacio U. En forma más precisa tenemos 1.3.4. Denición. Sea T : U → V es una transformación lineal. 1. El núcleo de T se denota por N(T) y se dene así: N(T) = {u ∈ U : T(u) = 0} . 2. La imagen de T se denota por Img(T) y se dene así: Img(T) = {T(u) : u ∈ U} . 1.3.5. Denición. Sea T : U → V una transformación lineal. 1. Diremos que T es inyectiva (biunívoca o uno a uno), si dos ele- mentos distintos u1, u2 ∈ U, tienen imagen distinta. Esto es si y sólo si u1 = u2 implica T(u1) = T(u2); para todo u1, u2 ∈ U. 2. Diremos que T es sobreyectiva (o simplemente sobre), si cada elemento de del espacio V posee al menos una preimagen en U. Esto es si y sólo si Para todo v ∈ V existe un u ∈ U tal que T(u) = v. El siguiente teorema resume algunos aspectos básicos de las transforma- ciones lineales. 17
  • 22. 1.3. Transformaciones lineales Prerrequisitos 1.3.6. Teorema. Sea B = {u1, u2, . . . , un} un subconjunto de vectores de U y sea T : U → V una transformación lineal y . 1. N(T) es un subespacio vectorial de U. 2. T es inyectiva sii N(T) = {0} . 3. Img(T) es un subespacio vectorial de V. 4. Si B es una base de U, entonces {T(u1), T(u2), . . . , T(un)} ge- nera al espacio Img(T). 5. Si T es inyectiva y B es linealmente independiente, entonces {T(u1), T(u2), . . . , T(un)} es un subconjunto linealmente inde- pendiente de vectores de V . 6. dim N(T) + dim Img(T) = dim U. A la dimensión de N(T) se le llama nulidad de T y a la dimensión de Img(T) se llama rango de T. 1.3.1. Matriz de una transformación lineal referida a un par de bases ordenadas. A cada transformación lineal se le puede asignar una matriz A, la cual está determinada por las bases de los espacios vec- toriales involucrados en dicha transformación. Veremos en esta sección, que una tal asignación simplicará muchos cálculos. Es decir, será más conveniente trabajar con la matriz asociada a una transformación lineal (referida a ciertas bases), que con la transformación lineal misma. 1.3.7. Denición. Sean U y V espacios vectoriales, T : U → V una trans- formación lineal y sean B1 = {u1, u2, . . . , un} y B2 = {v1, v2, . . . , vm} bases ordenadas de U y de V respectivamente. La matriz de T referida a las bases B1 y B2 se denotará por [T]B1B2 y corresponde a la matriz m×n dada por: [T]B1B2 = [T(u1)]B2 [T(u2)]B2 · · · [T(un)]B2 . 1.3.8. Teorema. Sean U y V espacios vectoriales, T : U → V una trans- formación lineal y sean B1 = {u1, u2, . . . , un} y B2 = {v1, v2, . . . , vm} bases ordenadas de U y de V respectivamente. Para cada u ∈ U se tiene que: [T(u)]B2 = [T]B1B2 [u]B1 . Nota. Por el teorema anterior y por el teorema 1.3.3, la transforma- ción lineal T queda completamente determinada por el conocimiento de las bases B1 y B2, y de la matriz [T]B1B2 . 18
  • 23. Prerrequisitos 1.3. Transformaciones lineales 1.3.2. Álgebra de transformaciones lineales. Inversa de una transformación lineal. En esta sección consideraremos las operaciones de suma, multiplicación por un escalar y composición entre transforma- ciones lineales. Así mismo veremos la relación existente entre las matrices asociadas correspondientes. En este apartado U, V y W denotan espacios vectoriales. 1.3.9. Teorema. Sean T : U → V y S : U → V transformaciones lineales y α un escalar. Sean además B1 y B2 bases ordenadas de U y V, respec- tivamente: 1. La suma de T y S; (T + S) : U → V, denida por (T + S)(u) = T(u) + S(u) es una transformación lineal. Más aún [T + S]B1B2 = [T]B1B2 + [S]B1B2 . 2. La función múltiplo escalar de T; (αT) : U → V, denida por (αT)(u) = αT(u) es una transformación lineal. Más aún [αT]B1B2 = α [T]B1B2 . Nota. El conjunto de todas las transformaciones lineales de U en V , L(U, V ), junto con las operaciones mencionadas en el teorema anterior es un espacio vectorial. además, si dim U = n y dim V = m entonces dim L(U, V ) = m × n. De otro lado, de la misma forma como una base B1 de U determina la correspondencia biunívoca entre los espacios vectoriales V y Mm×1, dada por , v → [v]B2 ; las bases B1 y B2 de U y V , determinan la corresponden- cia biunívoca entre los espacios L(U, V ) y Mm×n, la cual está dada por T → [T]B1B2 . Esta correspondencia preserva la suma de vectores y la mul- tiplicación de un escalar por un vector, tal como se establece en el teorema anterior. En otras palabras, esta correspondencia es una transformación lineal. 1.3.10. Teorema. Sean T : U → V y S : V → W transformaciones lineales. Entonces, la composición S ◦ T : U → W es una transforma- ción lineal. Si además, B1, B2 y B3 representan bases ordenadas para los espacios U, V y W respectivamente, entonces se tiene que: [S ◦ T]B1B3 = [S]B2B3 [T]B1B2 . 19
  • 24. 1.4. Espacios fundamentales de matrices Prerrequisitos 1.3.11. Teorema. Si T : U → V es una transformación lineal biyectiva, entonces la función inversa de T, T−1 : V → U es una transformación lineal y la matriz [T]B1B2 es invertible. Además, T−1 B2B1 = [T] −1 B1B2 . 1.3.3. Matrices semejantes. Cambio de base. Los conceptos de matrices semejantes y cambio de base nos serán particularmente útiles en el capítulo 4 para el estudio de los valores propios y los vectores propios de una transformación lineal. 1.3.12. Denición (Matrices semejantes). Sean A y B matrices cuadradas de orden n, se dice que A y B son semejantes, si existe una matriz in- vertible P tal que B = P−1 AP. 1.3.13. Denición (Matriz cambio de base). Sean B1 y B2 bases orde- nadas del espacio vectorial U, y sea I : U → U la transformación lineal idéntica. La matriz P = [I]B1B2 se denomina matriz de cambio de base de la base B1 a la base B2, (ésto debido a lo enunciado por el teorema 1.3.8, [u]B2 = [T]B1B2 [u]B1 ). 1.3.14. Teorema. Sean T : U → U una transformación lineal y B1 y B2 bases ordenadas de U. 1. La matriz de cambio de base de la base B1 a la base B2, P = [I]B1B2 , es invertible y su inversa es la matriz de cambio de base de la base B2 a la base B1. 2. Las matrices A = [T]B2B2 y B = [T]B1B1 son matrices seme- jantes, además se tiene [T]B1B1 = [I] −1 B1B2 [T]B2B2 [I]B1B2 = P−1 [T]B2B2 P . 1.4. Espacios fundamentales de una Matriz. Rango de una matriz. Sistemas de ecuaciones lineales En esta sección consideraremos los llamados espacios fundamentales de una matriz A. Dos de estos espacios son precisamente el núcleo y la imagen de la transformación lineal x → y = Ax, los cuales están relacionados con el conjunto solución de un sistema de ecuaciones lineales Ax = y. El lector recordará de los resultados de un primer curso de álgebra lineal, que el espacio la y es espacio columna de A tienen igual dimensión. A ese número común se le denomina rango de A y se denota por ρ(A). 20
  • 25. Prerrequisitos 1.4. Espacios fundamentales de matrices Sea A una matriz m × n. El subespacio de Rn generado por las las de A se denomina espacio la de A y lo denotamos por F(A); esto es, F(A) = A1, A2, . . . , Am . El subespacio de Rm generado por las columnas de A se denomina espacio columna de A y lo denotamos por C(A); esto es, C(A) = A1 , A2 , . . . , An . El espacio formado todas soluciones de un sistema homogéneo de ecuaciones lineales Ax = 0 se denomina espacio nulo de una matriz, esto es, el espacio nulo es el conjunto N(A) = {x ∈ Rn : Ax = 0} . De otro lado, el subespacio de Rn ; Img(A) = {Ax : x ∈ Rn } = {y ∈ Rm : y = Ax para algún x ∈ Rn } . se denomina imagen de A. 1.4.1. Teorema. Para cualquier matriz A se tiene que dim F(A) = dim C(A) . 1.4.2. Teorema. Sea A una matriz arbitraria entonces: 1. F(A) y N(A) son ortogonales. Ésto es, sus elementos son or- togonales entre si. 2. C(A) y N(At ) son ortogonales. Ésto es, sus elementos son or- togonales entre si. 1.4.3. Teorema. Sean A y B matrices de tamaño adecuado, tales que las operaciones siguientes están denidas. 1. C(AB) ⊆ C(A) y F(AB)⊆ F(B). 2. Si P y Q son matrices invertibles de tamaño apropiado a) C(A) = C(AQ). b) F(A) = F(PA). 3. C(A + B) ⊆ C(A) + C(B) y F(A + B) ⊆ F(A) + F(B). 4. Para cualquier matriz A se tiene que: N(A) = N(AT A). Nota. Según el inciso 2(b) del teorema anterior y según el teorema 1.1.10, si R es la forma escalonada reducida de la matriz A, entonces F(A) = F(R). 1.4.4. Teorema. Sea A una matriz m×n. La imagen de la transformación lineal A : Rn → Rm , x → y = Ax, es el espacio columna de A; esto es, Img(A) = C(A) = {Ax : x ∈ Rn } . 21
  • 26. 1.4. Espacios fundamentales de matrices Prerrequisitos Nota. De acuerdo con el inciso (3) del teorema 1.3.6 y de acuerdo con los teoremas 1.4.1 y 1.4.4: si A es una matriz m × n, entonces dim N(A) + dim F(A) = n. Análogamente, puesto que F(At ) = C(A), dim N(AT ) + dim C(A) = m. De otra parte, con base en la nota 1.2.15, Rn = F(A) ⊕ N(A) y Rm = C(A) ⊕ N(AT ), es decir, los subespacios F(A) y N(A) de Rn son complementarios. Así mismo, los subespacios C(A) y N(At ) de Rm son complementarios. Esto implica entonces, que cada x ∈ Rn y cada y ∈ Rm se pueden expresar en forma única así: x = f + n y y = c + u, donde f, n, c y u pertenecen a F(A), N(A), C(A) y N(AT ), respectivamente (ver gura 1.1). IR m f x=f+n Ax=Af c u y=c+u n F C N N (A) (A) (A) T R n I (A ) Figura 1.1. Transformación lineal Nota. Según las deniciones, el núcleo de la transformación lineal x → y = Ax es el espacio nulo de A. De otro lado, si denimos el rango de la matriz A, ρ(A), como el rango de la transformación lineal x → y = Ax, entonces tenemos que rango de A es la dimensión del espacio columna de A. 1.4.5. Teorema. Sea A una matriz m × n, entonces: 1. ρ(A) es igual al número máximo de las linealmente independi- entes de A. 2. ρ(A) es el número máximo de columnas linealmente independi- entes de A. 22
  • 27. Prerrequisitos 1.4. Espacios fundamentales de matrices 3. ρ(A) es el número de las no nulas de la forma escalonada re- ducida de A. 4. Para cualquier matriz A, ρ(A) = ρ(AT ) = ρ(AAT ) = ρ(AT A). 5. Si A es una matriz m × n y B es una matriz n × k, entonces ρ(AB) ≤ ρ(A) y ρ(AB) ≤ ρ(B). 6. Si P es una matriz invertible m×m y Q es una matriz invertible n × n, entonces ρ(A) = ρ(PA) = ρ(AQ) = ρ(PAQ). 7. Si A y B son matrices m×n, entonces ρ(A+B) ≤ ρ(A)+ρ(B). 1.4.6. Teorema. Sea A una matriz m × n y sea y un vector m × 1. 1. El sistema de ecuaciones Ax = y tiene solución sii y ∈ C(A). 2. El sistema de ecuaciones Ax = y tiene solución sii el rango de la matriz A es igual al rango de la matriz aumentada del sistema [A | y], es decir sii ρ(A) = ρ([A| y]). 3. Para el sistema de ecuaciones lineales Ax = y se da una y sólo una de las opciones siguientes: a) El sistema no tiene solución, en cuyo caso y /∈ C(A). b) El sistema tiene innitas soluciones, en cuyo caso su con- junto solución es una variedad lineal de la forma S = {xp + xh : xh ∈ N(A)} , donde xp es una solución particular del sistema; ésto es, Axp = y, además, dim N(A) 0. c) El sistema tiene una única solución. En este caso se tiene que N(A) = {0 } El teorema siguiente recoge, teóricamente, el método de Gauss-Jordan para resolver sistemas de ecuaciones lineales. 1.4.7. Teorema. Sean A una matriz m × n y y un vector n × 1. Si P es una matriz invertible m × m tal que PA = R, donde R es la forma escalonada reducida de A, entonces Ax = y sii Rx = Py; esto es, los sistemas de ecuaciones lineales Ax = y y Rx = Py tienen el mismo conjunto solución. En particular, si y = 0; Ax = 0 sii Rx = 0. 1.4.8. Teorema (Resumen). Sea A una matriz cuadrada de orden n. Las armaciones siguientes son equivalentes: 1. det(A) = 0. 2. A es invertible. 3. La forma escalonada de A en In. 23
  • 28. 1.4. Espacios fundamentales de matrices Prerrequisitos 4. Los vectores la de A son linealmente independientes. 5. El espacio la de A es Rn , es decir, F(A) = Rn . 6. Los vectores columna de A son linealmente independientes. 7. El espacio columna de A es Rn , es decir, C(A) = Rn . 8. El rango de la matriz A es n. 9. N(A) = {0}. 10. El sistema de ecuaciones lineales Ax = 0 tiene la única solución x = 0. 11. Para todo y ∈ Rn , El sistema de ecuaciones lineales Ax = y tiene solución. Por último, consideramos un método para calcular una base de cada uno de los espacios fundamentales de una matriz m×n arbitraria A. El método consiste en efectuar los pasos siguientes: Paso 1 Forme la matriz AT | In . Paso 2 Efectúe operaciones elementales sobre las las de la matriz anterior hasta obtener la forma escalonada reducida. Al nal se obtiene la matriz que podemos describir por bloques así:   Er×m . . . Pr×n 0(n−r)×m . . . P(n−r)×n   donde r = ρ(A). Los vectores la de la matriz Er×m conforman una base para C(A) y los vectores la de la matriz P(n−r)×n conforman una base para N(A). Al llevar a cabo el paso 2 con la matriz [A | Im] se obtienen sendas bases para C(AT ) = F(A) y N(AT ). 24
  • 29. CAPÍTULO 2 Matrices particionadas. Traza de una matriz Este capítulo consta de tres secciones. Las dos primeras versan sobre ma- trices particionadas. La tercera sección trata sobre la traza de una matriz. Consignaremos aquí los principales resultados sobre la traza de una ma- triz. Existen razones para querer particionar una matriz A, algunas de ellas son: (i) La partición puede simplicar la escritura de A. (ii) La partición puede exhibir detalles particulares e interesantes de A. (iii) La partición puede permitir simplicar cálculos que involucran la matriz A. 2.1. Submatrices. Operaciones con matrices particionadas A veces es necesario considerar matrices que resultan de eliminar algunas las y/o columnas de alguna matriz dada, como se hizo por ejemplo, al denir el menor correspondiente al elemento aij de una matriz A = [aij]m×n (véase el apartado 1.1.3 del capítulo 1). 2.1.1. Denición. Sea A una matriz. Una submatriz de A es una matriz que se puede obtener al suprimir algunas las y/o columnas de la matriz A. 2.1.2. Ejemplo. Las matrices S1, S2 y S3dadas a continuación, sonson submatrices de la matriz A =   1 2 3 4 5 6 7 8 9 0 −1 −2   . S1 = 1 2 4 9 0 −2 (suprimiendo en A la la 2 y la columna 3) 25
  • 30. 2.1. Submatrices Matrices particionadas S2 = 1 2 3 4 9 0 7 8 (suprimiendo en A la la 3) S3 = 2 3 6 7 (suprimiendo en A la la 3 y las columnas 1 y 4). Dada una matriz A = [aij]m×n; mediante un sistema de rectas horizon- tales o verticales podemos particionarla en submatrices de A, como se ilustra en el siguiente ejemplo: A =              a11 . . . a12 a13 . . . a14 a21 . . . a22 a23 . . . a24 a31 . . . a32 a33 . . . a34 · · · · · · · · · · · · · · · · · · a41 . . . a42 a43 . . . a44 a51 . . . a52 a53 . . . a55              Hecho esto, podemos escribir, usando una notación obvia: A = A11 A12 A13 A21 A22 A23 donde A11 =   a11 a21 a31   , A12 =   a12 a13 a22 a23 a32 a33   , A13 =   a14 a24 a34   , A21 = a41 a51 , A22 = a42 a43 a52 a53 , A23 = a44 a55 . Debe ser claro para el lector, que una matriz puede ser particionada de diferentes maneras, por ejemplo: 26
  • 31. Matrices particionadas 2.1. Submatrices A =       1 2 3 4 5 2 0 3 0 1 −1 2 3 1 1       =        1 2 . . . 3 4 . . . 5 2 0 . . . 3 0 . . . 1 · · · · · · · · · · · · · · · · · · · · · −1 2 . . . 3 1 . . . 1        . A =        1 . . . 2 3 4 5 2 . . . 0 3 0 1 · · · · · · · · · · · · · · · · · · −1 . . . 2 3 1 1        Tal vez, la principal conveniencia de particionar matrices, es que se puede operar con matrices particionadas como si las submatrices fuesen elemen- tos ordinarios, tal como se establece en el teorema siguiente. 2.1.3. Teorema. 1. Si las matrices A y B están particionadas así: A =      A11 A12 · · · A1n A21 A22 · · · A2n . . . . . . . . . . . . Am1 Am2 · · · Amn      y B =      B11 B12 · · · B1n B21 B22 · · · B2n . . . . . . . . . . . . Bm1 Bm2 · · · Bmn      y si las sumas Aij +Bij están denidas para i = 1, 2, . . . , m, j = 1, 2, . . . , n, entonces A + B =      A11 + B11 A12 + B12 · · · A1n + B1n A21 + B21 A22 + B22 · · · A2n + B2n . . . . . . . . . . . . Am1 + Bm1 Am2 + Bm2 · · · Amn + Bmn      . 2. Si las matrices A y B están particionadas así: A =      A11 A12 · · · A1n A21 A22 · · · A2n . . . . . . . . . . . . Am1 Am2 · · · Amn      y B =      B11 B12 · · · B1s B21 B22 · · · B2s . . . . . . . . . . . . Bn1 Bn2 · · · Bns      27
  • 32. 2.1. Submatrices Matrices particionadas y si el número de columnas de cada bloque Aik es igual al número de las de cada bloque Bkj; i = 1, 2, . . . , m, k = 1, 2, . . . , n, j = 1, 2, . . . , s, entonces AB =      C11 C12 · · · C1s C21 C22 · · · C2s . . . . . . . . . . . . Cm1 Cm2 · · · Cms      , donde Cij = n k=1 AikBkj. 3. Si la matriz A está particionada como en (1) y si α es un escalar, entonces αA =      αA11 αA12 · · · αA1n αA21 αA22 · · · αA2n . . . . . . . . . . . . αAm1 αAm2 · · · αAmn      . 4. Si la matriz A está particionada como en (1) , entonces AT =       AT 11 AT 21 · · · AT n1 AT 12 AT 22 · · · AT n2 . . . . . . . . . . . . AT 1m AT 2m · · · AT nm       . Los incisos (1), (3) y (4) del teorema anterior son fáciles de vericar. La demostración del inciso (2) es laboriosa y no la haremos. Sin embargo, el lector interesado puede consultar una indicación de dicha demostración en [10] página 19. A continuación ilustraremos el inciso (2) de dicho teorema. Si A =        1 . . . 0 0 . . . 0 3 2 . . . 0 0 . . . 3 −4 · · · · · · · · · · · · · · · · · · · · · 1 . . . 2 1 . . . 0 0        =   A11 A12 A13 A21 A23 A23   28
  • 33. Matrices particionadas 2.2. Determinantes y B =           1 2 · · · · · · 0 0 1 3 · · · · · · 0 1 1 2           =      B11 B21 B31      entonces AB =   A11B11 + A12B21 + A13B31 A21B11 + A22B21 + A23B31   =   4 8 −2 −7 2 5   pues A11B11 = 1 2 1 2 = 1 2 2 4 , A12B21 = 0 0 0 0 0 0 1 3 = 0 0 0 0 , A13B31 = 0 3 3 −4 0 −1 1 2 = 3 6 −4 −1 , A21B11 = [1] 1 2 = 1 2 A22B21 = 2 1 0 0 1 3 = 1 3 , A23B31 = 0 0 0 −1 1 2 = 0 0 . 2.2. Determinantes e inversas de algunas matrices especiales En algunas situaciones es conveniente utilizar matrices particionadas para describir determinantes e inversas de ciertas matrices en términos de las submatrices. En particular, los teoremas 2.2.3 y 2.2.8, son usados en la deducción de las distribuciones condicionales de un vector aleatorio con distribución normal multivariante (véase el Teorema 3.6.1 de [4]) 29
  • 34. 2.2. Determinantes Matrices particionadas El lector recordará, que el determinante de una matriz triangular (supe- rior o inferior) es justamente el producto de los elementos de la diagonal principal. El siguiente teorema, por ejemplo, lo podríamos ver como una generalización de dicho resultado. 2.2.1. Proposición. Sean A y C matrices cuadradas, 1. Si M = A B 0 C , entonces |M| = |A||C|. 2. Si M = A 0 B C , entonces |M| = |A||C|. Demostración. Para la demostración del literal (1) usamos induc- ción sobre el orden n de la matriz M. Si n = 2 tenemos que |M| = ac = |A| |C| donde M = A B 0 C = a b 0 c . Supongamos ahora que (1) es válida para n = k y demostremos que es válida para n = k + 1. Sea M una matriz cuadrada de orden n = k +1 particionada como en (1). Suponga además que B = [bij]r×s y C = [cij]s×s. Denotemos por ˆBj a la submatriz de B que se obtiene suprimiendo en B la columna j y por ˆCj a la submatriz de C que se obtiene suprimiendo en C la columna j y la la s, j = 1, 2, . . . , s. Ahora, desarrollando el determinante de C por los cofactores de la la s (véase el Teorema 1.1.5(1)), obtenemos: det(C) = cs1(−1)s+1 | ˆC1 | + cs2(−1)s+2 | ˆC2 | + . . . + css(−1)s+s | ˆCs |. Así mismo, desarrollando el determinante de M por los cofactores de la la k + 1 obtenemos: 30
  • 35. Matrices particionadas 2.2. Determinantes det(M) = cs1(−1)2(k+1)−s+1 A ˆB1 0 ˆC1 + +cs2(−1)2(k+1)−s+2 A ˆB2 0 ˆC2 + . . . + css(−1)2(k+1)−s+s A ˆBs 0 ˆCs Utilizando la hipótesis de inducción se obtiene: det(M) = (−1)2(k+1)−2s cs1(−1)s+1 |A| | ˆC1 | + cs2(−1)s+2 |A| | ˆC2 | + . . . + css(−1)s+s |A| | ˆCs | = |A| cs1(−1)s+1 | ˆC1 | + cs2(−1)s+2 | ˆC2 | + . . . + +css(−1)s+s | ˆCs | = |A| |C| . Lo que completa la demostración de (1). La demostración de (2) se sigue del hecho de que |M| = MT (teore- ma 1.1.6(1)) y del inciso (1). En efecto, se tiene: det(M) = det(MT ) = det A B 0 C = det(AT ) det(CT ) = det(A) det(C) 2.2.2. Ejemplo. Use partición de matrices y los resultados de la proposi- ción anterior para calcular el determinante de cada una de las matrices siguientes: 31
  • 36. 2.2. Determinantes Matrices particionadas M =   7 0 0 4 5 6 3 7 9   y N =     1 2 4 5 1 3 6 7 0 0 2 3 0 0 3 5     , las cuales se pueden particionar respectivamente como sigue: M =         7 . . . 0 0 · · · . . . · · · · · · 4 . . . 5 6 3 . . . 7 9         = A 0 B C y N =            1 2 . . . 4 5 1 3 . . . 6 7 · · · · · · . . . · · · · · · 0 0 . . . 2 3 0 0 . . . 3 5            . Entonces |M| = |7| 5 6 7 9 = 21 y |N| = 1 2 1 3 2 3 3 5 = 1. El siguiente teorema nos brinda una alternativa para calcular determi- nantes de matrices más generales particionadas por bloques. 2.2.3. Teorema. Sean A y B matrices cuadradas y sea M = A B C D . 1. Si D es invertible, entonces |M| = |D| A − BD−1 C . 2. Si A es invertible, entonces |M| = |A| D − CA−1 B . Demostración. Haremos sólo la demostración del literal (1), el se- gundo resultado se verica de manera análoga y se deja como ejercicio al lector. 32
  • 37. Matrices particionadas 2.2. Determinantes Sea S = I 0 −D−1 C I . Entonces MS = A − BD−1 C B 0 D . Ahora por el teorema 1.1.6(9) y por la proposición anterior, se tiene : |M| = |M| |I| |I| = |M| |S| = |MS| = |D| A − BD−1 C . Los siguientes resultados son consecuencia inmediata de este teorema y sus vericaciones se dejan como ejercicio. 2.2.4. Corolario. Sean A, B, C y D matrices cuadradas de orden n y sea M la matriz dada por M = A B C D . 1. Si D es invertible y si DB = BD, entonces |M| = |DA − BC|. 2. Si A es invertible y si AC = CA, entonces |M| = |AD − CB|. 3. Si D = 0 y A es invertible, entonces |M| = (−1)n |B| |C|. 4. Si A = 0 y D es invertible, entonces |M| = (−1)n |B| |C|. 2.2.5. Ejemplo. Utilizando los resultados del corolario anterior encon- tremos los determinantes para las matrices M y N dadas por: M =   1 2 4 1 3 5 1 1 1   y N =     1 2 2 1 1 3 2 3 4 5 0 0 3 3 0 0     . Particionemos entonces M y N de adecuadamente. Para M tomamos        1 2 . . . 4 1 3 . . . 5 · · · · · · · · · · · · 1 1 . . . 1        = A B C D , siendo D = [1]. Puesto que D es una matriz invertible entonces, |M| = |D| A − BD−1 C = |1| −3 −2 −4 −2 = −2 . 33
  • 38. 2.2. Determinantes Matrices particionadas Similarmente para N, N =           1 2 . . . 2 1 1 3 . . . 2 3 · · · · · · · · · · · · · · · 4 5 . . . 0 0 3 3 . . . 0 0           = A B C 0 , siendo A = 1 2 1 3 . Dado que A es invertible tenemos que |M| = (−1)2 |B| |C| = −12 . 2.2.6. Proposición. Sean A y C matrices cuadradas. 1. La matriz M = A B 0 C es invertible sii las matrices A y C son invertibles. Además, si M es invertible entonces M−1 = A−1 −A−1 BC−1 0 C−1 . 2. La matriz M = A 0 B C es invertible sii las matrices A y C son invertibles. Además, si M es invertible entonces M−1 = A−1 0 −C−1 BA−1 C−1 . La prueba de este resultado se propone como ejercicio. El ejemplo siguien- te, nos ilustra el inciso (1) de la proposición anterior. 2.2.7. Ejemplo. Verique que la matriz M =     1 2 1 1 1 3 1 1 0 0 2 1 0 0 5 3     es invertible y calcule su matriz inversa. 34
  • 39. Matrices particionadas 2.2. Determinantes Observando la estructura de la matriz M podemos ver que una buena partición es: M =           1 2 . . . 1 1 1 3 . . . 1 1 · · · · · · · · · · · · · · · 0 0 . . . 2 1 0 0 . . . 5 3           = A B 0 C . Puesto que las matrices A y C son invertibles, entonces M también lo es y además, M−1 = A−1 −A−1 BC−1 0 C−1 =     3 −2 2 −1 1 3 0 0 0 0 3 −1 0 0 −5 2     . El siguiente teorema presenta una fórmula para calcular inversas de ma- trices más generales 2.2.8. Teorema. Sea B una matriz invertible particionada así: B = B11 B12 B21 B22 , con B11 y B22 matrices invertibles. Si B−1 está particionada así: B−1 = A11 A12 A21 A22 , donde Aii (i = 1, 2), matrices cuadradas de igual orden que la matriz Bii respectivamente entonces: 1. Las matrices A11 y A22 son invertibles. 2. Las matrices B11 − B12B−1 22 B21 y B22 − B21B−1 11 B12 son inver- tibles. 3. La matriz B−1 está dada por    B11 − B12B−1 22 B21 −1 −B−1 11 B12 B22 − B21B−1 11 B12 −1 −B−1 22 B21 B11 − B12B−1 22 B21 −1 B22 − B21B−1 11 B12 −1    35
  • 40. 2.2. Determinantes Matrices particionadas Demostración. De la igualdad BB−1 = B11 B12 B21 B22 A11 A12 A21 A22 = I 0 0 I = I se obtienen las igualdades (2.1) B11A11 + B12A21 = I B21A11 + B22A21 = 0 B11A12 + B12A22 = 0 B21A12 + B22A22 = I Ahora, premultiplicando ambos miembros de (2.1(b)) por B−1 22 , se obtiene : B−1 22 B21A11 + A21 = 0, o sea, A21 = −B−1 22 B21A11. Sustituyendo A21 en (2.1(a)), se obtiene B11 − B12B−1 22 B21 A11 = I . Esto quiere decir que las matrices B11 −B12B−1 22 B21 y A11 son invertibles y que una es la inversa de la otra. Premultiplicando ambos miembros de (2.1(c)) por B−1 11 , se obtiene : A12 + B−1 11 B12A22 = 0, o sea, A12 = −B−1 11 B12A22. Sustituyendo A12 en (2.1(d)), se obtiene: B22 − B21B−1 11 B12 A22 = I . Esto quiere decir que las matrices B22 −B21B−1 11 B12 y A22 son invertibles y que una es la inversa de la otra. Por lo anterior, A11 = B11 − B12B−1 22 B21 −1 A12 = −B−1 11 B12 B22 − B21B−1 11 B12 −1 A21 = −B−1 22 B21 B11 − B12B−1 22 B21 −1 A22 = B22 − B21B−1 11 B12 −1 A continuación enunciamos y demostramos un teorema que involucra ma- trices particionadas y el rango de una matriz. 36
  • 41. Matrices particionadas 2.3. Traza de una matriz 2.2.9. Teorema. Sea A = A11 A12 A21 A22 , donde A11 es una matriz in- vertible r × r. Si ρ(A) = ρ(A11), entonces A22 = A21A−1 11 A12. Demostración. Puesto que A11 es una matriz invertible, entonces ρ(A11) = r (ver teorema 1.4.8). Ahora, las matrices P =   I 0 − A21A−1 11 I   y PQ =   I −A−1 11 A12 0 I   son invertibles, puesto que |P| = |Q| = 1 = 0. En consecuencia, por el teorema 1.4.5, la matriz A y la matriz PAQ = A11 0 0 A22 − A21A−1 11 A12 tienen rango r. Puesto que el número máximo de las linealmente inde- pendientes de las matrices PAQ y A11 es r (véase el teorema 1.4.5(2)), en- tonces necesariamente A22−A21A−1 11 A12 = 0, o sea A22 = A21A−1 11 A12. 2.3. Traza de una matriz En ciertos contextos, la suma de los elementos de la diagonal de una matriz juega un papel importante. Por ejemplo, la traza de una matriz aparece en la evaluación de las integrales requeridas en el estudio de la distribución normal multivariante (véase el teorema 1.10.1 de [3]) y el valor esperado de formas cuadráticas (véase el teorema 4.6.1 de [4]). 2.3.1. Denición. Sea A una matriz cuadrada. La traza de A se deno- ta por Tr(A) y se dene como la suma de los elementos de la diagonal principal de A. Ésto es, Tr(A) = n s=1 A ss . 2.3.2. Nota. Puesto que los elementos de la diagonal principal de A son los mismos que los elementos de la diagonal principal de AT , entonces Tr(A) = Tr(AT ) . 37
  • 42. 2.3. Traza de una matriz Matrices particionadas 2.3.3. Teorema. Sean A y B son matrices cuadradas del mismo orden. Si α y β son escalares, entonces Tr(αA + βB) = α Tr(A) + β Tr(B) . Demostración. Usando la estructura de espacio vectorial de las ma- trices, así como la denición de traza se tiene: Tr(αA + βB) = n s=1 αA + βB ss = n s=1 (α A ss + β B ss) = α n s=1 A ss + β n s=1 B ss = α Tr(A) + β Tr(B) . 2.3.4. Teorema. Si A es una matriz m × n y B es una matriz n × m , entonces Tr(AB) = Tr(BA) . Demostración. Usando la denición de traza y la denición de pro- ducto de matrices obtenemos, Tr(AB) = n s=1 AB ss = n s=1 m k=1 A sk B ks = m k=1 n s=1 B ks A sk = m k=1 BA kk = Tr(BA) . 38
  • 43. Matrices particionadas 2.4. Ejercicios 2.3.5. Corolario. Sea A una matriz cuadrada de orden n. Si P es una matriz invertible n × n, entonces Tr(A) = Tr(P−1 AP) = Tr(PAP−1 ). Demostración. Por el teorema anterior, Tr(A) = Tr(AI) = Tr(APP−1 ) = Tr(P−1 AP) = Tr(PP−1 A) = Tr(P−1 PA) = Tr(PAP−1 ). 2.3.6. Corolario. Si A es una matriz m × n, entonces Tr(AAT ) = Tr(AT A) = n s=1 m k=1 A 2 sk . Además, Tr(AAT ) = 0 sii A = 0. Demostración. Por denición de traza y por el teorema 2.3.4, Tr(AAT ) = m s=1 AAT ss = m s=1 n k=1 A sk AT ks = m s=1 n k=1 A 2 sk ; Esto es, Tr(AAT ) es la suma de los cuadrados de los elementos de A. De esto se sigue entonces que, Tr(AAT ) = Tr(AT A) y además que Tr(AAT ) = 0 si y sólo si A = 0. 2.4. Ejercicios 1. Utilice matrices particionadas para calcular el determinante y la matriz inversa (si existe) de cada una de las matrices siguientes : M1 =     5 3 0 0 3 2 0 0 3 −2 2 1 2 1 5 3     M2 =     3 1 1 −1 2 1 −1 1 0 0 1 1 0 0 4 5     2. Demuestre el inciso (2) del teorema 2.2.3. 3. Demuestre el corolario 2.2.4. 4. Demuestre la proposición 2.2.6. 39
  • 44. 2.4. Ejercicios Matrices particionadas 5. Sean a, b, c y d escalares no nulos y sea n ∈ N. Calcule el deter- minante y la matriz inversa, cuando exista, de la matriz M = aIn bIn cIn dIn . 6. Sean A una matriz cuadrada de orden n y B una matriz cuadra- da de orden k. Demuestre que si M = 0 A B C o si M = C A B 0 , entonces |M| = (−1)nk |A| |B|. (Sug.: Utilice induc- ción sobre el orden de la matriz B). 7. Sean A y B matrices cuadradas. a) Dar condiciones necesarias y sucientes para que la matriz M = 0 A B C sea invertible. Si M es invertible, exprese M−1 en términos de las matrices A, B y C. b) Dar condiciones necesarias y sucientes para que la matriz M = C A B 0 sea invertible. Si M es invertible, exprese M−1 en términos de las matrices A, B y C. 8. Utilice los resultados que obtuvo en el problema anterior para calcular la matriz inversa de cada una de las matrices siguientes: M1 =     0 0 2 1 0 0 5 3 5 3 3 −2 3 2 2 1     M2 =     1 −1 1 1 −1 1 4 5 3 1 0 0 2 1 0 0     . 9. Sean A = [aij]m×n y B = [bij]n×k. Utilice matrices particionadas para demostrar que: a) Si A tiene una la nula, entonces AB tiene una la nula. (Sug.: Particione la matriz A por las). b) Si B tiene una columna nula, entonces AB tiene una colum- na nula. (Sugerencia: Particione la matriz B por columnas). 40
  • 45. Matrices particionadas 2.4. Ejercicios 10. Sean A11, A22 y A33 matrices cuadradas. Demuestre que si M =   A11 A12 A13 0 A22 A23 0 0 A33   ó M =   A11 0 0 A21 A22 0 A31 A32 A33   entonces |M| = |A11| |A22| |A33|. 11. Demuestre que si A11, A22 y A33 son matrices invertibles, en- tonces la matriz M = diag (A11, A22, A33) es invertible y M−1 =   A−1 11 0 0 0 A−1 22 0 0 0 A−1 33   12. Sean a ∈ R y An×n una matriz invertible, entonces det a x y A = |A| (a − xA−1 y). (Sugerencia: Use el teorema 2.2.3) 13. Verique que det I A B C = det(C − BA). (Sugerencia: Use el corolario 2.2.4) 14. Muestre que det In B A Im = det Im A B In y concluya que |Im − AB| = |In − BA|. 15. Suponga que las matrices que abajo aparecen son de tamaño apropiado, donde I es la matriz identica y que A11 es una matriz invertible. Encuentre matrices X y Y tales que el producto que sige tiene la forma indicada. Encuentre además B22.   I 0 0 X I 0 Y 0 I     A11 A12 A21 A22 A32 A33   =   B11 B12 0 B22 0 B32   16. Demuestre que si A es una matriz invertible 2 × 2, entonces Tr(A) = det(A) · Tr(A−1 ). 17. Sea V el espacio vectorial de las matrices n × n; (V = Mn×n) . Demuestre que la función ; : V × V → M denida por A; B = Tr(ABT ) es un producto interno en V . (Vea el apartado 1.2.3 del capítulo 1). 41
  • 46. 2.4. Ejercicios Matrices particionadas 18. Sean A y B matrices cuadradas de orden n. Demuestre que Tr(ABT ) ≤ (Tr(AAT ) Tr(BBT ))1/2 . 19. Si A, B ∈ Mn×n, muestre que AB−BA = I. (Sugerencia: Utilice la función traza) 20. Si T : Mn×n → R es una transformación lineal, entonces existe una matriz A tal que T(M) = Tr(AM). (Escriba T(M) en tér- minos de T(Eij), siendo Eij los elementos de la base estándar de las matrices) 21. Calcule dim W, donde W = {A : Tr(A) = 0}. 22. Sean A y B matrices cuadradas del mismo orden a) Muestre que Tr((AB)k ) = Tr((BA)k ). b) Muestre con un ejemplo que Tr((AB)k ) = Tr(Ak Bk ). 42
  • 47. CAPÍTULO 3 Valores propios y vectores propios. Diagonalización Este capítulo consta de cuatro secciones. Con el n de dar una idea de lo que haremos en las dos primeras secciones, consideraremos un espacio vectorial U y una transformación lineal T : U → U. Ahora; si existe una base ordenada B = {u1, u2, . . . , un} de U tal que [T]BB es una matriz diagonal, es decir, [T]BB = D =      λ1 0 · · · 0 0 λ2 · · · 0 . . . . . . . . . . . . 0 0 · · · λn      , entonces T(ui) = λiui; i = 1, 2, . . . , n , esto es, T(ui) es un múltiplo escalar de ui. Este hecho da información inmediata acerca de la transformación lineal T. Por ejemplo, la imagen de T es el espacio generado por los vectores ui para los cuales λi = 0, y el núcleo de T es el espacio generado por los restantes vectores ui. En la sección 3.2 responderemos las preguntas: ¾Para qué transformaciones lineales T existe una tal base B? y si existe, ¾Cómo encontrarla?. Las respuestas a estas preguntas están directamente ligadas a los conceptos de valor propio y vector propio, los cuales serán abordados en la sección 3.1. Veremos en esta sección, que el cálculo de los valores propios y los vectores propios de una transformación lineal T se reduce al cálculo de los valores propios y los vectores propios de una cierta matriz A. Por otro lado, en las secciones 3.3 y 3.4 consideraremos los conceptos de valor propio, vector propio y diagonalización de matrices simétricas, los cuales son particularmente importantes en la teoría y en aplicaciones del álgebra lineal. 43
  • 48. 3.1. Valores propios y vectores propios Diagonalización de matrices 3.1. Valores propios y vectores propios Un problema que se presenta con frecuencia en el Álgebra lineal y sus apli- caciones es el siguiente: Dado un espacio vectorial U y dada una transfor- mación lineal T : U → U, encontrar valores de un escalar λ para los cuales existan vectores u = 0 tales que T(u) = λu. Tal problema se denomina un problema de valores propios (la gura 3.1 nos ilustra las posibles situa- ciones). En esta sección veremos cómo resolver dicho problema. 3.1.1. Denición. Sean U un espacio vectorial y T : U → U una trans- formación lineal. Se dice que el escalar λ es un valor propio de T, si existe un vector u = 0 de U tal que T(u) = λu. A dicho vector no nulo u se le llama un vector propio de T correspondiente al valor propio λ, o se dice que es λ-vector de T. Nota. Los valores propios se denominan también eigenvalores o valores característicos y los vectores propios se denominan también eigenvectores. u 0λ1 u T(u)= 0 u λ0 λ=0λ1 uT(u)= u T(u)= u T(u)= u λ λ λ Figura 3.1. Interpretación geométrica de vector propio 3.1.2. Ejemplo. Calcule los valores propios de la transformación lineal T : R2 → R2 , dada por T (x, y) = (2x, x + 3y). De acuerdo con la denición anterior; el escalar λ es un vector propio T sii existe un vector u = (x, y) = 0 de R2 tal que T [(x, y)] = (2x, x + 3y) = λ(x, y), lo que equivale a que exista un vector u = (x, y) = 0 de R2 que satisfaga el sistema 2x = λx x + 3y = λy . 44
  • 49. Diagonalización de matrices 3.1. Valores propios y vectores propios Ahora, si x = 0, entonces se tiene que λ = 2 y por lo tanto y = −x. Esto quiere decir que todos los vectores de la forma u = (x, y) = (x, −x); x ∈ R, x = 0 son 2-vectores propios de T. En efecto: T [(x, −x)] = (2x, −2x) = 2(x, −x) . De otro lado, si x = 0 y y = 0 entonces λ = 3. Esto quiere decir que todos los vectores de la forma u = (x, y) = (0, y); y ∈ R, y = 0 son 3-vectores propios de T. En efecto: T [(0, y)] = (0, 3y) = 3(0, y) . Λ La gura 3.2 nos ilustra el ejemplo anterior. y T(u ) =3 (0, y) u = (x, −x) T(u) =2 (x, −x) x , , u = (0, y) Figura 3.2. Vectores propios de T(x, y) = (2x, x + 3y) 45
  • 50. 3.1. Valores propios y vectores propios Diagonalización de matrices En el ejemplo anterior observamos que a cada vector propio de T le cor- responde un número innito de vectores propios (todo un subespacio de U ⊂ R2 , sin el vector nulo). Esto es válido en general, tal como se establece en la proposición siguiente. 3.1.3. Proposición. Sean U un espacio vectorial, T : U → U una trans- formación lineal y λ un valor propio de T. El conjunto S(λ) de todos los λ-vectores propios de T junto con el vector 0, es un subespacio de U. Demostración. De acuerdo con la denición de transformación lin- eal, así como de vector y valor propio se tiene: 1. Si u1 ∈ S(λ) y u2 ∈ S(λ) entonces T(u1 + u2) = T(u1) + T(u2) = λ(u1 + u2) . Esto es, u1 + u2 ∈ S(λ). 2. Si u ∈ S(λ) y α ∈ R entonces T(αu) = αT(u) = λ(α · u) . Esto es, αu ∈ S(λ). De acuerdo con el teorema 1.2.6, S(λ) es un subespacio vectorial de U. 3.1.4. Denición. Sean U un espacio vectorial, T : U → U una transfor- mación lineal y λ un valor propio de T. 1. El subespacio de U, S(λ), mencionado en el teorema anterior, se denomina espacio propio asociado al valor propio λ. 2. La dimensión de S(λ) se denomina multiplicidad geométrica del valor propio λ. 3.1.5. Nota. Sean U un espacio vectorial, T : U → U una transforma- ción lineal, B una base ordenada para U y A = [T]BB , la matriz de la transformación T referida a la base B. Entonces para cada u ∈ U se tiene [T(u)]B = A [u]B (ver teorema 1.3.8). En particular, u es un λ-vector pro- pio de T si y sólo si u = 0 y A [u]B = [T(u)]B = [λu]B = λ [u]B . Esto es, u es un λ-vector propio de T si y sólo si u = 0 y A [u]B = λ [u]B . Por esta razón, y porque resulta en otros contextos, consideramos a continuación los conceptos particulares de valor propio y vector propio de una matriz cuadrada A. 46
  • 51. Diagonalización de matrices 3.1. Valores propios y vectores propios 3.1.6. Denición. Sea A una matriz cuadrada de orden n. 1. Se dice que el escalar λ es un valor propio de A, si existe un vector n × 1, x = 0 tal que Ax = λx. 2. Si λ es un valor propio de A y si el vector n × 1, x = 0 es tal que Ax = λx. Entonces se dice que x es un vector propio de A correspondiente al valor propio λ, o que x es un λ-vector de A. En el caso especial de la transformación lineal; A : Rn → Rn ; x → y = Ax, esta la denición anterior concuerda con la denición 3.1.1 (véase la sección 1.3). De otro lado, según la denición anterior y la nota 3.1.5, odemos enunciar el siguiente teorema. 3.1.7. Teorema. Sean U un espacio vectorial, T : U → U una transfor- mación lineal, B una base ordenada para U y A = [T]BB . 1. λ es un valor propio de T sii λ es un valor propio de A. 2. u ∈ U es un λ-vector propio de T sii x = [u]BB es un λ-vector propio de A. Dicho teorema nos garatiza entonces, que el cálculo de los valores y vec- tores propios de una transformación lineal se reduce al cálculo de los val- ores y vectores propios de una cierta matriz A. En lo que sigue, veremos cómo calcular los valores y vectores propios de una matriz. Sea A una matriz n × n. Por denición, el escalar λ es un valor propio de A sii existe un vector n × 1, x = 0 tal que Ax = λx, lo cual equivale a que el sistema homogéneo de ecuaciones lineales (A − λI)x = 0 tenga una solución no trivial x = 0. Ahora por el teorema 1.4.8 del capítulo 1, el sistema de ecuaciones lineales (A − λI)x = 0 tiene una solución x = 0 sii |A − λI| = 0. En consecuencia, el escalar λ es un valor propio de A sii pA(λ) = |A − λI| = a11 − λ a12 a13 · · · a1n a21 a22 − λ a23 · · · a2n a31 a32 a33 − λ · · · a3n . . . . . . . . . . . . . . . an1 an2 an3 · · · ann − λ = 0 47
  • 52. 3.1. Valores propios y vectores propios Diagonalización de matrices La expresión pA(λ) = |A − λI| es un polinomio en λ de grado n, el cual puede expresarse así (ver ejercicio 3.5(9)). pA(λ) = |A − λI| = a0 + a1λ + a2λ2 + · · · + an−1λn−1 + (−1)n λn . 3.1.8. Denición. Sea A una matriz cuadrada 1. El polinomio pA(λ) = |A − λI| se denomina polinomio carac- terístico de A. 2. La ecuación pA(λ) = |A − λI| = 0 se denomina ecuación carac- terística de A. El siguiente teorema resume buena parte de la discusión anterior. 3.1.9. Teorema. Sea A una matriz cuadrada de orden n 1. El escalar λ es un valor propio de A sii λ es una solución (real) 1 de la ecuación característica de A. 2. A tiene a lo más n valores propios (reales) 2. 3.1.10. Denición. Sea A una matriz cuadrada y λ un valor propio de A. La multiplicidad algebraica de λ es k, si λ es una raíz del polinomio característico de A de multiplicidad k. El siguiente algoritmo, recoge entonces el esquema para calcular los valores propios y los vectores propios de una matriz A. Paso 1 Se determina el polinomio característico pA(λ) = |A − λI| . Paso 2 Se resuelve la ecuación característica pA(λ) = |A − λI| = 0. Las soluciones (reales) de ésta, son los valores propios de A. Paso 3 Para cada valor propio λ∗ de la matriz A, se resuelve el sistema de ecuaciones (A − λ∗ I)x = 0. Las soluciones no nulas de este sistema son los λ∗ −vectores propios de A. 1Un valor propio de A es un escalar, y, como hemos establecido, en estas notas los escalares serán números reales a menos que se exprese lo contrario. De hecho, uno puede estudiar espacios vectoriales donde los escalares son números complejos. No sobra mencionar que en cursos avanzados de espacios vectoriales, la única restricción para los escalares es que sean elementos de un sistema matemático llamado cuerpo o campo. 2El teorema fundamental del álgebra establece que toda ecuación polinómica de grado n, con coecientes complejos, tiene exactamente n raíces complejas, contadas con sus multiplicidades. 48
  • 53. Diagonalización de matrices 3.1. Valores propios y vectores propios 3.1.11. Ejemplo. Determine los valores propios y vectores propios de la matriz A =   1 1 −1 −1 3 −1 −1 2 0   . Determinemos inicialmente, el polinomio característico de A, pA(λ) = |A − λI| . Desarrollemos |A − λI| por cofactores por la primera la (véase el teorema 1.1.5) pA(λ) = |A − λI| = 1 − λ 1 −1 −1 3 − λ −1 −1 2 −λ = (1 − λ) 3 − λ −1 2 −λ − 1 −1 −1 −1 −λ − 1 −1 3 − λ −1 2 = (1 − λ)(λ2 − 3λ + 2) − (1 − λ) − (−λ + 1) = (1 − λ)(λ2 − 3λ + 2) = −(1 − λ)2 (λ − 2). De aquí se tiene, que λ = 1 ó λ = 2 son las soluciones de la ecuación carac- terística pA(λ) = |A − λI| = 0. λ = 1 y λ = 2 so pues los valores propios de A, con multiplicidades algebraicas k = 2 y k = 1 respectivamente. Determinemos los vectores propios de A. Los 1−vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales (A − 1 · I)x = 0. Resolvamos dicho sistema usando el método de eliminación de Gauss- Jordan (véase el teorema 1.4.7 ). A − 1 · I =   0 1 −1 −1 2 −1 −1 2 −1   ≈   1 0 −1 0 1 −1 0 0 0   = R Donde R es la forma escalonada reducida de la matriz A − 1 · I (véase el teorema 1.1.10). Las soluciones del sistema (A − 1 · I)x = 0 son, por lo tanto, los vectores de la forma: x =   x1 x2 x3   =   x3 x3 x3   = x3   1 1 1   , x3 ∈ R. 49
  • 54. 3.1. Valores propios y vectores propios Diagonalización de matrices En consecuencia, Uλ1 = U1 =      1 1 1      es una base para S(λ1) = S(1) y la multiplicidad geométrica del valor propio λ1 = 1 es 1. De otro lado, los 2−vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales (A − 2 · I)x = 0. Procediendo como en el cálculo anterior, se tiene: A − 2 · I =   −1 1 −1 −1 1 −1 −1 2 −2   ≈   1 0 0 0 1 −1 0 0 0   = R Donde R es la forma escalonada reducida de la matriz A − 2 · I. Las soluciones del sistema (A − 2 · I)x = 0 son los vectores de la forma: x =   x1 x2 x3   =   0 x3 x3   = x3   0 1 1   , x3 ∈ R. En consecuencia, Uλ2 = U2 =      0 1 1      es una base para S(λ2) = S(2) y la multiplicidad geométrica del valor propio λ2 = 2 es 1. En el ejemplo anterior, la multiplicidad geométrica del valor propio λ1 = 1 es menor que su correspondiente multiplicidad algebraica y la multiplici- dad geométrica del valor propio λ2 = 2 es igual que su correspondiente multiplicidad algebraica (ver el ejercicio 3.5.2(10)). 3.1.12. Ejemplo. Calculemos los valores y vectores propios de la matriz A = 0 1 −1 0 . Para ello calculemos el polinomio característico de A, pA(λ) = |A − λI| . pA(λ) = |A − λI| = −λ 1 −1 −λ = λ2 + 1 , 50
  • 55. Diagonalización de matrices 3.1. Valores propios y vectores propios y resolvemos la ecuación característica de A, pA(λ) = |A − λI| = 0 pA(λ) = λ2 + 1 = (λ + i)(λ − i) sii λ = i ó λ = −i. Puesto que las soluciones de la ecuación característica de A no son reales, entonces A no tiene valores propios y por lo tanto no tiene vectores pro- pios, en el sentido considerado en este texto. 3.1.13. Ejemplo. Sea T : P2 → P2 la transformación lineal denida por: T a + bx + cx2 = (a + b − c) + (−a + 3b − c)x + (−a + 2b)x2 Determine los valores y los vectores propios de la transformación. Sea B = 1, x, x2 la base canónica de P2, se tiene entonces que: [T]BB = A =   1 1 −1 −1 3 −1 −1 2 0   . De acuerdo con el teorema 3.1.7(1); los valores propios de la transforma- ción lineal T son los valores propios de la matriz A, los cuales son, según el ejemplo 3.1.11 λ1 = 1 y λ2 = 2. De otro lado, del ejemplo 3.1.11 se sabe que Uλ1 = {x1} es una base de S(λ1) y que Uλ2 = {x2} es una base de S(λ2), donde x1 =   1 1 1   y x2 =   0 1 1   . Como se estableció en el teorema 3.1.7(2), éstos son respectivamente, los vectores de coordenadas respecto a la base B (véase apartado 1.2.2) de los vectores de P2; u1 = 1 + x + x2 y u2 = x + x2 . En consecuencia; Uλ1 = {u1} = 1 + x + x2 es una base del espa- cio de vectores propios de T correspondientes al valor propio λ1 = 1 y Uλ2 = {u2} = x + x2 es una base del espacio de vectores propios de T correspondientes al valor propio λ2 = 2. Terminamos esta sección con dos resultados que involucran matrices se- mejantes. El primero de ellos relaciona los polimomios característicos de matrices semenjantes y el segundo relaciona los vectores propios de dichas matrices. 51
  • 56. 3.1. Valores propios y vectores propios Diagonalización de matrices 3.1.14. Teorema. Si A y B son matrices semejantes, entonces los poli- nomios característicos de A y B son iguales, y por consiguiente, las ma- trices A y B tienen los mismos valores propios. Demostración. Si A y B son matrices semejantes, entonces existe una matriz invertible P tal que B = P−1 AB. De aquí: pB(λ) = |B − λI| = P−1 AP − λP−1 P = P−1 (A − λI)P = |P−1 | |A − λI| |P| = |P−1 | |P| |A − λI| = |A − λI| = pA(λ). 3.1.15. Nota. El converso del teorema anterior no es cierto; o sea, si A y B son matrices con el mismo polinomio característico, no necesariamente A y B son matrices semejantes. Para mostrar esto, basta considerar el siguiente ejemplo. 3.1.16. Ejemplo. Las matrices A = 1 0 0 1 y B = 1 0 3 1 tienen el mismo polinomio característico; explícitamente pA(λ) = pB(λ) = (λ − 1)2 . Sin embargo, A y B no son matrices semejantes, pues para cualquier matriz invertible P de orden 2 se tiene que: P−1 AP = P−1 IP = P−1 P = I = B. 3.1.17. Proposición. Si A y B = P−1 AP son matrices semejantes, en- tonces x es un λ−vector propio de A sii P−1 X es un λ−vector propio de B. Demostración. Por denición se tiene Ax = λx ⇐⇒ AIx = λx ⇐⇒ APP−1 x = λx ⇐⇒ P−1 APP−1 x = λP−1 x Tomando B = P−1 AP tenemos entonces que: x = 0 es un λ-vector propio de A si y sólo si P−1 x = 0 es un λ-vector propio de B = P−1 AP. 52
  • 57. Diagonalización de matrices 3.2. Diagonalización 3.2. Diagonalización En esta sección responderemos las preguntas siguientes: Dado un espacio vectorial U y dada una transformación lineal T : U → U ¾Existe una base B de U tal que [T]BB es una matriz diagonal? y si existe ¾cómo encontrar una tal base? Como se estableció en el teorema 1.3.14(2), si T : U → U es una trans- formación lineal, B1 y B2 son bases ordenadas de U, A = [T]B1B1 y P = [I]B2B1 , entonces D = [T]B2B2 = P−1 AP, esto es, las matrices A y D son semejantes. Esta consideración nos permite formular las preguntas anteriores en tér- minos de matrices, así: Dada una matriz cuadrada A, ¾Existe una matriz diagonal D semejante a la matriz?, en otros términos, existirá una matriz invertible P tal que P−1 AP = D sea una matriz diagonal? y si existe ¾cómo encontrar una tal matriz P ? 3.2.1. Denición. Sea A una matriz cuadrada. Diremos que A es diago- nalizable si A es semejante a una matriz diagonal. 3.2.2. Teorema. Sea A una matriz cuadrada de orden n. Si existen n vectores propios de A linealmente independientes, entonces A es diago- nalizable; esto es, existe una matriz invertible P tal que P−1 AP = D es una matriz diagonal. Además, los vectores columna de P son los vectores propios de A y los elementos de la diagonal de D son los correspondientes valores propios de A. Demostración. Sean λ1, λ2, . . . ,λn, los n valores propios de A, los cuales no son necesariamente diferentes y sean x1, x2, . . . , xn, vec- tores propios de A linealmente independientes, correspondientes respecti- vamente a cada uno de dichos valores propios. Sea ahora P la matriz cuya j−ésima columna es el vector propio xj, j = 1, 2, . . . , n, la cual particionamos como sigue: P = x1 x2 · · · xn . Puesto que las columnas de P son linealmente independientes, entonces P es invertible (teorema 1.4.8). 53
  • 58. 3.2. Diagonalización Diagonalización de matrices Ahora, AP = A x1 x2 · · · xn = Ax1 Ax2 · · · Axn = λ1x1 λ2x2 · · · λnxn = x1 x2 · · · xn      λ1 0 · · · 0 0 λ2 · · · 0 . . . . . . . . . . . . 0 0 · · · λ3      = PD Donde D es la matriz diagonal indicada arriba. Por lo tanto, P−1 AP = D, y el teorema queda demostrado. El recíproco de este resultado también es válido y está dado por el siguiente teorema. La demostración se deja como ejercicio. 3.2.3. Teorema. Sea A una matriz cuadrada de orden n. Si A es diagona- lizable, es decir, si existe una matriz invertible P tal que P−1 AP = D es una matriz diagonal, entonces existen n vectores propios de A linealmente independientes. Además, los vectores columna de P son vectores propios de A y los elementos de la diagonal de D son los correspondientes valores propios de A. 3.2.4. Ejemplo. Veriquemos que la matriz A =   4 −1 2 −6 5 −6 −6 3 −4   es diagonalizable y encontremos una matriz invertible P tal que P−1 AP = D sea una matriz diagonal. Para tal n, veamos que A tiene 3 vectores propios linealmente independientes. En efecto: El polinomio característico de A, está dado por pA(λ) = |A − λI| = 4 − λ −1 2 −6 5 − λ −6 −6 3 −4 − λ = −(λ − 2)2 (λ − 1). La ecuación característica de A, pA(λ) = |A − λI| = 0 tiene entonces como solución a λ = 2 (de multiplicidad 2) y a λ = 1 (de multiplicidad 1). Estos escalares son pues, los valores propios de A. Determinemos ahora los vectores propios asociados: 54
  • 59. Diagonalización de matrices 3.2. Diagonalización Los 2-vectores propios de A son las soluciones no nulas del sistema de ecuaciones (A − 2I)x = 0, y los 1-vectores propios de A son las soluciones no nulas del sistema de ecuaciones (A − 1I)x = 0. Es decir, debemos re- solver sistemas homogéneos de ecuaciones cuyas matrices de coecientes son respectivamente: A − 2I =   2 −1 2 −6 3 −6 −6 3 −6   y A − 1I =   3 −1 2 −6 4 −6 −6 3 −5   . Es fácil vericar que las soluciones del sistema homogéneo (A − 2I)x = 0 son los vectores de la forma x =   x1 x2 x3   =   1 2 x2 − x3 x2 x3   = 1 2 x2   1 2 0   + x3   −1 0 1   , x2, x3 ∈ R, en consecuencia, Uλ1 = U2 =      1 2 0   ,   −1 0 1      es una base para S(λ1) = S(2). De otra parte, se encuentra que las soluciones del sistema (A − 1I)x = 0 son los vectores de la forma x =   x1 x2 x3   =   −1 3 x3 x3 x3   = 1 3 x3   −1 3 3   , x3 ∈ R. En consecuencia, Uλ2 = U1 =      −1 3 3      es una base para S(λ2) = S(1). 55
  • 60. 3.2. Diagonalización Diagonalización de matrices Ahora, los vectores x1 =   1 2 0   , x2 =   −1 0 1   y x3 =   −1 3 3   son vectores propios de A correspondientes a los valores propios 2, 2 y 1, respectivamente, y son linealmente independientes como se comprueba fácilmente. De acuerdo con el teorema 3.2.2, la matriz A es diagonalizable. Por otro lado, según la demostración del teorema, la matriz P = x1 x2 x3 =   1 −1 −1 2 0 3 0 1 3   es invertible y es tal que: P−1 AP = D =   2 0 0 0 2 0 0 0 1   . 3.2.5. Ejemplo. La matriz del ejemplo 3.1.11, A =   1 1 −1 −1 3 −1 −1 2 0   no es diagonalizable, pues vimos en dicho ejemplo, que la matriz A tiene dos valores propios: λ1 = 1 y λ2 = 2, y que U1 =      1 1 1      y U2 =      0 1 1      son bases para los espacios propios asociados, respectivamente. Así que A sólo tiene dos vectores propios linealmente independientes. 3.2.6. Teorema. Si λ1, λ2, . . . , λk son los valores propios diferentes de una matriz A y si x1, x2, . . . , xk son vectores propios de A correspondi- entes a los valores propios λ1, λ2, . . . , λk, respectivamente, entonces C = {x1, , x2, . . . , xk} es un conjunto linealmente independiente. Demostración. Haremos la demostración utilizando inducción so- bre el número k de vectores del conjunto C. 56
  • 61. Diagonalización de matrices 3.2. Diagonalización Si C = {x1}, entonces C es linealmente independiente, pues x1 = 0. El teorema es cierto para cuando k = 2. En efecto: Si (3.1) α1x1 + α2x2 = 0, premultiplicando (3.1) por el escalar λ2 se obtiene: (3.2) λ2α1x1 + λ2α2x2 = 0. De otra parte; premultiplicando (3.1) por la matriz A se llega a: (3.3) λ1α1x1 + λ2α2x2 = 0. Restando (3.3) de (3.2) se obtiene: (λ2 − λ1)α1x1 = 0. Puesto que x1 = 0, entonces (λ2 − λ1)α1 = 0. Dado que λ1 = λ2 se tiene entonces que α1 = 0. Reemplazando este valor de α1 en (3.1) se llega a que α2x2 = 0, pero x2 = 0, entonces α2 = 0. Supongamos ahora que el teorema es cierto para cuando k = j y de- mostremos que el teorema es cierto para cuando k = j+1. Si (3.4) α1x1 + α2x2 + . . . + αjxj + αj+1xj+1 = 0, premultiplicando (3.4) por el escalar λj+1 se obtiene: (3.5) λj+1α1x1 + λj+1α2x2 + . . . + λj+1αjxj + λj+1αj+1xj+1 = 0, De otra parte; premultiplicando (3.4) por la matriz A se llega a: (3.6) λ1α1x1 + λ2α2x2 + . . . + λjαjxj + λj+1αj+1xj+1 = 0. Restando (3.6) de (3.5) se obtiene: (λj+1 − λ1)α1x1 + (λj+1 − λ2)α2x2 + . . . + (λj+1 − λj)αjxj = 0. Por hipótesis de inducción se tiene (λj+1 − λ1)α1 = (λj+1 − λ2)α2 = . . . = (λj+1 − λj)αj = 0 . De otro lado, por hipótesis del teorema los escalares λ1, . . . , λj, λj+1 son diferentes, entonces se obtiene que α1 = α2 = . . . = αj = 0. Reemplazan- do estos valores en 3.4 se llega a que αj+1xj+1 = 0, pero xj+1 = 0, entonces αj+1 = 0. El teorema queda entonces demostrado. La prueba del siguiente corolario es consecuencia inmediata de los teore- mas 3.2.6 y 3.2.2. 57
  • 62. 3.2. Diagonalización Diagonalización de matrices 3.2.7. Corolario. Sea A una matriz cuadrada de orden n. Si A posee n valores propios distintos, entonces A es diagonalizable. 3.2.8. Ejemplo. La matriz A =   1 2 3 0 4 5 0 0 6   3×3 es diagonalizable. En efecto, la ecuación característica de A es: pA(λ) = |A − λI| = (−1)3 (λ − 1)(λ − 4)(λ − 6) = 0. De esto se sigue que A tiene tres valores propios distintos, a saber: λ1 = 1, λ2 = 4 y λ3 = 6. De acuerdo con los teoremas 3.2.2 y 3.2.3, dada la matriz cuadrada A de orden n; existe una matriz invertible P tal que P−1 AP = D es una matriz diagonal sii A tiene n vectores propios linealmente independientes. Además, si existe una tal matriz P, los vectores columna de P son vectores propios de A y los elementos de la diagonal de D son los valores propios de A. Quedan así contestadas las preguntas propuestas al comienzo de esta sección sobre la diagonalización de matrices. El siguiente teorema responde a las preguntas sobre diagonalización pero formuladas en el con- texto de las transformaciones lineales. 3.2.9. Teorema. Sea U un espacio de dimensión n y sea T : U → U una transformación lineal. Existe una base ordenada B2 de U tal que [T]B2B2 = D es una matriz diagonal sii T tiene n vectores propios lin- ealmente independientes. Además, si B2 = { u1, u2, . . . , un} es un base ordenada de U tal que [T]B2B2 = D =      λ1 0 · · · 0 0 λ2 · · · 0 . . . . . . . . . . . . 0 0 · · · λn      es una matriz diagonal, entonces ui es un λi-vector propio de T, o sea T(ui) = λiui, i = 1, 2, . . . , n. Demostración. Puesto que las matrices asociadas a transforma- ciones lineales y referidas a bases arbitrarias son semejantes, y puesto que el polinomio característico de matrices semejantes es el mismo (ver teorema 3.1.14), podemos considerar una base arbitraria B1 para U. 58
  • 63. Diagonalización de matrices 3.2. Diagonalización Sea pues A = [T]B1B1 , la matriz de la transformación T referida a dicha base B1, Existe una base ordenada B2 de U tal que D = [T]B2B2 = [I] −1 B2B1 A [I]B2B1 es una matriz diagonal sii A es semejante a una ma- triz diagonal. Ahora por los teoremas 3.2.2 y 3.2.3; A es semejante a una matriz diagonal sii A tiene n vectores propios linealmente independientes, lo cual equivale a que T tenga n vectores propios linealmente independi- entes (ver el apartado 1.2.2) Además, si B2 = {u1, u2, . . . , un} es una base ordenada de U tal que [T]B2B2 = D =      λ1 0 · · · 0 0 λ1 · · · 0 . . . . . . . . . . . . 0 0 · · · λ1      es una matriz diagonal, entonces, de acuerdo con la denición de la ma- triz [T]B2B2 , T(ui) = λiui ; o sea, ui es un λi-vector propio de T, i = 1, 2, . . . , n . 3.2.10. Ejemplo. Consideremos la transformación lineal T : P3 → P3 denida por: T a + bx + cx2 = (4a − b + 2c) + (−6a + 5b − 6c)x + (−6a + 3b − 4c)x2 . Encontremos una base ordenada B2 de U = P2 tal que [T]B2B2 = D es una matriz diagonal. Sea B1 = 1, x, x2 la llamada base canónica de P2 entonces: A = [T]B1B1 =   4 −1 2 −6 5 −6 −6 3 −4   , que es la matriz del ejemplo 3.2.4. De dicho ejemplo sabemos que x1 =   1 2 0   , x2 =   −1 0 1   y x3 =   −1 3 3   , son vectores propios linealmente independientes de A, correspondientes respectivamente a los valores propios 2, 2 y 1. Los vectores x1, x2 y x3 son respectivamente, los vectores de coordenadas respecto a la base B1 de los vectores de P2: u1 = 1 + 2x; u2 = −1 + x2 y u3 = −1 + 3x + 3x2 . 59
  • 64. 3.2. Diagonalización Diagonalización de matrices Ahora, los valores propios de T son los valores propios de A (ver teorema 3.1.7), esto es, los diferentes valores propios de T son λ1 = 2 y λ2 = 1. De otro lado, por lo establecido en el apartado 1.2.2, u1, u2 y u3 son vectores propios de T linealmente independientes, correspondientes a los valores propios 2, 2 y 1, respectivamente. En consecuencia, de acuerdo con el teorema anterior, B2 = {u1, u2, u3} es una base para P2 tal que: [T]B2B2 = D =   2 0 0 0 2 0 0 0 1   . Como hemos visto, dada una matriz cuadrada A de orden n, existe una matriz invertible P tal que P−1 AP = D es una matriz diagonal sii existen n vectores propios de A linealmente independientes. En el caso en que A no posea n vectores propios linealmente independientes, es posible, bajo cierta condición, que A sea semejante a una matriz triangular superior T; es decir , que A sea semejante a una matriz T = [tij]n×n para la cual tij = 0 si i j. El siguiente teorema explicita esta armación. 3.2.11. Teorema. Sea A una matriz cuadrada (real) de orden n. Todas las soluciones de la ecuación característica de A son reales sii existe una matriz invertible P (real) tal que P−1 AP = T es una matriz triangular superior. Además, si existe una tal matriz P, entonces los elementos de la diagonal de T son los valores propios de A. Demostración. (=⇒) Haremos la demostración en este sentido, uti- lizando inducción sobre el orden n de la matriz A. Para cuando n = 2, la implicación es verdadera. En efecto, de la hipótesis se sigue que A tiene dos valores propios (reales) los cuales no son necesariamente distintos. Sea λ un valor propio de A. Existe por lo tanto un vector 2×1, x1 = 0 tal que Ax1 = λ x1. Por el teorema1.2.13(3), existe un vector 2×1, x2 = 0 tal que B = {x1, x2} es una base para M2×1. Ahora, la matriz P = x1 x2 es invertible; escribamos a P−1 particionada por las así: P−1 = y1 y2 , y1, y2 ∈ M1×2 , entonces se tiene que P−1 AP = y1 y2 A x1 x2 = λ y1Ax2 0 y2Ax2 = T es una matriz triangular superior. 60
  • 65. Diagonalización de matrices 3.2. Diagonalización Supongamos ahora que la implicación es verdadera para cuando n = j −1 y demostremos que ésta es verdadera cuando n = j, j ≥ 3. Sea A una matriz cuadrada de orden j para la cual todas las soluciones de su ecuación característica son reales. De ésto se sigue que A tiene j valores propios (reales) los cuales no son necesariamente distintos. Sea λ un valor propio de A. Existe por lo tanto un vector j × 1, x1 = 0 tal que Ax1 = λx1. Por el teorema 1.2.13(3), existen j − 1 vectores x2, x3, . . . , xj de Mj×1 tales que B = {x1, x2, x3, . . . , xj} es una base para Mj×1. Ahora por el teorema 1.4.8, la matriz P = x1 x2 · · · xj = x1 M es invertible. Escribamos la inversa P−1 así: P−1 = y1 N , y1 ∈ M1×j, y N ∈ M(j−1)×(j−1) . Entonces se tiene P−1 AP = y1 N A x1 M = λ y1AM 0 NAM = λ B 0 C = T1 es una matriz triangular superior por bloques. Ahora, las matrices A y T1 tienen el mismo polinomio característico (teo- rema 3.1.14): pA(λ) = pT1 (λ) = (λ1 − λ) |C − λI| . De ésto se sigue, que todas las soluciones de la ecuación característica de la matriz cuadrada de orden j − 1, C, son reales. Por hipótesis de inducción, existe una matriz invertible Q tal que Q−1 CQ = T1 es una matriz triangular superior. Sea ahora: P2 = 1 0 0 Q , entonces se tiene que la matriz invertible P = P1P2 es tal que P−1 AP = P−1 2 P−1 1 AP1P2 = 1 0 0 Q−1 λ1 B 0 C 1 0 0 Q = λ1 BQ 0 Q−1 CQ = λ1 BQ 0 T2 = T es una matriz triangular superior. La demostración de la otra implicación y de la segunda armación del teorema quedan como ejercicio para el lector. 61
  • 66. 3.2. Diagonalización Diagonalización de matrices 3.2.12. Ejemplo. Todas las soluciones de la ecuación característica de la matriz del ejemplo 3.2.5 A =   1 1 −1 −1 3 −1 −1 2 0   3×3 son reales, pues: pA(λ) = −(λ − 1)2 (λ − 2) = 0 sii λ1 = 1 ó λ2 = 2 . De otro lado, como lo establecimos en el ejemplo 3.2.5, la matriz A no es diagonalizable, pues A sólo posee dos vectores propios linealmente inde- pendientes. En particular: x1 =   1 1 1   y x2 =   0 1 1   son vectores propios linealmente independientes correspondientes a los valores propios λ1 = 1 y λ2 = 2, respectivamente. Por el teorema anterior, existe una matriz invertible P tal que P−1 AP = T es una matriz triangular superior. Para encontrar una tal matriz P, demos un vector x3 tal que B = {x1, x2, x3} sea una base para M3×1, el vector x3 =   0 2 3   sirve para tal efecto. Ahora bien, la matriz P = x1 x2 x3 =   1 0 0 1 1 2 1 1 3   es invertible y es tal que P−1 AP = T =   1 0 −1 0 2 2 0 0 1   es una matriz triangular superior. De acuerdo con el teorema anterior, si A es una matriz cuadrada (real) cuyos valores propios no son todos reales entonces, no puede existir una matriz invertible P (real) tal que P−1 AP = T sea una matriz triangular 62