SlideShare una empresa de Scribd logo
1 de 33
Descargar para leer sin conexión
Brev´ısima (casi rasca) Introducci´on al ´Algebra Lineal
Mauricio Godoy Molina
17 de Octubre de 2005
Resumen
Concluyamos de manera est´etica el curso MAT-022. El c´alculo de antiderivadas, la incom-
prensi´on del teorema fundamental del c´alculo, la falta de rigurosidad a la hora de definir las
series de funciones, la enorme cantidad de f´ormulas aprendidas para calcular propiedades en las
distintas coordenadas . . . han sido un golpe bajo a nuestro intelecto y casi una ofensa a aquellos
que nos gusta aprender bien. Lamentablemente, los conceptos formales y rigurosos que funda-
mentan lo hecho anteriormente, no es algo que realmente necesita saber un ingeniero . . . y como
muchas veces prima la ley del m´ınimo esfuerzo, simplemente no se ense˜nan.
Cerremos el cap´ıtulo obscuro de MAT-022 y veamos la luz al final del t´unel.
1. ´Algebra de Matrices
La experiencia ha dicho que no necesariamente en todos los colegios se ense˜nan ciertos t´opicos
elementales y b´asicos para el inicio de las matem´aticas serias (de hecho, el autor no vio muchos de
los temas de los cuales ha escrito en su ense˜nanza media, como es el caso del ´algebra de matrices);
por esto, no debemos asumir el conocimiento cabal de ciertos temas por parte de los alumnos. Como
dijo cierto fil´osofo: “hasta el hombre m´as sabio, al tomar el libro que menos represente a sus ojos,
aprender´a algo”; por esto recomendamos a las personas que conocen y dominan estos t´opicos el dar
al menos una lectura r´apida al siguiente apartado.
1.1. Matrices
Observaci´on: En lo sucesivo diremos que K es un cuerpo cualquiera (Q, R, C, Z/pZ, etc.)
Definici´on 1.1 Diremos que A es una matriz de m × n con coeficientes en K si es una funci´on
A : {1, . . . , m} × {1, . . . , n} −→ K
(i, j) −→ A(i, j) = aij
Se deduce de esto que los elementos de la matriz A, en general, se denotar´an con la min´uscula de la
matriz con el sub´ındice respectivo al lugar que ocupa.
Observaci´on: La definici´on anterior induce inmediatamente una notaci´on muy pr´actica para una
matriz A de elementos aij, a saber A = (aij).
Definici´on 1.2 Diremos que la representaci´on de una matriz de m × n con coeficientes en K es un
arreglo rectangular de valores de K, dispuestos en m filas y n columnas.
Definici´on 1.3 Diremos que la matriz A = (aij) es igual a la matriz B = (bij) si y s´olo si poseen el
mismo orden (por ejemplo, m×n) y cumplen la relaci´on aij = bij (∀(i, j) ∈ {1, . . . , m}×{1, . . . , n}).
1
Ejemplos:
1. La matriz A = (i+j) donde (i, j) ∈ {1, . . . , m}×{1, . . . , n} posee la representaci´on rectangular:
B =





2 3 4 . . . 1 + n
3 4 5 . . . 2 + n
...
...
...
...
...
m + 1 m + 2 m + 3 . . . m + n





2. Supongamos la matriz B = (m´ax{i, j}), donde (i, j) ∈ {1, . . . , n} × {1, . . . , n}. Luego su repre-
sentaci´on rectangular est´a dada por:
B =









1 2 3 4 . . . n
2 2 3 4 . . . n
3 3 3 4 . . . n
4 4 4 4 . . . n
...
...
...
...
...
...
n n n n . . . n









3. La matriz 0m×n = (0) es conocida como la matriz nula. Su representaci´on rectangular est´a dada
por:
0m×n =





0 0 0 n veces 0
0 0 0 . . . 0
...
...
...
... m veces
0 0 0 . . . 0





Observaci´on: Desde ahora en adelante hablaremos en forma indistinta de la matriz y de su rep-
resentaci´on rectangular.
Definici´on 1.4 Diremos que una matriz de m × n es una matriz cuadrada si y s´olo si m = n. En
este caso simplemente se dir´a que la matriz es cuadrada de orden n (no de n × n).
Definici´on 1.5 Si A es una matriz cuadrada de orden n diremos que su diagonal principal es el
conjunto de los elementos {a11, . . . , ann}. Diremos, adem´as, que la traza de la matriz es la suma de
los elementos de su diagonal principal. Es decir, si denotamos la traza de A por trA, se tiene que
trA =
n
i=1
aii
Definici´on 1.6 El conjunto de todas las matrices de orden m × n con coeficientes en K se de-
notar´a por Mm×n(K). En el caso de matrices cuadradas de orden n, la notaci´on del conjunto es
Mn(K).
Ejemplo Importante: Si A = (aij) es una matriz cuadrada que cumple que aij = 0 cuando i > j
se conocen como matrices triangulares superiores. Por analog´ıa se definen las matrices triangulares
inferiores (aij = 0 cuando i < j).
2
1.2. Multiplicaci´on por un Escalar
La multiplicaci´on entre matrices y escalares es una operaci´on que surge en forma natural del
estudio de las transformaciones lineales pero, por lo pronto, entregaremos este hecho como definici´on.
Definici´on 1.7 El producto entre una matriz y un escalar es una funci´on:
· : K × Mm×n(K) −→ Mm×n(K)
(λ, (aij)) −→ (cij) = (λaij)
Ejemplos:
1. Supongamos la matriz 0m×n. Es claro que ∀k ∈ K : k · 0m×n = 0m×n.
2. Claramente se tienen las siguientes dos propiedades heredadas directamente de los n´umeros
complejos (en particular para los n´umeros reales):
a) Si A ∈ Mm×n(C), entonces 0 · A = 0m×n.
b) Si A ∈ Mm×n(C), entonces 1 · A = A.
3. Si consideramos la matriz
B =





1 2 3 · · · n
2 3 4 · · · n + 1
...
...
...
...
...
m m + 1 m + 2 · · · m + n





∈ Mm×n(R)
Y la multiplicamos por λ ∈ R tendremos la siguiente matriz
λ · B =





λ 2λ 3λ · · · nλ
2λ 3λ 4λ · · · (n + 1)λ
...
...
...
...
...
mλ (m + 1)λ (m + 2)λ · · · (m + n)λ





1.3. Suma de Matrices
Al igual que la multiplicaci´on por un escalar, la suma de matrices aparece de manera evidente en
el estudio de las transformaciones lineales. Al igual que en el apartado anterior, s´olo se entregar´a como
definici´on.
Definici´on 1.8 La suma de matrices es una funci´on
+ : Mm×n(K) × Mm×n(K) −→ Mm×n(K)
((aij), (bij)) −→ (cij) = (aij + bij)
En otras palabras la adici´on est´a definida para matrices del mismo orden y corresponde a la suma de
las dos matrices componente a componente.
3
Ejemplos:
1. Si A ∈ Mm×n(R), entonces A + 0m×n = A.
2. Si A ∈ Mm×n(R), entonces existe una ´unica matriz −A ∈ Mm×n(R) tal que A+(−A) = 0m×n.
Dicha matriz se conoce como la opuesta de la matriz A y se calcula simplemente como −A =
−1 · A.
3. La suma de n´umeros complejos (en particular reales) puede entenderse como un ejemplo muy
reducido de suma de matrices, pues todo n´umero complejo puede entenderse como una matriz
de 1×1, es decir, podemos identificar el conjunto M1(C) con C; asimismo podemos en general
asumir que M1(K) es “lo mismo”que K. Este concepto de “lo mismo”se conoce con el nombre de
isomorfismo y ser´a visto de manera formal como un caso especial de transformaciones lineales.
1.4. Multiplicaci´on de Matrices
La multiplicaci´on de matrices es una funci´on:
· : Mm×n(K) × Mn×r(K) −→ Mm×r(K)
((aij), (bij)) −→ (cij) =
r
k=1
aikbkj
Es muy importante hacer notar el hecho de los ´ordenes que tienen que tener las matrices para poder
ser multiplicadas. Obviamente todas las matrices cuadradas de un mismo orden se pueden multiplicar
entre s´ı. En forma an´aloga al caso real o complejo se define la potenciaci´on entera de matrices, es
decir
An
=
n veces
A · A · . . . · A n ∈ N A ∈ Mn(K)
Ciertas propiedades de esta operaci´on ser´an vistas m´as adelante, por lo pronto es una simple curiosi-
dad.
Ejemplos:
1. Definiremos la matriz identidad de orden n de la siguiente manera:
In =







1 0 0 · · · 0
0 1 0 · · · 0
0 0 1 · · · 0
...
...
...
...
...
0 0 0 · · · 1







∈ Mn(K)
Esta matriz recibe ese nombre debido a la siguiente propiedad :
A · In = Im · A = A ∀A ∈ Mm×n(K)
2. Consideremos las siguientes matrices
B =


2 1 1
1 1 1
1 1 2

 , C =


1 −1 0
−1 3 −1
0 −1 1

 ∈ M3(R)
4
Luego se tiene que
B · C = C · B = I3 =


1 0 0
0 1 0
0 0 1


Se dice entonces que C es la matriz inversa de B y viceversa.
3. Importante es hacer notar que no toda matriz cuadrada (no nula) tiene inversa, por ejemplo la
matriz de orden 2
1 0
0 0
∈ M2(R)
No tiene inversa, pues si la tuviese se tendr´ıa que
1 0
0 0
a b
c d
=
a b
0 0
Lo cual nunca es posible igualar a I2.
4. La multiplicaci´on de matrices no es necesariamente una operaci´on conmutativa, pues obvia-
mente si multiplicamos una matriz D ∈ Mm×n(K) por una E ∈ Mn×m(K) (m = n), entonces
D · E ∈ Mm(K), mientras que E · D ∈ Mn(K). Otro caso, algo m´as patol´ogico, es que si con-
sideramos la matriz D anterior y una matriz F ∈ Mn(K), entonces es posible tener el producto
D · F, pero no el producto F · D.
5. Algo interesante es que ni siquiera la multiplicaci´on entre matrices cuadradas respeta la con-
mutatividad, a saber
1 1
2 1
1 4
2 3
=
3 7
4 11
;
1 4
2 3
1 1
2 1
=
9 5
8 5
Ejercicio: Sean A y A dos matrices en M2(R) tales que los elementos de su diagonal principal
son diferentes. Determine condiciones para que A · A = A · A. Adem´as, verifique que el conjunto
CM = A ∈ M2(R) : A =
a −b
b a
, a, b ∈ R
Est´a formado s´olo por matrices que conmutan.
Partamos por considerar las dos matrices A y A , es decir, darle valores arbitrarios a sus elementos:
A =
a b
c d
; A =
a b
c d
Ahora bien, claramente se tiene que sus productos son
A · A =
aa + bc ab + bd
a c + c d b c + dd
; A · A =
aa + b c a b + b d
ac + cd bc + dd
Luego, para tener conmutatividad, es necesario que A · A = A · A, es decir,



aa + bc = aa + b c
ab + bd = a b + b d
a c + c d = ac + cd
b c + dd = bc + dd
⇐⇒



bc = b c
b (a − d) = b(a − d )
c (a − d) = c(a − d )
5
Dada la hip´otesis que los elementos de la diagonal principal son diferentes en ambas matrices, tenemos
que a − d = 0 y que a − d = 0, por lo tanto las ´ultimas dos condiciones se reducen a que bc = b c,
entonces s´olo basta que se cumpla la primera condici´on.
Para el producto definido en el conjunto CM podemos usar los c´alculos hechos anteriormente, es
decir, si consideramos
z =
u −v
v u
; z =
u −v
v u
∈ CM
Tenemos que las condiciones anteriores se reducen a



−vv = −v v
−v (u − u) = −v(u − u )
v (u − u) = v(u − u )
⇐⇒



vv = v v
0 = 0
0 = 0
Condiciones evidentemente satisfechas por v, v ∈ R usando la conmutatividad de R.
1.5. Reducci´on Gaussiana: Operaciones Elementales
Ahora bien, es de esperarse que los matem´aticos quisi´esemos tratar de comprender c´omo se
comportan ciertas matrices, en otras palabras, tratar de clasificarlas con tal de tener una idea a priori
de ciertas propiedades que veremos m´as adelante. Comencemos esta subsecci´on con la siguiente
Definici´on 1.9 (Matrices Elementales Fila) Diremos que A ∈ Mn(R) es una matriz elemental
fila si y s´olo si A posee una de las siguientes formas:
1. A es casi id´entica a la matriz In, salvo por dos filas i1, i2 que han sido permutadas. Esta matriz
se suele denotar por A = Fi1i2 .
2. A es casi id´entica a la matriz In, salvo por una fila i que ha sido multiplicada por un cierto
escalar no nulo k ∈ C  {0}. Esta matriz se suele denotar por A = Fi(k).
3. A es casi id´entica a la matriz In, salvo por dos filas i1, i2 la segunda de las cuales ha sido
multiplicada por un cierto escalar no nulo k ∈ C{0} y ha sido sumada a la fila i1. Esta matriz
se suele denotar por A = Fi1i2 (k).
Observaci´on: Desde ahora y a menos que se diga lo contrario, K ser´a reemplazado por R o C para
efectos de matrices. Evidentemente, con tal de ganar generalidad, hablaremos la mayor´ıa de las veces
de C por el hecho que ´este contiene a R.
Ejemplos:
1. Claramente In = Fi(1), para todo i = 1, . . . , n y para todo n ∈ N.
2. Veamos un ejemplo concreto del primer tipo de matriz elemental fila. En el caso de M4(C)
tenemos:
F23 =




1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1




6
3. Ahora veamos un ejemplo del segundo tipo de matriz elemental fila igualmente en el caso de
M4(C):
F3(−2) =




1 0 0 0
0 1 0 0
0 0 −2 0
0 0 0 1




4. Finalmente, en el mismo conjunto M4(C) veamos c´omo se ve una matriz elemental fila del caso
3:
F14(3) =




1 0 0 3
0 1 0 0
0 0 1 0
0 0 0 1




Bueno, ahora la pregunta natural ser´ıa ¿cu´al es la gracia de estas matrices? La respuesta es muy
simple, pero no la dar´e ahora. Alargando un poco la agon´ıa veamos el siguiente
Teorema 1.1 Todas las matrices elementales son invertibles, m´as a´un:
1. Fi1i2 Fi1i2 = In.
2. Fi(k)Fi(1
k
) = In.
3. Fi1i2 (k)Fi1i2 (−k) = In.
Demostraci´on 1.1 La demostraci´on de este teorema quedar´a m´as que clara cuando veamos qu´e es
lo que representan estas matrices elementales fila.
Observaci´on: Una construcci´on id´entica a la de las matrices elementales fila se puede realizar para
matrices elementales columna. Estas se suelen representar por Ci1i2 , Ci(k) y por Ci1i2 (k) respectiva-
mente.
Una vez definidos estos objetos un poco abstractos, tratemos de interpretar qu´e significan. Esta
pregunta quedar´a m´as que clara despu´es de la siguiente definici´on y el posterior teorema.
Definici´on 1.10 (Operaciones Elementales Fila) Se dice que se ha efectuado una operaci´on el-
emental fila sobre la matriz A ∈ Mm×n(C) si:
1. Se han permutado dos filas. Si las filas permutadas han sido i1 y la fila i2, entonces dicha
operaci´on se denota por Fi1i2 .
2. Una fila se ha multiplicado por un escalar no nulo. Si la fila modificada ha sido la i-´esima y el
escalar por el cual fue multiplicada es k, entonces dicha operaci´on se denota por Fi(k).
3. A una fila se le ha sumado otra multiplicada por un escalar no nulo. Si a la fila i1 se le ha
sumado la fila i2 multiplicada por k, entonces dicha operaci´on se denota por Fi1i2 (k).
Si se tuvo que hacer una cierta operaci´on elemental fila F para llegar desde A hasta A , denotaremos
este hecho por
A
F
−→ A
Y diremos que las matrices A y A son equivalentes por fila.
7
Claramente esta definici´on debe venir seguida del siguiente
Teorema 1.2 Las operaciones elementales fila se relacionan con las matrices elementales fila del
siguiente modo:
A
F
−→ A ⇐⇒ A = FA
Donde F es la matriz elemental fila respectiva a la operaci´on F, es decir, In
F
−→ F.
Demostraci´on 1.2 No es dif´ıcil, y queda como ejercicio al lector.
Por lo tanto, gracias a este teorema tenemos la siguiente
Definici´on 1.11 (Equivalencia por Filas) Diremos que dos matrices A, B ∈ Mm×n(C) son equiv-
alentes por fila (denotado por A
f
∼ B) si se puede obtener B a partir de A con un n´umero finito de
operaciones elementales fila.
Observaci´on: El proceso de aplicar operaciones elementales fila (o columna) para obtener matrices
equivalentes por fila (o columna) es llamada Reducci´on Gaussiana, en honor al llamado Pr´ıncipe de
las Matem´aticas, el insigne Karl Friederich Gauss.
Ejemplos:
1. Claramente la equivalencia por filas es una relaci´on de equivalencia, es decir:
Es reflexiva: Claramente A
f
∼ A pues basta considerar la operaci´on elemental fila Fi(1)
(i ∈ {1, . . . , m}) que amplifica por 1 la i-´esima fila por 1, es decir, deja la matriz invariante.
Es sim´etrica: Como vimos anteriormente, las operaciones elementales fila son operaciones
invertibles, por lo que si se tiene que:
A
F1
−→
F2
−→ · · ·
Fk
−→ B
Entonces basta considerar la siguiente cadena de operaciones:
B
F−1
k
−→ · · ·
F−1
2
−→
F−1
1
−→ A
Usando las operaciones inversas, vistas en el Teorema 1.1.
Es Transitiva: Esta propiedad es bastante evidente, pues si A
f
∼ B y B
f
∼ C, entonces se
tienen operaciones elementales fila tales que:
A
F1
1
−→
F1
2
−→ · · ·
F1
k
−→ B B
F2
1
−→
F2
2
−→ · · ·
F2
l
−→ C
Entonces tenemos que:
A
F1
1
−→
F1
2
−→ · · ·
F1
k
−→
F2
1
−→
F2
2
−→ · · ·
F2
l
−→ C
8
2. Veamos un ejemplo concreto de c´omo se aplica la reducci´on Gaussiana


−1 2 −1
3 1 2
−1 3 −1

 F31(−1)
−→


−1 2 −1
3 1 2
0 1 0

 F21(3)
−→


−1 2 −1
0 7 −1
0 1 0


F23(−7)
−→


−1 2 −1
0 0 −1
0 1 0

 F2(−1)
−→


−1 2 −1
0 0 1
0 1 0

 F23
−→


−1 2 −1
0 1 0
0 0 1


F12(−2)
−→


−1 0 −1
0 1 0
0 0 1

 F13(1)
−→


−1 0 0
0 1 0
0 0 1

 F1(−1)
−→


1 0 0
0 1 0
0 0 1


3. El Teorema 1.2 asegura que en el ejemplo anterior se tiene


−1 0 0
0 1 0
0 0 1

 ·


1 0 1
0 1 0
0 0 1

 ·


1 −2 0
0 1 0
0 0 1

 ·


1 0 0
0 0 1
0 1 0

 ·


1 0 0
0 −1 0
0 0 1

 ·
·


1 0 0
0 1 −7
0 0 1

 ·


1 0 0
3 1 0
0 0 1

 ·


1 0 0
0 1 0
−1 0 1

 ·


−1 2 −1
3 1 2
−1 3 −1

 =
=


7 1 −5
−1 0 1
−10 −1 7

 ·


−1 2 −1
3 1 2
−1 3 −1

 =


1 0 0
0 1 0
0 0 1


1.6. Matriz Inversa
Algo muy bueno de la reducci´on Gaussiana es que permite con bastante simpleza calcular la matriz
inversa de ciertos elementos del conjunto Mn(C). Definamos con m´as propiedad dicho concepto.
Definici´on 1.12 (Matriz Inversa) Dada una matriz A ∈ Mn(C), entonces decimos que es invert-
ible si existe A−1
∈ Mn(C) tal que
AA−1
= A−1
A = In
A la matriz A−1
se le llama inversa de A.
Definici´on 1.13 (Grupo Lineal) Decimos que el subconjunto de Mn(C) de todas las matrices
invertibles se conoce como el grupo lineal GLn(C) (multiplicativo). Es bastante directo probar las
propiedades que definen a este conjunto como grupo, es decir:
1. Es cerrado, es decir, dadas A, B ∈ GLn(C), entonces AB, BA ∈ GLn(C).
2. Es asociativo, es decir, dadas A, B, C ∈ GLn(C), entonces A(BC) = (AB)C (propiedad hereda-
da de la multiplicaci´on de matrices).
3. Tiene un elemento neutro, obviamente es la identidad In, cuya inversa es s´ı misma.
4. Tiene inversos, es decir, para cualquier A ∈ GLn(C) se cumple que A−1
∈ GLn(C). Este hecho
proviene directamente de la definici´on.
9
Ejemplos:
1. Es bastante directo ver que la matriz identidad es su propia inversa, a saber:





1 0 · · · 0
0 1 · · · 0
...
...
...
...
0 0 · · · 1










1 0 · · · 0
0 1 · · · 0
...
...
...
...
0 0 · · · 1





=





1 0 · · · 0
0 1 · · · 0
...
...
...
...
0 0 · · · 1





2. De acuerdo a los ejemplos anteriores, se tiene que


7 1 −5
−1 0 1
−10 −1 7


es la matriz inversa de 

−1 2 −1
3 1 2
−1 3 −1


3. Existen elementos del conjunto Mn(C) que no est´an en GLn(C), por ejemplo, la matriz 0n.
4. En el caso de Mn(C), se tiene una f´ormula expl´ıcita para el c´alculo de la matriz inversa:
a b
c d
−1
=
1
ad − bc
d −b
−c a
suponiendo que ad − bc = 0. Si ad = bc, entonces la matriz no es invertible, como ejercicio,
puede tratar de probar este interesante fen´omeno. El valor det = ad − bc es conocido como el
determinante de la matriz en el caso de matrices de 2 × 2.
1.7. Determinante de una Matriz
Antes de empezar con este concepto trascendental, se entregar´an algunas definiciones importantes
Definici´on 1.14 (Traza) La traza de una matriz A ∈ Mn(C) es simplemente la suma de los ele-
mentos de su diagonal principal, es decir:
Si A =





a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
...
...
an1 an2 · · · ann





=⇒ tr(A) =
n
i=1
aii
Definici´on 1.15 (Permutaci´on) Si denotamos Jn = {1, 2, 3, . . . , n} entonces decimos que σ es
una permutaci´on de Jn si es una funci´on biyectiva σ : Jn → Jn. Diremos que la permutaci´on es
par o impar si se puede reducir a un n´umero par o impar de transposiciones respectivamente. Una
transposici´on es una permutaci´on de orden 2, es decir, el cambio de un elemento por otro.
10
Ejemplos:
1. Debiese ser algo m´as o menos evidente que tr(In) = n.
2. Si
A =


7 1 −5
−1 0 1
−10 −1 7


entonces tr(A) = 14.
3. Es un simple ejercicio de conteo verificar que si denotamos por
Perm(n) = {σ : σ es una permutaci´on de Jn}
entonces #Perm(n) = n!.
4. Una forma menos elegante de entender las permutaciones es como los reordenamientos de un
cierto conjunto, por ejemplo, queremos poner a Pepito, a Juan y a Sebasti´an en una fila,
¿cu´antas maneras posibles hay de hacerlo? Simplemente 3! = 6.
5. La permutaci´on σ1 : {1, 2, 3, 4} → {1, 2, 3, 4} dada por σ1(1) = 2, σ1(2) = 4, σ1(3) = 1 y
σ1(4) = 3, es una permutaci´on impar, mientras que σ2 : {1, 2, 3, 4} → {1, 2, 3, 4} dada por
σ2(1) = 4, σ2(2) = 2, σ2(3) = 1 y σ2(4) = 3 es una permutaci´on impar.
Definici´on 1.16 (Determinante) El determinante de una matriz A ∈ Mn(C) es un valor com-
plejo, denotado por det(A), definido como
det(A) =
σ∈Perm(n)
(±1)a1σ(1)a2σ(2) · . . . · anσ(n)
donde el signo positivo o negativo se considera seg´un la permutaci´on σ sea par o impar respectiva-
mente.
Ejemplos:
1. Cuando n = 1, entonces hay s´olo una posible permutaci´on, entonces si A = (a11), entonces
det(A) = a11.
2. En el caso n = 2 debi´esemos llegar a la definici´on de determinante dada en el apartado anterior.
La suposici´on es correcta, pues
A =
a11 a12
a21 a22
=⇒ det(A) = a11a22 − a12a21
3. En el caso n = 3 se tiene que si
A =


a11 a12 a13
a21 a22 a23
a31 a32 a33


=⇒ det(A) = a11a22a33 + a12a23a31 + a13a21a32 − a13a22a31 − a12a21a33 − a11a23a32
4. Notemos que en el caso anterior el determinante se puede calcular haciendo una extensi´on a la
idea del c´alculo del determinante de 2×2 (multiplicar los t´erminos en las diagonales principales,
sumarlos y despu´es restar los productos en las antidiagonales), este proceso se conoce como
Regla de Sarrus y no es v´alida en el caso general de determinantes.
11
Observaci´on: La funci´on
det : GLn(C) −→ C
A −→ det(A)
es un caso bastante interesante de una clase particular de homomorfismo de grupos, conocidos como
valuaciones.
1.7.1. Propiedades del Determinante
Enumeraremos algunas propiedades de la funci´on determinante, que pueden ser vistos como teo-
remas. Como es usual en la matem´atica, con la definici´on dada no basta para calcular o encontrar
ciertas propiedades del determinante, se recomienda estudiar algunas formas equivalentes de calcu-
larlo. Se dejan las demostraciones de estas proposiciones como ejercicio al lector.
1. det(A) = det(AT
).
2. Si dos filas o dos columnas de A son iguales, entonces det(A) = 0.
3. Si la matriz A resulta a partir de la matriz B al intercambiar dos filas o dos columnas entre
s´ı de B, entonces det(A) = − det(B).
4. Si una fila o una columna de A consiste s´olo en ceros, entonces det(A) = 0.
5. Si la matriz A resulta a partir de la matriz B al multiplicar una fila o una columna por un
escalar c, entonces det(A) = c det(B).
6. Si B = (bij) se obtiene a partir de A = (aij) por medio de sumar a cada elemento de la r-´esima
fila c veces el elemento correspondiente a la s-´esima fila (con r = s), entonces det(A) = det(B).
7. Si A = (aij) ∈ Mn(C) es una matriz triangular, entonces
det(A) =
n
i=1
aii
8. Una matriz tiene inversa si y s´olo si su determinante es no nulo.
9. Si A, B ∈ Mn(C), entonces det(AB) = det(A) det(B).
Ejemplos:
1. Claramente det(In) = 1.
2. M´as obvio a´un es que det(0n) = 0.
3. Las propiedades dadas anteriormente muestran que el determinante se puede tratar con bas-
tante similitud usando la resucci´on gaussiana. Verifique que
det


−1 2 −1
3 1 2
−1 3 −1

 = −1
Usando la reducci´on gaussiana aplicada sobre ella anteriormente.
12
4. Si se tiene una matriz diagonal
D =







a11 0 0 · · · 0
0 a22 0 · · · 0
0 0 a33 · · · 0
...
...
...
...
...
0 0 0 · · · ann







se tiene que
det(D) =
n
i=1
aii
5. Para calcular el siguiente determinante:
∆ =
n 1 1 1 · · · 1
n 2 1 1 · · · 1
n 1 3 1 · · · 1
n 1 1 4 · · · 1
...
...
...
...
...
...
n 1 1 1 · · · n
Basta restar a cada fila (excepto a la primera) la primera fila, teniendo el siguiente determinante
(equivalente al primero):
∆ =
n 1 1 1 · · · 1
0 1 0 0 · · · 0
0 0 2 0 · · · 0
0 0 0 3 · · · 0
...
...
...
...
...
...
0 0 0 0 · · · n − 1
Pivoteando en el primer elemento (n), obtenemos que:
∆ = n
1 0 0 · · · 0
0 2 0 · · · 0
0 0 3 · · · 0
...
...
...
...
...
0 0 0 · · · n − 1
Y dado que el determinante de una matriz diagonal es el producto de los elementos de la
diagonal, se tiene que:
∆ = n · 1 · 2 · 3 · . . . · (n − 1) = n!
13
2. Espacios Vectoriales
Para comenzar el estudio como tal del ´algebra lineal, definiremos un concepto trascendental para
las Matem´aticas
Definici´on 2.1 Un espacio vectorial sobre el cuerpo K (abreviado K-EV) es el cu´adruple (V, +, K, ·)
donde V es un conjunto (no vac´ıo) de elementos llamados vectores, K es un cuerpo de escalares (que,
en general, ser´an Q, R o C), + es una operaci´on (llamada ley interna)
+ : V × V → V
(α, β) → +(α, β) = α + β
y · es una operaci´on (llamada ley externa)
· : K × V → V
(c, α) → ·(c, α) = c · α
Cuyos elementos cumplen las siguientes propiedades algebraicas:
1. + y · son cerradas en V : α + β ∈ V, y c · x ∈ V ∀α, β ∈ V, ∀c ∈ K.
2. + es conmutativa: α + β = β + α, ∀α, β ∈ V .
3. + es asociativa: α + (β + γ) = (α + β) + γ, ∀α, β, γ ∈ V .
4. + tiene neutro: ∃! 0 ∈ V tal que α + 0 = 0 + α = α, ∀α ∈ V .
5. + tiene inverso: Para cada α ∈ V, ∃!(−α) ∈ V tal que α + (−α) = (−α) + α = 0.
6. · tiene neutro: ∃! 1 ∈ K tal que 1 · α = α · 1 = α, ∀α ∈ V .
7. · es asociativa: (c1c2) · α = c1 · (c2 · α), ∀c1, c2 ∈ K; ∀α ∈ V .
8. · distribuye sobre +: c · (α + β) = c · α + c · β, ∀c ∈ K; ∀α, β ∈ V .
9. la suma en K distribuye sobre ·: (c1 + c2) · α = c1 · α + c2 · α, ∀c1, c2 ∈ K; ∀α ∈ V .
Observaci´on: En general la operaci´on + ser´a llamada suma y · ser´a conocido como el producto
por escalar; en general este ser´a denotado por yuxtaposici´on, es decir: si α ∈ V el producto de α por
un escalar c ∈ K ser´a cα en lugar de c · α.
Importante: Como ya fuese visto en la definici´on, en V existe un vector denotado por 0 tal que
es el neutro aditivo. Este vector es conocido como vector nulo y ser´a especificada la diferencia entre
´el y el elemento neutro aditivo de K s´olo en caso de ser necesario, en otro caso se deber´a deducir a
partir del contexto.
M´as Importante A´un: Si consideramos V = {0} se habla del Espacio Vectorial Nulo. Es claro
que V es un K-EV, sin importar el cuerpo que se considere.
14
Ejemplos:
1. Claramente si consideramos V = Rn
con K = R con la suma y el producto escalar componente
a componente se tiene un espacio vectorial. A los espacios vectoriales con K = R se les llama
espacios vectoriales reales o R−EV. Claramente el vector nulo es (0, 0, . . . , 0) ∈ Rn
.
2. As´ı como en el ejemplo anterior, podemos decir que V = Cn
con K = R es un R−EV con
la suma y la multiplicaci´on por escalar componente a componente. Algo interesante que notar
es que Cn
es tambi´en un C−EV. Se deja como ejercicio que verifiquen que a Rn
no se le
puede definir una estructura de C−EV, pero que a cualquier C−EV se le puede dotar de una
estructura de R−EV.
3. Definamos el conjunto
p
= {ai}∞
i=1 sucesi´on , ai ∈ C, ∀i ∈ N :
∞
i=1
|ai| < ∞
Con 1 ≤ p < ∞ y con la suma y producto por escalar usual de sucesiones. Este conjunto es un
C−EV (y por tanto, un R−EV) como puede verificarse a partir de algunas de las propiedades
vistas en la Subsecci´on ??. Si no se ve claramente este hecho, pueden considerarse las series
con coeficientes en R.
4. Consideremos el conjunto
Kn[x] = {a0 + a1x + . . . + anxn
: a0, a1, . . . , an ∈ K}
Esto es, el conjunto de todos los polinomios con coeficientes en K de grado menor o igual a n.
El conjunto Kn[x] con la suma y el producto por escalar usual de polinomios es un K−EV.
5. Consideremos las siguientes leyes (interna y externa respectivamente) sobre el conjunto R+
:
+ : R+
× R+
−→ R+
(x, y) −→ xy
· : R × R+
−→ R+
(λ, x) −→ xλ
Se deja como ejercicio verificar las propiedades anteriores para probar que R+
con las leyes
anteriores es un R−EV.
6. El conjunto Mm×n(K) tiene una estructura natural como K−EV con la suma y el producto
por escalar usual de matrices.
7. El conjunto de funciones de clase Cn
(R) (n ∈ N) forman un R−EV con la suma y el producto
escalar de funciones n veces diferenciables visto en MAT-021.
2.1. Subespacios Vectoriales
Consideremos un subconjunto W ⊂ V no vac´ıo, donde V es un K-EV. Se tiene entonces la
siguiente definici´on
15
Definici´on 2.2 Diremos que W ⊂ V es un subespacio vectorial de V si y s´olo si W es un espacio
vectorial con las operaciones definidas en V restringidas a ´el.
Teorema 2.1 Se dice que W es un subespacio vectorial de V si y s´olo si W ⊂ V y todos los elementos
de W cumplen las siguientes propiedades algebraicas:
1. 0 ∈ W. Esta propiedad se deduce tanto de 2. (tomando α = −β) como de 3. (tomando c = 0),
pero se suele escribir por una cuesti´on de ´enfasis.
2. Para cada α, β ∈ W, α + β ∈ W. Es decir, + es cerrada en W. Tambi´en diremos que W es
invariante bajo la suma.
3. Para cada α ∈ W y c ∈ K, cα ∈ W. Es decir, + es cerrada en W. Tambi´en diremos que W es
invariante bajo el producto.
Demostraci´on 2.1 La demostraci´on es inmediata, pues se necesita verificar s´olo la clausura de
la suma y del producto por escalar (es decir, que sean operaciones cerradas). Todas las dem´as
propiedades son heredadas de V .
Observaci´on: El hecho de que W sea un subespacio vectorial de V se denota por W ≤ V . Si
W = V , se dice que W es un subespacio vectorial propio de V y se denota por <.
Ejemplos:
1. En todo espacio vectorial V (con al menos 2 elementos) sobre un cuerpo K se tienen al menos 2
subespacios vectoriales triviales: El espacio nulo, es decir, el subespacio vectorial de V formado
s´olo por el cero y el espacio completo V . Al considerar los subespacios propios s´olo se tiene
seguro al esapcio nulo. Un ejemplo de un espacio vectorial que tiene s´olo al espacio nulo como
subespacio propio es R como R−EV.
2. En R3
(como R−EV) hay 4 tipos diferentes de subespacios vectoriales geom´etricamente hablan-
do, a saber:
a) El espacio nulo.
b) Las rectas que pasan por el origen.
c) Los planos que pasan por el origen.
d) Todo R3
.
Una demostraci´on de este interesante hecho se puede obtener como un corolario (color´ın coro-
lario) a partir del concepto estudiado en la Subsecci´on 2.5.
3. Si consideramos el conjunto Rn[x] como R−EV, entonces todos los subespacios vectoriales de
´el quedan determinados por Rm[x], con 0 ≤ m ≤ n, m ∈ N.
4. El conjunto de funciones de clase Cn
(R) forma un subespacio vectorial del R−EV de las fun-
ciones de R en R.
16
2.2. Combinaciones Lineales
Consideremos un subconjunto finito de vectores de V , un K-EV; a saber:
Λ = {α1, α2, . . . , αk} ⊂ V
con k ∈ N. Junto a este hecho, podemos considerar un subconjunto finito de escalares de K (con
id´entica cardinalidad que el subconjunto de vectores), a saber:
{c1, c2, . . . , ck} ⊂ K
luego se tiene la siguiente definici´on
Definici´on 2.3 Un vector α ∈ V se dice combinaci´on lineal de los elementos de Λ con coeficientes
c1, c2, . . . , ck si α se puede escribir de la siguiente forma:
α = c1α1 + c2α2 + . . . ckαk
Ejemplos:
1. Sean p(x), q(x), r(x) ∈ R4[x] dados por p(x) = x4
+ x2
, q(x) = 1 − 2x3
+ 3x2
y r(x) = 3 + 2x,
entonces
2p(x) + q(x) − r(x) = 2x4
− 2x3
+ 5x2
− 2x − 2 ∈ R4[x]
2. Si consideramos dos funciones en el espacio Cr
(R), entonces cualquier combinaci´on lineal entre
ellas sigue siendo una funci´on en Cr
(R), lo cual se desprende de inmediato de las propiedades
de l´ımite.
2.3. Subespacios Generados
Consideremos J ⊂ V , donde V es un K-EV y J = ∅. A partir de esto, se tiene la siguiente
definici´on:
Definici´on 2.4 Diremos que J es el conjunto generado por J si y s´olo si es el conjunto de todas
las combinaciones lineales de los elementos de J con coeficientes en K.
En base a esta definici´on se tiene el siguiente
Teorema 2.2 Dadas las mismas hip´otesis y notaciones anteriores (V un K-EV, J un subconjunto
de V , etc.) se tiene que J ≤ V .
Demostraci´on 2.2 Claramente J ⊂ V , pues J est´a generado por el conjunto J ⊂ V y, por
el Teorema 2.1, se deduce la contenci´on. Una vez asegurada la contenci´on, debemos verificar las dos
condiciones dadas en el Teorema 2.1, es decir:
1. Sea j ∈ J , tomando c = 0 se tiene que 0j = 0 ∈ J.
17
2. Sean j1, j2 ∈ J , es decir:
j1 = a1α1 + a2α2 + . . . + akαk
j2 = b1α1 + b2α2 + . . . + bkαk
Tenemos que
j1 + j2 = (a1α1 + a2α2 + . . . + akαk) + (b1α1 + b2α2 + . . . + bkαk) =
= (a1 + b1)α1 + (a2 + b2)α2 + . . . + (ak + bk)αk ∈ J
3. Sea j ∈ J y c ∈ K, se tiene que:
cj = c(a1α1 + a2α2 + . . . + akαk) =
= (ca1)α1 + (ca2)α2 + . . . + (cak)αk ∈ J
Finalmente, se har´a menci´on a un concepto muy importante en lo sucesivo:
Definici´on 2.5 Diremos que J es un generador de V (usando las mismas notaciones anteriores) si
J = V
Ejemplos:
1. En R3
, el espacio generado por un solo vector es una recta que pasa por el origen.
2. Para cualquier espacio vectorial V se tiene que el subespacio vectorial generado por 0V es
simplemente {0V }.
3. 1, x, x2
, x3
, x4
= R4[x].
4. 1, sin(x), cos(x), sin(2x), cos(2x), . . . es el espacio vectorial de todas las funciones peri´odicas
de per´ıodo 2π, seccionalmente continuas (es decir, que en un intervalo de per´ıodo 2π tienen
un n´umero finito de discontinuidades). El conjunto {1, sin(x), cos(x), sin(2x), cos(2x), . . .} se
conoce como base de Fourier y se ver´an algunas propiedades m´as en MAT-023.
2.4. Dependencia e Independencia Lineal
Consideremos Λ = {α1, α2, . . . , αk} ⊂ V , donde V es un K-EV. Se sigue de esto la siguiente
definici´on:
Definici´on 2.6 Se dice que Λ es un conjunto linealmente dependiente si y s´olo si existen escalares
c1, c2, . . . ck no todos nulos tales que
c1α1 + c2α2 + . . . , ckαk = 0
Tambi´en diremos que J es linealmente dependiente si existe una combinaci´on lineal no trivial para
0 ∈ V .
En base a esta definici´on es de suponerse la que corresponder´a a la independencia lineal, en todo
caso:
18
Definici´on 2.7 Se dice que Λ es un conjunto linealmente independiente si no es linealmente de-
pendiente. En otras palabras si la ´unica combinaci´on lineal para 0 ∈ V es la trivial. En forma m´as
expl´ıcita a´un si:
c1α1 + c2α2 + . . . + ckαk = 0 ⇐⇒ c1 = c2 = . . . = ck = 0
Con estas dos definciones en el bolsillo, podemos verificar el siguiente
Teorema 2.3 Un conjunto de vectores J = ∅ es linealmente independiente si y s´olo si cada vector
de J se puede escribir en forma ´unica como combinaci´on lineal de los elementos de J.
Demostraci´on 2.3 Dado que el Teorema est´a enunciado en forma de equivalencia, debemos probar
una doble implicancia:
⇒ J es linealmente independiente.
Razonemos por absurdo. Consideremos α ∈ J tal que
α = a1α1 + . . . + akαk = b1α1 + . . . + bkαk
Y que, al menos, a = b (es decir, consideramos un vector de J tal que posee dos repre-
sentaciones diferentes como combinaci´on lineal de los elementos de J). Luego, se tiene que
0 = (a1α1 + . . . + akαk) − (b1α1 + . . . + bkαk) =
= (a1 − b1)α1 + . . . + (ak − bk)αk ∈ J
Debido a que J es linealmente independiente, necesariamente debe ocurrir que los coeficientes
son id´enticamente nulos y, por lo tanto, a = b , obteniendo la contradicci´on esperada.
⇐ Todo elemento de J posee una ´unica representaci´on como combinaci´on lineal de los elementos
de J.
Nuevamente podemos razonar por absurdo. Supongamos c1, . . . , ck no todos nulos tales que
0 = c1α1 + . . . + ckαk
Pero dado que los elementos de J pueden escribirse en forma ´unica como combinaci´on lineal
de los elementos de J, debe ocurrir que
c1 = . . . = ck = 0
Que es, precisamente, la contradicci´on que esper´abamos encontrar.
A partir del Teorema anterior, podemos deducir el siguiente
Corolario 2.4 Todo conjunto de vectores Λ tal que 0 ∈ Λ es linealmente dependiente.
Demostraci´on 2.4 La demostraci´on de este Corolario es trivial a partir del Teorema anterior, pues
supongamos α1, . . . , αk ∈ Λ tales que ninguno de ellos corresponde al vector nulo, luego si:
α = α1 + . . . + αk
podemos considerar la combinaci´on lineal
−α + α1 + . . . + αk = 0
que es diferente de la representaci´on trivial del vector nulo, por lo tanto el conjunto Λ no es lineal-
mente independiente y, en forma equivalente, es linealmente dependiente. Ahora bien, si Λ = {0} la
dependencia lineal es inmediata, pues si c1, c2 ∈ K tales que c1 = c2 se tiene que
0 = c10 = c20
19
Ejemplos:
1. El conjunto de vectores de R3
:
{(1, 2, 3), (0, 0, 1), (1, 1, 1), (0, 4, 3)} ⊂ R3
Es linealmente independiente. M´as a´un, como se ver´a m´as adelante, en los ejemplos que traba-
jaremos en este curso existe una cota para la cantidad de vectores linealmente independientes
que pueden haber en cada espacio vectorial (salvo en los casos de espacios vectoriales llamados
de dimensi´on infinita). En este caso, la cota es de 3 vectores.
2. Discuta si el conjunto {sin x, cos x, x2
, e3x
, 1} es o no linealmente independiente en el R−EV de
funciones continuas de R en R.
3. El conjunto {1 + i, 2} ⊂ C es linealmente independiente al ver a C como R−EV, pero es
linealmente dependiente al ver a C como C−EV.
4. Geom´etricamente, por ejemplo, en R3
se puede pensar la independencia lineal entre dos vectores
como verificar que el subespacio vectorial generado por uno de ellos (es decir, la recta que pasa
por el origen con direcci´on dada por uno de los vectores) contiene al otro vector. Asimismo
podemos definir la independencia lineal entre subespacios vectoriales, por ejemplo, un vector
es linealmente independiente de un plano que pasa por el origen si y s´olo si el plano contiene
al vector, es decir, que el vector se pueda escribir como combinaci´on lineal de los vectores que
generan al plano.
2.5. Bases
Para el estudio apropiado del ´Algebra Lineal, el concepto de base no es menos que trascendental,
es por esto, que la definici´on siguiente es de vital importancia en este cap´ıtulo:
Definici´on 2.8 Diremos que B ⊂ V , donde V es un K-EV, es una base de V si y s´olo si B es un
generador linealmente independiente de V .
Pero las bases no se quedan s´olo en definiciones, de hecho queremos demostrar un teorema im-
portante, pero para ello necesitamos de un
Lema 2.5 Si B es una base de V , entonces es el mayor conjunto linealmente independiente de V .
Demostraci´on 2.5 Consideremos v ∈ V tal que v no pertenece a B, luego B ∪ {v} es linealmente
dependiente pues dado que B genera a V , existe una combinaci´on lineal de los elementos de B que
es igual a v.
Este hecho es de vital importancia como veremos en el siguiente
Teorema 2.6 Si una base de V tiene cardinalidad finita n, entonces toda otra base de V tiene
exactamente la misma cardinalidad.
20
Demostraci´on 2.6 Supongamos B1 y B2 bases de V , de las cuales sabemos s´olo que Card(B1) = n.
Usando el Lema anterior, se deduce que no puede ocurrir que Card(B2) > n (pues requerimos que
B2 sea linealmente independiente), es decir, basta verificar que no puede ocurrir que Card(B2) < n;
esto se debe a que, de ocurrir que Card(B2) < n, B2 no genera a V .
Usemos reductio ad absurdum. Supongamos que B2 es base de V , considerando que Card(B2) =
r < n, luego ocurre que B1 es un conjunto linealmente independiente con cardinalidad mayor que la
de la base de V , que se contradice con el Lema anterior.
De este hecho se deduce el siguiente
Corolario 2.7 Si B1 y B2 son bases de un K-EV, entonces existe una funci´on biyectiva ϕ : B1 → B2
Demostraci´on 2.7 Esta demostraci´on es muy trivial, pues basta con fijar un orden de los elementos
de ambas bases, luego podemos elegir la funci´on ϕ que asocia biun´ıvocamente los elementos seg´un el
lugar que ocupan en el orden preestablecido. Verificar que es biyectiva es, ahora una mera cuesti´on
de c´alculo.
Interesante resulta destacar que dado un subespacio (caracterizado por su base), existe la posi-
bilidad de obtener un sistema generador linealmente independiente del espacio entero por medio de
la inclusi´on de vectores linealmente independientes a la base del subespacio. Veremos la validez de
este hecho en el caso de dimensi´on finita
Teorema 2.8 (Completaci´on de Base) Supongamos, como es usual, que V es un K-EV tal que
dimK V = n ∈ N (es decir, de dimensi´on finita) y W tal que W < V , dimK W = m < n. Si
BW = {w1, . . . , wm} es base del subespacio W, existen vectores linealmente independientes en V (y
que no est´an en W) um+1, . . . , un tales que B = BW ∪ {um+1, . . . , un} = {w1, . . . , wm, um+1, . . . , un}
es base de V .
Demostraci´on 2.8 Dado que W < V , entonces existe al menos un vector um+1 ∈ V tal que
BW ∪ {um+1} es un conjunto linealmente independiente de vectores de V . Si n = m + 1 el proceso
acaba en el primer paso, si no fuese as´ı, entonces es posible encontrar otro vector um+2 tal que
BW ∪ {um+1, um+2} es linealmente independiente y as´ı sucesivamente. Por el Lema 2.5 este proceso
termina cuando se alcanzan n vectores linealmente independientes.
Teorema 2.9 (Unicidad de Coordenadas) Si B es una base de V , entonces cualquier elemento de V
(excepto el vector nulo) se puede escribir en forma ´unica como combinaci´on lineal de los elementos
de B. El conjunto de escalares que acompa˜nan a los diferentes elementos de la base se conocen como
coordenadas.
Demostraci´on 2.9 Supongamos B = {α1, . . . , αn} y α ∈ V , luego el conjunto B∪{α} es linealmente
dependiente, es decir, existen escalares λ1, . . . , λn, λ ∈ K tales que
n
i=1
λiαi + λα = 0 ⇐⇒ α = −
n
i=1
λi
λ
αi
Para verificar la unicidad de la descomposici´on supongamos que existen escalares λ1, . . . , λn ∈ K
diferentes de los anteriores, tales que
α = −
n
i=1
λi
λ
αi
21
luego, se deduce que
0 =
n
i=1
(λi − λi)αi
y, producto de la independencia lineal de los vectores α1, . . . , αn, se deduce que λi = λi, ∀i = 1, . . . , n,
obteniendo la contradicci´on esperada.
Ejemplos:
1. Una base de Rn
(como R−EV) est´a dada por:
v1 = (1, 0, 0, . . . , 0) ; v2 = (1, 1, 0, . . . , 0) ; . . . ; vn = (1, 1, 1, . . . , 1)
2. Una base para Kn[x] est´a dada por el conjunto linealmente independiente de monomios
p0(x) = 1 ; p1(x) = x ; p2(x) = x2
; . . . ; pn(x) = xn
3. El espacio vectorial de matrices M2(R) (visto como R−EV) tiene como base al siguiente
conjunto:
1 1
0 0
;
1 0
0 1
;
1 0
1 0
;
0 0
1 1
4. Toda base de R vista como R−EV tiene s´olo 1 elemento. Por comodidad se suele utilizar el
conjunto {1}.
5. Todo conjunto que contenga al vector nulo no puede ser una base pues falla la independencia
lineal.
6. Determine cu´al es la cardinalidad de alguna base (y, por lo tanto, de todas) del espacio vectorial
Mm×n(R) visto como R−EV. Sugerencia: Pruebe imaginando a Mm×n(R) como otra forma de
escribir Rmn
.
2.6. Dimensi´on
Ya con la maravillosa introducci´on del concepto de base y el teorema que nos asegura que todas
ellas poseen una misma cardinalidad, parece natural dar un nombre a este n´umero, por esto la
siguiente definici´on:
Definici´on 2.9 Diremos que un K-EV posee dimensi´on n ∈ N (finita) si la cardinalidad de una
base cualquiera B de V es exactamente n. Si B tuviese cardinalidad infinita, diremos que K-EV es
de dimensi´on infinita.
Observaci´on: En lo que sigue, supondremos que los espacios vectoriales poseen dimensi´on finita,
excepto cuando la dimensi´on no influya en el ejercicio o en el concepto en s´ı.
Importante: Si en un ejercicio se tratasen con espacios vectoriales de dimensi´on infinita, la idea
es que extiendan los resultados del caso finito al infinito, pues la mayor´ıa suelen ser an´alogos.
22
Observaci´on: Si la dimensi´on de V , un K-EV, es n ∈ N, entonces quedar´a denotada por n =
dimK V .
Teorema 2.10 Si W ≤ V , entonces dimK W ≤ dimK V . M´as a´un, la igualdad s´olo ocurre cuando
W = V .
Demostraci´on 2.10 Es evidente que si W = V , necesariamente su dimensi´on es n. Si W < V ,
existe al menos un vector α ∈ V tal que no est´a en W, por lo tanto, si BW es base de W, BW
no genera a V . Claramente si α no es generado por BW , tampoco lo son los vectores cα (donde
c ∈ K). Por lo tanto, la dimensi´on de W es a lo m´as n − 1, pues el conjunto de los vectores cα es
un subespacio vectorial de dimensi´on 1 de V . Se dice que es a lo m´as n − 1 pues podr´ıa ocurrir que
existiese otro vector β ∈ V que no est´e en W y que fuese linealmente independiente del vector α
anterior y as´ı sucesivamente, de tal manera que el conjunto de ellos forman un subespacio vectorial
de dimensi´on mayor que 1 y, por tanto, W tendr´ıa dimensi´on menor que n − 1.
En particular haremos menci´on de un espacio vectorial de bastante importancia: el espacio Kn
.
Recordemos que la notaci´on Kn
representa el producto vectorial de K n veces, es decir,
Kn
= K × . . . × K
n veces
= {(x1, . . . , xn) tal que x1, . . . , xn ∈ K}
Definiremos la suma y el producto por un escalar en Kn
de la siguiente manera:
1. Suma: Sean (x1, . . . , xn) y (y1, . . . , yn) dos vectores culesquiera de Kn
, se define la suma de ellos
como
(x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn)
2. Multiplicaci´on por Escalar: Sean c ∈ K y x = (x1, . . . , xn) ∈ Kn
, se define la multiplicaci´on
entre c y x como
cx = c(x1, . . . , xn) = (cx1, . . . , cxn)
Claramente con estas operaciones resulta que Kn
es un espacio vectorial. Con el fin de determinar
su dimensi´on, busqu´emosle una base. Por simpleza, definiremos un gran ahorro de notaci´on:
Definici´on 2.10 Se define el Delta de Kroenecker de la siguiente manera:
δij =
1 si i = j
0 si i = j
Teorema 2.11 El conjunto Kn
es un espacio vectorial sobre K con la suma y la multiplicaci´on por
escalar componente a componente.
Demostraci´on 2.11 La demostraci´on de este teorema es bastante inmediata y se deja de ejercicio
para el lector.
Teorema 2.12 El conjunto Bc = {e1, . . . , en}, donde
ei = (δi1, . . . , δin)
forma una base de Kn
.
Demostraci´on 2.12 Tanto la independencia lineal como la generaci´on de Kn
son triviales en esta
base. Es por esto que esta base se conoce como Base Can´onica.
Corolario 2.13 Kn
cumple con la propiedad dimK Kn
= n
Demostraci´on 2.13 Cu´entense los elementos de la base can´onica de Kn
.
23
Ejemplos:
1. R visto como Q−EV tiene dimensi´on infinita. Verifique esta afirmaci´on tomando, por ejemplo,
{
√
p : p primo }. ¿Cu´al es la cardinalidad de la base de este espacio vectorial?
2. El espacio Kn[x] tiene dimensi´on n + 1, pues basta tomar la base can´onica presentado en los
ejemplos de la secci´on anterior, esto es, tomando la base formada por los monomios
p0(x) = 1 ; p1(x) = x ; p2(x) = x2
; . . . ; pn(x) = xn
3. Si consideramos el espacio vectorial de las matrices sim´etricas de n × n con coeficientes reales,
verifique que se tiene que su dimensi´on es n(n+1)
2
. ¿Cu´al es la dimensi´on del espacio vectorial
de matrices antisim´etricas? Sorpr´endase de su resultado al sumar ambos valores ¿Tiene l´ogica?
Si no la tuviese, posiblemente tiene malo su resultado.
4. Cn
tiene dimensi´on real (es decir, como R−EV) 2n, pero dimensi´on compleja n. Claramente
esto se sigue de la construcci´on de la base de Cn
. Trate de obtener su propia base can´onica
(que de seguro coincidir´a con la base can´onica usual) en ambos casos y deduzca el enunciado.
5. Si, por ejemplo tomamos el R−EV Rn[x] y consideramos el subespacio vectorial de ´este Rm[x]
(evidentemente m ≤ n), se tiene de inmediato la desigualdad de las dimensiones.
2.7. Subespacios Especiales
En lo sucesivo, diremos que E y F son subespacios vectoriales de V , un K-EV.
2.7.1. Espacio Intersecci´on
Es de gran importancia el verificar caracter´ısticas que posee la intersecci´on de subespacios.
Definici´on 2.11 Diremos que E ∩F es el espacio intersecci´on de los subespacios E y F si y s´olo si:
E ∩ F = {ξ|ξ ∈ E ∧ ξ ∈ F}
Teorema 2.14 Dadas las hip´otesis y definiciones anteriores, se cumple que E ∩ F ≤ V .
Demostraci´on 2.14 Supongamos ξ1, ξ2 ∈ E ∩ F y λ ∈ K. Dado que E es un K-EV por s´ı s´olo,
ξ1 + ξ2 ∈ E y λξ1. Lo mismo ocurre al analizarlos como elementos de F. Es decir, se cumple que
tanto ξ1 + ξ2 como λξ1 pertenecen a la intersecci´on.
Corolario 2.15 Con las convenciones anteriores se tiene que dimK E ∩ F ≤ dimK V .
Demostraci´on 2.15 La demostraci´on se sigue inmediatamente del Teorema 2.10.
Observaci´on: Es claro que la uni´on de subespacios vectoriales no es un subespacio vectorial.
24
2.7.2. Espacio Suma
As´ı como la intersecci´on de subespacios presenta propiedades interesantes, lo propio ocurre con
la suma de subespacios.
Definici´on 2.12 Diremos que E + F es el espacio suma si y s´olo si:
E + F = {u + v|u ∈ E ∧ v ∈ F}
Teorema 2.16 Con las convenciones anteriores se tiene que E + F ≤ V .
Demostraci´on 2.16 Consideremos u1 + v1 ∈ E + F, donde u1 ∈ E y v1 ∈ F y, en forma an´aloga
consideremos u2 + v2 ∈ E + F y λ ∈ K. Luego, se sigue de inmediato que, por el hecho que E y F
son espacios vectoriales por s´ı solos, u1 + u2 + v1 + v2 ∈ E + F y λu1 + λv1 ∈ E + F.
Corolario 2.17 Con las convenciones anteriores se tiene que dimK(E + F) ≤ dimK V .
Demostraci´on 2.17 La demostraci´on se sigue inmediatamente del Teorema 2.10.
Teorema 2.18 Usando las mismas convenciones anteriores se tiene que
dimK(E + F) = dimK E + dimK F − dimK(E ∩ F)
Demostraci´on 2.18 Consideremos BE∩F = {α1, . . . , αm} una base de E ∩ F. Dado que E ∩ F ≤ E
la base BE∩F se puede completar hasta obtener una base de E, a saber:
BE = {α1, . . . , αm, β1, . . . , βn}
Del mismo modo, siguiendo el mismo razonamiento, tenemos que
BF = {α1, . . . , αm, γ1, . . . , γr}
es una base de F. Con estas bases podemos crear el conjunto B = BE ∪BF , el cual resulta ser base de
E +F. Para verificar esta afirmaci´on notemos que al considerar una combinaci´on lineal de elementos
de B tal que sea igual a cero (considerando λi, µj, νk ∈ K):
m
i=1
λiαi +
n
j=1
µjβj +
r
k=1
νkγk = 0
se puede deducir lo siguiente (haciendo un peque˜no arreglo en la notaci´on, a saber
v =
m
i=1
λiαi ; v1 =
n
j=1
µjβj ; v2 =
r
k=1
νkγk = 0
v1 ∈ E se puede escribir como combinaci´on lineal de los elementos de F, por lo tanto, v1 ∈ F,
m´as a´un, v1 ∈ E ∩ F. Por este hecho, v1 deber´ıa poder expresarse como combinaci´on lineal de los
elementos de BE∩F , es decir, v1 = 0. Id´entico razonamiento es v´alido para v2 = 0, por lo que se
deduce que v = 0. Dada la independencia lineal de los elementos de las bases BE, BF y BE∩F se
desprende el hecho de que λ1 = . . . = λm = µ1 = . . . = µn = ν1 = . . . = νr = 0.
Para verificar que B = {α1, . . . , αm, β1, . . . , βn, γ1, . . . , γr} genera a E + F basta ver que todo
elemento de E + F se escribe como la suma de elementos de E y F y, dado que las bases de estos
subespacios est´an contenidas en B, podemos crear cualquier vector de E+F como combinaci´on lineal
de los elementos de B.
25
2.7.3. Espacio Suma Directa
Esta particularizaci´on del espacio suma es de vital importancia en el estudio venidero del ´algebra
lineal, por lo tanto, pongan especial atenci´on.
Definici´on 2.13 Diremos que la Suma Directa de dos subespacios E y F de V es el subespacio suma
E + F con la restricci´on de que E ∩ F = {0}. Denotamos la suma directa de E y F por E ⊕ F.
Ahora bien, es de esperarse que se tenga el siguiente
Teorema 2.19 Usando las notaciones anteriores se tiene que E ⊕ F ≤ V .
Demostraci´on 2.19 La demostraci´on es exactamente la misma que en el Teorema 2.16.
Corolario 2.20 Usando las notaciones anteriores, se tiene que
dimK E ⊕ F = dimK E + dimK F
Demostraci´on 2.20 Se deduce este corolario al notar que E ∩ F = {0}, por lo tanto, se tiene que
dimK E ∩ F = 0. Luego basta utilizar el Teorema 2.18.
Finalmente, un important´ısimo
Teorema 2.21 Dado E < V , existe un subespacio vectorial F < V tal que V = E ⊕F. Este espacio
se conoce como el complementario de E respecto de V .
Demostraci´on 2.21 Este teorema se sigue directamente del Teorema 2.8.
Ejemplos:
1. Rn
= R ⊕ R
n veces
· · · ⊕R.
2. R3[x] = {a + bx : a, b ∈ R} ⊕ {cx2
+ dx3
: c, d ∈ R}.
3. Mn(R) = Sn(R)+An(R), donde Sn(R) es el espacio vectorial de matrices sim´etricas (invariantes
bajo transposici´on) y An(R) el de las matrices antisim´etricas (que tras una transposici´on,
cambian de signo). Verifique esta afirmaci´on.
4. F(R, R) = P(R, R) ⊕ I(R, R) donde F(R, R) es el espacio vectorial de funciones de R en R,
P(R, R) es el espacio vectorial de funciones pares y I(R, R), el de funciones impares. Verifique
esta afirmaci´on.
26
2.7.4. Espacio Cociente
Finalmente, tratamos con una idea que, en un principio puede parecer rara, pero que si se contin´ua
en el estudio de las matem´aticas, se ver´a que no es menos que natural. Es una situaci´on parecida a
medir los ´angulos en grados (siendo que lo natural es medirlos en radianes) o calcular logaritmos en
base 10 (siendo que para el tratamiento formal de los logaritmos es fundamental el logaritmo natural).
Antes de comenzar con el Espacio Cociente, veamos una definici´on sencilla que, perfectamente pudo
haber sido dada en MAT-021.
Definici´on 2.14 Diremos que una relaci´on es una relaci´on de equivalencia si dados x, y, z ∈
Dom :
1. La relaci´on es reflexiva:
x x
2. La relaci´on es sim´etrica:
Si x y =⇒ y x
3. La relaci´on es transitiva:
Si x y y y z =⇒ x z
Ahora bien, dado un conjunto A en el cual se tiene una relaci´on de equivalencia, se da en forma
natural una partici´on del conjunto.
Definici´on 2.15 Diremos que un conjunto A est´a particionado en una colecci´on de subconjuntos de
A: Υ = {A1, . . . , An} si y s´olo si
n
i=1
Ai = Υ = A donde Ai ∩ Aj = ∅ si i = j
No existe ning´un impedimento de extener esta deinici´on al caso infinito.
Si la partici´on de un conjunto es heredada a partir de una relaci´on de equivalencia, cada uno de los
subconjuntos que forman Υ son llamados clases de equivalencia. En el caso de Espacios Vectoriales,
la relaci´on de equivalencia m´as simple, con sus respectivas clases, queda dada por
Definici´on 2.16 Dados α, β ∈ V diremos que est´an en la misma clase de equivalencia respecto del
subespacio E si y s´olo si:
β − α ∈ E
Denotaremos este hecho por β ∈ [α], donde [α] denota la clase de equivalencia con α como represen-
tante.
Proposici´on 2.22 La relaci´on definida anteriormente es, efectivamente, una relaci´on de equivalen-
cia.
Demostraci´on 2.22 La demostraci´on de esto es trivial, pues s´olo basta verificar las condiciones
dadas en la Definici´on 2.14.
27
La definici´on anteriormente dada induce a una notaci´on muy ´util para las clases de equivalencia,
a saber:
[α] = α + E = {α + β | β ∈ E}
Esta importante definici´on permite definir el Espacio Cociente, usando la notaci´on antes definida.
Definici´on 2.17 Dadas las convenciones y notaciones qnteriores, diremos que V/E es el Espacio
Cociente del espacio V respecto de su subespacio E si y s´olo si:
V/E = {[α]|α ∈ V }
En otras palabras, lo que estamos haciendo al cocientar un espacio vectorial V con respecto al
subespacio E es parametrizar V de tal manera que el total de elementos de V queda reducido s´olo a
las clases de equivalencia respecto de E.
Teorema 2.23 El espacio cociente entre V y E cumple: V/E ≤ V , con las operaciones inducidas
por la relac i´on de equivalencia, dadas por:
V/E × V/E −→ V/E
(α + E, β + E) → (α + β) + E
K × V/E −→ V/E
(λ, α + E) → (λα) + E
Demostraci´on 2.23 La misma definici´on de la aritm´etica de equivalencia demuestra este teorema.
El siguiente teorema nos ayuda a encontrar bases del espacio cociente, dadas las bases del espacio
y del subespacio.
Teorema 2.24 Supongamos BE = {α1, . . . , αk} base de E. Al completar la base BE a B (una base
de V ), a saber
B = {α1, . . . , αk, β1, . . . , βn}
se tiene que el conjunto BV/E = {[β1], . . . , [βn]} es base de V/E.
Demostraci´on 2.24 Que el conjunto es linealmente independiente se desprende de la definici´on de
la aritm´etica de equivalencia dada en el Teorema 2.23, pues si λ1, . . . , λn ∈ K:
n
i=1
λi[βi] =
n
i=1
λi(βi + E) =
n
i=1
λiβi + E = 0
esto quiere decir que
n
i=1
λiβi = [0]
por lo tanto, n
i=1 λiβi ∈ E; pero notemos que este vector debe tambi´en estar en el complementario
de E ya que es combinaci´on lineal de los elementos de su base, por lo tanto, λ1, . . . , λn = 0.
El hecho de que BV/E genera a V/E se desprende inmediatamente, pues si [α] = α + E ∈ V/E,
entonces existen λ1, . . . , λk, µ1, . . . , µn ∈ K tales que:
α =
k
i=1
λiαi +
n
j=1
µjβj
28
debido a que α ∈ V . Luego, usando la aritm´etica de equivalencia dada en el Teorema 2.23 se tiene
que
α + E =
n
j=1
µjβj + E =
n
j=1
µj(βj + E)
Teorema 2.25 Bajo las convenciones anteriores se tiene que dimK V/E = dimK V − dimK E
Demostraci´on 2.25 Este teorema se sigue inmediatamente del Teorema 2.24.
3. Transformaciones Lineales
Nos interesa estudiar, adem´as de conjuntos que posean propiedades especiales, funciones que
conserven propiedades en su conjunto de llegada, es decir, funciones que partan y lleguen a espacios
vectoriales tales que cumplan
f(α + β) = f(α) + f(β) ; f(λα) = λf(α)
con α, β ∈ V (donde V es un K-EV y λ ∈ K). En esencia utilizaremos las mismas convenciones
que en la secci´on anterior, con la salvedad que, debido a que en general vamos a trabajar sobre dos
espacio vectoriales diferentes, utilizaremos el nombre del espacio como sub´ındice en el caso del vector
nulo respectivo. Por ejemplo, en el espacio vectorial E el vector nulo respectivo ser´a denotado por
0E.
Definici´on 3.1 Diremos que una funci´on L : V → W (con V y W K-EV) es una transformaci´on
lineal (o aplicaci´on lineal) si preserva la estructura de espacio vectorial, es decir, si α, β ∈ V y λ ∈ K:
L(α + β) = L(α) + L(β) ; L(λα) = λL(α)
De esto se deduce que L(α), L(β) ∈ W y λL(α) ∈ W.
Definici´on 3.2 Al conjunto de transformaciones lineales que tienen como espacio de partida a E y
de llegada a F lo denotaremos por L(E, F).
En base a las definiciones anteriores se tiene el siguiente
Teorema 3.1 Usando las notaciones y convenciones usuales se tiene que L(E, F) es un espacio
vectorial con las operaciones
+ : L(E, F) × L(E, F) −→ L(E, F)
(ϕ1, ϕ2) → (ϕ1 + ϕ2)
· : K × L(E, F) −→ L(E, F)
(λ, ϕ) → (λϕ)
Estas operaciones se aplican del siguiente modo: (ϕ1 + ϕ2)(α) = ϕ1(α) + ϕ2(α) y (λϕ)(α) = λϕ(α).
Demostraci´on 3.1 Con la definici´on de las operaciones entre transformaciones lineales esta de-
mostraci´on es trivial.
29
Lema 3.2 Si B = {α1, . . . , αk} es una base de E y ϕ ∈ L(E, F) tal que ϕ(αi) = 0F (i = 1, . . . , k),
entonces, ϕ ≡ 0.
Demostraci´on 3.2 Supongamos ϕ(α) = 0F para alg´un α ∈ E. Dado que α se puede escribir
´unicamente como combinaci´on lineal de los elementos de la base, por el Teorema 2.9, se tiene lo
siguiente si α = ξ1α1 + . . . + ξkαk:
ϕ(α) = ϕ(ξ1α1 + . . . + ξkαk) = ξ1ϕ(α1) + . . . + ξkϕ(αk) = 0F
Obteniendo la contradicci´on esperada.
Teorema 3.3 Supongamos B = {α1, . . . , αk} una base de E y Λ = {β1, . . . , βk} vectores de F,
entonces, existe una ´unica ϕ ∈ L(E, F) tal que ϕ(αi) = βi (i=1,...,k).
Demostraci´on 3.3 Necesitamos verificar la existencia, lo cual es evidente pues conocemos su acci´on
sobre una base, a saber, si α ∈ E entonces α = ξ1α1 + . . . + ξkαk, entonces ϕ(α) = ξ1β1 + . . . + ξkβk
donde ξi son conocidos por la descomposici´on de α en sus coordenadas (que son ´unicas por el Teorema
2.9) y βi son conocidos por ser la acci´on sobre la base.
La unicidad se verifica suponiendo la existencia de ϕ tal que ϕ (αi) = βi (i = 1, . . . , k). Luego la
transformaci´on (ϕ − ϕ ) al actuar sobre la base B entrega valores nulos, por lo tanto, por el Lema
3.2 se deduce la tesis de unicidad.
3.1. N´ucleo de una Transformaci´on Lineal
Definici´on 3.3 Diremos que ker ϕ ⊆ E es el n´ucleo de ϕ ∈ L(E, F) si y s´olo si ´este corresponde al
conjunto de preim´agenes de 0F , es decir, si ∀α ∈ ker ϕ : ϕ(α) = 0F .
Lema 3.4 Siempre, sin importar la transformaci´on lineal ϕ ∈ L(E, F), se cumple que 0E ∈ ker ϕ.
Demostraci´on 3.4 La demostraci´on es puramente operatoria y es similar a demostrar que 0 · a =
0, ∀a ∈ R.
ϕ(0E) = ϕ(0E + 0E) = ϕ(0E) + ϕ(0E) =⇒ ϕ(0E) = 0F
Teorema 3.5 El n´ucleo de una transformaci´on lineal es un subespacio vectorial del espacio de partida
de esta, es decir, usando las notaciones usuales: ker ϕ ≤ E.
Demostraci´on 3.5 Es claro que ker ϕ = ∅, debido al Lema 3.4. Ahora bien, supongamos α, β ∈ ker ϕ
y λ ∈ K, entonces se tiene:
ϕ(α + β) = ϕ(α) + ϕ(β) = 0F + 0F = 0F
ϕ(λα) = λϕ(α) = λ0F = 0F
30
Observaci´on: Al n´ucleo de una transformaci´on lineal tambi´en se le llama el kernel de ´esta. A la
dimensi´on del n´ucleo se le conoce como nulidad (Nullϕ = dimK ker ϕ).
Teorema 3.6 Una transformaci´on lineal ϕ ∈ L(E, F) es inyectiva (en el sentido de ??) si y s´olo si
ker ϕ = {0E}.
Demostraci´on 3.6 Dado que el teorema est´a enunciado en forma de equivalencia, debemos probar
las dos implicancias:
⇒ ker ϕ = {0E}.
Supongamos α, α ∈ E tales que ϕ(α) = ϕ(α ), por lo tanto, ϕ(α − α ) = 0F , es decir, α − α
no est´a en ker ϕ y, por lo tanto, α = α .
⇐ ϕ es inyectiva.
Supongamos α, α ∈ ker ϕ, es decir, si ϕ(α) = ϕ(α ) = 0F entonces α = α , ∀α, α ∈ ker ϕ y,
dado que 0E ∈ ker ϕ (por el Lema 3.4), se tiene que ker ϕ = {0E}.
3.2. Imagen de una Transformaci´on Lineal
Definici´on 3.4 Diremos que Imϕ ⊆ F es la imagen de ϕ ∈ L(E, F) si y s´olo si ∀β ∈ Imϕ, ∃α ∈
E : ϕ(α) = β.
Teorema 3.7 La imagen de una transformaci´on lineal es un subespacio vectorial del espacio de
llegada, es decir, usando las notaciones anteriores: Imϕ ≤ F.
Demostraci´on 3.7 Evidentemente Imϕ = ∅ (Lema 3.4), luego supongamos β1, β2 ∈ Imϕ y λ ∈ K,
entonces, existen α1, α2 ∈ E tales que ϕ(α1) = β1 y ϕ(α2) = β2, por lo tanto, existen α1 +α2, λα1 ∈ E
tales que ϕ(α1 + α2) = ϕ(α1) + ϕ(α2) = β1 + β2 ∈ Imϕ y ϕ(λα1) = λϕ(α1) = λβ1 ∈ Imϕ.
Observaci´on: La imagen de una transformaci´on lineal tambi´en se le denotar´a por ϕ(E). A la
dimensi´on de la imagen se le conoce como rango (Rgϕ = dimK Imϕ).
Teorema 3.8 Si B = {α1, . . . , αk} es base de E, entonces
ϕ(B) = {ϕ(α1), . . . , ϕ(αk))}
genera a Imϕ.
Demostraci´on 3.8 Supongamos β ∈ Imϕ, luego existe un α ∈ E tal que ϕ(α) = β. Dado que
α = ξ1α1 + . . . + ξkαk en forma ´unica (por el Teorema 2.9) se tiene lo siguiente:
ϕ(α) = β = ξ1ϕ(α1) + . . . + ξkϕ(αk)
Es decir, cualquier elemento de Imϕ se escribe como combinaci´on lineal de los elementos de ϕ(B).
Teorema 3.9 Si ϕ ∈ L(E, F) se tiene la siguiente relaci´on
Rgϕ + Nullϕ = dimK E
31
Demostraci´on 3.9 Consideremos V un espacio vectorial de dimensi´on n, es decir:
BV = {v1, . . . , vk, vk+1, . . . , vn}
es una base de V . Adem´as, sin p´erdida de la generalidad, podemos considerar que
Bker ϕ = {v1, . . . , vk}
es base de ker ϕ. Basta probar que
B{ϕ(vk+1), . . . , ϕ(vn)}
es base de Imϕ. Para esto, consideremos una combinaci´on lineal de dichos vectores igualada a 0F ,
esto es:
λk+1ϕ(vk+1) + . . . + λnϕ(vn) = 0F
como ϕ es transformaci´on lineal, podemos hacer lo siguiente:
λk+1ϕ(vk+1) + . . . + λnϕ(vn) = ϕ(λk+1vk+1 + . . . + λnvn)
Y, por lo tanto, λk+1vk+1 + . . . + λnvn ∈ ker ϕ, pero son vectores linealmente independientes de los
vectores que generan al n´ucleo de ϕ, por lo tanto, necesariamente debe cumplirse que
λk+1 = . . . = λn = 0
Es decir, el conjunto {ϕ(vk+1), . . . , ϕ(vn)} es linealmente independiente. Probar que el conjunto
anterior genera Imϕ es un asunto bastante inmediato y se deja como ejercicio.
3.3. Isomorfismos
Definici´on 3.5 Diremos que ϕ ∈ L(E, F) es un isomorfismo si y s´olo si ϕ es biyectiva (en el sentido
de MAT-021), es decir, si: Rgϕ = dimK F y Nullϕ = 0.
Definici´on 3.6 Si existe un isomorfismo entre dos espacios vectoriales E y F diremos que los es-
pacios son isomorfos.
Teorema 3.10 Si ϕ ∈ L(E, F) es un isomorfismo, ϕ−1
∈ L(F, E) (inversa en el sentido de MAT-
021) es tambi´en un isomorfismo.
Demostraci´on 3.10 Si ϕ−1
∈ L(F, E) entonces Imϕ−1
≤ E. Tenemos que ϕ(E) = F y que
ϕ−1
(0F ) = {0E}. Luego, supongamos que existe α ∈ E tal que α no pertenece a Imϕ−1
; dado
que existe β ∈ F tal que ϕ(α) = β y ϕ es isomorfismo se tiene la contradicci´on pues α = ϕ−1
(β).
En forma an´aloga se tiene que ker ϕ−1
≤ F y que es no vac´ıo (Lema 3.4). Supongamos α ∈
ker ϕ−1
, α = 0F , entonces ϕ−1
(α) = 0E que es equivalente a decir α = ϕ(0E) = 0F , obteniendo la
contradicci´on esperada.
Corolario 3.11 La relaci´on E F, donde = { los espacios son isomorfos } es una relaci´on de
equivalencia.
Demostraci´on 3.11 La propiedad reflexiva queda inmediatamente verificada usando el isomorfismo
identidad (es decir: Id(α) = α). La simetr´ıa queda verificada por el Teorema 3.10. Finalmente la tran-
sitividad es evidente a partir de la composici´on de isomorfismos. Los detalles pueden ser completados
con calma como ejercicio.
32
Teorema 3.12 Todos los espacios vectoriales de la misma dimensi´on (finita) y sobre un mismo
cuerpo K son isomorfos entre s´ı. En particular, todo K−espacio vectorial de dimensi´on n es isomorfo
a Kn
.
Demostraci´on 3.12 Supongamos BE = {α1, . . . , αn} base de E y BF = {β1, . . . , βn} base de F.
Consideremos la transformaci´on lineal T ∈ L(E, F) tal que T(αi) = βi (i = 1, . . . , n), en forma
expl´ıcita si α = ξ1α1 + . . . + ξnαn se tiene que:
T(α) = ξ1β1 + . . . + ξnβn
Claramente T es inyectiva debido al Teorema 2.9 y, evidentemente, es epiyectiva, por lo tanto T es
un isomorfismo. Para el caso particular de Kn
basta con considerar, por ejemplo, la base can´onica.
Corolario 3.13 Si E y F son espacios isomorfos, entonces se tiene que dimK E = dimK F.
Demostraci´on 3.13 Esta demostraci´on es evidente a partir del Teorema 3.12, pero, haciendo uso
del Teorema 3.9 y la definici´on de isomorfismo, se obtiene de inmediato la relaci´on buscada.
33

Más contenido relacionado

La actualidad más candente (18)

Tema_2.pdf
Tema_2.pdfTema_2.pdf
Tema_2.pdf
 
Tema_3.pdf
Tema_3.pdfTema_3.pdf
Tema_3.pdf
 
Derivadas
DerivadasDerivadas
Derivadas
 
Calculadora
CalculadoraCalculadora
Calculadora
 
1. integración por sustitución
1. integración por sustitución1. integración por sustitución
1. integración por sustitución
 
Manual de calculo vectorial 2008
Manual de calculo vectorial 2008Manual de calculo vectorial 2008
Manual de calculo vectorial 2008
 
Tema_1.pdf
Tema_1.pdfTema_1.pdf
Tema_1.pdf
 
Puntoslagrnge2
Puntoslagrnge2Puntoslagrnge2
Puntoslagrnge2
 
7 análisis vectorial
7 análisis vectorial7 análisis vectorial
7 análisis vectorial
 
Cap 6 ecuaciones
Cap 6 ecuacionesCap 6 ecuaciones
Cap 6 ecuaciones
 
Cap14 siste. linel.
Cap14 siste. linel. Cap14 siste. linel.
Cap14 siste. linel.
 
Integracion multiple
Integracion multipleIntegracion multiple
Integracion multiple
 
Cap11 polinomiales
Cap11 polinomialesCap11 polinomiales
Cap11 polinomiales
 
Integrales complejas
Integrales complejasIntegrales complejas
Integrales complejas
 
Metodo de integración POR PARTES.
Metodo de integración POR PARTES.Metodo de integración POR PARTES.
Metodo de integración POR PARTES.
 
1 vectores en r3
1 vectores en r31 vectores en r3
1 vectores en r3
 
Integraciondefunciones3
Integraciondefunciones3Integraciondefunciones3
Integraciondefunciones3
 
Integraciondefunciones
IntegraciondefuncionesIntegraciondefunciones
Integraciondefunciones
 

Similar a Algebra lineal

Similar a Algebra lineal (20)

GUIA 1 MATRICES CESAR VALLEJO
GUIA 1 MATRICES CESAR VALLEJOGUIA 1 MATRICES CESAR VALLEJO
GUIA 1 MATRICES CESAR VALLEJO
 
Matrices
MatricesMatrices
Matrices
 
Matrices y determinantes
Matrices y determinantesMatrices y determinantes
Matrices y determinantes
 
Semana 1
Semana 1Semana 1
Semana 1
 
ELEXON MIRABAL (ARITMETICA MODULAR Y ENTERA)
ELEXON MIRABAL (ARITMETICA MODULAR Y ENTERA)ELEXON MIRABAL (ARITMETICA MODULAR Y ENTERA)
ELEXON MIRABAL (ARITMETICA MODULAR Y ENTERA)
 
ELEXON MIRABAL (ARITMÉTICA MODULAR Y ENTERA)
ELEXON MIRABAL (ARITMÉTICA MODULAR Y ENTERA)ELEXON MIRABAL (ARITMÉTICA MODULAR Y ENTERA)
ELEXON MIRABAL (ARITMÉTICA MODULAR Y ENTERA)
 
Mate II
Mate IIMate II
Mate II
 
Matrices y determinantes
Matrices y determinantesMatrices y determinantes
Matrices y determinantes
 
Capitulo 2-matrices-y-determinantes-evaluaciones
Capitulo 2-matrices-y-determinantes-evaluacionesCapitulo 2-matrices-y-determinantes-evaluaciones
Capitulo 2-matrices-y-determinantes-evaluaciones
 
2 matrices
2 matrices2 matrices
2 matrices
 
2 matrices
2 matrices2 matrices
2 matrices
 
matrices
matricesmatrices
matrices
 
Introduccion al Calculo Matricial Ccesa007.pdf
Introduccion al Calculo Matricial Ccesa007.pdfIntroduccion al Calculo Matricial Ccesa007.pdf
Introduccion al Calculo Matricial Ccesa007.pdf
 
Matrices y determinantes
Matrices y determinantesMatrices y determinantes
Matrices y determinantes
 
Cap 01 1 matrices
Cap 01 1 matricesCap 01 1 matrices
Cap 01 1 matrices
 
El abc de la conjetura
El abc de la conjeturaEl abc de la conjetura
El abc de la conjetura
 
Apendice1
Apendice1Apendice1
Apendice1
 
Algebra matrices
Algebra matricesAlgebra matrices
Algebra matrices
 
Algebra matrices
Algebra matricesAlgebra matrices
Algebra matrices
 
Algebra matrices
Algebra matricesAlgebra matrices
Algebra matrices
 

Algebra lineal

  • 1. Brev´ısima (casi rasca) Introducci´on al ´Algebra Lineal Mauricio Godoy Molina 17 de Octubre de 2005 Resumen Concluyamos de manera est´etica el curso MAT-022. El c´alculo de antiderivadas, la incom- prensi´on del teorema fundamental del c´alculo, la falta de rigurosidad a la hora de definir las series de funciones, la enorme cantidad de f´ormulas aprendidas para calcular propiedades en las distintas coordenadas . . . han sido un golpe bajo a nuestro intelecto y casi una ofensa a aquellos que nos gusta aprender bien. Lamentablemente, los conceptos formales y rigurosos que funda- mentan lo hecho anteriormente, no es algo que realmente necesita saber un ingeniero . . . y como muchas veces prima la ley del m´ınimo esfuerzo, simplemente no se ense˜nan. Cerremos el cap´ıtulo obscuro de MAT-022 y veamos la luz al final del t´unel. 1. ´Algebra de Matrices La experiencia ha dicho que no necesariamente en todos los colegios se ense˜nan ciertos t´opicos elementales y b´asicos para el inicio de las matem´aticas serias (de hecho, el autor no vio muchos de los temas de los cuales ha escrito en su ense˜nanza media, como es el caso del ´algebra de matrices); por esto, no debemos asumir el conocimiento cabal de ciertos temas por parte de los alumnos. Como dijo cierto fil´osofo: “hasta el hombre m´as sabio, al tomar el libro que menos represente a sus ojos, aprender´a algo”; por esto recomendamos a las personas que conocen y dominan estos t´opicos el dar al menos una lectura r´apida al siguiente apartado. 1.1. Matrices Observaci´on: En lo sucesivo diremos que K es un cuerpo cualquiera (Q, R, C, Z/pZ, etc.) Definici´on 1.1 Diremos que A es una matriz de m × n con coeficientes en K si es una funci´on A : {1, . . . , m} × {1, . . . , n} −→ K (i, j) −→ A(i, j) = aij Se deduce de esto que los elementos de la matriz A, en general, se denotar´an con la min´uscula de la matriz con el sub´ındice respectivo al lugar que ocupa. Observaci´on: La definici´on anterior induce inmediatamente una notaci´on muy pr´actica para una matriz A de elementos aij, a saber A = (aij). Definici´on 1.2 Diremos que la representaci´on de una matriz de m × n con coeficientes en K es un arreglo rectangular de valores de K, dispuestos en m filas y n columnas. Definici´on 1.3 Diremos que la matriz A = (aij) es igual a la matriz B = (bij) si y s´olo si poseen el mismo orden (por ejemplo, m×n) y cumplen la relaci´on aij = bij (∀(i, j) ∈ {1, . . . , m}×{1, . . . , n}). 1
  • 2. Ejemplos: 1. La matriz A = (i+j) donde (i, j) ∈ {1, . . . , m}×{1, . . . , n} posee la representaci´on rectangular: B =      2 3 4 . . . 1 + n 3 4 5 . . . 2 + n ... ... ... ... ... m + 1 m + 2 m + 3 . . . m + n      2. Supongamos la matriz B = (m´ax{i, j}), donde (i, j) ∈ {1, . . . , n} × {1, . . . , n}. Luego su repre- sentaci´on rectangular est´a dada por: B =          1 2 3 4 . . . n 2 2 3 4 . . . n 3 3 3 4 . . . n 4 4 4 4 . . . n ... ... ... ... ... ... n n n n . . . n          3. La matriz 0m×n = (0) es conocida como la matriz nula. Su representaci´on rectangular est´a dada por: 0m×n =      0 0 0 n veces 0 0 0 0 . . . 0 ... ... ... ... m veces 0 0 0 . . . 0      Observaci´on: Desde ahora en adelante hablaremos en forma indistinta de la matriz y de su rep- resentaci´on rectangular. Definici´on 1.4 Diremos que una matriz de m × n es una matriz cuadrada si y s´olo si m = n. En este caso simplemente se dir´a que la matriz es cuadrada de orden n (no de n × n). Definici´on 1.5 Si A es una matriz cuadrada de orden n diremos que su diagonal principal es el conjunto de los elementos {a11, . . . , ann}. Diremos, adem´as, que la traza de la matriz es la suma de los elementos de su diagonal principal. Es decir, si denotamos la traza de A por trA, se tiene que trA = n i=1 aii Definici´on 1.6 El conjunto de todas las matrices de orden m × n con coeficientes en K se de- notar´a por Mm×n(K). En el caso de matrices cuadradas de orden n, la notaci´on del conjunto es Mn(K). Ejemplo Importante: Si A = (aij) es una matriz cuadrada que cumple que aij = 0 cuando i > j se conocen como matrices triangulares superiores. Por analog´ıa se definen las matrices triangulares inferiores (aij = 0 cuando i < j). 2
  • 3. 1.2. Multiplicaci´on por un Escalar La multiplicaci´on entre matrices y escalares es una operaci´on que surge en forma natural del estudio de las transformaciones lineales pero, por lo pronto, entregaremos este hecho como definici´on. Definici´on 1.7 El producto entre una matriz y un escalar es una funci´on: · : K × Mm×n(K) −→ Mm×n(K) (λ, (aij)) −→ (cij) = (λaij) Ejemplos: 1. Supongamos la matriz 0m×n. Es claro que ∀k ∈ K : k · 0m×n = 0m×n. 2. Claramente se tienen las siguientes dos propiedades heredadas directamente de los n´umeros complejos (en particular para los n´umeros reales): a) Si A ∈ Mm×n(C), entonces 0 · A = 0m×n. b) Si A ∈ Mm×n(C), entonces 1 · A = A. 3. Si consideramos la matriz B =      1 2 3 · · · n 2 3 4 · · · n + 1 ... ... ... ... ... m m + 1 m + 2 · · · m + n      ∈ Mm×n(R) Y la multiplicamos por λ ∈ R tendremos la siguiente matriz λ · B =      λ 2λ 3λ · · · nλ 2λ 3λ 4λ · · · (n + 1)λ ... ... ... ... ... mλ (m + 1)λ (m + 2)λ · · · (m + n)λ      1.3. Suma de Matrices Al igual que la multiplicaci´on por un escalar, la suma de matrices aparece de manera evidente en el estudio de las transformaciones lineales. Al igual que en el apartado anterior, s´olo se entregar´a como definici´on. Definici´on 1.8 La suma de matrices es una funci´on + : Mm×n(K) × Mm×n(K) −→ Mm×n(K) ((aij), (bij)) −→ (cij) = (aij + bij) En otras palabras la adici´on est´a definida para matrices del mismo orden y corresponde a la suma de las dos matrices componente a componente. 3
  • 4. Ejemplos: 1. Si A ∈ Mm×n(R), entonces A + 0m×n = A. 2. Si A ∈ Mm×n(R), entonces existe una ´unica matriz −A ∈ Mm×n(R) tal que A+(−A) = 0m×n. Dicha matriz se conoce como la opuesta de la matriz A y se calcula simplemente como −A = −1 · A. 3. La suma de n´umeros complejos (en particular reales) puede entenderse como un ejemplo muy reducido de suma de matrices, pues todo n´umero complejo puede entenderse como una matriz de 1×1, es decir, podemos identificar el conjunto M1(C) con C; asimismo podemos en general asumir que M1(K) es “lo mismo”que K. Este concepto de “lo mismo”se conoce con el nombre de isomorfismo y ser´a visto de manera formal como un caso especial de transformaciones lineales. 1.4. Multiplicaci´on de Matrices La multiplicaci´on de matrices es una funci´on: · : Mm×n(K) × Mn×r(K) −→ Mm×r(K) ((aij), (bij)) −→ (cij) = r k=1 aikbkj Es muy importante hacer notar el hecho de los ´ordenes que tienen que tener las matrices para poder ser multiplicadas. Obviamente todas las matrices cuadradas de un mismo orden se pueden multiplicar entre s´ı. En forma an´aloga al caso real o complejo se define la potenciaci´on entera de matrices, es decir An = n veces A · A · . . . · A n ∈ N A ∈ Mn(K) Ciertas propiedades de esta operaci´on ser´an vistas m´as adelante, por lo pronto es una simple curiosi- dad. Ejemplos: 1. Definiremos la matriz identidad de orden n de la siguiente manera: In =        1 0 0 · · · 0 0 1 0 · · · 0 0 0 1 · · · 0 ... ... ... ... ... 0 0 0 · · · 1        ∈ Mn(K) Esta matriz recibe ese nombre debido a la siguiente propiedad : A · In = Im · A = A ∀A ∈ Mm×n(K) 2. Consideremos las siguientes matrices B =   2 1 1 1 1 1 1 1 2   , C =   1 −1 0 −1 3 −1 0 −1 1   ∈ M3(R) 4
  • 5. Luego se tiene que B · C = C · B = I3 =   1 0 0 0 1 0 0 0 1   Se dice entonces que C es la matriz inversa de B y viceversa. 3. Importante es hacer notar que no toda matriz cuadrada (no nula) tiene inversa, por ejemplo la matriz de orden 2 1 0 0 0 ∈ M2(R) No tiene inversa, pues si la tuviese se tendr´ıa que 1 0 0 0 a b c d = a b 0 0 Lo cual nunca es posible igualar a I2. 4. La multiplicaci´on de matrices no es necesariamente una operaci´on conmutativa, pues obvia- mente si multiplicamos una matriz D ∈ Mm×n(K) por una E ∈ Mn×m(K) (m = n), entonces D · E ∈ Mm(K), mientras que E · D ∈ Mn(K). Otro caso, algo m´as patol´ogico, es que si con- sideramos la matriz D anterior y una matriz F ∈ Mn(K), entonces es posible tener el producto D · F, pero no el producto F · D. 5. Algo interesante es que ni siquiera la multiplicaci´on entre matrices cuadradas respeta la con- mutatividad, a saber 1 1 2 1 1 4 2 3 = 3 7 4 11 ; 1 4 2 3 1 1 2 1 = 9 5 8 5 Ejercicio: Sean A y A dos matrices en M2(R) tales que los elementos de su diagonal principal son diferentes. Determine condiciones para que A · A = A · A. Adem´as, verifique que el conjunto CM = A ∈ M2(R) : A = a −b b a , a, b ∈ R Est´a formado s´olo por matrices que conmutan. Partamos por considerar las dos matrices A y A , es decir, darle valores arbitrarios a sus elementos: A = a b c d ; A = a b c d Ahora bien, claramente se tiene que sus productos son A · A = aa + bc ab + bd a c + c d b c + dd ; A · A = aa + b c a b + b d ac + cd bc + dd Luego, para tener conmutatividad, es necesario que A · A = A · A, es decir,    aa + bc = aa + b c ab + bd = a b + b d a c + c d = ac + cd b c + dd = bc + dd ⇐⇒    bc = b c b (a − d) = b(a − d ) c (a − d) = c(a − d ) 5
  • 6. Dada la hip´otesis que los elementos de la diagonal principal son diferentes en ambas matrices, tenemos que a − d = 0 y que a − d = 0, por lo tanto las ´ultimas dos condiciones se reducen a que bc = b c, entonces s´olo basta que se cumpla la primera condici´on. Para el producto definido en el conjunto CM podemos usar los c´alculos hechos anteriormente, es decir, si consideramos z = u −v v u ; z = u −v v u ∈ CM Tenemos que las condiciones anteriores se reducen a    −vv = −v v −v (u − u) = −v(u − u ) v (u − u) = v(u − u ) ⇐⇒    vv = v v 0 = 0 0 = 0 Condiciones evidentemente satisfechas por v, v ∈ R usando la conmutatividad de R. 1.5. Reducci´on Gaussiana: Operaciones Elementales Ahora bien, es de esperarse que los matem´aticos quisi´esemos tratar de comprender c´omo se comportan ciertas matrices, en otras palabras, tratar de clasificarlas con tal de tener una idea a priori de ciertas propiedades que veremos m´as adelante. Comencemos esta subsecci´on con la siguiente Definici´on 1.9 (Matrices Elementales Fila) Diremos que A ∈ Mn(R) es una matriz elemental fila si y s´olo si A posee una de las siguientes formas: 1. A es casi id´entica a la matriz In, salvo por dos filas i1, i2 que han sido permutadas. Esta matriz se suele denotar por A = Fi1i2 . 2. A es casi id´entica a la matriz In, salvo por una fila i que ha sido multiplicada por un cierto escalar no nulo k ∈ C {0}. Esta matriz se suele denotar por A = Fi(k). 3. A es casi id´entica a la matriz In, salvo por dos filas i1, i2 la segunda de las cuales ha sido multiplicada por un cierto escalar no nulo k ∈ C{0} y ha sido sumada a la fila i1. Esta matriz se suele denotar por A = Fi1i2 (k). Observaci´on: Desde ahora y a menos que se diga lo contrario, K ser´a reemplazado por R o C para efectos de matrices. Evidentemente, con tal de ganar generalidad, hablaremos la mayor´ıa de las veces de C por el hecho que ´este contiene a R. Ejemplos: 1. Claramente In = Fi(1), para todo i = 1, . . . , n y para todo n ∈ N. 2. Veamos un ejemplo concreto del primer tipo de matriz elemental fila. En el caso de M4(C) tenemos: F23 =     1 0 0 0 0 0 1 0 0 1 0 0 0 0 0 1     6
  • 7. 3. Ahora veamos un ejemplo del segundo tipo de matriz elemental fila igualmente en el caso de M4(C): F3(−2) =     1 0 0 0 0 1 0 0 0 0 −2 0 0 0 0 1     4. Finalmente, en el mismo conjunto M4(C) veamos c´omo se ve una matriz elemental fila del caso 3: F14(3) =     1 0 0 3 0 1 0 0 0 0 1 0 0 0 0 1     Bueno, ahora la pregunta natural ser´ıa ¿cu´al es la gracia de estas matrices? La respuesta es muy simple, pero no la dar´e ahora. Alargando un poco la agon´ıa veamos el siguiente Teorema 1.1 Todas las matrices elementales son invertibles, m´as a´un: 1. Fi1i2 Fi1i2 = In. 2. Fi(k)Fi(1 k ) = In. 3. Fi1i2 (k)Fi1i2 (−k) = In. Demostraci´on 1.1 La demostraci´on de este teorema quedar´a m´as que clara cuando veamos qu´e es lo que representan estas matrices elementales fila. Observaci´on: Una construcci´on id´entica a la de las matrices elementales fila se puede realizar para matrices elementales columna. Estas se suelen representar por Ci1i2 , Ci(k) y por Ci1i2 (k) respectiva- mente. Una vez definidos estos objetos un poco abstractos, tratemos de interpretar qu´e significan. Esta pregunta quedar´a m´as que clara despu´es de la siguiente definici´on y el posterior teorema. Definici´on 1.10 (Operaciones Elementales Fila) Se dice que se ha efectuado una operaci´on el- emental fila sobre la matriz A ∈ Mm×n(C) si: 1. Se han permutado dos filas. Si las filas permutadas han sido i1 y la fila i2, entonces dicha operaci´on se denota por Fi1i2 . 2. Una fila se ha multiplicado por un escalar no nulo. Si la fila modificada ha sido la i-´esima y el escalar por el cual fue multiplicada es k, entonces dicha operaci´on se denota por Fi(k). 3. A una fila se le ha sumado otra multiplicada por un escalar no nulo. Si a la fila i1 se le ha sumado la fila i2 multiplicada por k, entonces dicha operaci´on se denota por Fi1i2 (k). Si se tuvo que hacer una cierta operaci´on elemental fila F para llegar desde A hasta A , denotaremos este hecho por A F −→ A Y diremos que las matrices A y A son equivalentes por fila. 7
  • 8. Claramente esta definici´on debe venir seguida del siguiente Teorema 1.2 Las operaciones elementales fila se relacionan con las matrices elementales fila del siguiente modo: A F −→ A ⇐⇒ A = FA Donde F es la matriz elemental fila respectiva a la operaci´on F, es decir, In F −→ F. Demostraci´on 1.2 No es dif´ıcil, y queda como ejercicio al lector. Por lo tanto, gracias a este teorema tenemos la siguiente Definici´on 1.11 (Equivalencia por Filas) Diremos que dos matrices A, B ∈ Mm×n(C) son equiv- alentes por fila (denotado por A f ∼ B) si se puede obtener B a partir de A con un n´umero finito de operaciones elementales fila. Observaci´on: El proceso de aplicar operaciones elementales fila (o columna) para obtener matrices equivalentes por fila (o columna) es llamada Reducci´on Gaussiana, en honor al llamado Pr´ıncipe de las Matem´aticas, el insigne Karl Friederich Gauss. Ejemplos: 1. Claramente la equivalencia por filas es una relaci´on de equivalencia, es decir: Es reflexiva: Claramente A f ∼ A pues basta considerar la operaci´on elemental fila Fi(1) (i ∈ {1, . . . , m}) que amplifica por 1 la i-´esima fila por 1, es decir, deja la matriz invariante. Es sim´etrica: Como vimos anteriormente, las operaciones elementales fila son operaciones invertibles, por lo que si se tiene que: A F1 −→ F2 −→ · · · Fk −→ B Entonces basta considerar la siguiente cadena de operaciones: B F−1 k −→ · · · F−1 2 −→ F−1 1 −→ A Usando las operaciones inversas, vistas en el Teorema 1.1. Es Transitiva: Esta propiedad es bastante evidente, pues si A f ∼ B y B f ∼ C, entonces se tienen operaciones elementales fila tales que: A F1 1 −→ F1 2 −→ · · · F1 k −→ B B F2 1 −→ F2 2 −→ · · · F2 l −→ C Entonces tenemos que: A F1 1 −→ F1 2 −→ · · · F1 k −→ F2 1 −→ F2 2 −→ · · · F2 l −→ C 8
  • 9. 2. Veamos un ejemplo concreto de c´omo se aplica la reducci´on Gaussiana   −1 2 −1 3 1 2 −1 3 −1   F31(−1) −→   −1 2 −1 3 1 2 0 1 0   F21(3) −→   −1 2 −1 0 7 −1 0 1 0   F23(−7) −→   −1 2 −1 0 0 −1 0 1 0   F2(−1) −→   −1 2 −1 0 0 1 0 1 0   F23 −→   −1 2 −1 0 1 0 0 0 1   F12(−2) −→   −1 0 −1 0 1 0 0 0 1   F13(1) −→   −1 0 0 0 1 0 0 0 1   F1(−1) −→   1 0 0 0 1 0 0 0 1   3. El Teorema 1.2 asegura que en el ejemplo anterior se tiene   −1 0 0 0 1 0 0 0 1   ·   1 0 1 0 1 0 0 0 1   ·   1 −2 0 0 1 0 0 0 1   ·   1 0 0 0 0 1 0 1 0   ·   1 0 0 0 −1 0 0 0 1   · ·   1 0 0 0 1 −7 0 0 1   ·   1 0 0 3 1 0 0 0 1   ·   1 0 0 0 1 0 −1 0 1   ·   −1 2 −1 3 1 2 −1 3 −1   = =   7 1 −5 −1 0 1 −10 −1 7   ·   −1 2 −1 3 1 2 −1 3 −1   =   1 0 0 0 1 0 0 0 1   1.6. Matriz Inversa Algo muy bueno de la reducci´on Gaussiana es que permite con bastante simpleza calcular la matriz inversa de ciertos elementos del conjunto Mn(C). Definamos con m´as propiedad dicho concepto. Definici´on 1.12 (Matriz Inversa) Dada una matriz A ∈ Mn(C), entonces decimos que es invert- ible si existe A−1 ∈ Mn(C) tal que AA−1 = A−1 A = In A la matriz A−1 se le llama inversa de A. Definici´on 1.13 (Grupo Lineal) Decimos que el subconjunto de Mn(C) de todas las matrices invertibles se conoce como el grupo lineal GLn(C) (multiplicativo). Es bastante directo probar las propiedades que definen a este conjunto como grupo, es decir: 1. Es cerrado, es decir, dadas A, B ∈ GLn(C), entonces AB, BA ∈ GLn(C). 2. Es asociativo, es decir, dadas A, B, C ∈ GLn(C), entonces A(BC) = (AB)C (propiedad hereda- da de la multiplicaci´on de matrices). 3. Tiene un elemento neutro, obviamente es la identidad In, cuya inversa es s´ı misma. 4. Tiene inversos, es decir, para cualquier A ∈ GLn(C) se cumple que A−1 ∈ GLn(C). Este hecho proviene directamente de la definici´on. 9
  • 10. Ejemplos: 1. Es bastante directo ver que la matriz identidad es su propia inversa, a saber:      1 0 · · · 0 0 1 · · · 0 ... ... ... ... 0 0 · · · 1           1 0 · · · 0 0 1 · · · 0 ... ... ... ... 0 0 · · · 1      =      1 0 · · · 0 0 1 · · · 0 ... ... ... ... 0 0 · · · 1      2. De acuerdo a los ejemplos anteriores, se tiene que   7 1 −5 −1 0 1 −10 −1 7   es la matriz inversa de   −1 2 −1 3 1 2 −1 3 −1   3. Existen elementos del conjunto Mn(C) que no est´an en GLn(C), por ejemplo, la matriz 0n. 4. En el caso de Mn(C), se tiene una f´ormula expl´ıcita para el c´alculo de la matriz inversa: a b c d −1 = 1 ad − bc d −b −c a suponiendo que ad − bc = 0. Si ad = bc, entonces la matriz no es invertible, como ejercicio, puede tratar de probar este interesante fen´omeno. El valor det = ad − bc es conocido como el determinante de la matriz en el caso de matrices de 2 × 2. 1.7. Determinante de una Matriz Antes de empezar con este concepto trascendental, se entregar´an algunas definiciones importantes Definici´on 1.14 (Traza) La traza de una matriz A ∈ Mn(C) es simplemente la suma de los ele- mentos de su diagonal principal, es decir: Si A =      a11 a12 · · · a1n a21 a22 · · · a2n ... ... ... ... an1 an2 · · · ann      =⇒ tr(A) = n i=1 aii Definici´on 1.15 (Permutaci´on) Si denotamos Jn = {1, 2, 3, . . . , n} entonces decimos que σ es una permutaci´on de Jn si es una funci´on biyectiva σ : Jn → Jn. Diremos que la permutaci´on es par o impar si se puede reducir a un n´umero par o impar de transposiciones respectivamente. Una transposici´on es una permutaci´on de orden 2, es decir, el cambio de un elemento por otro. 10
  • 11. Ejemplos: 1. Debiese ser algo m´as o menos evidente que tr(In) = n. 2. Si A =   7 1 −5 −1 0 1 −10 −1 7   entonces tr(A) = 14. 3. Es un simple ejercicio de conteo verificar que si denotamos por Perm(n) = {σ : σ es una permutaci´on de Jn} entonces #Perm(n) = n!. 4. Una forma menos elegante de entender las permutaciones es como los reordenamientos de un cierto conjunto, por ejemplo, queremos poner a Pepito, a Juan y a Sebasti´an en una fila, ¿cu´antas maneras posibles hay de hacerlo? Simplemente 3! = 6. 5. La permutaci´on σ1 : {1, 2, 3, 4} → {1, 2, 3, 4} dada por σ1(1) = 2, σ1(2) = 4, σ1(3) = 1 y σ1(4) = 3, es una permutaci´on impar, mientras que σ2 : {1, 2, 3, 4} → {1, 2, 3, 4} dada por σ2(1) = 4, σ2(2) = 2, σ2(3) = 1 y σ2(4) = 3 es una permutaci´on impar. Definici´on 1.16 (Determinante) El determinante de una matriz A ∈ Mn(C) es un valor com- plejo, denotado por det(A), definido como det(A) = σ∈Perm(n) (±1)a1σ(1)a2σ(2) · . . . · anσ(n) donde el signo positivo o negativo se considera seg´un la permutaci´on σ sea par o impar respectiva- mente. Ejemplos: 1. Cuando n = 1, entonces hay s´olo una posible permutaci´on, entonces si A = (a11), entonces det(A) = a11. 2. En el caso n = 2 debi´esemos llegar a la definici´on de determinante dada en el apartado anterior. La suposici´on es correcta, pues A = a11 a12 a21 a22 =⇒ det(A) = a11a22 − a12a21 3. En el caso n = 3 se tiene que si A =   a11 a12 a13 a21 a22 a23 a31 a32 a33   =⇒ det(A) = a11a22a33 + a12a23a31 + a13a21a32 − a13a22a31 − a12a21a33 − a11a23a32 4. Notemos que en el caso anterior el determinante se puede calcular haciendo una extensi´on a la idea del c´alculo del determinante de 2×2 (multiplicar los t´erminos en las diagonales principales, sumarlos y despu´es restar los productos en las antidiagonales), este proceso se conoce como Regla de Sarrus y no es v´alida en el caso general de determinantes. 11
  • 12. Observaci´on: La funci´on det : GLn(C) −→ C A −→ det(A) es un caso bastante interesante de una clase particular de homomorfismo de grupos, conocidos como valuaciones. 1.7.1. Propiedades del Determinante Enumeraremos algunas propiedades de la funci´on determinante, que pueden ser vistos como teo- remas. Como es usual en la matem´atica, con la definici´on dada no basta para calcular o encontrar ciertas propiedades del determinante, se recomienda estudiar algunas formas equivalentes de calcu- larlo. Se dejan las demostraciones de estas proposiciones como ejercicio al lector. 1. det(A) = det(AT ). 2. Si dos filas o dos columnas de A son iguales, entonces det(A) = 0. 3. Si la matriz A resulta a partir de la matriz B al intercambiar dos filas o dos columnas entre s´ı de B, entonces det(A) = − det(B). 4. Si una fila o una columna de A consiste s´olo en ceros, entonces det(A) = 0. 5. Si la matriz A resulta a partir de la matriz B al multiplicar una fila o una columna por un escalar c, entonces det(A) = c det(B). 6. Si B = (bij) se obtiene a partir de A = (aij) por medio de sumar a cada elemento de la r-´esima fila c veces el elemento correspondiente a la s-´esima fila (con r = s), entonces det(A) = det(B). 7. Si A = (aij) ∈ Mn(C) es una matriz triangular, entonces det(A) = n i=1 aii 8. Una matriz tiene inversa si y s´olo si su determinante es no nulo. 9. Si A, B ∈ Mn(C), entonces det(AB) = det(A) det(B). Ejemplos: 1. Claramente det(In) = 1. 2. M´as obvio a´un es que det(0n) = 0. 3. Las propiedades dadas anteriormente muestran que el determinante se puede tratar con bas- tante similitud usando la resucci´on gaussiana. Verifique que det   −1 2 −1 3 1 2 −1 3 −1   = −1 Usando la reducci´on gaussiana aplicada sobre ella anteriormente. 12
  • 13. 4. Si se tiene una matriz diagonal D =        a11 0 0 · · · 0 0 a22 0 · · · 0 0 0 a33 · · · 0 ... ... ... ... ... 0 0 0 · · · ann        se tiene que det(D) = n i=1 aii 5. Para calcular el siguiente determinante: ∆ = n 1 1 1 · · · 1 n 2 1 1 · · · 1 n 1 3 1 · · · 1 n 1 1 4 · · · 1 ... ... ... ... ... ... n 1 1 1 · · · n Basta restar a cada fila (excepto a la primera) la primera fila, teniendo el siguiente determinante (equivalente al primero): ∆ = n 1 1 1 · · · 1 0 1 0 0 · · · 0 0 0 2 0 · · · 0 0 0 0 3 · · · 0 ... ... ... ... ... ... 0 0 0 0 · · · n − 1 Pivoteando en el primer elemento (n), obtenemos que: ∆ = n 1 0 0 · · · 0 0 2 0 · · · 0 0 0 3 · · · 0 ... ... ... ... ... 0 0 0 · · · n − 1 Y dado que el determinante de una matriz diagonal es el producto de los elementos de la diagonal, se tiene que: ∆ = n · 1 · 2 · 3 · . . . · (n − 1) = n! 13
  • 14. 2. Espacios Vectoriales Para comenzar el estudio como tal del ´algebra lineal, definiremos un concepto trascendental para las Matem´aticas Definici´on 2.1 Un espacio vectorial sobre el cuerpo K (abreviado K-EV) es el cu´adruple (V, +, K, ·) donde V es un conjunto (no vac´ıo) de elementos llamados vectores, K es un cuerpo de escalares (que, en general, ser´an Q, R o C), + es una operaci´on (llamada ley interna) + : V × V → V (α, β) → +(α, β) = α + β y · es una operaci´on (llamada ley externa) · : K × V → V (c, α) → ·(c, α) = c · α Cuyos elementos cumplen las siguientes propiedades algebraicas: 1. + y · son cerradas en V : α + β ∈ V, y c · x ∈ V ∀α, β ∈ V, ∀c ∈ K. 2. + es conmutativa: α + β = β + α, ∀α, β ∈ V . 3. + es asociativa: α + (β + γ) = (α + β) + γ, ∀α, β, γ ∈ V . 4. + tiene neutro: ∃! 0 ∈ V tal que α + 0 = 0 + α = α, ∀α ∈ V . 5. + tiene inverso: Para cada α ∈ V, ∃!(−α) ∈ V tal que α + (−α) = (−α) + α = 0. 6. · tiene neutro: ∃! 1 ∈ K tal que 1 · α = α · 1 = α, ∀α ∈ V . 7. · es asociativa: (c1c2) · α = c1 · (c2 · α), ∀c1, c2 ∈ K; ∀α ∈ V . 8. · distribuye sobre +: c · (α + β) = c · α + c · β, ∀c ∈ K; ∀α, β ∈ V . 9. la suma en K distribuye sobre ·: (c1 + c2) · α = c1 · α + c2 · α, ∀c1, c2 ∈ K; ∀α ∈ V . Observaci´on: En general la operaci´on + ser´a llamada suma y · ser´a conocido como el producto por escalar; en general este ser´a denotado por yuxtaposici´on, es decir: si α ∈ V el producto de α por un escalar c ∈ K ser´a cα en lugar de c · α. Importante: Como ya fuese visto en la definici´on, en V existe un vector denotado por 0 tal que es el neutro aditivo. Este vector es conocido como vector nulo y ser´a especificada la diferencia entre ´el y el elemento neutro aditivo de K s´olo en caso de ser necesario, en otro caso se deber´a deducir a partir del contexto. M´as Importante A´un: Si consideramos V = {0} se habla del Espacio Vectorial Nulo. Es claro que V es un K-EV, sin importar el cuerpo que se considere. 14
  • 15. Ejemplos: 1. Claramente si consideramos V = Rn con K = R con la suma y el producto escalar componente a componente se tiene un espacio vectorial. A los espacios vectoriales con K = R se les llama espacios vectoriales reales o R−EV. Claramente el vector nulo es (0, 0, . . . , 0) ∈ Rn . 2. As´ı como en el ejemplo anterior, podemos decir que V = Cn con K = R es un R−EV con la suma y la multiplicaci´on por escalar componente a componente. Algo interesante que notar es que Cn es tambi´en un C−EV. Se deja como ejercicio que verifiquen que a Rn no se le puede definir una estructura de C−EV, pero que a cualquier C−EV se le puede dotar de una estructura de R−EV. 3. Definamos el conjunto p = {ai}∞ i=1 sucesi´on , ai ∈ C, ∀i ∈ N : ∞ i=1 |ai| < ∞ Con 1 ≤ p < ∞ y con la suma y producto por escalar usual de sucesiones. Este conjunto es un C−EV (y por tanto, un R−EV) como puede verificarse a partir de algunas de las propiedades vistas en la Subsecci´on ??. Si no se ve claramente este hecho, pueden considerarse las series con coeficientes en R. 4. Consideremos el conjunto Kn[x] = {a0 + a1x + . . . + anxn : a0, a1, . . . , an ∈ K} Esto es, el conjunto de todos los polinomios con coeficientes en K de grado menor o igual a n. El conjunto Kn[x] con la suma y el producto por escalar usual de polinomios es un K−EV. 5. Consideremos las siguientes leyes (interna y externa respectivamente) sobre el conjunto R+ : + : R+ × R+ −→ R+ (x, y) −→ xy · : R × R+ −→ R+ (λ, x) −→ xλ Se deja como ejercicio verificar las propiedades anteriores para probar que R+ con las leyes anteriores es un R−EV. 6. El conjunto Mm×n(K) tiene una estructura natural como K−EV con la suma y el producto por escalar usual de matrices. 7. El conjunto de funciones de clase Cn (R) (n ∈ N) forman un R−EV con la suma y el producto escalar de funciones n veces diferenciables visto en MAT-021. 2.1. Subespacios Vectoriales Consideremos un subconjunto W ⊂ V no vac´ıo, donde V es un K-EV. Se tiene entonces la siguiente definici´on 15
  • 16. Definici´on 2.2 Diremos que W ⊂ V es un subespacio vectorial de V si y s´olo si W es un espacio vectorial con las operaciones definidas en V restringidas a ´el. Teorema 2.1 Se dice que W es un subespacio vectorial de V si y s´olo si W ⊂ V y todos los elementos de W cumplen las siguientes propiedades algebraicas: 1. 0 ∈ W. Esta propiedad se deduce tanto de 2. (tomando α = −β) como de 3. (tomando c = 0), pero se suele escribir por una cuesti´on de ´enfasis. 2. Para cada α, β ∈ W, α + β ∈ W. Es decir, + es cerrada en W. Tambi´en diremos que W es invariante bajo la suma. 3. Para cada α ∈ W y c ∈ K, cα ∈ W. Es decir, + es cerrada en W. Tambi´en diremos que W es invariante bajo el producto. Demostraci´on 2.1 La demostraci´on es inmediata, pues se necesita verificar s´olo la clausura de la suma y del producto por escalar (es decir, que sean operaciones cerradas). Todas las dem´as propiedades son heredadas de V . Observaci´on: El hecho de que W sea un subespacio vectorial de V se denota por W ≤ V . Si W = V , se dice que W es un subespacio vectorial propio de V y se denota por <. Ejemplos: 1. En todo espacio vectorial V (con al menos 2 elementos) sobre un cuerpo K se tienen al menos 2 subespacios vectoriales triviales: El espacio nulo, es decir, el subespacio vectorial de V formado s´olo por el cero y el espacio completo V . Al considerar los subespacios propios s´olo se tiene seguro al esapcio nulo. Un ejemplo de un espacio vectorial que tiene s´olo al espacio nulo como subespacio propio es R como R−EV. 2. En R3 (como R−EV) hay 4 tipos diferentes de subespacios vectoriales geom´etricamente hablan- do, a saber: a) El espacio nulo. b) Las rectas que pasan por el origen. c) Los planos que pasan por el origen. d) Todo R3 . Una demostraci´on de este interesante hecho se puede obtener como un corolario (color´ın coro- lario) a partir del concepto estudiado en la Subsecci´on 2.5. 3. Si consideramos el conjunto Rn[x] como R−EV, entonces todos los subespacios vectoriales de ´el quedan determinados por Rm[x], con 0 ≤ m ≤ n, m ∈ N. 4. El conjunto de funciones de clase Cn (R) forma un subespacio vectorial del R−EV de las fun- ciones de R en R. 16
  • 17. 2.2. Combinaciones Lineales Consideremos un subconjunto finito de vectores de V , un K-EV; a saber: Λ = {α1, α2, . . . , αk} ⊂ V con k ∈ N. Junto a este hecho, podemos considerar un subconjunto finito de escalares de K (con id´entica cardinalidad que el subconjunto de vectores), a saber: {c1, c2, . . . , ck} ⊂ K luego se tiene la siguiente definici´on Definici´on 2.3 Un vector α ∈ V se dice combinaci´on lineal de los elementos de Λ con coeficientes c1, c2, . . . , ck si α se puede escribir de la siguiente forma: α = c1α1 + c2α2 + . . . ckαk Ejemplos: 1. Sean p(x), q(x), r(x) ∈ R4[x] dados por p(x) = x4 + x2 , q(x) = 1 − 2x3 + 3x2 y r(x) = 3 + 2x, entonces 2p(x) + q(x) − r(x) = 2x4 − 2x3 + 5x2 − 2x − 2 ∈ R4[x] 2. Si consideramos dos funciones en el espacio Cr (R), entonces cualquier combinaci´on lineal entre ellas sigue siendo una funci´on en Cr (R), lo cual se desprende de inmediato de las propiedades de l´ımite. 2.3. Subespacios Generados Consideremos J ⊂ V , donde V es un K-EV y J = ∅. A partir de esto, se tiene la siguiente definici´on: Definici´on 2.4 Diremos que J es el conjunto generado por J si y s´olo si es el conjunto de todas las combinaciones lineales de los elementos de J con coeficientes en K. En base a esta definici´on se tiene el siguiente Teorema 2.2 Dadas las mismas hip´otesis y notaciones anteriores (V un K-EV, J un subconjunto de V , etc.) se tiene que J ≤ V . Demostraci´on 2.2 Claramente J ⊂ V , pues J est´a generado por el conjunto J ⊂ V y, por el Teorema 2.1, se deduce la contenci´on. Una vez asegurada la contenci´on, debemos verificar las dos condiciones dadas en el Teorema 2.1, es decir: 1. Sea j ∈ J , tomando c = 0 se tiene que 0j = 0 ∈ J. 17
  • 18. 2. Sean j1, j2 ∈ J , es decir: j1 = a1α1 + a2α2 + . . . + akαk j2 = b1α1 + b2α2 + . . . + bkαk Tenemos que j1 + j2 = (a1α1 + a2α2 + . . . + akαk) + (b1α1 + b2α2 + . . . + bkαk) = = (a1 + b1)α1 + (a2 + b2)α2 + . . . + (ak + bk)αk ∈ J 3. Sea j ∈ J y c ∈ K, se tiene que: cj = c(a1α1 + a2α2 + . . . + akαk) = = (ca1)α1 + (ca2)α2 + . . . + (cak)αk ∈ J Finalmente, se har´a menci´on a un concepto muy importante en lo sucesivo: Definici´on 2.5 Diremos que J es un generador de V (usando las mismas notaciones anteriores) si J = V Ejemplos: 1. En R3 , el espacio generado por un solo vector es una recta que pasa por el origen. 2. Para cualquier espacio vectorial V se tiene que el subespacio vectorial generado por 0V es simplemente {0V }. 3. 1, x, x2 , x3 , x4 = R4[x]. 4. 1, sin(x), cos(x), sin(2x), cos(2x), . . . es el espacio vectorial de todas las funciones peri´odicas de per´ıodo 2π, seccionalmente continuas (es decir, que en un intervalo de per´ıodo 2π tienen un n´umero finito de discontinuidades). El conjunto {1, sin(x), cos(x), sin(2x), cos(2x), . . .} se conoce como base de Fourier y se ver´an algunas propiedades m´as en MAT-023. 2.4. Dependencia e Independencia Lineal Consideremos Λ = {α1, α2, . . . , αk} ⊂ V , donde V es un K-EV. Se sigue de esto la siguiente definici´on: Definici´on 2.6 Se dice que Λ es un conjunto linealmente dependiente si y s´olo si existen escalares c1, c2, . . . ck no todos nulos tales que c1α1 + c2α2 + . . . , ckαk = 0 Tambi´en diremos que J es linealmente dependiente si existe una combinaci´on lineal no trivial para 0 ∈ V . En base a esta definici´on es de suponerse la que corresponder´a a la independencia lineal, en todo caso: 18
  • 19. Definici´on 2.7 Se dice que Λ es un conjunto linealmente independiente si no es linealmente de- pendiente. En otras palabras si la ´unica combinaci´on lineal para 0 ∈ V es la trivial. En forma m´as expl´ıcita a´un si: c1α1 + c2α2 + . . . + ckαk = 0 ⇐⇒ c1 = c2 = . . . = ck = 0 Con estas dos definciones en el bolsillo, podemos verificar el siguiente Teorema 2.3 Un conjunto de vectores J = ∅ es linealmente independiente si y s´olo si cada vector de J se puede escribir en forma ´unica como combinaci´on lineal de los elementos de J. Demostraci´on 2.3 Dado que el Teorema est´a enunciado en forma de equivalencia, debemos probar una doble implicancia: ⇒ J es linealmente independiente. Razonemos por absurdo. Consideremos α ∈ J tal que α = a1α1 + . . . + akαk = b1α1 + . . . + bkαk Y que, al menos, a = b (es decir, consideramos un vector de J tal que posee dos repre- sentaciones diferentes como combinaci´on lineal de los elementos de J). Luego, se tiene que 0 = (a1α1 + . . . + akαk) − (b1α1 + . . . + bkαk) = = (a1 − b1)α1 + . . . + (ak − bk)αk ∈ J Debido a que J es linealmente independiente, necesariamente debe ocurrir que los coeficientes son id´enticamente nulos y, por lo tanto, a = b , obteniendo la contradicci´on esperada. ⇐ Todo elemento de J posee una ´unica representaci´on como combinaci´on lineal de los elementos de J. Nuevamente podemos razonar por absurdo. Supongamos c1, . . . , ck no todos nulos tales que 0 = c1α1 + . . . + ckαk Pero dado que los elementos de J pueden escribirse en forma ´unica como combinaci´on lineal de los elementos de J, debe ocurrir que c1 = . . . = ck = 0 Que es, precisamente, la contradicci´on que esper´abamos encontrar. A partir del Teorema anterior, podemos deducir el siguiente Corolario 2.4 Todo conjunto de vectores Λ tal que 0 ∈ Λ es linealmente dependiente. Demostraci´on 2.4 La demostraci´on de este Corolario es trivial a partir del Teorema anterior, pues supongamos α1, . . . , αk ∈ Λ tales que ninguno de ellos corresponde al vector nulo, luego si: α = α1 + . . . + αk podemos considerar la combinaci´on lineal −α + α1 + . . . + αk = 0 que es diferente de la representaci´on trivial del vector nulo, por lo tanto el conjunto Λ no es lineal- mente independiente y, en forma equivalente, es linealmente dependiente. Ahora bien, si Λ = {0} la dependencia lineal es inmediata, pues si c1, c2 ∈ K tales que c1 = c2 se tiene que 0 = c10 = c20 19
  • 20. Ejemplos: 1. El conjunto de vectores de R3 : {(1, 2, 3), (0, 0, 1), (1, 1, 1), (0, 4, 3)} ⊂ R3 Es linealmente independiente. M´as a´un, como se ver´a m´as adelante, en los ejemplos que traba- jaremos en este curso existe una cota para la cantidad de vectores linealmente independientes que pueden haber en cada espacio vectorial (salvo en los casos de espacios vectoriales llamados de dimensi´on infinita). En este caso, la cota es de 3 vectores. 2. Discuta si el conjunto {sin x, cos x, x2 , e3x , 1} es o no linealmente independiente en el R−EV de funciones continuas de R en R. 3. El conjunto {1 + i, 2} ⊂ C es linealmente independiente al ver a C como R−EV, pero es linealmente dependiente al ver a C como C−EV. 4. Geom´etricamente, por ejemplo, en R3 se puede pensar la independencia lineal entre dos vectores como verificar que el subespacio vectorial generado por uno de ellos (es decir, la recta que pasa por el origen con direcci´on dada por uno de los vectores) contiene al otro vector. Asimismo podemos definir la independencia lineal entre subespacios vectoriales, por ejemplo, un vector es linealmente independiente de un plano que pasa por el origen si y s´olo si el plano contiene al vector, es decir, que el vector se pueda escribir como combinaci´on lineal de los vectores que generan al plano. 2.5. Bases Para el estudio apropiado del ´Algebra Lineal, el concepto de base no es menos que trascendental, es por esto, que la definici´on siguiente es de vital importancia en este cap´ıtulo: Definici´on 2.8 Diremos que B ⊂ V , donde V es un K-EV, es una base de V si y s´olo si B es un generador linealmente independiente de V . Pero las bases no se quedan s´olo en definiciones, de hecho queremos demostrar un teorema im- portante, pero para ello necesitamos de un Lema 2.5 Si B es una base de V , entonces es el mayor conjunto linealmente independiente de V . Demostraci´on 2.5 Consideremos v ∈ V tal que v no pertenece a B, luego B ∪ {v} es linealmente dependiente pues dado que B genera a V , existe una combinaci´on lineal de los elementos de B que es igual a v. Este hecho es de vital importancia como veremos en el siguiente Teorema 2.6 Si una base de V tiene cardinalidad finita n, entonces toda otra base de V tiene exactamente la misma cardinalidad. 20
  • 21. Demostraci´on 2.6 Supongamos B1 y B2 bases de V , de las cuales sabemos s´olo que Card(B1) = n. Usando el Lema anterior, se deduce que no puede ocurrir que Card(B2) > n (pues requerimos que B2 sea linealmente independiente), es decir, basta verificar que no puede ocurrir que Card(B2) < n; esto se debe a que, de ocurrir que Card(B2) < n, B2 no genera a V . Usemos reductio ad absurdum. Supongamos que B2 es base de V , considerando que Card(B2) = r < n, luego ocurre que B1 es un conjunto linealmente independiente con cardinalidad mayor que la de la base de V , que se contradice con el Lema anterior. De este hecho se deduce el siguiente Corolario 2.7 Si B1 y B2 son bases de un K-EV, entonces existe una funci´on biyectiva ϕ : B1 → B2 Demostraci´on 2.7 Esta demostraci´on es muy trivial, pues basta con fijar un orden de los elementos de ambas bases, luego podemos elegir la funci´on ϕ que asocia biun´ıvocamente los elementos seg´un el lugar que ocupan en el orden preestablecido. Verificar que es biyectiva es, ahora una mera cuesti´on de c´alculo. Interesante resulta destacar que dado un subespacio (caracterizado por su base), existe la posi- bilidad de obtener un sistema generador linealmente independiente del espacio entero por medio de la inclusi´on de vectores linealmente independientes a la base del subespacio. Veremos la validez de este hecho en el caso de dimensi´on finita Teorema 2.8 (Completaci´on de Base) Supongamos, como es usual, que V es un K-EV tal que dimK V = n ∈ N (es decir, de dimensi´on finita) y W tal que W < V , dimK W = m < n. Si BW = {w1, . . . , wm} es base del subespacio W, existen vectores linealmente independientes en V (y que no est´an en W) um+1, . . . , un tales que B = BW ∪ {um+1, . . . , un} = {w1, . . . , wm, um+1, . . . , un} es base de V . Demostraci´on 2.8 Dado que W < V , entonces existe al menos un vector um+1 ∈ V tal que BW ∪ {um+1} es un conjunto linealmente independiente de vectores de V . Si n = m + 1 el proceso acaba en el primer paso, si no fuese as´ı, entonces es posible encontrar otro vector um+2 tal que BW ∪ {um+1, um+2} es linealmente independiente y as´ı sucesivamente. Por el Lema 2.5 este proceso termina cuando se alcanzan n vectores linealmente independientes. Teorema 2.9 (Unicidad de Coordenadas) Si B es una base de V , entonces cualquier elemento de V (excepto el vector nulo) se puede escribir en forma ´unica como combinaci´on lineal de los elementos de B. El conjunto de escalares que acompa˜nan a los diferentes elementos de la base se conocen como coordenadas. Demostraci´on 2.9 Supongamos B = {α1, . . . , αn} y α ∈ V , luego el conjunto B∪{α} es linealmente dependiente, es decir, existen escalares λ1, . . . , λn, λ ∈ K tales que n i=1 λiαi + λα = 0 ⇐⇒ α = − n i=1 λi λ αi Para verificar la unicidad de la descomposici´on supongamos que existen escalares λ1, . . . , λn ∈ K diferentes de los anteriores, tales que α = − n i=1 λi λ αi 21
  • 22. luego, se deduce que 0 = n i=1 (λi − λi)αi y, producto de la independencia lineal de los vectores α1, . . . , αn, se deduce que λi = λi, ∀i = 1, . . . , n, obteniendo la contradicci´on esperada. Ejemplos: 1. Una base de Rn (como R−EV) est´a dada por: v1 = (1, 0, 0, . . . , 0) ; v2 = (1, 1, 0, . . . , 0) ; . . . ; vn = (1, 1, 1, . . . , 1) 2. Una base para Kn[x] est´a dada por el conjunto linealmente independiente de monomios p0(x) = 1 ; p1(x) = x ; p2(x) = x2 ; . . . ; pn(x) = xn 3. El espacio vectorial de matrices M2(R) (visto como R−EV) tiene como base al siguiente conjunto: 1 1 0 0 ; 1 0 0 1 ; 1 0 1 0 ; 0 0 1 1 4. Toda base de R vista como R−EV tiene s´olo 1 elemento. Por comodidad se suele utilizar el conjunto {1}. 5. Todo conjunto que contenga al vector nulo no puede ser una base pues falla la independencia lineal. 6. Determine cu´al es la cardinalidad de alguna base (y, por lo tanto, de todas) del espacio vectorial Mm×n(R) visto como R−EV. Sugerencia: Pruebe imaginando a Mm×n(R) como otra forma de escribir Rmn . 2.6. Dimensi´on Ya con la maravillosa introducci´on del concepto de base y el teorema que nos asegura que todas ellas poseen una misma cardinalidad, parece natural dar un nombre a este n´umero, por esto la siguiente definici´on: Definici´on 2.9 Diremos que un K-EV posee dimensi´on n ∈ N (finita) si la cardinalidad de una base cualquiera B de V es exactamente n. Si B tuviese cardinalidad infinita, diremos que K-EV es de dimensi´on infinita. Observaci´on: En lo que sigue, supondremos que los espacios vectoriales poseen dimensi´on finita, excepto cuando la dimensi´on no influya en el ejercicio o en el concepto en s´ı. Importante: Si en un ejercicio se tratasen con espacios vectoriales de dimensi´on infinita, la idea es que extiendan los resultados del caso finito al infinito, pues la mayor´ıa suelen ser an´alogos. 22
  • 23. Observaci´on: Si la dimensi´on de V , un K-EV, es n ∈ N, entonces quedar´a denotada por n = dimK V . Teorema 2.10 Si W ≤ V , entonces dimK W ≤ dimK V . M´as a´un, la igualdad s´olo ocurre cuando W = V . Demostraci´on 2.10 Es evidente que si W = V , necesariamente su dimensi´on es n. Si W < V , existe al menos un vector α ∈ V tal que no est´a en W, por lo tanto, si BW es base de W, BW no genera a V . Claramente si α no es generado por BW , tampoco lo son los vectores cα (donde c ∈ K). Por lo tanto, la dimensi´on de W es a lo m´as n − 1, pues el conjunto de los vectores cα es un subespacio vectorial de dimensi´on 1 de V . Se dice que es a lo m´as n − 1 pues podr´ıa ocurrir que existiese otro vector β ∈ V que no est´e en W y que fuese linealmente independiente del vector α anterior y as´ı sucesivamente, de tal manera que el conjunto de ellos forman un subespacio vectorial de dimensi´on mayor que 1 y, por tanto, W tendr´ıa dimensi´on menor que n − 1. En particular haremos menci´on de un espacio vectorial de bastante importancia: el espacio Kn . Recordemos que la notaci´on Kn representa el producto vectorial de K n veces, es decir, Kn = K × . . . × K n veces = {(x1, . . . , xn) tal que x1, . . . , xn ∈ K} Definiremos la suma y el producto por un escalar en Kn de la siguiente manera: 1. Suma: Sean (x1, . . . , xn) y (y1, . . . , yn) dos vectores culesquiera de Kn , se define la suma de ellos como (x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn) 2. Multiplicaci´on por Escalar: Sean c ∈ K y x = (x1, . . . , xn) ∈ Kn , se define la multiplicaci´on entre c y x como cx = c(x1, . . . , xn) = (cx1, . . . , cxn) Claramente con estas operaciones resulta que Kn es un espacio vectorial. Con el fin de determinar su dimensi´on, busqu´emosle una base. Por simpleza, definiremos un gran ahorro de notaci´on: Definici´on 2.10 Se define el Delta de Kroenecker de la siguiente manera: δij = 1 si i = j 0 si i = j Teorema 2.11 El conjunto Kn es un espacio vectorial sobre K con la suma y la multiplicaci´on por escalar componente a componente. Demostraci´on 2.11 La demostraci´on de este teorema es bastante inmediata y se deja de ejercicio para el lector. Teorema 2.12 El conjunto Bc = {e1, . . . , en}, donde ei = (δi1, . . . , δin) forma una base de Kn . Demostraci´on 2.12 Tanto la independencia lineal como la generaci´on de Kn son triviales en esta base. Es por esto que esta base se conoce como Base Can´onica. Corolario 2.13 Kn cumple con la propiedad dimK Kn = n Demostraci´on 2.13 Cu´entense los elementos de la base can´onica de Kn . 23
  • 24. Ejemplos: 1. R visto como Q−EV tiene dimensi´on infinita. Verifique esta afirmaci´on tomando, por ejemplo, { √ p : p primo }. ¿Cu´al es la cardinalidad de la base de este espacio vectorial? 2. El espacio Kn[x] tiene dimensi´on n + 1, pues basta tomar la base can´onica presentado en los ejemplos de la secci´on anterior, esto es, tomando la base formada por los monomios p0(x) = 1 ; p1(x) = x ; p2(x) = x2 ; . . . ; pn(x) = xn 3. Si consideramos el espacio vectorial de las matrices sim´etricas de n × n con coeficientes reales, verifique que se tiene que su dimensi´on es n(n+1) 2 . ¿Cu´al es la dimensi´on del espacio vectorial de matrices antisim´etricas? Sorpr´endase de su resultado al sumar ambos valores ¿Tiene l´ogica? Si no la tuviese, posiblemente tiene malo su resultado. 4. Cn tiene dimensi´on real (es decir, como R−EV) 2n, pero dimensi´on compleja n. Claramente esto se sigue de la construcci´on de la base de Cn . Trate de obtener su propia base can´onica (que de seguro coincidir´a con la base can´onica usual) en ambos casos y deduzca el enunciado. 5. Si, por ejemplo tomamos el R−EV Rn[x] y consideramos el subespacio vectorial de ´este Rm[x] (evidentemente m ≤ n), se tiene de inmediato la desigualdad de las dimensiones. 2.7. Subespacios Especiales En lo sucesivo, diremos que E y F son subespacios vectoriales de V , un K-EV. 2.7.1. Espacio Intersecci´on Es de gran importancia el verificar caracter´ısticas que posee la intersecci´on de subespacios. Definici´on 2.11 Diremos que E ∩F es el espacio intersecci´on de los subespacios E y F si y s´olo si: E ∩ F = {ξ|ξ ∈ E ∧ ξ ∈ F} Teorema 2.14 Dadas las hip´otesis y definiciones anteriores, se cumple que E ∩ F ≤ V . Demostraci´on 2.14 Supongamos ξ1, ξ2 ∈ E ∩ F y λ ∈ K. Dado que E es un K-EV por s´ı s´olo, ξ1 + ξ2 ∈ E y λξ1. Lo mismo ocurre al analizarlos como elementos de F. Es decir, se cumple que tanto ξ1 + ξ2 como λξ1 pertenecen a la intersecci´on. Corolario 2.15 Con las convenciones anteriores se tiene que dimK E ∩ F ≤ dimK V . Demostraci´on 2.15 La demostraci´on se sigue inmediatamente del Teorema 2.10. Observaci´on: Es claro que la uni´on de subespacios vectoriales no es un subespacio vectorial. 24
  • 25. 2.7.2. Espacio Suma As´ı como la intersecci´on de subespacios presenta propiedades interesantes, lo propio ocurre con la suma de subespacios. Definici´on 2.12 Diremos que E + F es el espacio suma si y s´olo si: E + F = {u + v|u ∈ E ∧ v ∈ F} Teorema 2.16 Con las convenciones anteriores se tiene que E + F ≤ V . Demostraci´on 2.16 Consideremos u1 + v1 ∈ E + F, donde u1 ∈ E y v1 ∈ F y, en forma an´aloga consideremos u2 + v2 ∈ E + F y λ ∈ K. Luego, se sigue de inmediato que, por el hecho que E y F son espacios vectoriales por s´ı solos, u1 + u2 + v1 + v2 ∈ E + F y λu1 + λv1 ∈ E + F. Corolario 2.17 Con las convenciones anteriores se tiene que dimK(E + F) ≤ dimK V . Demostraci´on 2.17 La demostraci´on se sigue inmediatamente del Teorema 2.10. Teorema 2.18 Usando las mismas convenciones anteriores se tiene que dimK(E + F) = dimK E + dimK F − dimK(E ∩ F) Demostraci´on 2.18 Consideremos BE∩F = {α1, . . . , αm} una base de E ∩ F. Dado que E ∩ F ≤ E la base BE∩F se puede completar hasta obtener una base de E, a saber: BE = {α1, . . . , αm, β1, . . . , βn} Del mismo modo, siguiendo el mismo razonamiento, tenemos que BF = {α1, . . . , αm, γ1, . . . , γr} es una base de F. Con estas bases podemos crear el conjunto B = BE ∪BF , el cual resulta ser base de E +F. Para verificar esta afirmaci´on notemos que al considerar una combinaci´on lineal de elementos de B tal que sea igual a cero (considerando λi, µj, νk ∈ K): m i=1 λiαi + n j=1 µjβj + r k=1 νkγk = 0 se puede deducir lo siguiente (haciendo un peque˜no arreglo en la notaci´on, a saber v = m i=1 λiαi ; v1 = n j=1 µjβj ; v2 = r k=1 νkγk = 0 v1 ∈ E se puede escribir como combinaci´on lineal de los elementos de F, por lo tanto, v1 ∈ F, m´as a´un, v1 ∈ E ∩ F. Por este hecho, v1 deber´ıa poder expresarse como combinaci´on lineal de los elementos de BE∩F , es decir, v1 = 0. Id´entico razonamiento es v´alido para v2 = 0, por lo que se deduce que v = 0. Dada la independencia lineal de los elementos de las bases BE, BF y BE∩F se desprende el hecho de que λ1 = . . . = λm = µ1 = . . . = µn = ν1 = . . . = νr = 0. Para verificar que B = {α1, . . . , αm, β1, . . . , βn, γ1, . . . , γr} genera a E + F basta ver que todo elemento de E + F se escribe como la suma de elementos de E y F y, dado que las bases de estos subespacios est´an contenidas en B, podemos crear cualquier vector de E+F como combinaci´on lineal de los elementos de B. 25
  • 26. 2.7.3. Espacio Suma Directa Esta particularizaci´on del espacio suma es de vital importancia en el estudio venidero del ´algebra lineal, por lo tanto, pongan especial atenci´on. Definici´on 2.13 Diremos que la Suma Directa de dos subespacios E y F de V es el subespacio suma E + F con la restricci´on de que E ∩ F = {0}. Denotamos la suma directa de E y F por E ⊕ F. Ahora bien, es de esperarse que se tenga el siguiente Teorema 2.19 Usando las notaciones anteriores se tiene que E ⊕ F ≤ V . Demostraci´on 2.19 La demostraci´on es exactamente la misma que en el Teorema 2.16. Corolario 2.20 Usando las notaciones anteriores, se tiene que dimK E ⊕ F = dimK E + dimK F Demostraci´on 2.20 Se deduce este corolario al notar que E ∩ F = {0}, por lo tanto, se tiene que dimK E ∩ F = 0. Luego basta utilizar el Teorema 2.18. Finalmente, un important´ısimo Teorema 2.21 Dado E < V , existe un subespacio vectorial F < V tal que V = E ⊕F. Este espacio se conoce como el complementario de E respecto de V . Demostraci´on 2.21 Este teorema se sigue directamente del Teorema 2.8. Ejemplos: 1. Rn = R ⊕ R n veces · · · ⊕R. 2. R3[x] = {a + bx : a, b ∈ R} ⊕ {cx2 + dx3 : c, d ∈ R}. 3. Mn(R) = Sn(R)+An(R), donde Sn(R) es el espacio vectorial de matrices sim´etricas (invariantes bajo transposici´on) y An(R) el de las matrices antisim´etricas (que tras una transposici´on, cambian de signo). Verifique esta afirmaci´on. 4. F(R, R) = P(R, R) ⊕ I(R, R) donde F(R, R) es el espacio vectorial de funciones de R en R, P(R, R) es el espacio vectorial de funciones pares y I(R, R), el de funciones impares. Verifique esta afirmaci´on. 26
  • 27. 2.7.4. Espacio Cociente Finalmente, tratamos con una idea que, en un principio puede parecer rara, pero que si se contin´ua en el estudio de las matem´aticas, se ver´a que no es menos que natural. Es una situaci´on parecida a medir los ´angulos en grados (siendo que lo natural es medirlos en radianes) o calcular logaritmos en base 10 (siendo que para el tratamiento formal de los logaritmos es fundamental el logaritmo natural). Antes de comenzar con el Espacio Cociente, veamos una definici´on sencilla que, perfectamente pudo haber sido dada en MAT-021. Definici´on 2.14 Diremos que una relaci´on es una relaci´on de equivalencia si dados x, y, z ∈ Dom : 1. La relaci´on es reflexiva: x x 2. La relaci´on es sim´etrica: Si x y =⇒ y x 3. La relaci´on es transitiva: Si x y y y z =⇒ x z Ahora bien, dado un conjunto A en el cual se tiene una relaci´on de equivalencia, se da en forma natural una partici´on del conjunto. Definici´on 2.15 Diremos que un conjunto A est´a particionado en una colecci´on de subconjuntos de A: Υ = {A1, . . . , An} si y s´olo si n i=1 Ai = Υ = A donde Ai ∩ Aj = ∅ si i = j No existe ning´un impedimento de extener esta deinici´on al caso infinito. Si la partici´on de un conjunto es heredada a partir de una relaci´on de equivalencia, cada uno de los subconjuntos que forman Υ son llamados clases de equivalencia. En el caso de Espacios Vectoriales, la relaci´on de equivalencia m´as simple, con sus respectivas clases, queda dada por Definici´on 2.16 Dados α, β ∈ V diremos que est´an en la misma clase de equivalencia respecto del subespacio E si y s´olo si: β − α ∈ E Denotaremos este hecho por β ∈ [α], donde [α] denota la clase de equivalencia con α como represen- tante. Proposici´on 2.22 La relaci´on definida anteriormente es, efectivamente, una relaci´on de equivalen- cia. Demostraci´on 2.22 La demostraci´on de esto es trivial, pues s´olo basta verificar las condiciones dadas en la Definici´on 2.14. 27
  • 28. La definici´on anteriormente dada induce a una notaci´on muy ´util para las clases de equivalencia, a saber: [α] = α + E = {α + β | β ∈ E} Esta importante definici´on permite definir el Espacio Cociente, usando la notaci´on antes definida. Definici´on 2.17 Dadas las convenciones y notaciones qnteriores, diremos que V/E es el Espacio Cociente del espacio V respecto de su subespacio E si y s´olo si: V/E = {[α]|α ∈ V } En otras palabras, lo que estamos haciendo al cocientar un espacio vectorial V con respecto al subespacio E es parametrizar V de tal manera que el total de elementos de V queda reducido s´olo a las clases de equivalencia respecto de E. Teorema 2.23 El espacio cociente entre V y E cumple: V/E ≤ V , con las operaciones inducidas por la relac i´on de equivalencia, dadas por: V/E × V/E −→ V/E (α + E, β + E) → (α + β) + E K × V/E −→ V/E (λ, α + E) → (λα) + E Demostraci´on 2.23 La misma definici´on de la aritm´etica de equivalencia demuestra este teorema. El siguiente teorema nos ayuda a encontrar bases del espacio cociente, dadas las bases del espacio y del subespacio. Teorema 2.24 Supongamos BE = {α1, . . . , αk} base de E. Al completar la base BE a B (una base de V ), a saber B = {α1, . . . , αk, β1, . . . , βn} se tiene que el conjunto BV/E = {[β1], . . . , [βn]} es base de V/E. Demostraci´on 2.24 Que el conjunto es linealmente independiente se desprende de la definici´on de la aritm´etica de equivalencia dada en el Teorema 2.23, pues si λ1, . . . , λn ∈ K: n i=1 λi[βi] = n i=1 λi(βi + E) = n i=1 λiβi + E = 0 esto quiere decir que n i=1 λiβi = [0] por lo tanto, n i=1 λiβi ∈ E; pero notemos que este vector debe tambi´en estar en el complementario de E ya que es combinaci´on lineal de los elementos de su base, por lo tanto, λ1, . . . , λn = 0. El hecho de que BV/E genera a V/E se desprende inmediatamente, pues si [α] = α + E ∈ V/E, entonces existen λ1, . . . , λk, µ1, . . . , µn ∈ K tales que: α = k i=1 λiαi + n j=1 µjβj 28
  • 29. debido a que α ∈ V . Luego, usando la aritm´etica de equivalencia dada en el Teorema 2.23 se tiene que α + E = n j=1 µjβj + E = n j=1 µj(βj + E) Teorema 2.25 Bajo las convenciones anteriores se tiene que dimK V/E = dimK V − dimK E Demostraci´on 2.25 Este teorema se sigue inmediatamente del Teorema 2.24. 3. Transformaciones Lineales Nos interesa estudiar, adem´as de conjuntos que posean propiedades especiales, funciones que conserven propiedades en su conjunto de llegada, es decir, funciones que partan y lleguen a espacios vectoriales tales que cumplan f(α + β) = f(α) + f(β) ; f(λα) = λf(α) con α, β ∈ V (donde V es un K-EV y λ ∈ K). En esencia utilizaremos las mismas convenciones que en la secci´on anterior, con la salvedad que, debido a que en general vamos a trabajar sobre dos espacio vectoriales diferentes, utilizaremos el nombre del espacio como sub´ındice en el caso del vector nulo respectivo. Por ejemplo, en el espacio vectorial E el vector nulo respectivo ser´a denotado por 0E. Definici´on 3.1 Diremos que una funci´on L : V → W (con V y W K-EV) es una transformaci´on lineal (o aplicaci´on lineal) si preserva la estructura de espacio vectorial, es decir, si α, β ∈ V y λ ∈ K: L(α + β) = L(α) + L(β) ; L(λα) = λL(α) De esto se deduce que L(α), L(β) ∈ W y λL(α) ∈ W. Definici´on 3.2 Al conjunto de transformaciones lineales que tienen como espacio de partida a E y de llegada a F lo denotaremos por L(E, F). En base a las definiciones anteriores se tiene el siguiente Teorema 3.1 Usando las notaciones y convenciones usuales se tiene que L(E, F) es un espacio vectorial con las operaciones + : L(E, F) × L(E, F) −→ L(E, F) (ϕ1, ϕ2) → (ϕ1 + ϕ2) · : K × L(E, F) −→ L(E, F) (λ, ϕ) → (λϕ) Estas operaciones se aplican del siguiente modo: (ϕ1 + ϕ2)(α) = ϕ1(α) + ϕ2(α) y (λϕ)(α) = λϕ(α). Demostraci´on 3.1 Con la definici´on de las operaciones entre transformaciones lineales esta de- mostraci´on es trivial. 29
  • 30. Lema 3.2 Si B = {α1, . . . , αk} es una base de E y ϕ ∈ L(E, F) tal que ϕ(αi) = 0F (i = 1, . . . , k), entonces, ϕ ≡ 0. Demostraci´on 3.2 Supongamos ϕ(α) = 0F para alg´un α ∈ E. Dado que α se puede escribir ´unicamente como combinaci´on lineal de los elementos de la base, por el Teorema 2.9, se tiene lo siguiente si α = ξ1α1 + . . . + ξkαk: ϕ(α) = ϕ(ξ1α1 + . . . + ξkαk) = ξ1ϕ(α1) + . . . + ξkϕ(αk) = 0F Obteniendo la contradicci´on esperada. Teorema 3.3 Supongamos B = {α1, . . . , αk} una base de E y Λ = {β1, . . . , βk} vectores de F, entonces, existe una ´unica ϕ ∈ L(E, F) tal que ϕ(αi) = βi (i=1,...,k). Demostraci´on 3.3 Necesitamos verificar la existencia, lo cual es evidente pues conocemos su acci´on sobre una base, a saber, si α ∈ E entonces α = ξ1α1 + . . . + ξkαk, entonces ϕ(α) = ξ1β1 + . . . + ξkβk donde ξi son conocidos por la descomposici´on de α en sus coordenadas (que son ´unicas por el Teorema 2.9) y βi son conocidos por ser la acci´on sobre la base. La unicidad se verifica suponiendo la existencia de ϕ tal que ϕ (αi) = βi (i = 1, . . . , k). Luego la transformaci´on (ϕ − ϕ ) al actuar sobre la base B entrega valores nulos, por lo tanto, por el Lema 3.2 se deduce la tesis de unicidad. 3.1. N´ucleo de una Transformaci´on Lineal Definici´on 3.3 Diremos que ker ϕ ⊆ E es el n´ucleo de ϕ ∈ L(E, F) si y s´olo si ´este corresponde al conjunto de preim´agenes de 0F , es decir, si ∀α ∈ ker ϕ : ϕ(α) = 0F . Lema 3.4 Siempre, sin importar la transformaci´on lineal ϕ ∈ L(E, F), se cumple que 0E ∈ ker ϕ. Demostraci´on 3.4 La demostraci´on es puramente operatoria y es similar a demostrar que 0 · a = 0, ∀a ∈ R. ϕ(0E) = ϕ(0E + 0E) = ϕ(0E) + ϕ(0E) =⇒ ϕ(0E) = 0F Teorema 3.5 El n´ucleo de una transformaci´on lineal es un subespacio vectorial del espacio de partida de esta, es decir, usando las notaciones usuales: ker ϕ ≤ E. Demostraci´on 3.5 Es claro que ker ϕ = ∅, debido al Lema 3.4. Ahora bien, supongamos α, β ∈ ker ϕ y λ ∈ K, entonces se tiene: ϕ(α + β) = ϕ(α) + ϕ(β) = 0F + 0F = 0F ϕ(λα) = λϕ(α) = λ0F = 0F 30
  • 31. Observaci´on: Al n´ucleo de una transformaci´on lineal tambi´en se le llama el kernel de ´esta. A la dimensi´on del n´ucleo se le conoce como nulidad (Nullϕ = dimK ker ϕ). Teorema 3.6 Una transformaci´on lineal ϕ ∈ L(E, F) es inyectiva (en el sentido de ??) si y s´olo si ker ϕ = {0E}. Demostraci´on 3.6 Dado que el teorema est´a enunciado en forma de equivalencia, debemos probar las dos implicancias: ⇒ ker ϕ = {0E}. Supongamos α, α ∈ E tales que ϕ(α) = ϕ(α ), por lo tanto, ϕ(α − α ) = 0F , es decir, α − α no est´a en ker ϕ y, por lo tanto, α = α . ⇐ ϕ es inyectiva. Supongamos α, α ∈ ker ϕ, es decir, si ϕ(α) = ϕ(α ) = 0F entonces α = α , ∀α, α ∈ ker ϕ y, dado que 0E ∈ ker ϕ (por el Lema 3.4), se tiene que ker ϕ = {0E}. 3.2. Imagen de una Transformaci´on Lineal Definici´on 3.4 Diremos que Imϕ ⊆ F es la imagen de ϕ ∈ L(E, F) si y s´olo si ∀β ∈ Imϕ, ∃α ∈ E : ϕ(α) = β. Teorema 3.7 La imagen de una transformaci´on lineal es un subespacio vectorial del espacio de llegada, es decir, usando las notaciones anteriores: Imϕ ≤ F. Demostraci´on 3.7 Evidentemente Imϕ = ∅ (Lema 3.4), luego supongamos β1, β2 ∈ Imϕ y λ ∈ K, entonces, existen α1, α2 ∈ E tales que ϕ(α1) = β1 y ϕ(α2) = β2, por lo tanto, existen α1 +α2, λα1 ∈ E tales que ϕ(α1 + α2) = ϕ(α1) + ϕ(α2) = β1 + β2 ∈ Imϕ y ϕ(λα1) = λϕ(α1) = λβ1 ∈ Imϕ. Observaci´on: La imagen de una transformaci´on lineal tambi´en se le denotar´a por ϕ(E). A la dimensi´on de la imagen se le conoce como rango (Rgϕ = dimK Imϕ). Teorema 3.8 Si B = {α1, . . . , αk} es base de E, entonces ϕ(B) = {ϕ(α1), . . . , ϕ(αk))} genera a Imϕ. Demostraci´on 3.8 Supongamos β ∈ Imϕ, luego existe un α ∈ E tal que ϕ(α) = β. Dado que α = ξ1α1 + . . . + ξkαk en forma ´unica (por el Teorema 2.9) se tiene lo siguiente: ϕ(α) = β = ξ1ϕ(α1) + . . . + ξkϕ(αk) Es decir, cualquier elemento de Imϕ se escribe como combinaci´on lineal de los elementos de ϕ(B). Teorema 3.9 Si ϕ ∈ L(E, F) se tiene la siguiente relaci´on Rgϕ + Nullϕ = dimK E 31
  • 32. Demostraci´on 3.9 Consideremos V un espacio vectorial de dimensi´on n, es decir: BV = {v1, . . . , vk, vk+1, . . . , vn} es una base de V . Adem´as, sin p´erdida de la generalidad, podemos considerar que Bker ϕ = {v1, . . . , vk} es base de ker ϕ. Basta probar que B{ϕ(vk+1), . . . , ϕ(vn)} es base de Imϕ. Para esto, consideremos una combinaci´on lineal de dichos vectores igualada a 0F , esto es: λk+1ϕ(vk+1) + . . . + λnϕ(vn) = 0F como ϕ es transformaci´on lineal, podemos hacer lo siguiente: λk+1ϕ(vk+1) + . . . + λnϕ(vn) = ϕ(λk+1vk+1 + . . . + λnvn) Y, por lo tanto, λk+1vk+1 + . . . + λnvn ∈ ker ϕ, pero son vectores linealmente independientes de los vectores que generan al n´ucleo de ϕ, por lo tanto, necesariamente debe cumplirse que λk+1 = . . . = λn = 0 Es decir, el conjunto {ϕ(vk+1), . . . , ϕ(vn)} es linealmente independiente. Probar que el conjunto anterior genera Imϕ es un asunto bastante inmediato y se deja como ejercicio. 3.3. Isomorfismos Definici´on 3.5 Diremos que ϕ ∈ L(E, F) es un isomorfismo si y s´olo si ϕ es biyectiva (en el sentido de MAT-021), es decir, si: Rgϕ = dimK F y Nullϕ = 0. Definici´on 3.6 Si existe un isomorfismo entre dos espacios vectoriales E y F diremos que los es- pacios son isomorfos. Teorema 3.10 Si ϕ ∈ L(E, F) es un isomorfismo, ϕ−1 ∈ L(F, E) (inversa en el sentido de MAT- 021) es tambi´en un isomorfismo. Demostraci´on 3.10 Si ϕ−1 ∈ L(F, E) entonces Imϕ−1 ≤ E. Tenemos que ϕ(E) = F y que ϕ−1 (0F ) = {0E}. Luego, supongamos que existe α ∈ E tal que α no pertenece a Imϕ−1 ; dado que existe β ∈ F tal que ϕ(α) = β y ϕ es isomorfismo se tiene la contradicci´on pues α = ϕ−1 (β). En forma an´aloga se tiene que ker ϕ−1 ≤ F y que es no vac´ıo (Lema 3.4). Supongamos α ∈ ker ϕ−1 , α = 0F , entonces ϕ−1 (α) = 0E que es equivalente a decir α = ϕ(0E) = 0F , obteniendo la contradicci´on esperada. Corolario 3.11 La relaci´on E F, donde = { los espacios son isomorfos } es una relaci´on de equivalencia. Demostraci´on 3.11 La propiedad reflexiva queda inmediatamente verificada usando el isomorfismo identidad (es decir: Id(α) = α). La simetr´ıa queda verificada por el Teorema 3.10. Finalmente la tran- sitividad es evidente a partir de la composici´on de isomorfismos. Los detalles pueden ser completados con calma como ejercicio. 32
  • 33. Teorema 3.12 Todos los espacios vectoriales de la misma dimensi´on (finita) y sobre un mismo cuerpo K son isomorfos entre s´ı. En particular, todo K−espacio vectorial de dimensi´on n es isomorfo a Kn . Demostraci´on 3.12 Supongamos BE = {α1, . . . , αn} base de E y BF = {β1, . . . , βn} base de F. Consideremos la transformaci´on lineal T ∈ L(E, F) tal que T(αi) = βi (i = 1, . . . , n), en forma expl´ıcita si α = ξ1α1 + . . . + ξnαn se tiene que: T(α) = ξ1β1 + . . . + ξnβn Claramente T es inyectiva debido al Teorema 2.9 y, evidentemente, es epiyectiva, por lo tanto T es un isomorfismo. Para el caso particular de Kn basta con considerar, por ejemplo, la base can´onica. Corolario 3.13 Si E y F son espacios isomorfos, entonces se tiene que dimK E = dimK F. Demostraci´on 3.13 Esta demostraci´on es evidente a partir del Teorema 3.12, pero, haciendo uso del Teorema 3.9 y la definici´on de isomorfismo, se obtiene de inmediato la relaci´on buscada. 33