1. UNIVERSIDAD “FERMÍN TORO”
FACULTAD DE INGENIERÍA
ESCUELA DE COMPUTACION
CABUDARE ESTADO LARA
Ricardo I. Rodríguez P. CI: 21.126.031
Álgebra lineal
FEBRERO; 2012.-
2. Introducción
Ciertas ideas matemáticas han tenido un impacto tan grande en el
desarrollo posterior de esta ciencia, que algunos historiadores las califican de
revolucionarias. Un ejemplo de esas ideas singulares es la creación del plano
cartesiano. Esto hizo posible el estudio de la Geometría de una manera nueva y
muy fructífera.
Una transformación es un conjunto de operaciones que se realizan sobre un
vector para convertirlo en otro vector.
Los espacios vectoriales son conjuntos con una estructura adicional, al
saber, sus elementos se pueden sumar y multiplicar por escalares del campo
dado, conviene utilizar funciones que preserven dicha estructura. Estas funciones
se llamaran transformaciones lineales.
Se denomina transformación lineal a toda función cuyo dominio e imagen
sean espacios vectoriales y se cumplan las condiciones necesarias. Las
transformaciones lineales ocurren con mucha frecuencia en el álgebra lineal y en
otras ramas de las matemáticas, tienen una gran variedad de aplicaciones
importantes. Las transformaciones lineales tienen gran aplicación en la física, la
ingeniería y en diversas ramas de la matemática.
3. TRANSFORMACIÓN LINEAL Y SUS PROPIEDADES
Se denomina transformación lineal, función lineal o aplicación lineal a toda
aplicación cuyo dominio y codominio sean espacios vectoriales y se cumplan las
siguientes condiciones:
Transformación lineal: Sean V y W espacios vectoriales reales. Una
transformación lineal T de V en W es una función que asigna a cada vector v ϵ V
un vector único Tv ϵ W y que satisface, para cada u y v en V y cada escalar ∝,
1. T (u+v)= Tu+Tv
2. T(∝v)= ∝Tv, donde ∝ es un escalar.
Tres notas sobre notación.
1. Se escribe T: V → W para indicar que T toma el espacio vectorial real V y
lo lleva al espacio vectorial real W; esto es, T es una función con V como
su dominio y un subconjunto de W como su imagen.
2. Se escriben indistintamente Tv y T (v). denotan lo mismo; las dos fases se
leen “T de v”. eso es análogo a la notación funcional f(x), que se lee “f de
x”.
3. Muchas de las definiciones y teoremas se cumplen también para los
espacios vectoriales complejos (espacios vectoriales en donde los
escalares son números complejos).
Terminología: las transformaciones lineales con frecuencia se llaman
operadores lineales.
Nota: No toda transformación que se ve lineal es en realidad lineal. Por
ejemplo, defina T: R→R por Tx= 2x + 3. Entonces la grafica de {(x, Tx): xϵ
R} es una línea recta en el plano xy; pero T no es lineal porque T(x+ y) =
2(x +y) + 3 = 2x + 2y + 3y Tx + ty = (2x+3) + (2y+3) = 2x + 2y + 6. Las
únicas transformaciones lineales de R en R son funciones de la forma f (x)
= mx para algún número real m. así, entre todas las funciones cuyas
graficas son rectas, las únicas que son lineales son aquellas que pasan
por el origen. En algebra y calculo una función lineal con dominio R esta
definida como una función que tiene la forma f (x) = mx + b. asi, se puede
decir que una función lineal es una transformación de R en R si y solo si b
(la ordenada al origen) es cero.
El término función lineal se usa también en análisis matemático y en
geometría para designar una recta, un plano, o en general una variedad lineal.
4. Matriz de cambio de base
Un espacio vectorial puede tener más de una base y pueden variar las
coordenadas de un vector al cambiar la base.
Consideraremos que V es un espacio vectorial de dimensión y B y B0 son bases
de V.
Se llama matriz de cambio de base de B a B’ a la matriz asociada a la
identidad de V considerando en el dominio la base B y en el codominio la base B’,
es decir la matriz
Ejemplo
Consideramos en 3 las bases B= {(1, 1, 1). (1, 2, 0), (0, 0, 1)},
B’= {(1, 2, 1) , (1, 0, 0) , (1, 0, 1)} y C la canónica. Las matrices de cambio de base
de B a C y de C a B0 son:
Además,
Nótese que también se podría hallar directamente sin más que
expresar los vectores de la base B como combinación lineal de los de la base B’.
Definición. Sean A, B Mm×n(K). Se dice que A y B son equivalentes si
existen matrices no singulares P Mm(K) y Q Mn(K) tales que A = PBQ.
Teniendo en cuenta que toda matriz no singular puede ser pensada como matriz
de un cambio de base podemos afirmar que dos matrices son equivalentes si, y
sólo si, son matrices asociadas a la misma aplicación lineal respecto de diferentes
bases.
Teorema. Sean V y W espacios vectoriales de dimensión n y m, B y B’ bases de V
y W, respectivamente.
Si : V W es una aplicación lineal tal que A = ( ) B, B’ Mm×n(K),entonces r(A)
= dim (Im ).
Teorema. Sean A, B Mm×n(K).
5. Las matrices A y B son equivalentes si, y sólo si, r(A) = r(B).
Diagonalización de una matriz
¿Qué es diagonalizar una matriz?
Para estudiar una matriz suele ser conveniente expresarla de forma lo más
sencilla posible. Diagonalizar una matriz A es precisamente eso: escribirla de
manera simple encontrando una matriz invertible P y una diagonal D (si se puede)
tales que
A = P D P-1
La matriz P se llama matriz de paso.
Puede que esto, al principio, no parezca más simple de lo que ya era A
directamente. Sin embargo, lo es desde muchos puntos de vista. Dado que las
matrices suelen usarse para representar aplicaciones lineales, la expresión
anterior puede verse como un cambio de base de la aplicación representada por A;
entonces, esta forma de escribirlo dice: hay una base en la que la aplicación lineal
A tiene una forma muy simple (diagonal). Esto es útil, por ejemplo, para clasificar
una aplicación lineal y estudiar sus propiedades. Las matrices se usan para
representar otras cosas como cónicas, cuádricas o formas bilineales, y en estos
casos también resulta útil esta forma de expresarlas.
¿Cuándo y cómo podemos diagonalizar una matriz?
Si conseguimos escribir una matriz A como A = P D P-1, entonces podemos
poner también A P = P D. Si D es diagonal y nos fijamos en la columna i de esta
última igualdad lo que tenemos es que A xi = Ai xi (donde xi es la columna i de A y Ai
es el número en el lugar i de la diagonal de D). Esto nos dice que para diagonalizar
una matriz nos hace falta conocer los vectores a los que les pase algo así.
Debemos saber que toda matriz real simétrica es diagonizable.
Ejemplo
Tomemos la matriz:
y veamos que es diagonalizable:
Esta matriz tiene los valores propios:
6. Así es una matriz 2 por 2 con 2 valores propios diferentes, entonces se
dice que es diagonizable.Si queremos diagonalizar necesitamos calcular
los correspondientes vectores propios. Ellos son:
Uno podría verificar fácilmente esto mediante:
Ahora, es la matriz invertible con los vectores propios de como
columnas:
con inversa
Hallemos ahora la matriz diagonal, usando esta matriz P como sigue:
Realizamos el cálculo introduciendo los datos:
Luego resulta que existen matrices y tales que
Cumpliendo y los requisitos pedidos al principio, y por tanto la
matriz es diagonalizable.
7. Aplicaciones de una matriz
Diagonalizar una matriz es muy importante en el Álgebra Lineal, pues se
cumple lo siguiente:
Facilitando mucho el cálculo de las potencias de , dado que
siendo D una matriz diagonal, el cálculo de su p-ésima potencia es muy sencillo:
Combinación lineal
Un vector se dice que es combinación lineal de un conjunto de vectores
si existe una forma de expresarlo como suma
de parte o todos los vectores de multiplicados cada uno de ellos por un
coeficiente escalar , de forma que:
.
Así, es combinación lineal de vectores de si podemos expresar como
una suma de múltiplos de una cantidad finita de elementos de .
Ejemplo: 2x + 3y − 2z = 0. Se dice que z es combinación lineal de x y de y,
porque podemos escribir sin más que despejar la z. De la
misma manera, despejando oportunamente, cada una de estas variables se
podría expresar como combinación lineal de las otras dos.
En otras palabras, cuánto de cada vector del conjunto necesito para que,
cuando se combinen linealmente dichos elementos, pueda formar al vector en
cuestión.
8. Independencia lineal
En álgebra lineal, un conjunto de vectores es linealmente independiente si
ninguno de ellos puede ser escrito con una combinación lineal de los restantes.
Por ejemplo, en R3, el conjunto de vectores (1, 0, 0), (0, 1, 0) y (0, 0, 1) es
linealmente independiente, mientras que (2, −1, 1), (1, 0, 1) y (3, −1, 2) no lo es, ya
que el tercero es la suma de los dos primeros.
Sea un conjunto de vectores. Decimos que son linealmente
dependientes si existen números , no todos iguales a cero, tal que:
Nótese que el símbolo a la derecha del signo igual no es cero, sino que
simboliza al vector nulo . El conjunto de vectores nulos forma la matriz nula. Si
tales números no existen, entonces los vectores son linealmente independientes.
Utilizando conceptos de espacios vectoriales podemos redefinir la independencia
lineal así:
Un conjunto de vectores de un espacio vectorial es linealmente
independiente si
Esta idea es importante porque los conjuntos de vectores que son linealmente
independientes, generan un espacio vectorial y forman una base para dicho
espacio. Entre las propiedades de los vectores linealmente dependientes e
independientes encontramos:
1. Un conjunto de vectores es linealmente dependiente si y solamente si
alguno de los vectores es combinación lineal de los demás.
2. Si un conjunto de vectores es linealmente independiente cualquier
subconjunto suyo también lo es. Obviamente, si tenemos un conjunto de
vectores tales que ninguno de ellos es combinación de los demás,
escogiendo solamente unos cuantos, no podrán ser combinación de los
otros.
3. Si un conjunto de vectores es linealmente dependiente también lo es todo
conjunto que lo contenga. Ya que un conjunto de vectores es linealmente
dependiente si y solo si tiene algún vector que es combinación lineal de los
demás, si metemos este conjunto de vectores en otro más grande,
seguimos teniendo el vector que es combinación lineal de otros, por tanto,
el conjunto más grande sigue siendo linealmente dependiente.
9. Conclusiones
Se han visto más detallado y con más exactitud los teoremas y propiedades que
hilan todos los temas propuestos por este trabajo y se ha se ha llegado a la
conclusión de que todos los temas están relacionados en cierta forma ya que en
varios de estos se necesita recurrir a las propiedades.
Mediante el uso de las matrices, se resuelven sistemas de ecuaciones lineales,
estas matrices son muy importantes ya que nos ayudan a resolver problemas de la
vida cotidiana para dar mejores resultados en un determinado proceso