Algebra lineal
Espacios vectoriales Un espacio vectorial E=(V,F) Es un conjunto de elementos llamados vectores sobre un campo F donde x+y=y+x y pertenece a V x+(y+z)=(x+y)+z Existe el vector 0, tal que 0+x=x+0=x Para cada vector x existe el –x, tal que x-x=0
Espacios vectoriales Cada elemento dol campo es llamado un escalar µ(x+y)= µx+µy µx= xµ (µ1+ µ2)x= µ1(x)+ µ2(y) 1x=x    1 la unidad multiplicativa del campo
Espacios vectoriales ejemplos
Espacios vectoriales Teorema 0v=v0=0 0v=0v+0v-0v=(0+0)v-0v=0v-0v=0 (-1)v=-v v+(-1)v=1v+(-1)v=(1-1)v=0v=0 Agregando –v a ambos lados se tiene el resultado
Subespacio Sea (V,F) un espacio, entonces (S,F) es un subespacio de (V,F) si preserva todas las características de espacio y S es un subconjunto de V
Subespacio ejemplos
Creación de espacios Teorema. Espacio vectorial (V,F) S subconjunto de V Si v1,…vn  están en S, entonces también   1v1+…+  nvn, donde   i son elementos del campo (S,F) es un subespacio Demo en clase por los alumnos
Creación de espacios Preguntas importantes ¿En qué condiciones dos conjuntos S1, S2 crean el mismo espacio vectorial? ¿Cúal es la cardinalidad mínima de Q  S tal que Q y S crean el mismo espacio vectorial? ¿Cúando S crea el mismo espacio que contiene a los vectores de S?
Dependencia e independencia lineal Definición. Sea S={v1,v2,...vn} un conjunto de vectores. El vector y=  1v1+  2v2+...+  nvn donde los coeficientes son escalares será llamada combinación lineal de S.
Dependencia e independencia lineal Definición. Sea S={v1,v2,...vn} un conjunto de vectores. S es linealmente independiente si   1v1+  2v2+...+  nvn=0 tiene como única solución la trivial. De lo contrario se llamarán linealmente dependientes.
Dependencia e independencia lineal Definición. Sea S={v1,v2,...vn} un conjunto de vectores. Si S es linealmente independiente, entonces el espacio creado por S será llamado espacio generado por S.
Dependencia e independencia lineal Sea S={v1,v2,...vn} un conjunto de vectores. Para mostrar si es linealmente independiente se resuelve la ecuación: [v1  v2  ...  vn]  =0  1  2 ...  n
Dependencia e independencia lineal Entonces ya podemos aplicar Gauss para resolver el sistema y ver su solución Si la matriz [v1 ...vn] es de rango n entonces tiene solución única Si la matriz [v1 ... vn] es de rango menor a n, entonces tiene más de una solución.
Dependencia e independencia lineal Ejemplos en clase
Bases, Dimensión y coordenadas Definición. Sea (V,F) un espacio vectorial, entonces el conjunto S={v1, v2, ...vn} será una base para (V,F) si S genera (V,F). S es linealmente independiente S genera (V,F)
Bases, Dimensión y coordenadas ejemplos de bases en diferentes espacios
Bases, Dimensión y coordenadas Notita. Si z es una C.L. (combinación lineal) de los vectores x 1 ,...,x r ; y xi  es una C.L. de los vectores y 1 ,...,y s . Entonces z es una C.L. de los vectores y 1 ,...,y s . z=a 1 x 1 +...+a r x r z=a 1 (b 11 y 1 +...+b 1s y s )+...+a r (b r1 y 1 +...+b rs y s ) Es una propiedad de transitividad
Bases, Dimensión y coordenadas Notita. Si algunos vectores x1,...,xn son linealmente dependientes (L.D.) entonces todo el sistema x 1 ,...,x n  son L.D. Suponer que x 1 ,...,x k  (k<n) son L.D.    a 1 x 1 +...+a k x k =0 con ai diferente de nulo.    a 1 x 1 +...+a k x k +0x k+1 +...+0x n =0 es solución y el sistema es L.D.
Bases, Dimensión y coordenadas La base B={v1, ..., vn} es un conjunto, pero tiene un orden para facilitar trabajos futuros. Representación. Un vector v se puede reescribir en términos de una base. v=  1 v1+  2 v2+...+  n vn, a donde Es la representación del vector Coordenadas  1  2 ...  n
Bases, Dimensión y coordenadas Ejemplos de representación de vectores
Bases, Dimensión y coordenadas Teorema. La representación del vector es única v=  1v1+  2v2+...+  nvn=   1’v1+  2’v2+...+  n’vn  (  1-  1’)v1+...+ (  n-  n’)vn=0    base    L.I. entonces la única solución es cero   (  i-  i)=0      i=  i’
Bases, Dimensión y coordenadas Notita. El teorema anterior es cierto si dice que z=a 1 x 1 +...+a k x k  los ai son únicos ssi los xi son L.I.
Bases, Dimensión y coordenadas Definición. Sea (V,F) un espacio vectorial. Dos subespacios de (V,F); (V1,F) y (V2,F) se dicen equivalentes si los vectores de uno se pueden escribir como C.L. del otro y viceversa.
Bases, Dimensión y coordenadas Teorema. Suponer que B={v1, ...,vp} es una base para (V,F) y suponer que D={u1,...,uq} es un subconjunto L.I. en (V,F), entonces q  p Demostración. Como B es una base, entonces ui  D,(V,F) se puede expresar como una C.L. de B  
Bases, Dimensión y coordenadas S1={u1,e1,...,ep} es L.I.    Existe un vector que es C.L. de los anteriores, digamos que es ei. Por transitividad el resto {u2,...,uq} es una C.L. de S1-{ei} y se puede aplicar el mismo procedimiento Como se observa el procedimiento no puede eliminar todos los vp vectores antes de que los ui vectores se hayan agotado y q  p.
Bases, Dimensión y coordenadas Teorema. Número de vectores en la base. Suponer que para un espacio (V,F) se tiene una base con p vectores. Entonces todas las bases tienen p vectores. Demo. Aplicar teorema anterior suponiendo que se tiene otra base con q vectores.    q  p. Aplicar partiendo de la base con q vectores    p  q    q=p.
Bases, Dimensión y coordenadas Definición. Al número de vectores en la base de un espacio (V,F) se le llama dimensión de (V,F).  En especial, todos los subespacios equivalentes también tienen un conjunto de vectores que lo generan (ya que son un espacio en sí) y se tiene una base y por tanto también tienen su dimensión. En tal caso es más adecuado hablar de rango que de dimensión, ya que podemos hablar de un subespacio en R 3 , pero de rango 2. A su vez, a la dimensión del espacio completo se le puede llamar rango, pero es mejor hablar de dimensión.
Bases, Dimensión y coordenadas El espacio R n  tiene timensión n. Si la dimensión de un espacio es p    cualquier conjunto con s vectores s>p es L.D.  En efecto, la base tiene p vectores y el resto será una C.L. de la base.
Bases, Dimensión y coordenadas Teorema. Un espacio tiene dimensión finita k ssi k es el maximo número de vectores que se pueden obtener en el espacio. Demo. Si la dimensión es k   la base tiene k vectores    son L.I. y cualquier otro es una C.L. de la base (ya no es L.I.). Si el máximo número de vectores L.I. es k    estos generan todo el espacio y por tanto es una base    k es la dimensión.
Bases, Dimensión y coordenadas Ok, regresemos a la representación de vectores B1={  } =4  +4 1 0 0  1 4 4 1 0 0  1
Bases, Dimensión y coordenadas El mismo vector en otra base B2={  } =4  +0 1 1 0 1 4 0 1 1 0  1
Bases, Dimensión y coordenadas Si el mismo vector se puede representar en diferentes bases, ¿se podrá transformar de una en otra? = 1 0 0 1 1 0 1 1 4 4 4 0
Bases, Dimensión y coordenadas = -1 Matriz de cambio de base de B1 a B2 1 0 0 1 1 0 1 1 4 4 4 0
Bases, Dimensión y coordenadas El concepto fácilmente se puede generalizar a cualquier par de bases Lo que es más chido... (P [x] 2 ,R) una posible base es B={1, x, x 2 } v1=1    en la base  1 0 0
Bases, Dimensión y coordenadas v2=x    en la base v3=x 2   0 1 0 0 0 1
Bases, Dimensión y coordenadas v4=1-x v5=3+x v6=-2+2x+x 2 v7=2+3x+7x 2 ¿Son L.I.?    ¡¡¡Todo cambia a matrices!!!
Espacios vectoriales Kernel, imagen, espacio columna y espacio fila de una matriz Ecuaciones lineales y espacios vectoriales Cambio de base Espacio cociente Sumas y sumas directas
Pausa: Cosas de una Matriz Kernel.  Todos los x tales que Ax=0 Kernel={x|Ax=0} Se puede hablar de dos kerneles, el izquierdo y el derecho KerI={y|y T A=0} KerD={x|Ax=0}
Pausa: Cosas de una Matriz Imagen Todos los y que son obtenidos de A multiplicado por un vector Imagen={y|Ax=y}
Pausa: Cosas de una Matriz Teorema (operaciones columna y dependencia lineal). Suponer que una secuencia de operaciones elementales por renglón transforma la matriz A en la matriz B, entonces: Una colección de columnas de A es linealmente dependiente (independiente) ssi la collección correspondiente de columnas de B es linealmente dependiente (independiente). Una matriz renglón puede ser escrita como una combinación lineal de (esto es linealmente dependiendte de) todos los renglones de A ssi puede ser escrita como una combinación lineal de todos los renglones de B.
Pausa: Cosas de una Matriz Demostración caso 1.- Sea F=E 1 E 2 ...E n  la secuencia de matrices elementales que realizan las operaciones elementales que transforman a A en B.    F tiene inversa=no singular    FA=B  Fx=0    x=0 (solución única) Si las columnas de A son L.D. entonces      1 a 1 +  2 a 2 +...+  n a n =A[  ]  FA[   ]=B[   ]    Si A es LD hay muchas combinaciones  
Pausa: Cosas de una Matriz que dan cero    esas mismas combinaciones en B dan cero y sus columnas son LI. Si A tiene una sola combinación que da cero, entonces en B será la única posibilidad de dar cero, ya que sólo es este caso FA[  ]=0 Apliquemos esto a cualquier colección de columnas de A y se tendrá la demostración de la primera parte. Demostración caso 2.- Un matriz renglón  y  es una CL de los renglones de A ssi  y =xA para alguan matriz renglón x, pero  y =xF -1 FA=x’B, para x’=xF -1
Pausa: Cosas de una Matriz como FA=B; y  y =x´B ssi  y  es una CL de los renglones de B.
Pausa: Cosas de una Matriz Veamos más a fondo el método de Gauss 1 -1 2 3 -1 1 1 2 1 2 4 1 1 3 1 2 1 -1 2 3 0 0 3 5 0 3 2 -2 0 4 -1 -1
Pausa: Cosas de una Matriz Veamos más a fondo el método de Gauss 1 -1 2 3 0 3 2 -2 0 0 3 5 0 4 -1 -1 1 -1 2 3 0 1 2/3 5/3 0 0 2 -2 0 0 -11/3 -23/3
Pausa: Cosas de una Matriz Veamos más a fondo el método de Gauss 1 -1 2 3 0 1 2/3 -5/3 0 0 1 -1 0 0 -11/3 -23/3 1 -1 2 3 0 1 2/3 5/3 0 0 1 -1 0 0 0 1
Pausa: Cosas de una Matriz Matriz Forma de Gauss Columnas dominantes 1 1.5 0 1 2 3 1 1
Pausa: Cosas de una Matriz Matriz Forma de Gauss Columnas dominantes 1 -1 0 0 1 -1 -1 1
Pausa: Cosas de una Matriz Matriz Forma de Gauss Columnas dominantes 0 1 0 0 0 -1 0 1
Matrices Por intercambio de renglones hacer que el elemento (1,1) sea diferente de cero.  Si no es posible es porque toda la columna 1 es igual a cero, tacharla y tratar de hacer lo mismo para la submatriz generada El proceso se repite hasta tener un elemento diferente de cero.
Matrices Todo el renglón se divide entre el elemento diferente de cero y se procede a hacer cero el resto de los elementos de esta columna de acuerdo al método de Gauss
Matrices Una vez hecho esto se tacha el renglón y se obtiene una nueva submatriz Con esta nueva submatriz se procede desde el punto 1) El resultado es la matriz en la forma de Gauss
Matrices Si se tiene un renglón diferente de cero, entonces a la primer columna diferente de cero se le llamará dominante o líder.
Pausa: Cosas de una Matriz Teorema (matrices reducidas y dependencias) Suponer que G es una matriz en la forma de Gauss y de rango k a) El conjunto de las k columnas líderes es linealmente independiente b) Cualquier columna a la izquierda de la primera columna líder es una columna cero. Cualquier columna a la izquierda de la i-ésima columna líder es combinación lineal de las anteriores columnas líderes.
Pausa: Cosas de una Matriz Definición.- Sea A una matriz de p*q a) El espacio columna de A es el subespacio que es generado por el conjunto de columnas de A b) El espacio renglón de A es el subespacio generado por los renglones de A.
Pausa: Cosas de una Matriz Poner ejemplos Dar las condiciones para que el sistema tenga solución. Ax=b
Pausa: Cosas de una Matriz Teorema. Sea una matriz A de rango k. Entonces a) El espacio columna de A tiene diemnsión k. Una base son las columnas líderes. b) El espacio renglón es de dimensión k, una base son los renglones diferentes de cero. c) Una matriz p*p es no singular si sus columnas son LI    rango p d) Una matriz p*p es no singular si sus renglones son LI    rango p
Matrices Corolario Rango por columnas = rango por filas Teorema (espacios renglón iguales). Sea A1 y A2 matrices de tamaño r*q y s*q respectivamente. El espacio renglón de A1 es igual al espacio rengloón de A2 ssi los renglones no cero de las matrices de Gauss coinciden.
El maldito Kernel otra vez Definición: Sea f:X  Y una función de X a Y. Con f se asocia una relación de equivalencia llamada  equivalencia kernel de f  y se denota por Ker f y está definida como sigue:  x1,x2  X, x1~x2 ssi f(x1)=f(x2) (mostrar que sí es una relación de equivalencia y por tanto particiona a X)
Por qué se le llama equivalencia kernel Sucede que en el caso de homomorfismos si f(x1)=f(x2)    f(x1)-f(x2)=0    f(x1-x2)=0, i.e. x1-x2 está en el kernel de f. Claramente una matriz A puede ser considereda como una función (y aún más, un homomerfismo, chequen en clase esto y verán que si la hace). Entonces el kernel que definimos de A es consistente con el kernel en homomerfismos y sucede que:
Por qué se le llama equivalencia kernel El kernel de A es un subespacio La imagen de A es un subespacio Ya qué no saben qué, A/ker A es un espacio y se le llama espacio cociente.
Entendamos bien esto, que está demasiado fácil, salvo la primera vez Encontrar Kernel, imagen (range, no rank), A/Ker A de la siguiente matriz A. 1 -1 -1 1
Sistemas Lineales III: Control Geométrico-1.8 Sean X y Y dos conjuntos cualesquiera. Sea A:X  Y una función cualquiera. Entonces se puede definir la relación Ker A de la siguiente forma: x1~x2 ssi A(x1)=A(x2) Note que la relación Ker A es una relación de equivalencia. Como es una relación de equivalencia, entonces diremos que x1  x2 (mod Ker A) –x1 es equivalente a x2 módulo Ker A- -También se dice que x1 es congruente a x2 vía Ker A o que la relación Ker A es una congruencia-
Significado geométrico de esta relación x2 x1 x4 x3 x6 x5 y4 y3 y2 y1 Observe que hay tantos clusters como imágenes de A clusters X Y Podemos hacer el conjunto de los clusters Imagen de A
Significado geométrico de esta relación (A menudo yo le llamo conjunto de clustercillos) clusters c1={x1, x2, x3} c2={x4} c3={x5, x6} A este conjunto lo llamaremos X/Ker A, o conjunto cociente X/Ker A
Significado geométrico de esta relación X/Ker A c1={x1, x2, x3} c2={x4} c3={x5, x6} Noten que la relación Ker A está dando una medida de la inyectividad de A. Si el número de clusters es igual al número de elementos en X, entonces A es inyectiva. A los clusters se les llama coconjuntos (cosets) y son justamente los subconjuntos de X sobre los cuales A tiene diferente valor. También se les suele llamar las “fibras” de A.
c1=[0 4 8] c2=[1 5 9] c3=[2 6] c4=[3 7] 0  4  8 1  5  9 2  6 3  7 X 0 1 2 3 Y X/Ker A Aquí está A Ejem. A(x)=x módulo 4  -es el residuo de la división, no la congruencia  Como X/Ker A y la imagen de A tienen la misma cantidad de elementos, entoces hay un isomorfismo entre X/Ker A y Im(A) [X/Ker A  Im(A)] Significado geométrico de esta relación
c1=[0 4 8] c2=[1 5 9] c3=[2 6] c4=[3 7] 0  4  8 1  5  9 2  6 3  7 X 0 1 2 3 Y X/Ker A Aquí está A Significado geométrico de esta relación Proposición. Sea A:X  Y y sea P A :X  X/Ker A su proyección canónica,  entonces   g:X/ker A  im(A) tal que A=g  P A , donde g es un isomorfismo. P A
Demostración Definir g(z)=A(x) ssi z=P A (x). Se afirma que g(z) es función Cubre todo X. Como A es función, entonces a cubre todo X, y por la definición anterior, g también cubrirá todo X Un valor de X/Ker A no está asociado a dos valores de Y. Suponer que si es así, (z,y 1 ), (z,y 2 )  g.  Entonces y 1  y 2 .   Por la definición de g se tiene: z= P A (x 1 ),  y 1 =A(x 1 )  y además z= P A (x 2 ),  y 2 =A(x 2 )  Como P A (x 1 ),= P A (x 2 ) implica que A(x 1 )= A(x 2 ) Entonces y1=y2, una contradicción, entonces Un valor de X/Ker A no está asociado a dos valores de Y Por tanto g(z) si es función.
Demostración Ahora veremos que g es un isomorfismo. g es inyectiva. Suponer que no es así, i.e.  (z,y),(z’,y)  g Entonces z  z’ Entonces z=P A (x) y z’=P A (x’) Además A(x)=A(x’)=y.  Como tienen la misma y, entonces P A (x)=P A (x’), una contradicción. Por tanto es inyectiva.  g es sobre. Como g:X/Ker A  Im(A), sólo abarca las imágenes de A. Por definición de g, cualquier imagen de A tiene una preimagen en X/Ker A. Por lo tanto g es sobre. Como es inyectiva y sobre, es un isomorfismo.
Demostración Por definición A=g o P A
Significado geométrico de esta relación Estamos en los límites... Si los conjuntos tienen estructura matemática, p.e. X, Y son espacios vectoriales y la función A resulta ser un operador lineal. Ax1=Ax2 es la relación Ker A. Un caso particular es para la imagen cero. En este caso todos los x, tales que Ax=0 formarán una clase de equivalencia. Las demás clases de equivalencia las obtendremos al estudiar las otras imágenes de A. Sin embargo, este proceso puede resultar muy lento, sobre todo porque Y tiene un número infinito de elementos. Una forma más adecuada es estudiarlos a través de la clase de equivalencia del 0 [0].
Significado geométrico de esta relación Estamos en los límites... Por ejemplo, si queremos estudiar el caso para la imagen y, entonces debemos encontrar todos los x tales que Ax=y.  x1, x2   [x], Ax1=Ax2=y, entonces A(x1-x2)=0. Entonces si x1  [x], se tiene que x2  [x] ssi (x1-x2)  [0]. Como la clase [0] es un subespacio de X De hecho si Ax=0 y Ay=0, entonces A(x+  y)=0 y por tanto es un subespacio entonces (x1-x2)   span[0], o (x1-x2) =   1 e 1 +  2 e 2 +...+  n e n Si x1 está fijo, entonces x2= x1-  1 e 1 -  2 e 2 -...-  n e n .............................(1) Como con la clase de equivalencia [0] se generan todas las demás, a está clase la llamaremos genéricamente Kernel de A.
Significado geométrico de esta relación Estamos en los límites... Como se observa, la ecuación (1) es un método para calcular todas las clases de equivalencia [x2]. Se puede ver que es un un espacio vectorial (el del Kernel) desplazado por x1 (cualquier vector de la clase). A esta clase de equivalencia, y sólo cuando hablamos de operadores lineales en espacios vectoriales, le llamaremos una variedad lineal. No es un espacio, ya que en general, el cero no está incluído en dicha variedad, pero si será un espacio vectorial vía módulo algún vector de la clase. Ejemplos
Significado geométrico de esta relación Estamos en los límites... A:  2  2  tal que A([x y] T )=[x–y  y-x] T . Claramente A es un operador lineal y un vector de la forma [k k] T  está en la clase de equivalencia [0] o Kernel de A. El vector [2 1]T no está en la clase [0], pero si está en la clase [[2 1] T ]. Los vectores que pertenecen a esta clase, de acuerdo a la ecuación (1) son: X=[2 1] T -  [1 1] T
Significado geométrico de esta relación Estamos en los límites... Clase [0] Clase [2 1] T
Significado geométrico de esta relación Estamos en los límites... En realidad, cada clase forma una línea paralela al Kernel de A.
Significado geométrico de esta relación Si tenemos un operador lineal A:V  W, entonces el Kernel de A será un subespacio de V, y cada una de las clases de equivalencia será una variedad lineal paralela al Kernel de A. Más aún, el conjunto de las clases de equivalencia se denotará en la forma común V/Ker A y será llamado el espacio cociente V/Ker A. Proposición. Sea un operador lineal A:V  W, entonces el conjunto V/Ker A es un espacio vectorial. Demo. En este espacio, el vector nulo es la clase [0]. De hecho se tiene
Significado geométrico de esta relación [v1]=[v1]+[0] para cualquier v1  V. De la ecuación (1) x2= v1-  1 e 1 -  2 e 2 -...-  n e n  se observa que esto es cierto, ya que x2  [v1]. Los escalares, son los del campo definido en V. La suma de vectores [v1]+[v2]=[v3] se define como x1  [v1], x2  [v2] y x1+x2  [v3]. Note que está bien definida ya que cualquier x1  [v1] y x2  [v2] sirven. De hecho v1-   1 [0]+v2-   2 [0]=v1+v2-   [0]=[v3] Todas las propiedades se pueden demostrar y resulta un espacio vectorial
Significado geométrico de esta relación ,... Pero hay más cosas Claramente, Im(A)  V/Ker A.  Vimos que esto se cumple aún en el caso que no sean espacios vectoriales. Ahora volvamos a los conjuntos. Vimos que si A:X  Y, entonces Ker A es una relación de equivalencia. Por la definición, cualquier función deja una relación de equivalencia en su dominio. Pero, además, nosotros sabemos que una relación de equivalencia sobre un conjunto X es equivalente a una partición de X
Espacios vectoriales con producto interno
Espacios vectoriales con producto interno 5.1 Producto interno 5.2 Desigualdad de Cauchy-Schwarz 5.3 Ortogonalidad 5.4 Procedimiento de Gram-Schmidt 5.5 Espacios normados
Norma Definición.- Una norma (o norma vectorial) en (V,F) es una funcional que asigna a cada vector  v  un número real no negativo, llamado norma del vector  v , y es denotado por || v || y satisface: ||v||>0 para v  0, y ||0||=0 ||  v||=|  | ||v||    escalar y v vector ||u+v||  ||u||+||v||
Norma Definición.- Para vectores x=[x 1   x 2  ... x p ]T, las normas ||  || 1 , ||  || 2 , ||  ||   son llamadas norma 1, norma 2 y norma infinito respectivamente y se definen como: ||  || 1 =|x 1 |+|x 2 |+...+|x p | ||  || 2 =(|x 1 | 2 +|x 2 | 2 +...+|x p | 2 ) 1/2 ||  ||  =max{|x 1 |, |x 2 |, ...,|x p |}
Norma Definición.- Sea ||  || una norma en (V,F). Una secuencia de vectores vi se dice que converje al vector v   ssi la secuencia de número reales ||vi-v  ||  Para vectores x=[x 1   x 2  ... x p ]T, las normas ||  || 1 , ||  || 2 , ||  ||   son llamadas norma 1, norma 2 y norma infinito respectivamente y se definen como: ||  || 1 =|x 1 |+|x 2 |+...+|x p | ||  || 2 =(|x 1 | 2 +|x 2 | 2 +...+|x p | 2 ) 1/2 ||  ||  =max{|x 1 |, |x 2 |, ...,|x p |}
Norma Teorema: Sean x, y dos vectores. Entonces |x T y|  ||x|| 2 ||y|| 2 Demostración. sabemos 0  ||x+  y||=(x+y) T (x+y)=||x|| 2 2 +   2  ||y|| 2 2 +2    |x T y| si   =-||x|| 2 2 /x T y, entonces 0  -||x|| 2 2 +(||x|| 2 4 ||y|| 2 2 /x T y| 2 ) Despejando se llega a la desigualdad
Producto interno Definición. El producto interno en (V,F) sobre un par de vectores (u,v) que satisface: (u,v)=(v,u) (  u+  v,w)=   (u,w)+   (v,w) (w,  u+  v)=   (w,u)+   (w,v) (u,u)>0, y es igual a cero si u es cero.
Producto interno El producto interno (u,v) 1/2  induce una norma en el espacio vectorial. Definición. Sean el producto interno (  ,  ) u, v son ortogonales ssi (u,v)=0 Un conjunto de vectores son ortogonales ssi cada par de vectores (u,v) son ortogonales Si un vector u es usado para producir u/||u|| tal que ||v||=1, entonces u se dice ser normalizado para producir el vector normalizado v Un conjunto de vectores se dice ortonormal ssi es ortogonal y ||v||=1 para todo vector v
Producto interno Diferentes productos internos (u,v)=u T v si f y g son funciones real valuadas continuas en 0  t  1, entonces (f,g)=
Proyecciones ortogonales Teorema. Sea (V,F) un espacio vectorial. Sea (V 0 ,F) un subespacio generado por los vectores ortogonales S={v1,...,vq}. Defínase la proyección ortogonal como sigue. Para cualquier vector v P 0 v=  1 v 1 +...+  q v q , donde   i =(v i ,v)/(v i ,v i ) entonces v-P 0 v es ortogonal a todo vector v en (V 0 ,F) P 0 (u+v)=P 0 u+P 0 v P 0 (  v)=   P 0 v
Proyecciones ortogonales Demostración (vi,v-P 0 v)=(v i ,v)-  1(v i ,v 1 )-...-  q (v i ,v q )=(v i ,v)-   i (v i ,v i )=0 Los otros puntos salen de la definición de los coeficientes   . v i v P 0 v=   v i v-P 0 v
Proyecciones ortogonales Teorema. Sea (V,F) un espacio vectorial con producto interno y con su norma inducida por el producto interno ||  ||. Sea (V 0 ,F) un subespacio generado por los vectores ortogonales S={v 1 ,...,v q }. Entonces para cualquier v, P 0 v es el único punto más cercano en (V 0 ,F) a v, y ||v-P 0 v|| es la distancia de v a (V 0 ,F) ||v-P 0 v||<||v-v 0 || para todo v 0  diferente de P 0 v en (V 0 ,F)
Proyecciones ortogonales Demostración. ||v-v0||2=(v-v0,v-v0)=(v-P 0 v+P 0 v-v0, v-P 0 v+P 0 v-v0)= (v-P 0 v, v-P 0 v )+(v-P 0 v, P 0 v-v0)+(P 0 v-v0,v- P 0 v)+(P 0 v-v0, P 0 v-v0) Sabemos que v- P 0 v es ortogonal a los vectores en (V0,F), entonces se obtiene que: ||v-v0||=||v- P 0 v||+|| P 0 v-v0|| entonces ||v-v0||>||v- P 0 v|| a menos que v0= ||v-v0||=||v- P 0 v||+||
Proyecciones ortogonales Sea S={v1,...,vq} un conjunto de vectores ortogonales, entonces estos vectores son linealmente independientes. si se toma el vector 0=c1v1+...+cqvq, tenemos que saber el valor de cada ci. 0=(vi,0)=(vi,c1v1+...+cqvq)=ci(vi,vi) como (vi,vi)>0    ci=0 y son L.I.
Proyecciones ortogonales Se sigue que si el vector proyectado v está en el espacio (V 0 ,F), entonces P 0 v será el mismo v y los valores de las   i  será la representación del vector en la base seleccionada S.
Proyecciones ortogonales Teorema. Sea B={v1,...vq} una base ortogonal. La representación del vector v se calcula como v=  1 v 1 +...+  q v q , donde  i =(v i ,v)/(v i ,v i ) Note que si la base es ortonormal, entonces los   i  se calculan fácilmente
Proyecciones ortogonales Si tenemos S={v 1 ,...,v q } un conjunto de vetores que genera (V,F) Tomar u 1 =v 1 , desde 2 hasta q, u i =v i -P i-1 v i
Transformaciones lineales
Transformaciones lineales 6.1 Definición 6.2 Propiedades 6.3 Kernel e imagen de una transformación lineal 6.4 Representación matricial de una transformación lineal 6.5 Isomorfismos 6.6 Operaciones con transformaciones lineales 6.7 Algebra de transformaciones lineales  
Transformaciones lineales Definición. Sean (V,F) y (W,G) dos espacios vectoriales. Una transformación lineal T de (V,F) a (W,G) es una correspondencia que asigna a cada vector v en V un vector w en W tal que: T(v1+v2)=T(v1)+T(v2) T(  v)=   T(v) Se sigue que T(0)=0, ya que T(v)=T(v+0)=T(v)+T(0) lo que implica que T(0) debe ser el cero de W.
Transformaciones lineales El espacio imagen Todos los vectores w en (W,G) tal que w=T(v) Solución. Si w es fijo, entonces existe v en (V,F) tal que T(v)=w ssi w está en la imagen de T. Se aplica Sobre Claramente el problema Solución tiene solución si T es onto.
Transformaciones lineales Otro problema es si la solución es única. T(v1)=T(v2)=w Se aplica Inyectividad Claramente la solución es única si w esta en la imagen de T y T es inyectiva. T(v1)=T(v2)    T(v1)-T(v2)=0    T(v1-v2)=0 También T tiene kernel.
Transformaciones lineales Más propiedades de las transformaciones lineales T(u-v)=T[u+(-1)v]=T(u)+T[(-1)v]=T(u)+(-1)T(v)=T(u)-T(v) T(  1 v 1 +...+  n v n )=   1 v 1 +...+  n v n Esto se puede ver por asociatividad e inducción Teorema. Sea (V,F) un espacio vectorial de dimensión finita con base B={v 1 ,...v n } y T1, T2 dos transformaciones lineales. Si T1(vi)=T2(vi) para todo vi en B, entonces T1(v)=T2(v) para v en (V,F). Demo, como cualquier vector de (V,F) se escribe como v=   1 v 1 +...+  n v n , entonces T1(v)=T1(  1 v 1 +...+  n v n )= T1(  1 v 1 )+...+T1(  n v n )=T2(  1 v 1 )+...+T2(  n v n )=T2(v)
Transformaciones lineales Teorema. Sea (V,F) un espacio vectorial de dimensión finita con base B={v 1 ,...v n } y (W,G) un espacio vectorial que contiene a los vectores w1,...,wn, entonces existe una única transformación lineal tal que T(vi)=wi, para vi en B. Demo. Como cualquier vector de (V,F) se escribe como v=   1 v 1 +...+  n v n , entonces T se define como T(v)=  1 w 1 +...+  n w n T será una transformación lineal T(u+v)=T[(  1 v 1 +...+  n v n )+(  1 v 1 +...+     n v n )]= =T[(  1 +  1 )   v 1 +...+(    n +  n )   v n ]  Por la definición de T, = (  1 +  1 )   w 1 +...+(    n +  n )   w n =T(u)+T(v)
Transformaciones lineales De igual forma  T(  u)=T[(  1 v 1 +...+   n v n )]  Por la definición de T,  1 w 1 +...+   n w n =   T(u) Por teorema anterior se tiene la unicidad Tarea: Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)  (W,G) una transformación lineal. Demsotrar que el kernel de T es un subespacio de (V,F) y que la imagen de T es un subespacio de (W,G).
Transformaciones lineales Definición. Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)  (W,G) una transformación lineal.  Nulidad de T =   (T) =dim (Ker (T)) rango de T =   (T) = dim (Im (T)) Teorema. Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)  (W,G) una transformación lineal.   (T)+   (T) = dim (V,F) Demo. Suponer que   (T)=r y que {v1,...vr} es una base para el kernel; además   (T)=k y {w1,...wk} es una base para la imagen de T. Entonces hay que demostrar que B={v1,...,vr,u1,...,uk}
Transformaciones lineales Sea un v que pertenece a (V,F). Como T(v)=   1 w 1 +...+  k w K Al Vector v lo podemos escribir como v=   1 u 1 +...+  k u K -v’    v´=   1 u 1 +...+  k u K -v T(v’)=T(  1 u 1 +...+  k u K -v)=   1 T(u 1 )+...+  k T(u k )-T(v) =   1 w 1 +...+  k w K -T(v)=0    v’ está en el kernel de T Como {v1,...vr} es una base de Kernel de T, existen escalares   1  ,..,   r  tal que v’=   1 v 1 + ... +  r v r =  1 u 1 +...+  k u K -v Por tanto v=   1 u 1 +...+  k u K -   1 v 1 - ... -  r v r y {u 1 ,...,u k , v 1 ,..., v r } genera (V,F) Ahora hay que ver que sean L.I.
Transformaciones lineales Sea un vector   1 u 1 +...+   k u K +   1 v 1 + ... +   r v r =0 Entonces T(  1 u 1 +...+   k u K +   1 v 1 + ... +   r v r )=0 Como los vi están en el kernel   0=   1 w 1 +...+   k w K , como los w i  son una base de la magen, entonces son L.I. y la única solución es   i =0 Entonces el vector se reescribe como  1 v 1 + ... +   r v r =0 , como los v i  son una base para el kernel son L.I., entonces la única solución   i =0 y los vectores son L.I. y por lo tanto es una base y la dimensión de (V,F) es  (T)+   (T) = dim (V,F)
Transformaciones lineales Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)  (W,G) , entonces existe una única matriz A (dim(v), dim(W)) tal que T(x)=Ax A est la matriz de transformación correspondiente a T. Demo sea B={e1,...,en} la base canónica en (V,F) T(ei)=wi Se puede formar la matriz A=[w1  wn] entonces Aei=wi  (T(ei)=wi) En general T(x)=T(  1 e 1 + ... +  n e n )=   1 w 1 + ... +  n w n También Ax=A[  1 e 1 + ... +  n e n ]=   1 w 1 + ... +  n w n  =T(x)
Transformaciones lineales Suponer que T(x)=Ax=Bx    (A-B)x=0,  para x=ei (A-B)ei=0    que la i-ésima columna de (A-B) es cero, por lo que las matrices son iguales y A es única. Teorema Sea A la matriz de transformación correspondiente a T, entonces i) Im T    Im A, pero isomorfo ii)  (T)=  (A) iii)Ker T  Ker A, pero isomorfo iv)  (T)=  (A)
Transformaciones lineales Teorema. Sean (V,F), (W,G) dos espacios vectoriales de dimensiones n y m respectivamente. Sea T(V,F)  (W,G) una transformación lineal. Sean B1={v1,...,vn} y B2={w1,...,wm} las bases de los espacios respectivamente.  Entonces existe una única matriz A (m,n) tal que: [T(x)] B2 =A(x B1 ) [T(x)] B2  la representación de T(x) en B2 T(x)=   1 w 1 + ... +  m w m      [T(x)] B2 =[  1  ...   m ] T   x B1  es la representación del vector en B1 La matriz A se conoce como la matriz de transformación correspondiente a T con respecto a las bases B1 y B2
Transformaciones lineales Considere los vectores T(v1, ...,T(vn), escríbase A=[[T(v 1 )] B2  ...  [T(v n )] B2 ] Como Avi B1 =Ae i = [T(v i )] B2 y x B1  es la representación del vector en B1, i.e. [  1 ...   n] T entonces A x B1 =[[T(v 1 )] B2  ...  [T(v n )] B2 ] x B1 =   1[T(v 1 )] B2 +...+[T(v n )] B2 ]  n  Por otro lado T(x B1 )=T(  1 v 1 +...+  n v n )=   1 T(v 1 )+...+  n T(v n ) Al poner cada uno de estos vectores en la representación de la base B2 se obtiene que: A x B1 = T(x B1 ) La unicidad es similar al teorema anterior
Transformaciones lineales Teorema.- Sea A (m,n) la matriz de transformación correspondiente a T:(V,F)  (W,G) con respecto a las bases B1={v1,...,vn} y B2={w1,...,wm} respectivamente. Suponga que hay otras bases B1’={v1’,...,vn’} y B2’={w1’,...,wm’} de los espacios respectivos. Entonces la matriz A’ correspondiente a la misma transformación T con respecto a las bases B1’ y B2’ está dada por: A’=P -1 AQ P es la matriz de transición (de paso) de la base B2’ en B2 Q es la matriz de transición (de paso) de la base B1’ en B1
Transformaciones lineales Demo.  Sabemos que [T(x)] B2 =Ax B1 Ahora, x B1 =Qx B1’  y [T(x)] B2 =P[T(x)] B2’ Por tanto P[T(x)] B2’ =A Qx B1’ [T(x)] B2’ =P -1 A Qx B1’ A’=P -1 AQ es la matriz de transformación
Transformaciones lineales En especial, si (V,F) y (W,G) son los mismos, entonces A’=P -1 AP Definición. Se dice que dos matrices cuadradas A y B son similares si existe una matriz P no singular (determinante diferente de cero) tal que  B=P -1 AP
Transformaciones lineales Transformaciones T Inyectiva    Kernel T = {0} Sobre Teorema. T:V  W una transformación lineal y dim v=n y dim w=m i) si n>m,    T no es inyectiva ii) si m>n    T no es sobre Demo. Tarea.
Transformaciones lineales Definición. Una T.L es un Isomorfismos ssi es inyectiva y sobre. La matriz de un isomorfismo es invertible. Definición. Se dice que (V,F) y (W,G) son isomorfos ssi existe un isomorfismo entre ambos Teorema. Sean (V,F) y (W,G) dos espacios vectoriales de dimensión finita. Entonces (V,F) y (W,G) son isomorfos si dim (V,F)=dim (W,G)  Demo. Obtener bases para cada uno. Entonces quedan representados en (R n ,R). Como son bases en el mismo espacio, existe una matriz de cambio de base A. por teoremas anteriores existe una T.L. asociada a A que es un isomorfismo. Si existe el isomorfismo entre las representaciones, lo existe entre los espacios.
Transformaciones lineales Corolario. Cualquier espacio de dimensión n es isomorfo a (R n ,R) Teorema. Si T:(V,F)  (W,G) es un isomorfismo i) Si {v1,...vn} genera (V,F), entonces {T(v1),...,T(vn)} genera (W,G) ii) Si {v1,...vn} son L.I., entonces {T(v1),...,T(vn)} son L.I. iii) si {v1,...vn}  es una base, entonces {T(v1),...,T(vn)} es una base. Demo.  i) v=  1 v 1 + ... +  n v n    T( v)=w=  1 T(v 1 )+ ... +  n T(v n )      {T(v1),...,T(vn)} genera (W,G) iii) Suponga que 0=T( v)=w=  1 T(v 1 )+ ... +  n T(v n )   , entonces T(  1 v 1 + ... +  n v n )=0, como T es isomorfismo T(0)=0 es el único. Entonces   1 v 1 + ... +  n v n =0, pero como son L.I.      i =0 y por tanto  {T(v1),...,T(vn)} son L.I. iii) se sigue de anteriores.
Transformaciones lineales Prop. Si T:(V,F)  (W,G) es un isomorfismo, entonces para todo vector w  W existe un único vector v   V tal que  T -1 (w)=v, donde T -1 :(W,G)  (V,F) es conocida como la transformación inversa de T. Demo. 2 partes T -1  es T.L. y T -1 (w)=v único T(v1)=w1;    T -1 (w1)=v1;  T(v2)=w2   T -1 (w2)=v2 T(v1+v2)=T(v1)+T(v2)=w1+w2    T -1 (w1+w2)=v1+v2 T(  v1)=   T(v1)=   w1    T -1 (  w1)=   v1 Como T es isomorfiso, la definición de T -1  hace que exista un único valor de regreso. Nota. T es T.L.    A es su operador T -1  es la inversa de T, entonces A -1  es el operador de T -1
Transformaciones lineales Operaciones con transformaciones lineales Sean (V,F) y (W,F) dos espacios vectoriales sobre el mismo campo F. Hom(V,W) es el conjutno de todas las transformaciones lineales entre (V,F) y (W,F). Sean T1 y T2 dos T.L. entre (V,F) y (W,F)  Se define la suma T1+T2 como T1+T2:V  W  (T1+T2)(v)=T1(v)+T2(v) para todo   F,   T1 es (  T1)(v)=  T1(v)
Transformaciones lineales El conjunto Hom(V,W) definido anteriormente es un espacio vectorial sobre el campo F. Demo. Tarea.
Algebra de Transformaciones lineales Definición. Un álgebra A sobre un campo F es un espacio vectorial sobre F en el que se tiene definida una operación producto que satisface para todos los elementos T1, T2, T3    A y      F: T1(T2+T3)=T1T2+T1T3 (T2+T3)T1=T2T1+T3T1  (T1T2)=(  T1)T2=T1(  T2) Si además se cumple que (T1T2)T3=T1(T2T3) entonces A es un álgebra asociativa
Algebra de Transformaciones lineales Definición. Sean V, U y W espacios vectoriales sobre el mismo campo F. Sean T1:V  U  y T2:U  W dos transformaciones lineales. Se define la composición de T2 seguida de T1 T2  T1 como la función de V a W (T2  T1) :V  W  tal que (T2  T1)(v)=T2(T1(v)) Proposición. Si T1 y T2 son TL, entonces T2  T1  también lo es. Demo. Sean u,v   V y   ,      F, entonces (T2  T1)(  v+  u)=T2(T1(  v+  u))=T2(  T1(v)+  T1(u)) =    (T2  T1)(v)+   (T2  T1)(u)  (T2  T1) es T.L. Puede verse que Hom(V,V) con la composición es un álgebra asociativa.
Adicional de Transformaciones lineales Sean A, B dos matrices de qxn y nxp con coeficientes en el mismo campo. Entonces   (A)+  (B)-n      (AB)    min(  (A),   (B)) Demo  (B)  (A) R(B) R(A) R(AB) n(B) n(A) p n d
Adicional de Transformaciones lineales De la figura   (AB)  min(  (A),   (B)). También   (AB)=   (B)-d (la intersección de R(B) y n(A). La dimensión de n(A)=n-   (A)    d   n+   (A) y se sigue que   (AB)     (A)-n+   (B) Si B es no singular   (A)+  (B)-n =   (A)      (AB)    min(  (A),n) =   (A)  (B)  (A) R(B) R(A) R(AB) n(B) n(A) p n d
4. Valores y vectores propios
Valores y vectores propios Definición y propiedades Teorema de Cayley-Hamilton Diagonalización de matrices
Valores y vectores propios Definición. Sea V un espacio vectorial y T:V  V una transformación lineal del espacio en sí mismo. Sea v  V un vector diferente de cero pa el cual existe un escalar    tal que T(v)=  v, entonces se dice que    es un valor propio de T y que v es un vector propio de T asociado a   .
Valores y vectores propios Cuando V es un espacio de dimensión finita, la transformación T la podemos representar como una matriz A de n,n. Entonces podemos redefir los valores y vectores propios de la siguiente forma. Definición. Sea A una matriz de n,n. El escalar    se denomina valor propio de A si existe un vector x diferente del nulo, tal que Ax=   x nuevamente x es el vector propio asociado a   .
Valores y vectores propios Teorema. Sea A una matriz de n,n. Entonces    es un valor propio de A ssi det(  I-A)=0 Demo.  Sólo si. Suponga que    es un valor propio de A; entonces existe un vector x diferente de cero tal que Ax=   x     (  I-A)x=0, como x diferente de cero    (  I-A) es singular    det(  I-A)=0
Valores y vectores propios (si). Si det(   I-A)=0    (   I-A) es singular     (   I-A)x=0 tiene soluciones diferentes de cero, entonces existe x diferente de cero tal que Ax=   x.
Valores y vectores propios Definición.  La ecuación det(  I-A)=0 se conoce como ecuación característica de A, y el polinomio p(  )=det(  I-A) Observe que p(  )=(det(  I-A)=a 0 +a 1  +...+a n     por el teorema fundamental del álgebra, cualquier polinomio de grado n tiene n raíces (contando multiplicidades). p(  )=(det(  I-A)=a 0 +a 1  +...+a n = (  -   1 ) r1 ...(  -   m ) rm Los número ri son la multiplicidad algebraica de los valores propios de   1 ,...,   m .
Valores y vectores propios Teorema. Sea    un valor propio de A y  E  ={x|Ax=   x}. Entonces E   es un subespacio vectorial de C n Nótese que E   son las soluciones de (  I-A)x=0, es decir el kernel de un operador lineal    es un subespacio vectorial.
Valores y vectores propios Definición. Sean     un valor propio de A. Entonces E    se denomina espacio propio de A correspondiente a   . Definición. Sea E    el espacio propio de A debido a   . A la dimensión de E   se le conoce como multiplicidad geométrica de   . Multiplicidad geométrica de   =dim E  =dim{Ker (  I-A)}
Valores y vectores propios Ejemplos y procedimientos de cálculo. 4 -2 1 1 2 -1 -4 2 1 -1 2 -1
Valores y vectores propios Teorema. Sea    un valor propio de A. Entonces se cumple que la multiplicidad geométrica de   multiplicidad algebraica de  
Valores y vectores propios Teorema. Sean   1 ,   2 , ...,   m  valores propios diferentes de A (n,n), donde m  n y sean x 1 , x 2 ,..., x m  sus vectores propios correspondientes. Entonces x 1 , x 2 , ..., x m  son linealmente independientes. Demostración.  Suponga que {x 1 ,...,x m } son L.D. y que x s  es el primer vector L.D. de los previos x s =  1 x 1 +  2 x 2 +...+  s-1 x s-1 Multiplicando por A Ax s =   1 Ax 1 +  2 Ax 2 +...+  s-1 Ax s-1
Valores y vectores propios  s x s =   1   1  x 1 +  2   2  x 2 +...+  s-1   s-1  x s-1   Restando ecuaciones y multiplicando por   s  se tiene 0=  1 (  1 -  s )x 1 +  2  (  2 -  s ) x 2 +...+  s-1  (  s-1 -  s )x s-1   Como xs es el primer vector L.D. entonces  1 (  1 -  s )=  2  (  2 -  s )=...=  s-1  (  s-1 -  s )=0 como   i  s      i =0    xs=0, lo cual contradice la suposición    las vectores son L.I.
Valores y vectores propios Teorema. La matriz A (n,n) tiene n vectores propios L.I. ssi la multiplicidad geométrica de cada valor propio  es igual a su multiplicidad algebraica. Tarea (Grossman, pag 545)
Valores y vectores propios Definición. Sea F(x)=a 0 +a 1 x+a 2 x 2 +...+a n x n  un polinomio y A una matriz cuadrada Se define el polinomio f(x) en la matriz A como: F(A)=a 0 I+a 1 A+a 2 A 2 +...+a n A n Sy f(A) es igual a la matriz cero, entonces se dice que A es raíz (o cero) del polinomio f(x). Sea F(  ) (n,n) una matriz polinomial en la variable   , i.e. F(  )=F 0 +F 1  +...+F m  m = F(  )=F 0 +  F 1 +...+  m F m donde F 0 , F 1 ,...,F m  son matrices cuadradas reales.
Valores y vectores propios Se dice que F(  ) es de orden n; y si F m  0, entonces F(  ) es de grado m. Además F(  )  se dice regular si det(F m )  0 Definicion. Sean F(  ) y G(  )  matrices polinomiales de orden n., y G(  )  es regular. Las matrices polinomiales Q(  )  y R(  )  se conocen como cociente derecho y residuo derecho respectivamente de F(  ) dicidida por G(  )  si F(  )= Q(  ) G(  ) + R(  )  y si el grado de R(  ) es menor que el grado de G(  ) [R(  )  puede ser cero]
Valores y vectores propios De manera similar se pueden definir el cociente izquierdo y residuo izquierdo Sea A (n,n) y denota F(A) la evaluación por la derecha de A en la matriz polinomial F(  ) , esto es, si F(  )=F 0 +F 1  +...+F m  m =  F(  )= F 0 +F 1 A+...+F m A m
Valores y vectores propios Teorema. Si la matriz polimial F(  ) es dividida por la derecha por la matriz (  I-A) entonces el residuo es F(A), y si es dividida por la izquierda por (  I-A) entonces el resiudo es F’(A) (por la izquierdA). Demostración. Tarea. (teorema generalizado de Bezout, Grantmatcher, pag 81)
Valores y vectores propios Corolario. La matriz polinomial F(  ) es divisible por la derecha por la matriz (  I-A) sin residuo (R(  )=0) ssi F(A)=0  (De manera similar se puede hacer por la izquierda) Teorema (Cayley-Hamilton). Toda matriz A (n,n) es raíz de su polinomio característico. Demostración. P(  )=det(  I-A)=a 0 +a 1  +...+  n Hay que mostrar que P(A)=0
Valores y vectores propios de teoremas previos (  I-A)adj(  I-A)=det(  I-A)I=[adj(  I-A)](  I-A) Lo cual puede verse como P(  )=(  I-A)Q(  )=Q(  )(  I-A) donde Q(  )=adj(  I-A) es una matriz polinomial en    y P(  )=det(  I-A)I=a 0 I+a 1  I+...+  n I como P(  ) es divisible por la derecha y por la izquierda por (  I-A) sin residuos, entonces P(A)=a 0 I+a 1 AI+...+A n I
Valores y vectores propios Definición. Se dice que el polinomio F(  ) es un polinomio aniquilador de la matriz A (n,n) si F(A)=0 (p.e. el polinomio característico de A) Definición. Al polinomio aniquilador mónico Q(  ) de A de menor grado se le conoce como polinomio mínimo de A.
Diagonalización de matrices Definición. Se dice que A (n,n) es diagonalizable (bajo similaridad) si existe una matriz no singular P tal que P-1AP es diagonal
Diagonalización de matrices Teorema. La matriz A (n,n) es diagonalizable ssi tiene n vectores propios linealmente independientes Si   1 ,   2 , ...,   n  son los valores propios de A y los vectores propios x 1 , x 2 , ..., x n  correspondientes a estos valores propios son linealmente independientes, entonces P -1 AP=diag{  1 ,   2 , ...,   n }, donde P=[x 1   x 2   ... X n ]
Diagonalización de matrices Demostración.  (si) Suponga que A tiene n vectores propios L.I. x 1   x 2   ... x n  correspondientes a los valores propios   1 ,   2 , ...,   n  (algunos pueden ser repetidos). Sea P la matriz [x 1   x 2   ... x n ], entonces AP= [Ax 1   Ax 2   ... Ax n ]= [  1 x 1    2 x 2   ...   n x n ] = [x 1   x 2   ... x n ]diag{  1 ,   2 , ...,   n } =Pdiag{  1 ,   2 , ...,   n } Como P es no singular    tiene inversa P -1 AP=diag{  1 ,   2 , ...,   n }
Diagonalización de matrices Demostración.  (sólo si) Suponga que existe una matriz no singular P tal que P -1 AP=diag{  1 ,   2 , ...,   n } AP=Pdiag{  1 ,   2 , ...,   n } Para cada xi de P se tiene que: Ax i =   i x    xi es vector propio de A   i es valor propio de A P es no singular    A tiene n vectores propios L.I.
Diagonalización de matrices Corolario. La matriz A (n,n) es diagonalizable ssi la multiplicidad geométrica de cada valor propio es igual a su multiplicidad algebraica. En particular A es diagonalizable si todos sus valores propios son distintos
Diagonalización de matrices Teorema. Si A y B son similares, entonces tienen el mismo polinomio característico, y por consiguiente los mismos valores propios. Demo. det(  I-B)=det(  I-P -1 AP)=det(  P -1 P-P -1 AP)=det(P -1 (  I-A)P)=det(P -1 )det(  I-A)det(P)=det(  I-A)
Diagonalización de matrices Teorema. Si A y B son similares, i.e. existe una matriz no singular tal que B=P -1 AP. Entonces: i) B k =P -1 A k P ii)Si f(x)=a 0 +a 1 x+...+a n x n  es un polinomio cualquiera, entonces f(B)=P -1 f(A)P
Diagonalización de matrices Demo B k =(P -1 AP) k = =(P -1 AP)(P -1 AP)...(P -1 AP)= P -1 A k P  ii)Si f(B)=a 0 I+a 1 (P -1 AP)+...+a n (P -1 A n P)= =P -1 (a 0 +a 1 A+...+a n A n )P=P -1 f(A)P
Diagonalización de matrices 1 1 2 0 1 3 0 0 2
Diagonalización de matrices Tiene dos propio valores   1 =1,   2 =2 con multiplicidades algebraicas 2 y 1 y geométricas 1 y 1 respectivamente    no es posible diagonalizar A, pero ¿es posible encontrar una bse donde A sea casi diagonal?
Diagonalización de matrices Definición.- Un vector v es llamado un vector propio generalizado de rango k de A asociado con    iff (A-   I) k v=0 (A-   I) k-1 v  0 Note que si k=1 coincide con vector propio
Diagonalización de matrices Definición.-  v k =v    vector propio generalizado v k-1 =(A-  I)v=(A-  I)v k v k-2 =(A-  I) 2 v=(A-  I)v k-1 ... v 1 =(A-  I) k-1 v=(A-  I)v 2
Diagonalización de matrices ... v k-2 =(A-  I) 2 v=(A-  I)v k-1 ... Entonces para 1  i  k v i  es un vector propio generalizado de rango i, por ejemplo (A-  I) k-2 v k-2 =(A-  I) k-2 (A-  I) 2 v=(A-  I) k v=0 (A-   I) k-1 v k-2 =(A-  I) k-1 v  0
Diagonalización de matrices Definición.- Lleamaremos a los vectores {v 1 , v 2 ,...,v k } una cadena de vectores propios generalizados si v k  es un vector propio generalizado que dio origen a todos los demás vectores
Diagonalización de matrices Teorema. El conjunto de vectores propios generalizados v 1 , v 2 , ..., v k  definidos anteriormente es L.I. Demostración.-  Suponer que v 1 , v 2 , ..., v k  son L.D., entonces existen soluciones diferentes de la trivial a:  1 v 1 +  2 v 2 +...+  k v k =0 Multiplicando por (A-  I) k-1  y observando que v i =v k-(k-i) =(A-  I) k-i v    por definición
Diagonalización de matrices entonces  (A-  I) k-1 v i =(A-  I) 2k-(i+1) v=0 para i=1,2,...,k-1  k (A-  I) k-1 v k =0 y sabiendo de la def. de vector propio generalizado que (A-  I) k-1 v k  0,      k =0 Aplicando ahora (A-  I) k-2  se demuestra que   k-1 =0 Siguiendo esto se tiene que   i =0, lo que contradice la suposición.    son L.I.
Diagonalización de matrices Teorema: Los vectores propios generalizados de A asociados con diferentes propio valores son L.I. Demostración. Sea v vector propio generalizado      1 v i =(A-  1 I)v i+1 =(A-  1 I) k-i v Sea u vector propio generalizado      2 u i =(A-  2 I)u i+1 =(A-  2 I) l-i u Del teorema anterior los v i  son L.I. y los u i  son L.I, falta ver que {u i }, {v i } son L.I.
Diagonalización de matrices Suponer que vi es L.D. en {u1,...,ul} v i =  1 u 1 +  2 u 2 +...+  l u l Aplicando (A-  1 I) i   0= (A-  1 I) i  [  1 u 1 +  2 u 2 +...+  l u l    ] Ahora aplicando (A-  2 I) l-1  y observando que (A-  2 I) l-1  (A-  1 I) i  = (A-  1 I) i  (A-  2 I) l-1  y el hecho de que (A-  2 I) l-1  u j =0, j=1,2,..., l-1 0=  l (A-  1 I) i (A-  2 I) l-1 u l =  l (A-  1 I) i u 1 Como (A-  2 I)u1=0 o Au1=  2 u1, la ecuación anterior se reduce a  l (  2 -  1 ) i u 1 =0
Diagonalización de matrices se reduce a  l (  2 -  1 ) i u 1 =0 lo cual implica que   l =0. Un procedimiento similar llega a la conclusión de que todos los   i =0, lo que contradice la suposición y los vectores son L.I.
Diagonalización de matrices Teorema. Sean u y v propio vectores de rango o y l respectivamente, asociados con el mismo valor propio   .  v i =(A-  I)v i+1 =(A-  1 I) k-i v u i =(A-  I)u i+1 =(A-  2 I) l-i u Si u 1  y v 1  son L.I.    las cadenas son L.I.
Diagonalización de matrices El tratar de construir la forma casi diagonal (diagonal por bloques o forma de Jordan) se convierte en un proceso iterativo. 1.- se calculan propio valores y propio vectores de la forma tradicional. 2.- Si la multiplicidad algebraica es mayor que la geométrica    tratar de encontrar una cadena lo suficientemente larga de vectores generalizados para construir los vectores L.I. independientes faltantes, de lo contrario construir cadenas más pequeñas hasta completarlos
Matrices unitarias Si P es no singular    B=P -1 AP transformación de similaridad Sirven para cambio de bases Más conveniente si las bases son ortogonales y ortonormales Si {x 1 ,...,x p } es un conjunto ortonormal    x i T x i =1 y x i T x j =0 Si hacemos que P=[x 1 ,...,x p ]    P T P=I o P T =P -1
Matrices unitarias Definición. Una matriz P (de reales) para la cual P T =P -1   tal que P T P=I, se dice ser unitaria. Teorema.  a) P unitaria    el conjunto de vectores columna es ortonormal b) P unitiaria    |det(P)|=1 c) P unitaria    <PX,Py>=<x,y> d) P unitaria    si    valor propio de P    |  |=1 Demo. Clara
Matrices unitarias Teorema.  Si B=P -1 AP donde P es unitaria (se dice transformación de similaridad unitaria)    todo lo que se vió de propiedades de similaridad sigue valiendo.
Matrices unitarias Teorema.  Si A es una matriz de pxp. a) A es similar unitaria a una matriz triangular superior T; T=P -1 AP con P unitaria y con los propiovalores de A en su diagonal principal. T es llamada la forma de Shur de A y la descomposición A=PTP -1 = PTP T  es la descomposición Shur de A. Demo. Si p=1 ya terminamos. Suponer que para p=k es cierto Para p=k+1 tenemos.
Matrices unitarias  1  es el propio valor asociado a x 1 , podemos normalizar este vector para que ||x 1 || 2 =1 Entonces x1 entra a la base que ya teníamos de propiovectores ortonormalizados {w 1 ,...,w k } si no es otronormal a esta base, aplicamos Gram-Schmidt y tenemos la nueva base {x 1 ,w 1 ,...,w k } U= [x 1 ,w 1 ,...,w k ]=[x 1 ,W] A’=U T AU=[x 1 ,W] T A[x 1 ,W]=[x 1 ,W] T [Ax 1  AW]= =  1 x 1 T AW 0 W T AW  1 b T 0 C
Matrices unitarias Definición. Una matriz A de pxp es normal si A T A=AA T Teorema. A normal    D=P T AP, D es diagonal, y P es unitaria. Por tanto los propio vectores de A son p linealmente independientes
Matrices unitarias Veamos ahora el caso en que A=U  V T , con U y V unitarias de pxp y qxq,    es pxq casi cero, excepto en la diagonal que vale   ii =  i  que es un real no negativo. Así son     2 0 0 0 0 0 3 0 0 0 2 0 4 0 0 6 0 0
Matrices unitarias Claramente se tendría AV=U      Av i =  i u i  para 1  i  min(p,q), dende los u i , v i  son las columnas de U y V respectivamente. Además A T A= (U  V T ) T  (U  V T )=V  T U T U  V T =V(  T  )V T donde   T  =D=VTA T AV es diagonal de qxq    que los propio vectores de A T A sirven para construir V y D tiene los valores propios D=  T  Similarmente para el caso AA T =U(  T  )U T    en este caso D=   T
Matrices unitarias Definición. A la descomposición que hemos venido manejando, A=U  V T , se le conoce como descomposición en valores singulares de A.  Viendo lo que hicimos para la descomposición de Schur, podemos ver que la descomposición en valores singulares siempre existe. Los valores singulares de A son los   i , y el número de valores no cero es el rango de A. Los u i  son los vetores singulares izquierdos y los v i  los vectores singulares derechos relacionados con   i .
A= A T A propiovalores 18 y 0.      1=18 (1/2)  y   2=0 Un par de vectores propios de A T A normalizados son v1=[1.71/2  1.71/2] T   y v2=[1.71/2  -1.71/2] T Entonces V=[V1  v2] 1 1 2 2 2 2 9 9 9 9
A= AA T = propiovalores 18 y 0.      1=18 y   2=0 Vectores propios de AA T  normalizados son u1=[1/3  2/3  2/3] T   u2=[(-2)5 1/2 /5  5 1/2 /5  0] T   u3 =[(2)5 1/2 /15  (4)5 1/2 /15  (-1)5 1/2 /3 ] T   Entonces U=[u1  u2  u3] 1 1 2 2 2 2 2 4 4 4 8 8 4 8 8
A= AA T = 1 1 2 2 2 2 2 4 4 4 8 8 4 8 8 3(2) 1/2 0 0 0 0 0
Mínimos cuadrados Suponer que A=U  V T , es la descomposición en valores singulares, donde A es de rango k. El problema es minimizar ||Ax-b||2 con respecto a x. ||Ax-b|| 2 =||U  V T x-b|| 2 =||  y-U T b|| 2 y=VTx    ||Ax-b|| 2  es mínimo cra x ssi ||  y-U T b|| 2  es mínimo cra y. ||  y-b’|| 2 2 =|  1y 1 -b 1 ’| 2 +...+|  k y k -b k ’| 2 +|b k+1 ’| 2 +...+|b p ’| 2 b’=U T b Es minimizado si y i =b i ’/  i
Mínimos cuadrados Entonces para ||Ax-b||2 con respecto a x. Encontrar A=U  V T Calcular b’=U T b Calcular y i =b i ’/  i  para 1  i  k, y i =0 otro caso x 0 =Vy y=VTx    ||Ax-b|| 2  es mínimo cra x ssi ||  y-U T b|| 2  es mínimo cra y. ||  y-b’|| 2 2 =|  1y 1 -b 1 ’| 2 +...+|  k y k -b k ’| 2 +|b k+1 ’| 2 +...+|b p ’| 2 b’=U T b Es minimizado si y i =b i ’/  i

Espacios vectoriales

  • 1.
  • 2.
    Espacios vectoriales Unespacio vectorial E=(V,F) Es un conjunto de elementos llamados vectores sobre un campo F donde x+y=y+x y pertenece a V x+(y+z)=(x+y)+z Existe el vector 0, tal que 0+x=x+0=x Para cada vector x existe el –x, tal que x-x=0
  • 3.
    Espacios vectoriales Cadaelemento dol campo es llamado un escalar µ(x+y)= µx+µy µx= xµ (µ1+ µ2)x= µ1(x)+ µ2(y) 1x=x  1 la unidad multiplicativa del campo
  • 4.
  • 5.
    Espacios vectoriales Teorema0v=v0=0 0v=0v+0v-0v=(0+0)v-0v=0v-0v=0 (-1)v=-v v+(-1)v=1v+(-1)v=(1-1)v=0v=0 Agregando –v a ambos lados se tiene el resultado
  • 6.
    Subespacio Sea (V,F)un espacio, entonces (S,F) es un subespacio de (V,F) si preserva todas las características de espacio y S es un subconjunto de V
  • 7.
  • 8.
    Creación de espaciosTeorema. Espacio vectorial (V,F) S subconjunto de V Si v1,…vn están en S, entonces también  1v1+…+  nvn, donde  i son elementos del campo (S,F) es un subespacio Demo en clase por los alumnos
  • 9.
    Creación de espaciosPreguntas importantes ¿En qué condiciones dos conjuntos S1, S2 crean el mismo espacio vectorial? ¿Cúal es la cardinalidad mínima de Q  S tal que Q y S crean el mismo espacio vectorial? ¿Cúando S crea el mismo espacio que contiene a los vectores de S?
  • 10.
    Dependencia e independencialineal Definición. Sea S={v1,v2,...vn} un conjunto de vectores. El vector y=  1v1+  2v2+...+  nvn donde los coeficientes son escalares será llamada combinación lineal de S.
  • 11.
    Dependencia e independencialineal Definición. Sea S={v1,v2,...vn} un conjunto de vectores. S es linealmente independiente si  1v1+  2v2+...+  nvn=0 tiene como única solución la trivial. De lo contrario se llamarán linealmente dependientes.
  • 12.
    Dependencia e independencialineal Definición. Sea S={v1,v2,...vn} un conjunto de vectores. Si S es linealmente independiente, entonces el espacio creado por S será llamado espacio generado por S.
  • 13.
    Dependencia e independencialineal Sea S={v1,v2,...vn} un conjunto de vectores. Para mostrar si es linealmente independiente se resuelve la ecuación: [v1 v2 ... vn] =0  1  2 ...  n
  • 14.
    Dependencia e independencialineal Entonces ya podemos aplicar Gauss para resolver el sistema y ver su solución Si la matriz [v1 ...vn] es de rango n entonces tiene solución única Si la matriz [v1 ... vn] es de rango menor a n, entonces tiene más de una solución.
  • 15.
    Dependencia e independencialineal Ejemplos en clase
  • 16.
    Bases, Dimensión ycoordenadas Definición. Sea (V,F) un espacio vectorial, entonces el conjunto S={v1, v2, ...vn} será una base para (V,F) si S genera (V,F). S es linealmente independiente S genera (V,F)
  • 17.
    Bases, Dimensión ycoordenadas ejemplos de bases en diferentes espacios
  • 18.
    Bases, Dimensión ycoordenadas Notita. Si z es una C.L. (combinación lineal) de los vectores x 1 ,...,x r ; y xi es una C.L. de los vectores y 1 ,...,y s . Entonces z es una C.L. de los vectores y 1 ,...,y s . z=a 1 x 1 +...+a r x r z=a 1 (b 11 y 1 +...+b 1s y s )+...+a r (b r1 y 1 +...+b rs y s ) Es una propiedad de transitividad
  • 19.
    Bases, Dimensión ycoordenadas Notita. Si algunos vectores x1,...,xn son linealmente dependientes (L.D.) entonces todo el sistema x 1 ,...,x n son L.D. Suponer que x 1 ,...,x k (k<n) son L.D.  a 1 x 1 +...+a k x k =0 con ai diferente de nulo.  a 1 x 1 +...+a k x k +0x k+1 +...+0x n =0 es solución y el sistema es L.D.
  • 20.
    Bases, Dimensión ycoordenadas La base B={v1, ..., vn} es un conjunto, pero tiene un orden para facilitar trabajos futuros. Representación. Un vector v se puede reescribir en términos de una base. v=  1 v1+  2 v2+...+  n vn, a donde Es la representación del vector Coordenadas  1  2 ...  n
  • 21.
    Bases, Dimensión ycoordenadas Ejemplos de representación de vectores
  • 22.
    Bases, Dimensión ycoordenadas Teorema. La representación del vector es única v=  1v1+  2v2+...+  nvn=  1’v1+  2’v2+...+  n’vn  (  1-  1’)v1+...+ (  n-  n’)vn=0  base  L.I. entonces la única solución es cero  (  i-  i)=0   i=  i’
  • 23.
    Bases, Dimensión ycoordenadas Notita. El teorema anterior es cierto si dice que z=a 1 x 1 +...+a k x k los ai son únicos ssi los xi son L.I.
  • 24.
    Bases, Dimensión ycoordenadas Definición. Sea (V,F) un espacio vectorial. Dos subespacios de (V,F); (V1,F) y (V2,F) se dicen equivalentes si los vectores de uno se pueden escribir como C.L. del otro y viceversa.
  • 25.
    Bases, Dimensión ycoordenadas Teorema. Suponer que B={v1, ...,vp} es una base para (V,F) y suponer que D={u1,...,uq} es un subconjunto L.I. en (V,F), entonces q  p Demostración. Como B es una base, entonces ui  D,(V,F) se puede expresar como una C.L. de B 
  • 26.
    Bases, Dimensión ycoordenadas S1={u1,e1,...,ep} es L.I.  Existe un vector que es C.L. de los anteriores, digamos que es ei. Por transitividad el resto {u2,...,uq} es una C.L. de S1-{ei} y se puede aplicar el mismo procedimiento Como se observa el procedimiento no puede eliminar todos los vp vectores antes de que los ui vectores se hayan agotado y q  p.
  • 27.
    Bases, Dimensión ycoordenadas Teorema. Número de vectores en la base. Suponer que para un espacio (V,F) se tiene una base con p vectores. Entonces todas las bases tienen p vectores. Demo. Aplicar teorema anterior suponiendo que se tiene otra base con q vectores.  q  p. Aplicar partiendo de la base con q vectores  p  q  q=p.
  • 28.
    Bases, Dimensión ycoordenadas Definición. Al número de vectores en la base de un espacio (V,F) se le llama dimensión de (V,F). En especial, todos los subespacios equivalentes también tienen un conjunto de vectores que lo generan (ya que son un espacio en sí) y se tiene una base y por tanto también tienen su dimensión. En tal caso es más adecuado hablar de rango que de dimensión, ya que podemos hablar de un subespacio en R 3 , pero de rango 2. A su vez, a la dimensión del espacio completo se le puede llamar rango, pero es mejor hablar de dimensión.
  • 29.
    Bases, Dimensión ycoordenadas El espacio R n tiene timensión n. Si la dimensión de un espacio es p  cualquier conjunto con s vectores s>p es L.D. En efecto, la base tiene p vectores y el resto será una C.L. de la base.
  • 30.
    Bases, Dimensión ycoordenadas Teorema. Un espacio tiene dimensión finita k ssi k es el maximo número de vectores que se pueden obtener en el espacio. Demo. Si la dimensión es k  la base tiene k vectores  son L.I. y cualquier otro es una C.L. de la base (ya no es L.I.). Si el máximo número de vectores L.I. es k  estos generan todo el espacio y por tanto es una base  k es la dimensión.
  • 31.
    Bases, Dimensión ycoordenadas Ok, regresemos a la representación de vectores B1={ } =4 +4 1 0 0 1 4 4 1 0 0 1
  • 32.
    Bases, Dimensión ycoordenadas El mismo vector en otra base B2={ } =4 +0 1 1 0 1 4 0 1 1 0 1
  • 33.
    Bases, Dimensión ycoordenadas Si el mismo vector se puede representar en diferentes bases, ¿se podrá transformar de una en otra? = 1 0 0 1 1 0 1 1 4 4 4 0
  • 34.
    Bases, Dimensión ycoordenadas = -1 Matriz de cambio de base de B1 a B2 1 0 0 1 1 0 1 1 4 4 4 0
  • 35.
    Bases, Dimensión ycoordenadas El concepto fácilmente se puede generalizar a cualquier par de bases Lo que es más chido... (P [x] 2 ,R) una posible base es B={1, x, x 2 } v1=1  en la base 1 0 0
  • 36.
    Bases, Dimensión ycoordenadas v2=x  en la base v3=x 2 0 1 0 0 0 1
  • 37.
    Bases, Dimensión ycoordenadas v4=1-x v5=3+x v6=-2+2x+x 2 v7=2+3x+7x 2 ¿Son L.I.?  ¡¡¡Todo cambia a matrices!!!
  • 38.
    Espacios vectoriales Kernel,imagen, espacio columna y espacio fila de una matriz Ecuaciones lineales y espacios vectoriales Cambio de base Espacio cociente Sumas y sumas directas
  • 39.
    Pausa: Cosas deuna Matriz Kernel. Todos los x tales que Ax=0 Kernel={x|Ax=0} Se puede hablar de dos kerneles, el izquierdo y el derecho KerI={y|y T A=0} KerD={x|Ax=0}
  • 40.
    Pausa: Cosas deuna Matriz Imagen Todos los y que son obtenidos de A multiplicado por un vector Imagen={y|Ax=y}
  • 41.
    Pausa: Cosas deuna Matriz Teorema (operaciones columna y dependencia lineal). Suponer que una secuencia de operaciones elementales por renglón transforma la matriz A en la matriz B, entonces: Una colección de columnas de A es linealmente dependiente (independiente) ssi la collección correspondiente de columnas de B es linealmente dependiente (independiente). Una matriz renglón puede ser escrita como una combinación lineal de (esto es linealmente dependiendte de) todos los renglones de A ssi puede ser escrita como una combinación lineal de todos los renglones de B.
  • 42.
    Pausa: Cosas deuna Matriz Demostración caso 1.- Sea F=E 1 E 2 ...E n la secuencia de matrices elementales que realizan las operaciones elementales que transforman a A en B.  F tiene inversa=no singular  FA=B  Fx=0  x=0 (solución única) Si las columnas de A son L.D. entonces   1 a 1 +  2 a 2 +...+  n a n =A[  ]  FA[  ]=B[  ]  Si A es LD hay muchas combinaciones 
  • 43.
    Pausa: Cosas deuna Matriz que dan cero  esas mismas combinaciones en B dan cero y sus columnas son LI. Si A tiene una sola combinación que da cero, entonces en B será la única posibilidad de dar cero, ya que sólo es este caso FA[  ]=0 Apliquemos esto a cualquier colección de columnas de A y se tendrá la demostración de la primera parte. Demostración caso 2.- Un matriz renglón y es una CL de los renglones de A ssi y =xA para alguan matriz renglón x, pero y =xF -1 FA=x’B, para x’=xF -1
  • 44.
    Pausa: Cosas deuna Matriz como FA=B; y y =x´B ssi y es una CL de los renglones de B.
  • 45.
    Pausa: Cosas deuna Matriz Veamos más a fondo el método de Gauss 1 -1 2 3 -1 1 1 2 1 2 4 1 1 3 1 2 1 -1 2 3 0 0 3 5 0 3 2 -2 0 4 -1 -1
  • 46.
    Pausa: Cosas deuna Matriz Veamos más a fondo el método de Gauss 1 -1 2 3 0 3 2 -2 0 0 3 5 0 4 -1 -1 1 -1 2 3 0 1 2/3 5/3 0 0 2 -2 0 0 -11/3 -23/3
  • 47.
    Pausa: Cosas deuna Matriz Veamos más a fondo el método de Gauss 1 -1 2 3 0 1 2/3 -5/3 0 0 1 -1 0 0 -11/3 -23/3 1 -1 2 3 0 1 2/3 5/3 0 0 1 -1 0 0 0 1
  • 48.
    Pausa: Cosas deuna Matriz Matriz Forma de Gauss Columnas dominantes 1 1.5 0 1 2 3 1 1
  • 49.
    Pausa: Cosas deuna Matriz Matriz Forma de Gauss Columnas dominantes 1 -1 0 0 1 -1 -1 1
  • 50.
    Pausa: Cosas deuna Matriz Matriz Forma de Gauss Columnas dominantes 0 1 0 0 0 -1 0 1
  • 51.
    Matrices Por intercambiode renglones hacer que el elemento (1,1) sea diferente de cero. Si no es posible es porque toda la columna 1 es igual a cero, tacharla y tratar de hacer lo mismo para la submatriz generada El proceso se repite hasta tener un elemento diferente de cero.
  • 52.
    Matrices Todo elrenglón se divide entre el elemento diferente de cero y se procede a hacer cero el resto de los elementos de esta columna de acuerdo al método de Gauss
  • 53.
    Matrices Una vezhecho esto se tacha el renglón y se obtiene una nueva submatriz Con esta nueva submatriz se procede desde el punto 1) El resultado es la matriz en la forma de Gauss
  • 54.
    Matrices Si setiene un renglón diferente de cero, entonces a la primer columna diferente de cero se le llamará dominante o líder.
  • 55.
    Pausa: Cosas deuna Matriz Teorema (matrices reducidas y dependencias) Suponer que G es una matriz en la forma de Gauss y de rango k a) El conjunto de las k columnas líderes es linealmente independiente b) Cualquier columna a la izquierda de la primera columna líder es una columna cero. Cualquier columna a la izquierda de la i-ésima columna líder es combinación lineal de las anteriores columnas líderes.
  • 56.
    Pausa: Cosas deuna Matriz Definición.- Sea A una matriz de p*q a) El espacio columna de A es el subespacio que es generado por el conjunto de columnas de A b) El espacio renglón de A es el subespacio generado por los renglones de A.
  • 57.
    Pausa: Cosas deuna Matriz Poner ejemplos Dar las condiciones para que el sistema tenga solución. Ax=b
  • 58.
    Pausa: Cosas deuna Matriz Teorema. Sea una matriz A de rango k. Entonces a) El espacio columna de A tiene diemnsión k. Una base son las columnas líderes. b) El espacio renglón es de dimensión k, una base son los renglones diferentes de cero. c) Una matriz p*p es no singular si sus columnas son LI  rango p d) Una matriz p*p es no singular si sus renglones son LI  rango p
  • 59.
    Matrices Corolario Rangopor columnas = rango por filas Teorema (espacios renglón iguales). Sea A1 y A2 matrices de tamaño r*q y s*q respectivamente. El espacio renglón de A1 es igual al espacio rengloón de A2 ssi los renglones no cero de las matrices de Gauss coinciden.
  • 60.
    El maldito Kernelotra vez Definición: Sea f:X  Y una función de X a Y. Con f se asocia una relación de equivalencia llamada equivalencia kernel de f y se denota por Ker f y está definida como sigue:  x1,x2  X, x1~x2 ssi f(x1)=f(x2) (mostrar que sí es una relación de equivalencia y por tanto particiona a X)
  • 61.
    Por qué sele llama equivalencia kernel Sucede que en el caso de homomorfismos si f(x1)=f(x2)  f(x1)-f(x2)=0  f(x1-x2)=0, i.e. x1-x2 está en el kernel de f. Claramente una matriz A puede ser considereda como una función (y aún más, un homomerfismo, chequen en clase esto y verán que si la hace). Entonces el kernel que definimos de A es consistente con el kernel en homomerfismos y sucede que:
  • 62.
    Por qué sele llama equivalencia kernel El kernel de A es un subespacio La imagen de A es un subespacio Ya qué no saben qué, A/ker A es un espacio y se le llama espacio cociente.
  • 63.
    Entendamos bien esto,que está demasiado fácil, salvo la primera vez Encontrar Kernel, imagen (range, no rank), A/Ker A de la siguiente matriz A. 1 -1 -1 1
  • 64.
    Sistemas Lineales III:Control Geométrico-1.8 Sean X y Y dos conjuntos cualesquiera. Sea A:X  Y una función cualquiera. Entonces se puede definir la relación Ker A de la siguiente forma: x1~x2 ssi A(x1)=A(x2) Note que la relación Ker A es una relación de equivalencia. Como es una relación de equivalencia, entonces diremos que x1  x2 (mod Ker A) –x1 es equivalente a x2 módulo Ker A- -También se dice que x1 es congruente a x2 vía Ker A o que la relación Ker A es una congruencia-
  • 65.
    Significado geométrico deesta relación x2 x1 x4 x3 x6 x5 y4 y3 y2 y1 Observe que hay tantos clusters como imágenes de A clusters X Y Podemos hacer el conjunto de los clusters Imagen de A
  • 66.
    Significado geométrico deesta relación (A menudo yo le llamo conjunto de clustercillos) clusters c1={x1, x2, x3} c2={x4} c3={x5, x6} A este conjunto lo llamaremos X/Ker A, o conjunto cociente X/Ker A
  • 67.
    Significado geométrico deesta relación X/Ker A c1={x1, x2, x3} c2={x4} c3={x5, x6} Noten que la relación Ker A está dando una medida de la inyectividad de A. Si el número de clusters es igual al número de elementos en X, entonces A es inyectiva. A los clusters se les llama coconjuntos (cosets) y son justamente los subconjuntos de X sobre los cuales A tiene diferente valor. También se les suele llamar las “fibras” de A.
  • 68.
    c1=[0 4 8]c2=[1 5 9] c3=[2 6] c4=[3 7] 0 4 8 1 5 9 2 6 3 7 X 0 1 2 3 Y X/Ker A Aquí está A Ejem. A(x)=x módulo 4 -es el residuo de la división, no la congruencia Como X/Ker A y la imagen de A tienen la misma cantidad de elementos, entoces hay un isomorfismo entre X/Ker A y Im(A) [X/Ker A  Im(A)] Significado geométrico de esta relación
  • 69.
    c1=[0 4 8]c2=[1 5 9] c3=[2 6] c4=[3 7] 0 4 8 1 5 9 2 6 3 7 X 0 1 2 3 Y X/Ker A Aquí está A Significado geométrico de esta relación Proposición. Sea A:X  Y y sea P A :X  X/Ker A su proyección canónica, entonces  g:X/ker A  im(A) tal que A=g  P A , donde g es un isomorfismo. P A
  • 70.
    Demostración Definir g(z)=A(x)ssi z=P A (x). Se afirma que g(z) es función Cubre todo X. Como A es función, entonces a cubre todo X, y por la definición anterior, g también cubrirá todo X Un valor de X/Ker A no está asociado a dos valores de Y. Suponer que si es así, (z,y 1 ), (z,y 2 )  g. Entonces y 1  y 2 . Por la definición de g se tiene: z= P A (x 1 ), y 1 =A(x 1 ) y además z= P A (x 2 ), y 2 =A(x 2 ) Como P A (x 1 ),= P A (x 2 ) implica que A(x 1 )= A(x 2 ) Entonces y1=y2, una contradicción, entonces Un valor de X/Ker A no está asociado a dos valores de Y Por tanto g(z) si es función.
  • 71.
    Demostración Ahora veremosque g es un isomorfismo. g es inyectiva. Suponer que no es así, i.e. (z,y),(z’,y)  g Entonces z  z’ Entonces z=P A (x) y z’=P A (x’) Además A(x)=A(x’)=y. Como tienen la misma y, entonces P A (x)=P A (x’), una contradicción. Por tanto es inyectiva. g es sobre. Como g:X/Ker A  Im(A), sólo abarca las imágenes de A. Por definición de g, cualquier imagen de A tiene una preimagen en X/Ker A. Por lo tanto g es sobre. Como es inyectiva y sobre, es un isomorfismo.
  • 72.
  • 73.
    Significado geométrico deesta relación Estamos en los límites... Si los conjuntos tienen estructura matemática, p.e. X, Y son espacios vectoriales y la función A resulta ser un operador lineal. Ax1=Ax2 es la relación Ker A. Un caso particular es para la imagen cero. En este caso todos los x, tales que Ax=0 formarán una clase de equivalencia. Las demás clases de equivalencia las obtendremos al estudiar las otras imágenes de A. Sin embargo, este proceso puede resultar muy lento, sobre todo porque Y tiene un número infinito de elementos. Una forma más adecuada es estudiarlos a través de la clase de equivalencia del 0 [0].
  • 74.
    Significado geométrico deesta relación Estamos en los límites... Por ejemplo, si queremos estudiar el caso para la imagen y, entonces debemos encontrar todos los x tales que Ax=y. x1, x2  [x], Ax1=Ax2=y, entonces A(x1-x2)=0. Entonces si x1  [x], se tiene que x2  [x] ssi (x1-x2)  [0]. Como la clase [0] es un subespacio de X De hecho si Ax=0 y Ay=0, entonces A(x+  y)=0 y por tanto es un subespacio entonces (x1-x2)  span[0], o (x1-x2) =  1 e 1 +  2 e 2 +...+  n e n Si x1 está fijo, entonces x2= x1-  1 e 1 -  2 e 2 -...-  n e n .............................(1) Como con la clase de equivalencia [0] se generan todas las demás, a está clase la llamaremos genéricamente Kernel de A.
  • 75.
    Significado geométrico deesta relación Estamos en los límites... Como se observa, la ecuación (1) es un método para calcular todas las clases de equivalencia [x2]. Se puede ver que es un un espacio vectorial (el del Kernel) desplazado por x1 (cualquier vector de la clase). A esta clase de equivalencia, y sólo cuando hablamos de operadores lineales en espacios vectoriales, le llamaremos una variedad lineal. No es un espacio, ya que en general, el cero no está incluído en dicha variedad, pero si será un espacio vectorial vía módulo algún vector de la clase. Ejemplos
  • 76.
    Significado geométrico deesta relación Estamos en los límites... A:  2  2 tal que A([x y] T )=[x–y y-x] T . Claramente A es un operador lineal y un vector de la forma [k k] T está en la clase de equivalencia [0] o Kernel de A. El vector [2 1]T no está en la clase [0], pero si está en la clase [[2 1] T ]. Los vectores que pertenecen a esta clase, de acuerdo a la ecuación (1) son: X=[2 1] T -  [1 1] T
  • 77.
    Significado geométrico deesta relación Estamos en los límites... Clase [0] Clase [2 1] T
  • 78.
    Significado geométrico deesta relación Estamos en los límites... En realidad, cada clase forma una línea paralela al Kernel de A.
  • 79.
    Significado geométrico deesta relación Si tenemos un operador lineal A:V  W, entonces el Kernel de A será un subespacio de V, y cada una de las clases de equivalencia será una variedad lineal paralela al Kernel de A. Más aún, el conjunto de las clases de equivalencia se denotará en la forma común V/Ker A y será llamado el espacio cociente V/Ker A. Proposición. Sea un operador lineal A:V  W, entonces el conjunto V/Ker A es un espacio vectorial. Demo. En este espacio, el vector nulo es la clase [0]. De hecho se tiene
  • 80.
    Significado geométrico deesta relación [v1]=[v1]+[0] para cualquier v1  V. De la ecuación (1) x2= v1-  1 e 1 -  2 e 2 -...-  n e n se observa que esto es cierto, ya que x2  [v1]. Los escalares, son los del campo definido en V. La suma de vectores [v1]+[v2]=[v3] se define como x1  [v1], x2  [v2] y x1+x2  [v3]. Note que está bien definida ya que cualquier x1  [v1] y x2  [v2] sirven. De hecho v1-  1 [0]+v2-  2 [0]=v1+v2-  [0]=[v3] Todas las propiedades se pueden demostrar y resulta un espacio vectorial
  • 81.
    Significado geométrico deesta relación ,... Pero hay más cosas Claramente, Im(A)  V/Ker A. Vimos que esto se cumple aún en el caso que no sean espacios vectoriales. Ahora volvamos a los conjuntos. Vimos que si A:X  Y, entonces Ker A es una relación de equivalencia. Por la definición, cualquier función deja una relación de equivalencia en su dominio. Pero, además, nosotros sabemos que una relación de equivalencia sobre un conjunto X es equivalente a una partición de X
  • 82.
    Espacios vectoriales conproducto interno
  • 83.
    Espacios vectoriales conproducto interno 5.1 Producto interno 5.2 Desigualdad de Cauchy-Schwarz 5.3 Ortogonalidad 5.4 Procedimiento de Gram-Schmidt 5.5 Espacios normados
  • 84.
    Norma Definición.- Unanorma (o norma vectorial) en (V,F) es una funcional que asigna a cada vector v un número real no negativo, llamado norma del vector v , y es denotado por || v || y satisface: ||v||>0 para v  0, y ||0||=0 ||  v||=|  | ||v||  escalar y v vector ||u+v||  ||u||+||v||
  • 85.
    Norma Definición.- Paravectores x=[x 1 x 2 ... x p ]T, las normas ||  || 1 , ||  || 2 , ||  ||  son llamadas norma 1, norma 2 y norma infinito respectivamente y se definen como: ||  || 1 =|x 1 |+|x 2 |+...+|x p | ||  || 2 =(|x 1 | 2 +|x 2 | 2 +...+|x p | 2 ) 1/2 ||  ||  =max{|x 1 |, |x 2 |, ...,|x p |}
  • 86.
    Norma Definición.- Sea||  || una norma en (V,F). Una secuencia de vectores vi se dice que converje al vector v  ssi la secuencia de número reales ||vi-v  || Para vectores x=[x 1 x 2 ... x p ]T, las normas ||  || 1 , ||  || 2 , ||  ||  son llamadas norma 1, norma 2 y norma infinito respectivamente y se definen como: ||  || 1 =|x 1 |+|x 2 |+...+|x p | ||  || 2 =(|x 1 | 2 +|x 2 | 2 +...+|x p | 2 ) 1/2 ||  ||  =max{|x 1 |, |x 2 |, ...,|x p |}
  • 87.
    Norma Teorema: Seanx, y dos vectores. Entonces |x T y|  ||x|| 2 ||y|| 2 Demostración. sabemos 0  ||x+  y||=(x+y) T (x+y)=||x|| 2 2 +  2 ||y|| 2 2 +2  |x T y| si  =-||x|| 2 2 /x T y, entonces 0  -||x|| 2 2 +(||x|| 2 4 ||y|| 2 2 /x T y| 2 ) Despejando se llega a la desigualdad
  • 88.
    Producto interno Definición.El producto interno en (V,F) sobre un par de vectores (u,v) que satisface: (u,v)=(v,u) (  u+  v,w)=  (u,w)+  (v,w) (w,  u+  v)=  (w,u)+  (w,v) (u,u)>0, y es igual a cero si u es cero.
  • 89.
    Producto interno Elproducto interno (u,v) 1/2 induce una norma en el espacio vectorial. Definición. Sean el producto interno (  ,  ) u, v son ortogonales ssi (u,v)=0 Un conjunto de vectores son ortogonales ssi cada par de vectores (u,v) son ortogonales Si un vector u es usado para producir u/||u|| tal que ||v||=1, entonces u se dice ser normalizado para producir el vector normalizado v Un conjunto de vectores se dice ortonormal ssi es ortogonal y ||v||=1 para todo vector v
  • 90.
    Producto interno Diferentesproductos internos (u,v)=u T v si f y g son funciones real valuadas continuas en 0  t  1, entonces (f,g)=
  • 91.
    Proyecciones ortogonales Teorema.Sea (V,F) un espacio vectorial. Sea (V 0 ,F) un subespacio generado por los vectores ortogonales S={v1,...,vq}. Defínase la proyección ortogonal como sigue. Para cualquier vector v P 0 v=  1 v 1 +...+  q v q , donde  i =(v i ,v)/(v i ,v i ) entonces v-P 0 v es ortogonal a todo vector v en (V 0 ,F) P 0 (u+v)=P 0 u+P 0 v P 0 (  v)=  P 0 v
  • 92.
    Proyecciones ortogonales Demostración(vi,v-P 0 v)=(v i ,v)-  1(v i ,v 1 )-...-  q (v i ,v q )=(v i ,v)-  i (v i ,v i )=0 Los otros puntos salen de la definición de los coeficientes  . v i v P 0 v=  v i v-P 0 v
  • 93.
    Proyecciones ortogonales Teorema.Sea (V,F) un espacio vectorial con producto interno y con su norma inducida por el producto interno ||  ||. Sea (V 0 ,F) un subespacio generado por los vectores ortogonales S={v 1 ,...,v q }. Entonces para cualquier v, P 0 v es el único punto más cercano en (V 0 ,F) a v, y ||v-P 0 v|| es la distancia de v a (V 0 ,F) ||v-P 0 v||<||v-v 0 || para todo v 0 diferente de P 0 v en (V 0 ,F)
  • 94.
    Proyecciones ortogonales Demostración.||v-v0||2=(v-v0,v-v0)=(v-P 0 v+P 0 v-v0, v-P 0 v+P 0 v-v0)= (v-P 0 v, v-P 0 v )+(v-P 0 v, P 0 v-v0)+(P 0 v-v0,v- P 0 v)+(P 0 v-v0, P 0 v-v0) Sabemos que v- P 0 v es ortogonal a los vectores en (V0,F), entonces se obtiene que: ||v-v0||=||v- P 0 v||+|| P 0 v-v0|| entonces ||v-v0||>||v- P 0 v|| a menos que v0= ||v-v0||=||v- P 0 v||+||
  • 95.
    Proyecciones ortogonales SeaS={v1,...,vq} un conjunto de vectores ortogonales, entonces estos vectores son linealmente independientes. si se toma el vector 0=c1v1+...+cqvq, tenemos que saber el valor de cada ci. 0=(vi,0)=(vi,c1v1+...+cqvq)=ci(vi,vi) como (vi,vi)>0  ci=0 y son L.I.
  • 96.
    Proyecciones ortogonales Sesigue que si el vector proyectado v está en el espacio (V 0 ,F), entonces P 0 v será el mismo v y los valores de las  i será la representación del vector en la base seleccionada S.
  • 97.
    Proyecciones ortogonales Teorema.Sea B={v1,...vq} una base ortogonal. La representación del vector v se calcula como v=  1 v 1 +...+  q v q , donde  i =(v i ,v)/(v i ,v i ) Note que si la base es ortonormal, entonces los  i se calculan fácilmente
  • 98.
    Proyecciones ortogonales Sitenemos S={v 1 ,...,v q } un conjunto de vetores que genera (V,F) Tomar u 1 =v 1 , desde 2 hasta q, u i =v i -P i-1 v i
  • 99.
  • 100.
    Transformaciones lineales 6.1Definición 6.2 Propiedades 6.3 Kernel e imagen de una transformación lineal 6.4 Representación matricial de una transformación lineal 6.5 Isomorfismos 6.6 Operaciones con transformaciones lineales 6.7 Algebra de transformaciones lineales  
  • 101.
    Transformaciones lineales Definición.Sean (V,F) y (W,G) dos espacios vectoriales. Una transformación lineal T de (V,F) a (W,G) es una correspondencia que asigna a cada vector v en V un vector w en W tal que: T(v1+v2)=T(v1)+T(v2) T(  v)=  T(v) Se sigue que T(0)=0, ya que T(v)=T(v+0)=T(v)+T(0) lo que implica que T(0) debe ser el cero de W.
  • 102.
    Transformaciones lineales Elespacio imagen Todos los vectores w en (W,G) tal que w=T(v) Solución. Si w es fijo, entonces existe v en (V,F) tal que T(v)=w ssi w está en la imagen de T. Se aplica Sobre Claramente el problema Solución tiene solución si T es onto.
  • 103.
    Transformaciones lineales Otroproblema es si la solución es única. T(v1)=T(v2)=w Se aplica Inyectividad Claramente la solución es única si w esta en la imagen de T y T es inyectiva. T(v1)=T(v2)  T(v1)-T(v2)=0  T(v1-v2)=0 También T tiene kernel.
  • 104.
    Transformaciones lineales Máspropiedades de las transformaciones lineales T(u-v)=T[u+(-1)v]=T(u)+T[(-1)v]=T(u)+(-1)T(v)=T(u)-T(v) T(  1 v 1 +...+  n v n )=  1 v 1 +...+  n v n Esto se puede ver por asociatividad e inducción Teorema. Sea (V,F) un espacio vectorial de dimensión finita con base B={v 1 ,...v n } y T1, T2 dos transformaciones lineales. Si T1(vi)=T2(vi) para todo vi en B, entonces T1(v)=T2(v) para v en (V,F). Demo, como cualquier vector de (V,F) se escribe como v=  1 v 1 +...+  n v n , entonces T1(v)=T1(  1 v 1 +...+  n v n )= T1(  1 v 1 )+...+T1(  n v n )=T2(  1 v 1 )+...+T2(  n v n )=T2(v)
  • 105.
    Transformaciones lineales Teorema.Sea (V,F) un espacio vectorial de dimensión finita con base B={v 1 ,...v n } y (W,G) un espacio vectorial que contiene a los vectores w1,...,wn, entonces existe una única transformación lineal tal que T(vi)=wi, para vi en B. Demo. Como cualquier vector de (V,F) se escribe como v=  1 v 1 +...+  n v n , entonces T se define como T(v)=  1 w 1 +...+  n w n T será una transformación lineal T(u+v)=T[(  1 v 1 +...+  n v n )+(  1 v 1 +...+  n v n )]= =T[(  1 +  1 ) v 1 +...+(  n +  n ) v n ] Por la definición de T, = (  1 +  1 ) w 1 +...+(  n +  n ) w n =T(u)+T(v)
  • 106.
    Transformaciones lineales Deigual forma T(  u)=T[(  1 v 1 +...+  n v n )] Por la definición de T,  1 w 1 +...+  n w n =  T(u) Por teorema anterior se tiene la unicidad Tarea: Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)  (W,G) una transformación lineal. Demsotrar que el kernel de T es un subespacio de (V,F) y que la imagen de T es un subespacio de (W,G).
  • 107.
    Transformaciones lineales Definición.Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)  (W,G) una transformación lineal. Nulidad de T =  (T) =dim (Ker (T)) rango de T =  (T) = dim (Im (T)) Teorema. Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)  (W,G) una transformación lineal.  (T)+  (T) = dim (V,F) Demo. Suponer que  (T)=r y que {v1,...vr} es una base para el kernel; además  (T)=k y {w1,...wk} es una base para la imagen de T. Entonces hay que demostrar que B={v1,...,vr,u1,...,uk}
  • 108.
    Transformaciones lineales Seaun v que pertenece a (V,F). Como T(v)=  1 w 1 +...+  k w K Al Vector v lo podemos escribir como v=  1 u 1 +...+  k u K -v’  v´=  1 u 1 +...+  k u K -v T(v’)=T(  1 u 1 +...+  k u K -v)=  1 T(u 1 )+...+  k T(u k )-T(v) =  1 w 1 +...+  k w K -T(v)=0  v’ está en el kernel de T Como {v1,...vr} es una base de Kernel de T, existen escalares  1 ,..,  r tal que v’=  1 v 1 + ... +  r v r =  1 u 1 +...+  k u K -v Por tanto v=  1 u 1 +...+  k u K -  1 v 1 - ... -  r v r y {u 1 ,...,u k , v 1 ,..., v r } genera (V,F) Ahora hay que ver que sean L.I.
  • 109.
    Transformaciones lineales Seaun vector  1 u 1 +...+  k u K +  1 v 1 + ... +  r v r =0 Entonces T(  1 u 1 +...+  k u K +  1 v 1 + ... +  r v r )=0 Como los vi están en el kernel  0=  1 w 1 +...+  k w K , como los w i son una base de la magen, entonces son L.I. y la única solución es  i =0 Entonces el vector se reescribe como  1 v 1 + ... +  r v r =0 , como los v i son una base para el kernel son L.I., entonces la única solución  i =0 y los vectores son L.I. y por lo tanto es una base y la dimensión de (V,F) es  (T)+  (T) = dim (V,F)
  • 110.
    Transformaciones lineales Sean(V,F) y (W,G) dos espacios vectoriales y T:(V,F)  (W,G) , entonces existe una única matriz A (dim(v), dim(W)) tal que T(x)=Ax A est la matriz de transformación correspondiente a T. Demo sea B={e1,...,en} la base canónica en (V,F) T(ei)=wi Se puede formar la matriz A=[w1 wn] entonces Aei=wi (T(ei)=wi) En general T(x)=T(  1 e 1 + ... +  n e n )=  1 w 1 + ... +  n w n También Ax=A[  1 e 1 + ... +  n e n ]=  1 w 1 + ... +  n w n =T(x)
  • 111.
    Transformaciones lineales Suponerque T(x)=Ax=Bx  (A-B)x=0, para x=ei (A-B)ei=0  que la i-ésima columna de (A-B) es cero, por lo que las matrices son iguales y A es única. Teorema Sea A la matriz de transformación correspondiente a T, entonces i) Im T  Im A, pero isomorfo ii)  (T)=  (A) iii)Ker T  Ker A, pero isomorfo iv)  (T)=  (A)
  • 112.
    Transformaciones lineales Teorema.Sean (V,F), (W,G) dos espacios vectoriales de dimensiones n y m respectivamente. Sea T(V,F)  (W,G) una transformación lineal. Sean B1={v1,...,vn} y B2={w1,...,wm} las bases de los espacios respectivamente. Entonces existe una única matriz A (m,n) tal que: [T(x)] B2 =A(x B1 ) [T(x)] B2  la representación de T(x) en B2 T(x)=  1 w 1 + ... +  m w m  [T(x)] B2 =[  1 ...  m ] T x B1 es la representación del vector en B1 La matriz A se conoce como la matriz de transformación correspondiente a T con respecto a las bases B1 y B2
  • 113.
    Transformaciones lineales Considerelos vectores T(v1, ...,T(vn), escríbase A=[[T(v 1 )] B2 ... [T(v n )] B2 ] Como Avi B1 =Ae i = [T(v i )] B2 y x B1 es la representación del vector en B1, i.e. [  1 ...  n] T entonces A x B1 =[[T(v 1 )] B2 ... [T(v n )] B2 ] x B1 =  1[T(v 1 )] B2 +...+[T(v n )] B2 ]  n Por otro lado T(x B1 )=T(  1 v 1 +...+  n v n )=  1 T(v 1 )+...+  n T(v n ) Al poner cada uno de estos vectores en la representación de la base B2 se obtiene que: A x B1 = T(x B1 ) La unicidad es similar al teorema anterior
  • 114.
    Transformaciones lineales Teorema.-Sea A (m,n) la matriz de transformación correspondiente a T:(V,F)  (W,G) con respecto a las bases B1={v1,...,vn} y B2={w1,...,wm} respectivamente. Suponga que hay otras bases B1’={v1’,...,vn’} y B2’={w1’,...,wm’} de los espacios respectivos. Entonces la matriz A’ correspondiente a la misma transformación T con respecto a las bases B1’ y B2’ está dada por: A’=P -1 AQ P es la matriz de transición (de paso) de la base B2’ en B2 Q es la matriz de transición (de paso) de la base B1’ en B1
  • 115.
    Transformaciones lineales Demo. Sabemos que [T(x)] B2 =Ax B1 Ahora, x B1 =Qx B1’ y [T(x)] B2 =P[T(x)] B2’ Por tanto P[T(x)] B2’ =A Qx B1’ [T(x)] B2’ =P -1 A Qx B1’ A’=P -1 AQ es la matriz de transformación
  • 116.
    Transformaciones lineales Enespecial, si (V,F) y (W,G) son los mismos, entonces A’=P -1 AP Definición. Se dice que dos matrices cuadradas A y B son similares si existe una matriz P no singular (determinante diferente de cero) tal que B=P -1 AP
  • 117.
    Transformaciones lineales TransformacionesT Inyectiva  Kernel T = {0} Sobre Teorema. T:V  W una transformación lineal y dim v=n y dim w=m i) si n>m,  T no es inyectiva ii) si m>n  T no es sobre Demo. Tarea.
  • 118.
    Transformaciones lineales Definición.Una T.L es un Isomorfismos ssi es inyectiva y sobre. La matriz de un isomorfismo es invertible. Definición. Se dice que (V,F) y (W,G) son isomorfos ssi existe un isomorfismo entre ambos Teorema. Sean (V,F) y (W,G) dos espacios vectoriales de dimensión finita. Entonces (V,F) y (W,G) son isomorfos si dim (V,F)=dim (W,G) Demo. Obtener bases para cada uno. Entonces quedan representados en (R n ,R). Como son bases en el mismo espacio, existe una matriz de cambio de base A. por teoremas anteriores existe una T.L. asociada a A que es un isomorfismo. Si existe el isomorfismo entre las representaciones, lo existe entre los espacios.
  • 119.
    Transformaciones lineales Corolario.Cualquier espacio de dimensión n es isomorfo a (R n ,R) Teorema. Si T:(V,F)  (W,G) es un isomorfismo i) Si {v1,...vn} genera (V,F), entonces {T(v1),...,T(vn)} genera (W,G) ii) Si {v1,...vn} son L.I., entonces {T(v1),...,T(vn)} son L.I. iii) si {v1,...vn} es una base, entonces {T(v1),...,T(vn)} es una base. Demo. i) v=  1 v 1 + ... +  n v n  T( v)=w=  1 T(v 1 )+ ... +  n T(v n )  {T(v1),...,T(vn)} genera (W,G) iii) Suponga que 0=T( v)=w=  1 T(v 1 )+ ... +  n T(v n ) , entonces T(  1 v 1 + ... +  n v n )=0, como T es isomorfismo T(0)=0 es el único. Entonces  1 v 1 + ... +  n v n =0, pero como son L.I.   i =0 y por tanto {T(v1),...,T(vn)} son L.I. iii) se sigue de anteriores.
  • 120.
    Transformaciones lineales Prop.Si T:(V,F)  (W,G) es un isomorfismo, entonces para todo vector w  W existe un único vector v  V tal que T -1 (w)=v, donde T -1 :(W,G)  (V,F) es conocida como la transformación inversa de T. Demo. 2 partes T -1 es T.L. y T -1 (w)=v único T(v1)=w1;  T -1 (w1)=v1; T(v2)=w2  T -1 (w2)=v2 T(v1+v2)=T(v1)+T(v2)=w1+w2  T -1 (w1+w2)=v1+v2 T(  v1)=  T(v1)=  w1  T -1 (  w1)=  v1 Como T es isomorfiso, la definición de T -1 hace que exista un único valor de regreso. Nota. T es T.L.  A es su operador T -1 es la inversa de T, entonces A -1 es el operador de T -1
  • 121.
    Transformaciones lineales Operacionescon transformaciones lineales Sean (V,F) y (W,F) dos espacios vectoriales sobre el mismo campo F. Hom(V,W) es el conjutno de todas las transformaciones lineales entre (V,F) y (W,F). Sean T1 y T2 dos T.L. entre (V,F) y (W,F) Se define la suma T1+T2 como T1+T2:V  W (T1+T2)(v)=T1(v)+T2(v) para todo  F,  T1 es (  T1)(v)=  T1(v)
  • 122.
    Transformaciones lineales Elconjunto Hom(V,W) definido anteriormente es un espacio vectorial sobre el campo F. Demo. Tarea.
  • 123.
    Algebra de Transformacioneslineales Definición. Un álgebra A sobre un campo F es un espacio vectorial sobre F en el que se tiene definida una operación producto que satisface para todos los elementos T1, T2, T3  A y   F: T1(T2+T3)=T1T2+T1T3 (T2+T3)T1=T2T1+T3T1  (T1T2)=(  T1)T2=T1(  T2) Si además se cumple que (T1T2)T3=T1(T2T3) entonces A es un álgebra asociativa
  • 124.
    Algebra de Transformacioneslineales Definición. Sean V, U y W espacios vectoriales sobre el mismo campo F. Sean T1:V  U y T2:U  W dos transformaciones lineales. Se define la composición de T2 seguida de T1 T2  T1 como la función de V a W (T2  T1) :V  W tal que (T2  T1)(v)=T2(T1(v)) Proposición. Si T1 y T2 son TL, entonces T2  T1 también lo es. Demo. Sean u,v  V y  ,   F, entonces (T2  T1)(  v+  u)=T2(T1(  v+  u))=T2(  T1(v)+  T1(u)) =  (T2  T1)(v)+  (T2  T1)(u) (T2  T1) es T.L. Puede verse que Hom(V,V) con la composición es un álgebra asociativa.
  • 125.
    Adicional de Transformacioneslineales Sean A, B dos matrices de qxn y nxp con coeficientes en el mismo campo. Entonces  (A)+  (B)-n   (AB)  min(  (A),  (B)) Demo  (B)  (A) R(B) R(A) R(AB) n(B) n(A) p n d
  • 126.
    Adicional de Transformacioneslineales De la figura  (AB)  min(  (A),  (B)). También  (AB)=  (B)-d (la intersección de R(B) y n(A). La dimensión de n(A)=n-  (A)  d  n+  (A) y se sigue que  (AB)   (A)-n+  (B) Si B es no singular  (A)+  (B)-n =  (A)   (AB)  min(  (A),n) =  (A)  (B)  (A) R(B) R(A) R(AB) n(B) n(A) p n d
  • 127.
    4. Valores yvectores propios
  • 128.
    Valores y vectorespropios Definición y propiedades Teorema de Cayley-Hamilton Diagonalización de matrices
  • 129.
    Valores y vectorespropios Definición. Sea V un espacio vectorial y T:V  V una transformación lineal del espacio en sí mismo. Sea v  V un vector diferente de cero pa el cual existe un escalar  tal que T(v)=  v, entonces se dice que  es un valor propio de T y que v es un vector propio de T asociado a  .
  • 130.
    Valores y vectorespropios Cuando V es un espacio de dimensión finita, la transformación T la podemos representar como una matriz A de n,n. Entonces podemos redefir los valores y vectores propios de la siguiente forma. Definición. Sea A una matriz de n,n. El escalar  se denomina valor propio de A si existe un vector x diferente del nulo, tal que Ax=  x nuevamente x es el vector propio asociado a  .
  • 131.
    Valores y vectorespropios Teorema. Sea A una matriz de n,n. Entonces  es un valor propio de A ssi det(  I-A)=0 Demo. Sólo si. Suponga que  es un valor propio de A; entonces existe un vector x diferente de cero tal que Ax=  x  (  I-A)x=0, como x diferente de cero  (  I-A) es singular  det(  I-A)=0
  • 132.
    Valores y vectorespropios (si). Si det(  I-A)=0  (  I-A) es singular  (  I-A)x=0 tiene soluciones diferentes de cero, entonces existe x diferente de cero tal que Ax=  x.
  • 133.
    Valores y vectorespropios Definición. La ecuación det(  I-A)=0 se conoce como ecuación característica de A, y el polinomio p(  )=det(  I-A) Observe que p(  )=(det(  I-A)=a 0 +a 1  +...+a n   por el teorema fundamental del álgebra, cualquier polinomio de grado n tiene n raíces (contando multiplicidades). p(  )=(det(  I-A)=a 0 +a 1  +...+a n = (  -  1 ) r1 ...(  -  m ) rm Los número ri son la multiplicidad algebraica de los valores propios de  1 ,...,  m .
  • 134.
    Valores y vectorespropios Teorema. Sea  un valor propio de A y E  ={x|Ax=  x}. Entonces E  es un subespacio vectorial de C n Nótese que E  son las soluciones de (  I-A)x=0, es decir el kernel de un operador lineal  es un subespacio vectorial.
  • 135.
    Valores y vectorespropios Definición. Sean  un valor propio de A. Entonces E  se denomina espacio propio de A correspondiente a  . Definición. Sea E  el espacio propio de A debido a  . A la dimensión de E  se le conoce como multiplicidad geométrica de  . Multiplicidad geométrica de  =dim E  =dim{Ker (  I-A)}
  • 136.
    Valores y vectorespropios Ejemplos y procedimientos de cálculo. 4 -2 1 1 2 -1 -4 2 1 -1 2 -1
  • 137.
    Valores y vectorespropios Teorema. Sea  un valor propio de A. Entonces se cumple que la multiplicidad geométrica de  multiplicidad algebraica de 
  • 138.
    Valores y vectorespropios Teorema. Sean  1 ,  2 , ...,  m valores propios diferentes de A (n,n), donde m  n y sean x 1 , x 2 ,..., x m sus vectores propios correspondientes. Entonces x 1 , x 2 , ..., x m son linealmente independientes. Demostración. Suponga que {x 1 ,...,x m } son L.D. y que x s es el primer vector L.D. de los previos x s =  1 x 1 +  2 x 2 +...+  s-1 x s-1 Multiplicando por A Ax s =  1 Ax 1 +  2 Ax 2 +...+  s-1 Ax s-1
  • 139.
    Valores y vectorespropios  s x s =  1  1 x 1 +  2  2 x 2 +...+  s-1  s-1 x s-1 Restando ecuaciones y multiplicando por  s se tiene 0=  1 (  1 -  s )x 1 +  2 (  2 -  s ) x 2 +...+  s-1 (  s-1 -  s )x s-1 Como xs es el primer vector L.D. entonces  1 (  1 -  s )=  2 (  2 -  s )=...=  s-1 (  s-1 -  s )=0 como  i  s   i =0  xs=0, lo cual contradice la suposición  las vectores son L.I.
  • 140.
    Valores y vectorespropios Teorema. La matriz A (n,n) tiene n vectores propios L.I. ssi la multiplicidad geométrica de cada valor propio es igual a su multiplicidad algebraica. Tarea (Grossman, pag 545)
  • 141.
    Valores y vectorespropios Definición. Sea F(x)=a 0 +a 1 x+a 2 x 2 +...+a n x n un polinomio y A una matriz cuadrada Se define el polinomio f(x) en la matriz A como: F(A)=a 0 I+a 1 A+a 2 A 2 +...+a n A n Sy f(A) es igual a la matriz cero, entonces se dice que A es raíz (o cero) del polinomio f(x). Sea F(  ) (n,n) una matriz polinomial en la variable  , i.e. F(  )=F 0 +F 1  +...+F m  m = F(  )=F 0 +  F 1 +...+  m F m donde F 0 , F 1 ,...,F m son matrices cuadradas reales.
  • 142.
    Valores y vectorespropios Se dice que F(  ) es de orden n; y si F m  0, entonces F(  ) es de grado m. Además F(  ) se dice regular si det(F m )  0 Definicion. Sean F(  ) y G(  ) matrices polinomiales de orden n., y G(  ) es regular. Las matrices polinomiales Q(  ) y R(  ) se conocen como cociente derecho y residuo derecho respectivamente de F(  ) dicidida por G(  ) si F(  )= Q(  ) G(  ) + R(  ) y si el grado de R(  ) es menor que el grado de G(  ) [R(  ) puede ser cero]
  • 143.
    Valores y vectorespropios De manera similar se pueden definir el cociente izquierdo y residuo izquierdo Sea A (n,n) y denota F(A) la evaluación por la derecha de A en la matriz polinomial F(  ) , esto es, si F(  )=F 0 +F 1  +...+F m  m = F(  )= F 0 +F 1 A+...+F m A m
  • 144.
    Valores y vectorespropios Teorema. Si la matriz polimial F(  ) es dividida por la derecha por la matriz (  I-A) entonces el residuo es F(A), y si es dividida por la izquierda por (  I-A) entonces el resiudo es F’(A) (por la izquierdA). Demostración. Tarea. (teorema generalizado de Bezout, Grantmatcher, pag 81)
  • 145.
    Valores y vectorespropios Corolario. La matriz polinomial F(  ) es divisible por la derecha por la matriz (  I-A) sin residuo (R(  )=0) ssi F(A)=0 (De manera similar se puede hacer por la izquierda) Teorema (Cayley-Hamilton). Toda matriz A (n,n) es raíz de su polinomio característico. Demostración. P(  )=det(  I-A)=a 0 +a 1  +...+  n Hay que mostrar que P(A)=0
  • 146.
    Valores y vectorespropios de teoremas previos (  I-A)adj(  I-A)=det(  I-A)I=[adj(  I-A)](  I-A) Lo cual puede verse como P(  )=(  I-A)Q(  )=Q(  )(  I-A) donde Q(  )=adj(  I-A) es una matriz polinomial en  y P(  )=det(  I-A)I=a 0 I+a 1  I+...+  n I como P(  ) es divisible por la derecha y por la izquierda por (  I-A) sin residuos, entonces P(A)=a 0 I+a 1 AI+...+A n I
  • 147.
    Valores y vectorespropios Definición. Se dice que el polinomio F(  ) es un polinomio aniquilador de la matriz A (n,n) si F(A)=0 (p.e. el polinomio característico de A) Definición. Al polinomio aniquilador mónico Q(  ) de A de menor grado se le conoce como polinomio mínimo de A.
  • 148.
    Diagonalización de matricesDefinición. Se dice que A (n,n) es diagonalizable (bajo similaridad) si existe una matriz no singular P tal que P-1AP es diagonal
  • 149.
    Diagonalización de matricesTeorema. La matriz A (n,n) es diagonalizable ssi tiene n vectores propios linealmente independientes Si  1 ,  2 , ...,  n son los valores propios de A y los vectores propios x 1 , x 2 , ..., x n correspondientes a estos valores propios son linealmente independientes, entonces P -1 AP=diag{  1 ,  2 , ...,  n }, donde P=[x 1 x 2 ... X n ]
  • 150.
    Diagonalización de matricesDemostración. (si) Suponga que A tiene n vectores propios L.I. x 1 x 2 ... x n correspondientes a los valores propios  1 ,  2 , ...,  n (algunos pueden ser repetidos). Sea P la matriz [x 1 x 2 ... x n ], entonces AP= [Ax 1 Ax 2 ... Ax n ]= [  1 x 1  2 x 2 ...  n x n ] = [x 1 x 2 ... x n ]diag{  1 ,  2 , ...,  n } =Pdiag{  1 ,  2 , ...,  n } Como P es no singular  tiene inversa P -1 AP=diag{  1 ,  2 , ...,  n }
  • 151.
    Diagonalización de matricesDemostración. (sólo si) Suponga que existe una matriz no singular P tal que P -1 AP=diag{  1 ,  2 , ...,  n } AP=Pdiag{  1 ,  2 , ...,  n } Para cada xi de P se tiene que: Ax i =  i x  xi es vector propio de A  i es valor propio de A P es no singular  A tiene n vectores propios L.I.
  • 152.
    Diagonalización de matricesCorolario. La matriz A (n,n) es diagonalizable ssi la multiplicidad geométrica de cada valor propio es igual a su multiplicidad algebraica. En particular A es diagonalizable si todos sus valores propios son distintos
  • 153.
    Diagonalización de matricesTeorema. Si A y B son similares, entonces tienen el mismo polinomio característico, y por consiguiente los mismos valores propios. Demo. det(  I-B)=det(  I-P -1 AP)=det(  P -1 P-P -1 AP)=det(P -1 (  I-A)P)=det(P -1 )det(  I-A)det(P)=det(  I-A)
  • 154.
    Diagonalización de matricesTeorema. Si A y B son similares, i.e. existe una matriz no singular tal que B=P -1 AP. Entonces: i) B k =P -1 A k P ii)Si f(x)=a 0 +a 1 x+...+a n x n es un polinomio cualquiera, entonces f(B)=P -1 f(A)P
  • 155.
    Diagonalización de matricesDemo B k =(P -1 AP) k = =(P -1 AP)(P -1 AP)...(P -1 AP)= P -1 A k P ii)Si f(B)=a 0 I+a 1 (P -1 AP)+...+a n (P -1 A n P)= =P -1 (a 0 +a 1 A+...+a n A n )P=P -1 f(A)P
  • 156.
  • 157.
    Diagonalización de matricesTiene dos propio valores  1 =1,  2 =2 con multiplicidades algebraicas 2 y 1 y geométricas 1 y 1 respectivamente  no es posible diagonalizar A, pero ¿es posible encontrar una bse donde A sea casi diagonal?
  • 158.
    Diagonalización de matricesDefinición.- Un vector v es llamado un vector propio generalizado de rango k de A asociado con  iff (A-  I) k v=0 (A-  I) k-1 v  0 Note que si k=1 coincide con vector propio
  • 159.
    Diagonalización de matricesDefinición.- v k =v  vector propio generalizado v k-1 =(A-  I)v=(A-  I)v k v k-2 =(A-  I) 2 v=(A-  I)v k-1 ... v 1 =(A-  I) k-1 v=(A-  I)v 2
  • 160.
    Diagonalización de matrices... v k-2 =(A-  I) 2 v=(A-  I)v k-1 ... Entonces para 1  i  k v i es un vector propio generalizado de rango i, por ejemplo (A-  I) k-2 v k-2 =(A-  I) k-2 (A-  I) 2 v=(A-  I) k v=0 (A-  I) k-1 v k-2 =(A-  I) k-1 v  0
  • 161.
    Diagonalización de matricesDefinición.- Lleamaremos a los vectores {v 1 , v 2 ,...,v k } una cadena de vectores propios generalizados si v k es un vector propio generalizado que dio origen a todos los demás vectores
  • 162.
    Diagonalización de matricesTeorema. El conjunto de vectores propios generalizados v 1 , v 2 , ..., v k definidos anteriormente es L.I. Demostración.- Suponer que v 1 , v 2 , ..., v k son L.D., entonces existen soluciones diferentes de la trivial a:  1 v 1 +  2 v 2 +...+  k v k =0 Multiplicando por (A-  I) k-1 y observando que v i =v k-(k-i) =(A-  I) k-i v  por definición
  • 163.
    Diagonalización de matricesentonces (A-  I) k-1 v i =(A-  I) 2k-(i+1) v=0 para i=1,2,...,k-1  k (A-  I) k-1 v k =0 y sabiendo de la def. de vector propio generalizado que (A-  I) k-1 v k  0,   k =0 Aplicando ahora (A-  I) k-2 se demuestra que  k-1 =0 Siguiendo esto se tiene que  i =0, lo que contradice la suposición.  son L.I.
  • 164.
    Diagonalización de matricesTeorema: Los vectores propios generalizados de A asociados con diferentes propio valores son L.I. Demostración. Sea v vector propio generalizado   1 v i =(A-  1 I)v i+1 =(A-  1 I) k-i v Sea u vector propio generalizado   2 u i =(A-  2 I)u i+1 =(A-  2 I) l-i u Del teorema anterior los v i son L.I. y los u i son L.I, falta ver que {u i }, {v i } son L.I.
  • 165.
    Diagonalización de matricesSuponer que vi es L.D. en {u1,...,ul} v i =  1 u 1 +  2 u 2 +...+  l u l Aplicando (A-  1 I) i 0= (A-  1 I) i [  1 u 1 +  2 u 2 +...+  l u l  ] Ahora aplicando (A-  2 I) l-1 y observando que (A-  2 I) l-1 (A-  1 I) i = (A-  1 I) i (A-  2 I) l-1 y el hecho de que (A-  2 I) l-1 u j =0, j=1,2,..., l-1 0=  l (A-  1 I) i (A-  2 I) l-1 u l =  l (A-  1 I) i u 1 Como (A-  2 I)u1=0 o Au1=  2 u1, la ecuación anterior se reduce a  l (  2 -  1 ) i u 1 =0
  • 166.
    Diagonalización de matricesse reduce a  l (  2 -  1 ) i u 1 =0 lo cual implica que  l =0. Un procedimiento similar llega a la conclusión de que todos los  i =0, lo que contradice la suposición y los vectores son L.I.
  • 167.
    Diagonalización de matricesTeorema. Sean u y v propio vectores de rango o y l respectivamente, asociados con el mismo valor propio  . v i =(A-  I)v i+1 =(A-  1 I) k-i v u i =(A-  I)u i+1 =(A-  2 I) l-i u Si u 1 y v 1 son L.I.  las cadenas son L.I.
  • 168.
    Diagonalización de matricesEl tratar de construir la forma casi diagonal (diagonal por bloques o forma de Jordan) se convierte en un proceso iterativo. 1.- se calculan propio valores y propio vectores de la forma tradicional. 2.- Si la multiplicidad algebraica es mayor que la geométrica  tratar de encontrar una cadena lo suficientemente larga de vectores generalizados para construir los vectores L.I. independientes faltantes, de lo contrario construir cadenas más pequeñas hasta completarlos
  • 169.
    Matrices unitarias SiP es no singular  B=P -1 AP transformación de similaridad Sirven para cambio de bases Más conveniente si las bases son ortogonales y ortonormales Si {x 1 ,...,x p } es un conjunto ortonormal  x i T x i =1 y x i T x j =0 Si hacemos que P=[x 1 ,...,x p ]  P T P=I o P T =P -1
  • 170.
    Matrices unitarias Definición.Una matriz P (de reales) para la cual P T =P -1 tal que P T P=I, se dice ser unitaria. Teorema. a) P unitaria  el conjunto de vectores columna es ortonormal b) P unitiaria  |det(P)|=1 c) P unitaria  <PX,Py>=<x,y> d) P unitaria  si  valor propio de P  |  |=1 Demo. Clara
  • 171.
    Matrices unitarias Teorema. Si B=P -1 AP donde P es unitaria (se dice transformación de similaridad unitaria)  todo lo que se vió de propiedades de similaridad sigue valiendo.
  • 172.
    Matrices unitarias Teorema. Si A es una matriz de pxp. a) A es similar unitaria a una matriz triangular superior T; T=P -1 AP con P unitaria y con los propiovalores de A en su diagonal principal. T es llamada la forma de Shur de A y la descomposición A=PTP -1 = PTP T es la descomposición Shur de A. Demo. Si p=1 ya terminamos. Suponer que para p=k es cierto Para p=k+1 tenemos.
  • 173.
    Matrices unitarias 1 es el propio valor asociado a x 1 , podemos normalizar este vector para que ||x 1 || 2 =1 Entonces x1 entra a la base que ya teníamos de propiovectores ortonormalizados {w 1 ,...,w k } si no es otronormal a esta base, aplicamos Gram-Schmidt y tenemos la nueva base {x 1 ,w 1 ,...,w k } U= [x 1 ,w 1 ,...,w k ]=[x 1 ,W] A’=U T AU=[x 1 ,W] T A[x 1 ,W]=[x 1 ,W] T [Ax 1 AW]= =  1 x 1 T AW 0 W T AW  1 b T 0 C
  • 174.
    Matrices unitarias Definición.Una matriz A de pxp es normal si A T A=AA T Teorema. A normal  D=P T AP, D es diagonal, y P es unitaria. Por tanto los propio vectores de A son p linealmente independientes
  • 175.
    Matrices unitarias Veamosahora el caso en que A=U  V T , con U y V unitarias de pxp y qxq,  es pxq casi cero, excepto en la diagonal que vale  ii =  i que es un real no negativo. Así son  2 0 0 0 0 0 3 0 0 0 2 0 4 0 0 6 0 0
  • 176.
    Matrices unitarias Claramentese tendría AV=U   Av i =  i u i para 1  i  min(p,q), dende los u i , v i son las columnas de U y V respectivamente. Además A T A= (U  V T ) T (U  V T )=V  T U T U  V T =V(  T  )V T donde  T  =D=VTA T AV es diagonal de qxq  que los propio vectores de A T A sirven para construir V y D tiene los valores propios D=  T  Similarmente para el caso AA T =U(  T  )U T  en este caso D=  T
  • 177.
    Matrices unitarias Definición.A la descomposición que hemos venido manejando, A=U  V T , se le conoce como descomposición en valores singulares de A. Viendo lo que hicimos para la descomposición de Schur, podemos ver que la descomposición en valores singulares siempre existe. Los valores singulares de A son los  i , y el número de valores no cero es el rango de A. Los u i son los vetores singulares izquierdos y los v i los vectores singulares derechos relacionados con  i .
  • 178.
    A= A TA propiovalores 18 y 0.   1=18 (1/2) y  2=0 Un par de vectores propios de A T A normalizados son v1=[1.71/2 1.71/2] T y v2=[1.71/2 -1.71/2] T Entonces V=[V1 v2] 1 1 2 2 2 2 9 9 9 9
  • 179.
    A= AA T= propiovalores 18 y 0.   1=18 y  2=0 Vectores propios de AA T normalizados son u1=[1/3 2/3 2/3] T u2=[(-2)5 1/2 /5 5 1/2 /5 0] T u3 =[(2)5 1/2 /15 (4)5 1/2 /15 (-1)5 1/2 /3 ] T Entonces U=[u1 u2 u3] 1 1 2 2 2 2 2 4 4 4 8 8 4 8 8
  • 180.
    A= AA T= 1 1 2 2 2 2 2 4 4 4 8 8 4 8 8 3(2) 1/2 0 0 0 0 0
  • 181.
    Mínimos cuadrados Suponerque A=U  V T , es la descomposición en valores singulares, donde A es de rango k. El problema es minimizar ||Ax-b||2 con respecto a x. ||Ax-b|| 2 =||U  V T x-b|| 2 =||  y-U T b|| 2 y=VTx  ||Ax-b|| 2 es mínimo cra x ssi ||  y-U T b|| 2 es mínimo cra y. ||  y-b’|| 2 2 =|  1y 1 -b 1 ’| 2 +...+|  k y k -b k ’| 2 +|b k+1 ’| 2 +...+|b p ’| 2 b’=U T b Es minimizado si y i =b i ’/  i
  • 182.
    Mínimos cuadrados Entoncespara ||Ax-b||2 con respecto a x. Encontrar A=U  V T Calcular b’=U T b Calcular y i =b i ’/  i para 1  i  k, y i =0 otro caso x 0 =Vy y=VTx  ||Ax-b|| 2 es mínimo cra x ssi ||  y-U T b|| 2 es mínimo cra y. ||  y-b’|| 2 2 =|  1y 1 -b 1 ’| 2 +...+|  k y k -b k ’| 2 +|b k+1 ’| 2 +...+|b p ’| 2 b’=U T b Es minimizado si y i =b i ’/  i