SlideShare una empresa de Scribd logo
UNIVERSIDAD MAYOR DE SAN ÁNDRES

  FACULTAD DE CIENCIAS PURAS Y NATURALES

         CARRERA DE ESTADÍSTICA




       INTRODUCCIÓN A LA


DESCRIPCIÓN E INFERENCIA LINEAL


          EN ESTADÍSTICA

       POR: DR. ROLANDO MORALES A.




               LA PAZ, ENERO 1992
TABLA DE MATERIAS

                                                                              PRESENTACIÓN


PARTE A: ..................................................................................................................................................... 1
ELEMENTOS BÁSICOS DE ........................................................................................................................ 1
ALGEBRA LINEAL ...................................................................................................................................... 1
    CAPÍTULO I.     CONCEPTOS BÁSICOS .................................................................................................................................. 2
      1.     INTRODUCCIÓN.......................................................................................................................................................... 2
      2.     ESPACIOS VECTORIALES ......................................................................................................................................... 3
      3.     ESPACIOS VECTORIALES "V=Kn EN K" DONDE K ES UN CUERPO ........................................................................ 6
      4.     ESPACIOS VECTORIALES DE MATRICES .............................................................................................................. 11
      5.     SUB-ESPACIOS VECTORIALES ............................................................................................................................... 13
      6.     SUBESPACIOS GENERADOS POR UN CONJUNTO DE VECTORES ..................................................................... 14
          a.    Combinaciones lineales de vectores ..................................................................................................................... 14
          b.    Conjuntos generadores, espacios generados por un conjunto de vectores............................................................ 14
      7.     DEPENDENCIA E INDEPENDENCIA LINEAL ........................................................................................................... 15
          a.    Dependencia lineal................................................................................................................................................ 15
          b.    Independencia lineal ............................................................................................................................................. 15
          c.    Consecuencias de las definiciones........................................................................................................................ 16
      8.     DIMENSIÓN DE UN ESPACIO VECTORIAL.............................................................................................................. 17
      9.     BASE DE UN ESPACIO VECTORIAL ........................................................................................................................ 17
      10.    CAMBIOS DE BASE................................................................................................................................................... 18
      11.    DUALIDAD EN LOS CAMBIOS DE BASE .................................................................................................................. 21
    CAPÍTULO II.        APLICACIONES LINEALES Y MATRICES............................................................................................... 25
      1.     DEFINICIÓN............................................................................................................................................................... 25
      2.     ALGUNAS CONSECUENCIAS IMPORTANTES DE LA DEFINICIÓN........................................................................ 26
      3.     APLICACIONES LINEALES Y MATRICES: MATRIZ DE UNA APLICACION LINEAL f. ............................................ 28
      4.     APLICACIONES LINEALES CUANDO E=Kn Y F=Km EN K ........................................................................................ 28
          a.    Una aplicación lineal como una combinación lineal en F ....................................................................................... 28
          b.    Producto de una matriz por un vector .................................................................................................................... 29
          c.    Suma de aplicaciones lineales y suma de matrices ............................................................................................... 30
          d.    Composición de aplicaciones lineales y producto de matrices............................................................................... 30
          e.    Caracterizaciones relativas al rango de una matriz................................................................................................ 31
      5.     APLICACIONES LINEALES INVERSAS E INVERSOS DE MATRICES ..................................................................... 32
      6.     ALGORITMO DE INVERSIÓN DE UNA MATRIZ ....................................................................................................... 35
      7.     INVERSIÓN DE MATRICES PARTICIONADAS ......................................................................................................... 37
      8.     DETERMINANTES..................................................................................................................................................... 38
          a.    Definición .............................................................................................................................................................. 38
          b.    Algoritmo de cálculo de un determinante............................................................................................................... 38
          c.    Determinantes de matrices particionadas .............................................................................................................. 39
          d.    Determinante del producto de 2 matriz de rango máximo...................................................................................... 39
      9.     FACTORIZACIÓN DE UNA MATRIZ SINGULAR ....................................................................................................... 40
      10.    NUCLEO DE UNA APLICACIÓN LINEAL Y NUCLEO DE UNA MATRIZ.................................................................... 42
      11.    INVERSOS GENERALIZADOS DE MATRICES ......................................................................................................... 44
      12.    ALGUNAS APLICACIONES LINEALES PARTICULARES.......................................................................................... 46
    CAPÍTULO III.       SISTEMAS DE ECUACIONES LINEALES............................................................................................... 51
      1.     PLANTEAMIENTO DEL PROBLEMA ......................................................................................................................... 51
      2.     CARACTERIZACIONES INICIALES DEL ESPACIO DE SOLUCIONES..................................................................... 51
          a.    Consistencia.......................................................................................................................................................... 51
          b.    Redundancia ......................................................................................................................................................... 52
          c.    Soluciones múltiples.............................................................................................................................................. 53
          d.    Número máximo de vectores LIN en S .................................................................................................................. 53
      3.     SOLUCIONES BASICAS A UN SISTEMA DE ECUACIONES LINEALES .................................................................. 54
      4.     UN ALGORITMO DE RESOLUCION Y ANÁLISIS DE UN SISTEMA DE ECUACIONES LINEALES.......................... 55
          a.    Rango de A. .......................................................................................................................................................... 57
          b.    Consistencia.......................................................................................................................................................... 57
          c.    Soluciones básicas................................................................................................................................................ 57
          d.    Solución única....................................................................................................................................................... 57
          e.    Soluciones múltiples.............................................................................................................................................. 58
      5.     SISTEMAS DE ECUACIONES CON LA RESTRICCION DE QUE LAS SOLUCIONES SEAN NO NEGATIVAS ........ 58




                                                                                            ii
CAPÍTULO IV.      FORMAS BILINEALES ............................................................................................................................. 62
      1.    DEFINICIÓN............................................................................................................................................................... 62
      2.    FORMAS BILINEALES Y MATRICES ........................................................................................................................ 63
      3.    DISTANCIAS.............................................................................................................................................................. 64
      4.    NORMAS Y ESPACIOS VECTORIALES NORMADOS .............................................................................................. 66
      5.    PRODUCTOS ESCALARES ...................................................................................................................................... 67
      6.    EXTENSIONES DEL PRODUCTO ESCALAR CLÁSICO EN Rn ................................................................................. 68
         a.    Norma euclidiana .................................................................................................................................................. 68
         b.    Distancia euclidiana .............................................................................................................................................. 69
         c.    Ángulo entre dos vectores..................................................................................................................................... 70
         d.    Ortogonalidad........................................................................................................................................................ 72
      7.    BASES ORTOGONALES Y BASES ORTONORMADAS EN Rn ................................................................................. 73
      8.    MATRICES Y PRODUCTO ESCALAR CLASICO EN Rn ............................................................................................ 74
      9.    PRODUCTO ESCALAR GENERALIZADO EN Rn ...................................................................................................... 74
    CAPITULO V.      LA ESPERANZA MATEMATICA COMO OPERADOR LINEAL ................................................................ 76
      1.    ESPERANZAS MATEMÁTICAS ................................................................................................................................. 76
      2.    VARIANZAS Y COVARIANZAS.................................................................................................................................. 78
      3.    ESPERANZA MATEMÁTICA DE UNA FORMA QUADRÁTICA .................................................................................. 81
    CAPÍTULO VI.      DERIVACIÓN CON VECTORES Y MATRICES ........................................................................................ 82
      1.    CONVENCIONES GENERALES ()............................................................................................................................. 82
      2.    DERIVADAS DE FORMAS LINEALES ....................................................................................................................... 85
      3.    DERIVADAS DE FORMAS CUADRÁTICAS............................................................................................................... 86
      4.    PROBLEMAS DE OPTIMIZACIÓN ............................................................................................................................. 87
    CAPÍTULO VII.     VALORES Y VECTORES PROPIOS DE MATRICES SIMÉTRICAS ......................................................... 93
      1.    DEFINICIONES .......................................................................................................................................................... 93
      2.    POLINOMIO CARACTERÍSTICO ............................................................................................................................... 94
      3.    LA PROPIEDAD DE ORTOGONALIDAD DE LOS VECTORES PROPIOS ................................................................ 95
      4.    LA DESCOMPOSICIÓN ESPECTRAL DE UNA MATRIZ SIMÉTRICA....................................................................... 96
      5.    CARACTERIZACIONES POR MEDIO DE LOS VALORES PROPIOS ....................................................................... 97
      6.    FORMAS CUADRÁTICAS Y VALORES PROPIOS .................................................................................................... 98
      7.    VALORES SINGULARES Y DESCOMPOSICIÓN SINGULAR DE UNA MATRIZ RECTANGULAR ......................... 100
      8.    EL INVERSO GENERALIZADO DE PENROSE DE UNA MATRIZ RECTANGULAR................................................ 102
      9.    RESOLUCIÓN DE ECUACIONES LINEALES POR MEDIO DEL INVERSO ............................................................ 103
      GENERALIZADO DE PENROSE. PROPIEDADES DE LAS SOLUCIONES ....................................................................... 103
    CAPÍTULO VIII.    LA DESIGUALDAD DE SCHWARTZ Y OTRAS DESIGUALDADES UTILES EN ESTADISTICA .......... 104
      1.    LA DESIGUALDAD DE SCHWARTZ Y SUS EXTENSIONES .................................................................................. 104
      2.    LA DESIGUALDAD TRIANGULAR Y SUS EXTENSIONES ..................................................................................... 106
      3.    IGUALDADES Y DESIGUALDADES UTILIZANDO TRANSFORMACIONES ORTOGONALES. .............................. 108
      4.    OTRAS DESIGUALDADES UTILES......................................................................................................................... 109
      5.    LOS PROBLEMAS DE PROCUSTE......................................................................................................................... 110
    ANEXOS DE LA PARTE A. ..................................................................................................................................................... 112
    PROGRAMACIÓN LINEAL EL ALGORITMO DEL SIMPLEX ................................................................................................ 112
      1.    PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 112
      2.    REPASO DE ALGUNOS CONCEPTOS BÁSICOS DE TOPOLOGIA. ...................................................................... 114
      3.    CARACTERIZACIÓN DE LAS SOLUCIONES A UN PROGRAMA LINEAL .............................................................. 126
      4.    ALGORITMO DEL SIMPLEX.................................................................................................................................... 135
PARTE B: ................................................................................................................................................. 138
MODELOS LINEALES ............................................................................................................................. 138
    CAPITULO IX.   INTRODUCCIÓN..................................................................................................................................... 139
      1.   MODELOS LINEALES Y CAUSALIDAD EN ESTADÍSTICA ..................................................................................... 139
      2.   EL MODELO LINEAL. NOTACION Y DEFINICIONES.............................................................................................. 141
    CAPÍTULO X.    ESTIMACIÓN POR MÍNIMOS CUADRADOS DE UN MODELO LINEAL ............................................... 142
      1.   PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 142
      2.   EL CRITERIO DE ESTIMACION DE MINIMOS CUADRADOS DE p........................................................................ 142
      3.   LA SOLUCIÓN DE MÍNIMOS CUADRADOS............................................................................................................ 144
      4.   EL TEOREMA DE LA PROYECCIÓN....................................................................................................................... 147
      5.   DESCOMPOSICIÓN DE LA VARIANZA.-................................................................................................................. 149
    DESCOMPOSICIÒN TRIANGULAR DE LA NORMA .............................................................................................................. 151
      6.   CORRELACION PARCIAL ....................................................................................................................................... 155
    CAPÍTULO XI    VECTOR ALEATORIO NORMAL Y VARIABLES ALEATORIAS QUE LE SON DEDUCIDAS............... 157
      1.   EL VECTOR NORMAL ESTÁNDAR ......................................................................................................................... 157
      2.   NOTA SOBRE LOS CAMBIOS DE VARIABLE EN LA INTEGRACION .................................................................... 158
      3.   FUNCIONES LINEALES DE VARIABLES NORMALES ........................................................................................... 159
      4.   FUNCIONES CUADRATICAS DE VARIABLES NORMALES ESTANDAR ............................................................... 165
      5.   VARIABLE DE STUDENT ........................................................................................................................................ 165




                                                                                         iii
6.  VARIABLE DE FISHER ............................................................................................................................................ 165
        7.  EXTENSIONES CON VECTORES NORMALES QUE NO SON ESTÁNDAR........................................................... 166
         a.    Variable Chi-Cuadrado con n grados de libertad ................................................................................................. 166
         b.    Variables Chi-Cuadrado y formas cuadráticas X'QX donde la matriz Q es un proyector de rango r. .................... 167
      8.    INDEPENDENCIA DE FORMAS LINEALES Y CUADRATICAS DE VECTORES NORMALES ESTANDAR ............ 168
         a.    Independencia de dos formas lineales................................................................................................................. 168
         b.    Independencia de una forma lineal y de una forma cuadrática ............................................................................ 169
         c.    Independencia de dos formas cuadráticas........................................................................................................... 170
    CAPÍTULO XII.     HIPOTESIS ALEATORIAS EN EL MODELO LINEAL ............................................................................ 171
      1.    LAS HIPOTESIS SIMPLES: NORMALIDAD, INDEPENDENCIA Y HOMOCEDASTICIDAD..................................... 171
      ESQUEMA DE CAUSALIDAD............................................................................................................................................. 171
      2.    FUNCIONES DE DISTRIBUCION DEDUCIDAS DE LA HIPOTESIS SIMPLE PARA LOS ESTIMADORES Y OTROS
      ESTADISTICOS.................................................................................................................................................................. 172
      3.    TESTS DE HIPOTESIS SIMPLE PARA LOS ESTIMADORES DE CADA UNO DE LOS PARAMETROS ................ 176
      4.    ANÁLISIS DE LA VARIANZA Y TEST COMPUESTO PARA UN CONJUNTO DE HIPOTESIS SIMULTÁNEAS ..... 176
    CAPÍTULO XIII.    LA ESTIMACIÓN MÁXIMO VEROSIMIL DE UN MODELO LINEAL....................................................... 180
      1.    PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 180
      2.    LA ESTIMACIÓN DEL MODELO CON Ω CONOCIDA.............................................................................................. 181
      3.    LA ESTIMACIÓN DEL MODELO CON Ω DESCONOCIDA ...................................................................................... 182
    CAPITULO XIV.     ASPECTOS PRÁCTICOS RELATIVOS A LA REGRESIÓN LINEAL ..................................................... 184
      1.    LA REGRESIÓN POR ETAPAS ............................................................................................................................... 184
      2.    AUTOMATICIDAD DE LOS CÁLCULOS DE REGRESIÓN ...................................................................................... 186
PARTE C................................................................................................................................................... 188
DISEÑO DE EXPERIMENTOS................................................................................................................. 188
    CAPITULO XV.      INTRODUCCIÒN..................................................................................................................................... 189
    CAPITULO XVI.     LOS MODELOS LINEALES SINGULARES ............................................................................................ 191
      1.     DEFINICIONES Y PLANTEAMIENTO DEL PROBLEMA.......................................................................................... 191
      2.     TÈCNICAS DE ESTIMACIÒN DE FUNCIONES LINEALES DE LOS PARÀMETROS .............................................. 191
          a.   Inversos generalizados........................................................................................................................................ 191
          b.   Base para un espacio vectorial............................................................................................................................ 192
          c.   Restricciones líneales sobre los parámetros........................................................................................................ 192
    CAPÍTULO XVII.       ESTIMACIÓN MÍNIMO CUADRÁTICA CON RESTRICCIONES LINEALES SOBRE LOS
    PARÁMETROS           193
      1.     PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 193
      2.     CARACTERIZACION DE LAS SOLUCIONES AL PROBLEMA DE REGRESION LINEAL CON RESTRICCIONES
      SOBRE LOS PARÁMETROS.............................................................................................................................................. 195
          a.   Condiciones de rango para la existencia de una solución única .......................................................................... 195
          b.   Condiciones de rango para que exista una solución única e igual al punto óptimo sin restricciones .................... 197
    CAPÍTULO XVIII.      PROYECCIONES Y PROYECTORES ................................................................................................ 198
      1.     PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 198
      2.     SUMA DIRECTA ...................................................................................................................................................... 198
      3.     PROYECCIÓN ......................................................................................................................................................... 199
      4.     PROYECTOR........................................................................................................................................................... 199
      5.     PROYECTORES ORTOGONALES .......................................................................................................................... 202
      6.     EXPRESIÓN EXPLICITA DE UN PROYECTOR ORTOGONAL ............................................................................... 203
      7.     LAS ECUACIONES NORMALES ............................................................................................................................. 204
      8.     SECUENCIA DE PROYECTORES ORTOGONALES Y PROPIEDADES ................................................................. 204
      9.     UNA SECUENCIA PARTICULAR DE PROYECTORES ORTOGONALES ............................................................... 207
      10.    OTRAS PROPIEDADES DE LOS PROYECTORES................................................................................................. 208
      11.    DESCOMPOSICIÓN DE LA VARIANZA EN EL MARCO DE LOS MODELOS DE "ANÁLISIS DE LA VARIANZA"
      CORRIENTES EN LOS DISEÑOS DE EXPERIMENTOS ................................................................................................... 210
    TABLA DE ANÁLISIS DE LA VARIANZA ............................................................................................................................... 211
    ANEXOS DE LA PARTE C ...................................................................................................................................................... 213
      A.     UNA CLASE PARTICULAR DE INVERSOS GENERALIZADOS .............................................................................. 213
          1.    PRESENTACIÓN ............................................................................................................................................... 213
          2.   ALGUNAS CONSECUENCIAS ........................................................................................................................... 214
          3.   DEMOSTRACIÓN ............................................................................................................................................... 214
      B.     SOBRE UNA CLASE PARTICULAR DE SOLUCIONES A UN SISTEMA DE ECUACIONES LINEALES ................. 217
          1.   PRESENTACIÓN................................................................................................................................................ 217
          2.   COMPROBACIÓN .............................................................................................................................................. 217
          3.   EXTENSIÓN ....................................................................................................................................................... 218
PARTE D................................................................................................................................................... 219
ELEMENTOS DE...................................................................................................................................... 219
ANALISIS MULTIVARIANTE ................................................................................................................... 219




                                                                                         iv
CAPITULO XIX.      ANÁLISIS FACTORIAL........................................................................................................................... 220
     1.    PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 220
     2.    NOCION DE INERCIA DE UNA NUBE DE PUNTOS ............................................................................................... 221
     3.    EL MODELO DE MINIMOS CUADRADOS............................................................................................................... 225
     4.    LA DUALIDAD DE LOS ANALISIS POR LINEAS Y POR COLUMNAS DE UNA MATRIZ DE OBSERVACIONES ... 229
   CAPÍTULO XX.       ANÁLISIS EN CORRELACIONES CANÓNICAS .................................................................................... 231
     1.    EL MARCO GENERAL DEL CONCEPTO DE CORRELACION EN ESTADÍSTICA.................................................. 231
        a.    Correlación como medida de dependencia lineal................................................................................................. 231
        b.    El coeficiente de correlación Lineal Simple.......................................................................................................... 231
        c.    Correlación Múltiple............................................................................................................................................ 233
        d.    Correlación parcial .............................................................................................................................................. 234
        e.    Correlación canónica........................................................................................................................................... 235
     2.    LA BATERIA DE CORRELACIONES CANONICAS.................................................................................................. 235
   CAPÍTULO XXI.       ANÁLISIS EN CORRESPONDENCIAS PRINCIPALES ......................................................................... 240
     1.    INTRODUCCIÓN...................................................................................................................................................... 240
     2.    PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 240
     3.    DESCOMPOSICIÓN SINGULAR ............................................................................................................................. 241
     4.    PROPIEDADES DE LA DESCOMPOSICIÓN SINGULAR DE C=P-½TQ-½ ............................................................... 242
     5.    MEDIAS, VARIANZAS, COVARIANZAS, CORRELACIONES .................................................................................. 244
     6.    LOS EFECTOS CRUZADOS DE LINEAS Y COLUMNAS ........................................................................................ 247
     7.    REPRESENTACIONES GRÁFICAS......................................................................................................................... 251
     8.    CONCENTRACIÓN O COMPACTACIÓN................................................................................................................. 252
     9.    COMENTARIOS FINALES ....................................................................................................................................... 254
BIBLIOGRAFIA ........................................................................................................................................ 255




                                                                                        v
PRESENTACIÓN



El presente trabajo es el resultado del acopio y ordenamiento de notas de los cursos dictados por su
autor entre 1976 y 1990 en la Carrera de Estadística de la Facultad de Ciencias Puras y Naturales.

Estas notas han podido concretizarse en el presento texto gracias al apoyo que la Universidad de
San Andrés de La Paz prestó al autor concediéndole un año sabático entre abril 1990 y abril 1991.

Este texto está dedicado, en primera instancia, a los alumnos sin los cuales sería muy difícil que los
profesores puedan cristalizar sus conocimientos, siendo, de todas maneras obvio que lo contrario no
es forzosamente cierto...

El texto está organizado para hacer parte de 4 cursos diferentes de 1 semestre. El primero
constituye una introducción al Algebra Lineal con una orientación particular hacia sus aplicaciones
en estadística. Contiene además un capítulo relativo a la Programación Lineal. El segundo curso es
de modelos lineales, el tercero, de diseño de experimentos y el cuarto de análisis multivariante.



Rolando Morales
Universidad de San Andrés
La Paz - Bolivia




                                             vi
PARTE A:


ELEMENTOS BÁSICOS DE


   ALGEBRA LINEAL




         1
CAPÍTULO I.               CONCEPTOS BÁSICOS




1.        INTRODUCCIÓN



En matemáticas aplicadas, sobre todo en varias de las ramas de estadística y de investigación operativa, el
investigador trabaja con grandes cantidades de datos que, en general, se presentan en la forma de tablas de
n líneas y m columnas de números reales.

Los elementos de cualquier columna (o línea) de esta tabla pueden ser interpretados como las coordenadas
                  n       m
de un punto en R (o en R ).
La distancia de uno de estos puntos al origen, como se verá posteriormente, puede ser asociada al concepto
                            1
de varianza en estadística y el ángulo que dos de estos puntos forman con el origen al concepto de
correlación. La regresión lineal puede considerarse come una proyección ortogonal de un punto sobre un
espacio vectorial.

De manera a conceptualizar correctamente el enfoque geométrico de algunas ramas de la estadística así
como de la investigación operativa conviene considerar esos puntos como elementos de un espacio vectorial
y las tablas de números como matrices. Esta observación lleva naturalmente a introducir los espacios
vectoriales.

Las reflexiones anteriores ponen el acento en la importancia de espacios vectoriales conformados por n-
uplas de números reales.
Sin embargo, muchas aplicaciones necesitan también la consideración de espacios vectoriales de n-uplas
de números complejos.

El presente texto supone que los estudiantes han seguido previamente un curso de Algebra Lineal, limitando
muchos de los desarrollo posteriores a espacios vectoriales conformados por n-uplas de reales o complejos.




      1
          La distancia es múltiplo de la varianza




                                                    2
2.      ESPACIOS VECTORIALES



El juego de ajedrez (o todo otro juego) tiene un soporte, las fichas y el tablero, y un conjunto de reglas que
definen las "operaciones" o jugadas posibles. Aún si es banal, cabe señalar que ninguna ficha puede jugar
fuera del tablero y que todas ellas pueden desplazarse sólo según las reglas predefinidas del juego (por
ejemplo, un caballo no puede desplazarse en línea recta).

La expresión "puede" en este caso no significa una limitación absoluta, mas implica que toda violación a las
reglas significa que ya no se trata de un juego de ajedrez....




         Un espacio vectorial es definido a través de:

        -un conjunto de elementos V
        -un cuerpo K

         y un conjunto de reglas o de operaciones que se ejecutan al interior de V.

         Estas operaciones son de dos tipos:

        -las que se refieren sólo a los elementos de V (reglas o leyes de composición interna)

        -las que combinan elementos del cuerpo K con los de los elementos del conjunto V para
         dar lugar a otros elementos de V (reglas o leyes de composición externa)




En el recuadro, se introduce V como un conjunto de elementos cualquiera. No es el caso de K, el cual tiene
una estructura de cuerpo. En matemáticas aplicadas, K con frecuencia es el cuerpo de reales R o el de
complejos C.

La ley de composición interna asocia a 2 ó más elementos de V un tercer elemento, también en V. Con
frecuencia se la denomina suma y se la abrevia + por que en los espacios vectoriales compuestos por todas
las n-uplas de números reales, esta ley equivale a la suma en los reales. No obstante, si V es un conjunto
cualquiera, esta abreviación puede prestar a confusión.




                                                         3
La ley de composición interna en V asocia a 2 o más de sus elementos un tercer elemento
          también en V con las características siguientes:

          1.     Es una ley conmutativa en el sentido en que si X+Y = Z también Y+X = Z

          2.     Es una ley asociativa en el sentido en que si X+Y = A y Y+Z=B, se tiene A+Z = X+B

          3.      En relación a la ley de composición interna, para que V sea un espacio vectorial
          4.      tiene que existir en V un elemento neutro 0 común a todos sus elementos tal que
                  para cualquier X en V, X+0 = X

          5.      En forma simétrica al punto anterior, para que V sea un espacio vectorial, para
                                                                       *            *
                  cada X en V tiene que existir un elemento simétrico X tal que X+X = 0




La ley de composición externa asocia a uno (ó varios) elementos de V y a uno (ó varios) elementos de K
(denominados escalares) un elemento de V. Con frecuencia se la denomina "multiplicación por un escalar" y
se la abrevia con un punto (.) por que en los espacios vectoriales compuestos por todas las n-uplas de
números reales, esta ley equivale a la multiplicación en los reales.

No obstante, como en el caso de la ley de composición interna, si V es un conjunto cualquiera, esta
                                      2
abreviación puede presta a confusión ( ).




      2
       )          Desde el momento en que se usa el símbolo suma, el estudiante tiene la tendencia a
                  asimilar esta operación a la suma de los reales y se pregunta por qué complicar tanto una
                  operación tan simple...que la conocía desde el primer año básico.




                                                       4
La ley de composición externa está definida como sigue:

    Para todo X en V y para todo escalar a en K, a.X es un elemento de V.

    La ley de composición externa verifica los axiomas siguientes:

    1.      La ley de composición externa es asociativa en el sentido siguiente:
            si A=a.X y B =b.X se tiene b.A = a.B

    2.      En K, con relación a V, existe un elemento u, denominado neutro tal que
            para todo X en V, u.X= X (u es entonces el elemento neutro en relación a
            la multiplicación)

    3.      La ley de composición externa es distributiva en relación a la suma definida
            en V en el sentido siguiente:

                            a.(X+Y) = a.X + a.Y , con a en K y X,Y en V
                                                                                           3
    4.      La ley de composición externa es también distributiva en relación a la suma( )
            definida en el cuerpo K:

                           (a+b).X = a.X + b.X , con a, b en K y X en V




    Vocabulario:    Un conjunto V donde se ha definido una regla de composición interna y otra de
                    composición externa en relación a un cuerpo K se denomina "espacio vectorial
                    V en el cuerpo K". Los elementos de un espacio vectorial son denominados
                    vectores.




3
)           La suma en K y en V no se refiere, necesariamente, a las mismas operaciones. Así el
            signo + en a+b en relación a K no es el mismo que en X+Y en V.




                                                 5
n
3.      ESPACIOS VECTORIALES "V=K EN K" DONDE K ES UN CUERPO


 n
K es una abreviación para identificar el conjunto de n-uplas de escalares del cuerpo K. Utilizando la suma y
                                                                                              n
la multiplicación definidas en K para definir las leyes de composición interna y externa en K (en el sentido
                                                          n
que se verá posteriormente), se puede demostrar que "K es un espacio vectorial en K".

Las n-uplas de K, por convención son presentadas en la forma de una lista vertical de escalares de K (o
"vector columna) :

Ejemplo:


                                                            ⎡α   ⎤
                                                            ⎢    ⎥
                                                            ⎢β   ⎥
                                          n - upla en K n = ⎢    ⎥
                                                            ⎢γ   ⎥
                                                            ⎢    ⎥
                                                            ⎣δ   ⎦

La ley de composición interna está definida como la suma (en K) "término a término" de los componentes de
                  n
las n-uplas de V=K .

Ejemplo:


                                         ⎡ a⎤ ⎡α     ⎤ ⎡ a +α        ⎤
                                         ⎢ ⎥ ⎢β      ⎥ ⎢             ⎥
                                         ⎢ b ⎥+⎢     ⎥ ⎢ b+ β        ⎥
                                         ⎢ c⎥ ⎢ γ    ⎥= ⎢            ⎥
                                         ⎢ ⎥ ⎢       ⎥ ⎢ c +γ        ⎥
                                         ⎢d ⎥ ⎢δ
                                         ⎣ ⎦ ⎣       ⎥ ⎢
                                                     ⎦ ⎣ d +δ
                                                                     ⎥
                                                                     ⎦

La ley de composición externa está definida como la multiplicación (en K) de un escalar de K "por cada uno
                                                                    n
de las componentes de le n-upla que constituye un elemento de V=K "

Ejemplo:


                                                ⎡ x ⎤ ⎡ b.x ⎤
                                                ⎢ ⎥ ⎢       ⎥
                                                ⎢ y ⎥ ⎢ b.y ⎥
                                              b.⎢ ⎥ = ⎢     ⎥
                                                ⎢ z ⎥ ⎢ b.z ⎥
                                                ⎢ w ⎥ ⎢ b.w ⎥
                                                ⎣ ⎦ ⎣       ⎦




                                                     6
n
Cada n-upla en V=K es denominada vector o punto. Cada elemento de la n-upla es denominado
componente o también coordenada.

Un vector ei tal que todas sus componentes son nulas salvo la i-ésima que es igual al elemento neutro para
la multiplicación en el cuerpo K es denominado "vector unidad-i".

Ejemplo, si K=R :


                                                       ⎡0⎤
                                                       ⎢ ⎥
                                                       ⎢0⎥
                                                       ⎢0⎥
                                                  ei = ⎢ ⎥
                                                       ⎢ 1⎥
                                                       ⎢ ⎥
                                                       ⎢0⎥
                                                       ⎢ ⎥
                                                       ⎣0⎦

                                                                                       n
El conjunto de n vectores ei, para i=1,2,..n, es denominado "base canónica usual para K ". El término "base"
tiene una importancia particular en Algebra Lineal y será explicado posteriormente. Por el momento,
                                  n
obsérvese que todo vector X en K puede escribirse en la forma:



                                       X = x1e1 + x2e2 + ... + ......xnen




Como puede observarse por la expresión precedente, el término "coordenada" para identificar la i-ésima
componente xi del vector X está relacionado a su representación en términos de la base canónica usual.

Si R=K y n=2, los vectores e1 y e2 pueden representarse por 2 puntos ubicados sobre dos ejes ortogonales
en forma equidistante a su intersección.




                                                       7
e2



                                                        e1




Cualquier punto del primer eje puede representarse como un múltiplo de e1 así como cualquier punto del
segundo eje como un múltiplo de e2.

Por otra parte, cualquier punto X del plano puede representarse como la suma de un punto x1e1 ubicado
sobre el primer eje y de otro punto x2e2 situado sobre el segundo eje.




                                       x2e2                  X



                                                       x1e1




En relación a la geometría elemental, se comprende entonces por que las componentes xi de un vector X se
denominan coordenadas.

Pero, obsérvese también que esta denominación se refiere a la representación gráfica de un punto en un
sistema de ejes ortogonales definido por los vectores de la base canónica.




                                                   8
Obviamente que un mismo vector puede representarse en otros sistemas de ejes y en consecuencia, con
otras coordenadas. Imagínese solamente la rotación de los ejes del gráfico anterior en 30 grados o
posibilidad de rotar solamente uno de ellos en 45 grados.
                                                                                         n
La representación gráfica en ejes ortogonales de un vector o conjunto de vectores en R será utilizada con
frecuencia en lo que sigue por lo que vale la pena prestarle alguna atención.
                                 n
Obsérvese que un vector X en R es, en consecuencia, un "punto" en el plano cuando n=2 y un punto en el
espacio cuando n=3. Para n cualquiera, se seguirá identificando gráficamente un vector X por un punto.
                                      n
Un conjunto de vectores X,Y,Z,...en R forma, entonces, una "nube de puntos" en el espacio. Cuando n=2,
estos vectores pueden ser representados como una nube de puntos en un plano.
                                      n
Obsérvese que si X es un punto en R y a es un número, el vector aX se encuentra en la misma dirección
que X en relación al origen. Haciendo variar a entre -infinito y +infinito, el conjunto de vectores aX genera
una línea que pasa por el origen. Intuitivamente, se puede observar la relación de dependencia lineal que
tiene todo vector aX con X. Este concepto tiene gran importancia en estadística y será tratado con detalle
posteriormente.




                                                                   aX




                                                X




Se puede determinar el valor del vector Z=X+Y gráficamente, como lo muestra el ejemplo siguiente:




                                                     9
Z


                                          X




                                                                  Y




Si a y b son dos escalares no negativos que suman 1, el vector Z=aX+bY se encuentra sobre la línea que
une los vectores X e Y; es denominado "combinación lineal convexa" de X e Y. Obsérvese que las
coordenadas de Z son medias aritméticas ponderadas de las coordenadas de X e Y.



Ejemplo:


                                         Combinación Lineal
                                             Convexa



                                           X
                                                aX              0<a<1
                                                  - (1
                                                         -a)
                                                            Y


                                                                   Y




                                                 10
Un caso muy importante de representación gráfica de vectores es el de la representación de conjuntos
definidos por medio de desigualdades lineales.
                                                                       n
Cabe, en primera instancia señalar que si y y x son dos vectores en K , la expresión x≤y significa que cada
una de las componentes del vector x es inferior o igual a cada una de las componentes del vector y.
                  2                                                    2
Por ejemplo S{xεR / x≥0} recubre la totalidad del primer cuadrante en R .
                   2
El conjunto S={xεR /0≤x≤a, con a'=[1,1]} esta conformado por todos los puntos que se encuentran sobre un
cuadrado de lado igual a 1, sobre el primer cuadrante, comenzado en el origen [0,0].




                                                          n
       ALGUNOS VECTORES PARTICULARES EN R :

       -VECTOR CERO         :            Sus componentes son iguales a cero
       -VECTOR UNO o SUMA   :            Sus componentes son iguales a uno
       -VECTOR PONDERACION :             Sus componentes son no negativos y suman 1.
       -VECTOR DE CONTRASTE :            Sus componentes suman cero




4.      ESPACIOS VECTORIALES DE MATRICES



                                                                                  n
En la sección precedente, se ha visto que el conjunto de n-uplas de K (conjunto K ) es un espacio vectorial.
                                             n
A su vez, las m-uplas de vectores de K conforman un espacio vectorial sobre K, como se verá
posteriormente.
                                                                            n
Así como se señaló anteriormente que, por convención, los vectores de K se escriben en forma de una lista
                                         n
vertical de escalares, las m-uplas de K se representan en forma de una lista horizontal de m vectores
columna, es decir, en la forma de una tabla de n líneas y m columnas compuesta por escalares en K.

Ejemplo:


                                              ⎡a          b   c⎤
                                              ⎢                 ⎥
                                           A= ⎢ d         e   f ⎥
                                              ⎢                 ⎥
                                              ⎢g
                                              ⎣           h    i⎥
                                                                ⎦




                                                     11
Esta tabla recibe el nombre de matriz. Independientemente de la forma de escribirla, no se puede perder de
vista de que el espacio de matrices de n líneas y m columnas no es otras cosa que el espacio de nxm-uplas
                                                             nxm
de K y que, en consecuencia, se trata del espacio vectorial K en K.

Luego, la suma de 2 matrices está definida en forma similar a la suma de dos vectores: "término por término"


Ejemplo:



                               ⎡a      b⎤ ⎡ e        f ⎤ ⎡ a+e        b+ f ⎤
                               ⎢        ⎥+⎢            ⎥= ⎢                ⎥
                               ⎣c      d⎦ ⎢g
                                          ⎣          h ⎥ ⎢ c+ g
                                                       ⎦ ⎣            d +h ⎥
                                                                           ⎦

De igual manera la multiplicación por un escalar equivale a multiplicar todos los términos de la matriz por el
escalar.


Ejemplo:



                                          ⎡a    b ⎤ ⎡ λ .a      λ .b ⎤
                                       λ .⎢       ⎥= ⎢               ⎥
                                          ⎣c    d ⎦ ⎣ λ .c      λ .d ⎦




        ALGUNAS MATRICES PARTICULARES:

        MATRIZ IDENTIDAD:

        Es una matriz cuadrada con 1 en su diagonal principal    siendo ceros todas sus otras componentes

        MATRIZ CERO:

        Es una matriz llena de ceros

        MATRIZ UNO O MATRIZ SUMA

        Es una matriz llena de unos

        MATRIZ SIMÉTRICA


        Es una matriz cuadrada nxn en la cual la i-ésima línea es idéntica la i-ésima columna, con i=1,2,..n




                                                     12
Cuando una matriz A es tal que sus líneas son iguales a las columnas de una matriz B se dice que A es la
matriz transpuesta de B y vice-versa. Obsérvese que una matriz simétrica es igual a su transpuesta.



TRAZA DE UNA MATRIZ nxn



Se denomina traza de una matriz cuadrada a la suma de los elementos de su diagonal principal.


                                                          n
                                             traza(A) = ∑ aii
                                                          i=1




        La traza tiene las siguientes propiedades:

        i.      Traza (A+B) = Traza(A) + Traza (B)
        ii.     Traza (µA ) = µ.Traza. (A)
        iii.    Traza (ABC) = Traza(BCA) = Traza(CAB) (circularidad).




5.      SUB-ESPACIOS VECTORIALES



Un sub-espacio vectorial no vacío del espacio vectorial V es un subconjunto de éste que a su vez es un
espacio vectorial en relación al mismo cuerpo K y las mismas leyes de composición interna y externa que V.

Luego, una condición necesaria y suficiente para que un subconjunto W del espacio vectorial V en K sea, a
su vez, un espacio vectorial es que para todo X,Y en W y para todo par de escalares a,b en K, el vector
 (a.X + b.Y) pertenezca a W.

Como consecuencia de la definición se remarcará que:

a.      Todo subespacio vectorial W de V contiene al elemento neutro 0 de V en relación a la ley de
        composición interna.

b.      Un subconjunto de V conteniendo solo al vector neutro 0 es un subespacio vectorial de V




                                                     13
3
Ejemplo:        Sea V=R y H={xεV/ x= ae1 +be2, para todo a,b en R}. El conjunto H es un subconjunto de
                V y es fácil de demostrar que si x,y son elementos de H, también lo son cx+dy para todo c,d
                                                                    3
                en R. Luego H es un subespacio vectorial en R . Geométricamente, V representa un
                espacio de 3 dimensiones. H constituye un plano de este espacio.




6.      SUBESPACIOS GENERADOS POR UN CONJUNTO DE VECTORES



a.      Combinaciones lineales de vectores


Una combinación lineal de los vectores X1, X2,...Xn del espacio vectorial V en relación a un conjunto de
escalares λ1,λ2,...,λn en K es un vector Z en V tal que:

                                        Z = λ1.X1 + λ2.X2 +.....λn.Xn

Z es una combinación lineal convexa de estos vectores si los escalares λi, i=1,2,..n son no negativos y su
suma es igual al elemento neutro en K en relación a la ley de composición externa (si K=R, este elemento es
igual a 1).



b.      Conjuntos generadores, espacios generados por un conjunto de vectores



Sea S un subconjunto de un espacio vectorial V. Se dirá que S genera o engendra el subespacio vectorial
{S} en V si todo elemento de {S} puede escribirse como combinación lineal de los elementos de S.

S es denominado el conjunto generador del espacio vectorial {S} en V y {S} el espacio vectorial engendrado
por el conjunto de vectores S.




                                                    14
7.      DEPENDENCIA E INDEPENDENCIA LINEAL



El vector X del espacio vectorial V es linealmente dependiente de un subconjunto S de vectores en V, si X
pertenece al conjunto engendrado por S, es decir, si X es una combinación lineal de vectores contenidos en
S.

De manera simétrica, X es linealmente independiente de S, si X no pertenece al espacio vectorial
engendrado por los vectores de S, es decir, si X no es una combinación lineal de los vectores contenidos en
S.

Un conjunto D en V está formado por vectores linealmente independientes, si cada uno de sus vectores es
linealmente independiente del conjunto de vectores formado por los vectores restantes.

De manera semejante: un conjunto D en V está formado por vectores linealmente dependientes, si por lo
menos uno de sus vectores es linealmente dependiente de algún subconjunto de vectores formado por los
vectores restantes.

Las definiciones anteriores pueden traducirse de la siguiente manera:


a.      Dependencia lineal


Un conjunto de vectores (X1,X2,...,Xn) en V es un conjunto de vectores linealmente dependientes si existen
escalares ui no todos simultáneamente nulos tales que:


                                u1X1 + u2X2 + ... + unXn = 0


b.      Independencia lineal


Un conjunto de vectores (X1,X2,...,Xn) en V es un conjunto de vectores linealmente independientes (LIN) si la
igualdad:

                                u1X1 + u2X2 + ... + unXn = 0

implica que todos los escalares ui son simultáneamente nulos.




                                                     15
c.      Consecuencias de las definiciones


i)      Un vector X es linealmente dependiente de un conjunto de vectores LIN (X1, X2,... Xn) en V si el
        conjunto S=( X1, X2,..., Xn;X) está formado por vectores linealmente dependientes

ii)     Si S es conjunto de vectores LIN, cada uno de sus subconjuntos será también LIN.


Demostración (por absurdo)


Sea S=(X1,X2,...,Xr,Xr+1,...,Xn) un conjunto formado por vectores LIN. Supongamos que S1=(X1,X2,...,Xr) es un
subconjunto de S formado por vectores que no son LIN; es decir, supongamos que existen escalares
u1,u2,...ur no simultáneamente nulos tales que:


                                  u1X1 + u2X2 + ... + urXr = 0

Pero en tal caso:

                                  (u1X1+...+urXr) + (ur+1Xr+1+...+umXm)= 0

con ur+1=ur+2=...un=0, expresión que contradice el supuesto inicial de que S está formado por vectores LIN.


iii.    Si un conjunto S está formado por vectores que no son LIN, todo conjunto para el cual S sea un
        subconjunto estará formado por vectores que no son LIN.


iv.     Si X1, X2,...Xn son LIN y si para dos conjuntos de escalares (v1, v2,..vn) y (w1, w2,..wn) se tiene:

        v1.X1 + v2.X2 +...vn.Xn = w1.X1 + w2.X2 + ...wn.Xn

        entonces, vi=wi, para todo i=1,2,...n.


        Demostración: Con ui=vi-wi la expresión precedente puede escribirse:

        u1.X1 + u2.X2 + ..unXn = 0,

        Si uno o más de los coeficientes ui fuesen diferentes de cero, los vectores Xi no serían
        independientes, lo que contradice la hipótesis inicial. Luego ui=0, i=1,2,..n.

En consecuencia:



       La representación de un vector X en términos de una combinación lineal de vectores LIN
       X1, X2,...Xn es única. Es decir, existe un solo juego de escalares vi, i=1,2,..n, tal que
       X=v1.X1 + v2.X2 + ...vnXn. En particular, si X=Xi, entonces, vi=1, y vj=0 para todo i≠j)




                                                        16
8.     DIMENSIÓN DE UN ESPACIO VECTORIAL



El número máximo de vectores LIN en un conjunto de vectores S en V es igual a M si en S existe algún
subconjunto conformado por M vectores LIN y si todo otro vector en S puede escribirse como combinación
lineal de los vectores de ese subconjunto.




      Consecuentemente con la definición anterior, se denomina "dimensión de un espacio vectorial"
      al número máximo de vectores LIN que contiene el espacio vectorial.




Obsérvese que en todo espacio vectorial puede definirse una infinidad de conjuntos diferentes de vectores
conteniendo todos ellos el número máximo de vectores LIN.

Obsérvese que si un conjunto de vectores S engendra {S} y si T es un subconjunto de S conteniendo el
máximo número de vectores LIN, T también genera {S}. En ese caso T es el conjunto en S con menos
vectores capaz de generar {S}.




        Si W es un subespacio vectorial del espacio vectorial V, es evidente que no puede contener
        más vectores LIN que V, luego:
                                              dim W ≤ dim V




9.     BASE DE UN ESPACIO VECTORIAL




        Sea V un espacio vectorial en K y B un subconjunto de V.

        El conjunto de vectores B es una BASE para V si:

        i.      Esta compuesto de vectores LIN
        ii.     Todo otro vector en V es una combinación lineal de los vectores de B.




                                                   17
Obsérvese que una base es un conjunto generador del espacio vectorial con la propiedad suplementaria de
contener sólo vectores LIN.

Puesto que todo otro vector en V es una combinación lineal de los vectores de B, el número de vectores que
contiene es igual al número máximo de vectores LIN en V; luego, consecuentemente con la definición
anterior ese número es igual a la dimensión del espacio vectorial V.

Si n es la dimensión del espacio vectorial V, todo conjunto de n vectores LIN {X1, X2,...Xn} es una base para
V. Esto muestra que para cada espacio vectorial existe una infinidad de bases diferentes.

En la sección 3 se señaló que el conjunto de vectores unidad-i, para i=1,2,..n constituía una base para el
                   n
espacio vectorial K . Con las definiciones anteriores queda en evidencia por qué este conjunto es
efectivamente una Base para ese espacio vectorial.




10.     CAMBIOS DE BASE


A partir de una Base se puede construir nuevas Bases para V reemplazando sucesivamente algunos (o
todos) los vectores de la base inicial por nuevos vectores en V. Esta operación se denomina "cambio de
base".

Obviamente que si se reemplaza un vector de la Base por otro que se encuentra fuera de ella, el nuevo
conjunto es todavía una Base sólo si el nuevo vector es linealmente independiente de los demás.

Sea, por ejemplo, B={X1,X2,...Xs} una base para V y Xr un vector en V fuera de B. Si se introduce Xr≠[0] en
                                                              *
lugar de Xs, obteniendo un nuevo conjunto B*={X1, X2,..,Xr}, B es todavía una base sólo si Xr es linealmente
independiente de los Xi, i=1,2,,,s-1.

La reflexión anterior nos lleva a platear el resultado siguiente:


        i.       Puesto que B es una Base para V existen escalares ui, i=1,2,..s tales que Xr= u1.X1
                 +u2.X2...+usXs,

        ii.      Si us=0, la expresión precedente muestra que Xr es una combinación lineal de X1, X2,..Xs-1,
                         *
                 luego B no podría ser una base. En consecuencia, us≠0 es una condición necesaria para
                       *
                 que B pueda ser una base.
                                                               *
        iii.     Supóngase que con us diferente de cero, B no contiene vectores LIN. Fácilmente se puede
                 demostrar que en ese caso, B tampoco contiene vectores LIN. Luego, us diferente de cero
                 es también una condición suficiente para que B* sea una base para V.


Para muchos algoritmos, por ejemplo, el del SIMPLEX en el marco de la programación lineal o el de la
inversión de matrices o el de la regresión lineal por etapas, es importante el algoritmo que permite
representar un vector cualquiera como una combinación lineal de los vectores de una nueva Base partiendo
de la representación relativa a una base anterior.




                                                        18
Sea B ={X1, X2,...Xs} una base inicial y,
        sea B*={X1, X2,...Xr} la nueva base.

Supóngase que la representación del vector Xr en términos de B tiene la estructura siguiente:


                                                     s -1

                                            X r = ∑ a kr X k + a sr X s                           (9)
                                                     k =1




De donde:


                                                                s -1
                                                    1
                                         X s=(          ) X r - ∑ ( a kr ) X k                   (10)
                                                   a sr         k =1 a sr




Si, inicialmente, la representación de un vector Xs+j cualquiera en términos de la base B era:


                                                       s -1

                                           X s+ j = ∑ a kj X k + a sj X s                        (11)
                                                      k =1




Reemplazando Xs en (11) por su expresión determinada en (10), se tiene la representación siguiente del
                                          *
vector Xs+j en términos de la nueva base B :



                                                             s -1
                                                     ) X r + ∑ ( a kj - sj kr ) X k
                                                a sj                   a a
                                   X s+ j = (                                                    (12)
                                                a sr         k =1       a sr


Las relaciones (10) y (12) proporcionan los elementos básicos para los cambios de representación de un
vector cualquiera Xs+j en términos de una nueva base.




                                                              19
En efecto:


Considérese la siguiente tabla denominada de Tucker:



                                             Vectores fuera de la base B
              Vectores en      Xs+1                      Xs+j          .              Xr
               la base B
                                                 .
                  X1                             .                        .
                      .                                       .
                  Xk                                         akj                      akr
                      .
                  Xs                                         asj                      asr




En esta tabla, la representación de los vectores que se encuentran fuera de la base se la hace con los
escalares que se encuentran en las columnas de estos vectores. Estos escalares son los coeficientes
asociados a cada uno de los vectores que se encuentran en la Base B.

Obsérvese cómo esta tabla se modifica con la introducción del vector Xr dentro de la base, en lugar del
vector Xs:



                                             Vectores fuera de la base B*
             Vectores en     Xs+1                        Xs+j           .              Xr
              la base B*
                                             .
                 X1                          .                                .
                  .                                           .
                 Xk                                    akj-(asjakr)/asr              -akr/asr
                  .
                 Xr                                        asj/asr                    1/asr




Las expresiones que se encuentran en esta tabla corresponden a los coeficientes de las relaciones (10) y
(11). Recuérdese que los coeficientes sobre una misma columna se interpretan, en cada una de las
iteraciones, como los coeficientes asociados a los vectores de la base correspondientes a la representación
del vector que se encuentra fuera de la base en la misma columna.




                                                     20
Algoritmo.

        A partir de una tabla inicial de Tucker es posible realizar sucesivos cambios de base y obtener
        las nuevas representaciones de los vectores que se encuentran fuera de ellas en términos de
        combinaciones lineales de sus vectores de las bases.

        1.      Se denomina pivote al elemento que se encuentra en la intersección de la columna
                del vector que entra en la base y en la línea del que sale de la base. Consecuentemente
                con los desarrollo anteriores, el pivote debe ser diferente de cero. El valor orignal del
                pivote será reemplazado por su inverso.

        2.      Los elementos de la columna del pivote se dividen por el pivote y cambian de signo

        3.      Los elementos de la línea del pivote se dividen por el pivote

        5.      El resto de los elementos se calculan de la siguiente manera: al elemento que se
                encontraba en la celda (i,j) se le sustrae el producto de los elementos que se encuentran
                en la línea i y la columna del pivote y en la columna j y la línea del pivote dividido por el
                valor del pivote.

         Las tablas anteriores ilustran estas operaciones.




11.     DUALIDAD EN LOS CAMBIOS DE BASE


En matemáticas aplicadas reviste particular importancia, como se señaló anteriormente, los espacios
                      n
vectoriales del tipo K en K, particularmente, cuando K=R.
                                   m                                         m
Sean Xj, j=1,2,..n, n-vectores en R y reténgase como base inicial para R la base canónica usual E = {e1,
e2,..em} en este espacio vectorial.

Los vectores Xj pueden considerarse como vectores columna de una matriz X con m-líneas y n-columnas.
La transpuesta de esta matriz, X', tiene n-líneas y m-columnas; cada uno de sus vectores columna Yj,
j=1,2,..m puede ser representado en términos de los vectores B = {bi,i=1,2,..n}, de la base canónica usual de
  n
R.


Obsérvese que sin esfuerzo adicional de cálculo, se puede realizar cambios de base simultáneamente en la
base E y en la base B así como lograr las representaciones respectivas de los vectores en los espacios
             m   n
vectoriales R y R :




                                                      21
Vectores fuera de la base E
Vectores en     Xm+1                        Xm+j            .        Xm+n
 la base E
                               .
     e1                            .                        .                      Yn+1
     .                                            .                            .
     ek                                      akj                      akn          Yn+k
     .
    em                                      amj                       amn          Yn+m
Vectores en      b1            .             bj                       bn      Vectores
la Base B                                                                     fuera de la
                                                                              base B




Obsérvese que todo cambio de base en E implica un cambio automático de base en B. Se dice que E y B
así como las bases siguientes son bases duales.




                                                      22
CAPÍTULO II.             APLICACIONES LINEALES Y MATRICES




1.      DEFINICIÓN


Sean E y F dos espacios vectoriales sobre un mismo cuerpo K. Sean X, W dos elementos cualesquiera de E
y µ algún escalar en K.

Una aplicación lineal f de E en F es una aplicación tal que:

        i.       f(X + W) = f(X) + f(W)

        ii.      f(µX)   = µ.f(X)

En muchos textos, ambas propiedades de una aplicación lineal son resumidas en una sola:




        Se dice que f es una aplicación lineal de E en F si para todo X, W en E y todo par de escalares
        η,µ se tiene:

                                          f(ηX+µW) = η.f(X) + µ.f(W)




Vocabulario:


f(E) es el subconjunto de F con las imágenes de todos los elementos de E por la aplicación f.

Cuando f(E)=F, se dice que f es una aplicación sobre F; si no, f es una aplicación en F.

Se denomina rango de la aplicación lineal f al número máximo de vectores linealmente independientes
contenidos en f(E)

Posteriormente, se verá que f(E) es un espacio vectorial, en consecuencia, el rango de la aplicación lineal f
es la dimensión del espacio vectorial f(E)).




                                                      25
2.   ALGUNAS CONSECUENCIAS IMPORTANTES DE LA DEFINICIÓN


a.   f(E) es un subespacio vectorial en F


     En efecto:               Obsérvese que si Y1=f(X1) y Y2=f(X2) son dos elementos de f(E), para todo
                               par η,µ en K se tiene:

                                    ηf(X1)+µf(X2) = f(ηX1+µX2) ε f(E)

     Puesto que f es una aplicación lineal de E en F.

     Se puede concluir, por otra parte, que si 0E es el elemento neutro en E, se tiene f(0E) = OF, donde
     este último es el elemento neutro en F.



b.   Si f(X1),f(X2),..f(Xr) son LIN en F, entonces X1, X2,..Xr son LIN en E.


     En efecto:

     Partiendo de que f(X1), f(X2),..f(Xr) son LIN en F, supóngase que X1, X2,..Xr no son LIN en E y que en
     consecuencia existen escalares λi tales que:


                                        λ1.X1 + λ2.X2 +....λr.Xr = 0E


     Utilizando a la izquierda y a la derecha de esta expresión la aplicación lineal f, se tiene:


                                      f(1.X1 + λ2.X2 +....λr.Xr)= f(0E)


     y, puesto que f es una aplicación lineal:


                                λ1.f(X1) + λ2.f(X2) + ....λr.f(Xr) = f(0E) = 0F


     Lo que implicaría que los vectores f(X1), f(X2),..f(Xr) en F tampoco son LIN, contradiciendo la
     hipótesis inicial.




                                                     26
El resultado anterior implica que:

                                               dim f(E) ≤ dim E

        Para cualquier aplicación lineal f de E en F.




Y, puesto que f(E) es un subespacio vectorial de F, se tiene que dim f(E) ≤ dim F, juntando ambos resultados
se concluye que:




                                         dim f(E) ≤ min {dim E, dim F}

        Para cualquier aplicación lineal f de E en F.




c.      Si f y g son dos aplicaciones lineales de E en F, f+g es también una aplicación lineal de E en F.


d.      Sean E, F, G tres espacios vectoriales sobre un mismo cuerpo K y sea f una aplicación lineal de E
        en F y g una aplicación lineal de F en g:

                                                E → F → G
                                                  f   g

        La aplicación lineal compuesta f.g es una aplicación lineal de E en G. Obviamente que la
        composición de funciones lineales no es conmutativa (salvo pocas excepciones).



e.      Si E es igual a F y si el rango de la aplicación lineal f es igual a la dimensión de E, existe una
        aplicación lineal g, tal que para todo X en E :

                                                  g(f(X)) = X
                                                  f(g(X)) = X

        Se dice que f es la aplicación inversa de g o que g es la aplicación inversa de f. (ver sección 5 de
        este mismo capítulo). La composición de estas aplicaciones lineales f.g=g.f es uno de los pocos
        casos donde se observa la conmutatividad.




                                                        27
f.         El conjunto de aplicaciones lineales {f} de E en F constituye un espacio vectorial en K.




3.         APLICACIONES LINEALES Y MATRICES: MATRIZ DE UNA APLICACION LINEAL f.



Sea B = {b1, b2,..bn} una base para el espacio vectorial E y sea D= {d1, d2,,,dm} una base para el espacio
vectorial F y f una aplicación lineal de E en F de rango m.

Los vectores f(bj), j=1,2,..n, se encuentran en f(E) ε F, en consecuencia, para cada uno de estos vectores
existen escales aij en K que permiten representarlos como combinaciones lineales de los vectores di de la
base D del espacio vectorial F:


                                                  m
                                       f( b j ) = ∑ aij .d i       j = 1,2,..n
                                                  i=1




Se denomina "matriz de la aplicación lineal f de E en F relativa a las bases B y D de E y F respectivamente,
a la tabla A, de m líneas y n columnas cuyos elementos son los escalares aij, i=1,2,..m y j=1,2,..,n, de la
representación anterior.




                                                           n        m
4.         APLICACIONES LINEALES CUANDO E=K Y F=K EN K



a.         Una aplicación lineal como una combinación lineal en F



       n         m
Si E=K y F=K y D es la base canónica usual de F, se tiene, según el recuadro precedente, que f(bj) = aj, es
decir, el vector f(bj) es igual a la columna j de la matriz A. Este resultado pone en evidencia, también, que las
columnas de la matriz A pertenecen al subespacio vectorial f(E).

Sea X = Σxjbj, algún vector en E, con B={b1, b2,..bn} la base canónica usual de E.

Obsérvese que para todo X en E se tiene:


                                             n                 n            n
                                 f(X) = f( ∑ x j b j ) = ∑ x j     f( b )= ∑ x
                                                                        j         j   aj
                                            j=1            j=1              j=1




                                                           28
n       m
Esta expresión pone en evidencia que una aplicación lineal de E=K en F=K de matriz A es una
combinación lineal de los vectores columna de esta matriz (es decir, que la imagen de todo vector X en E es
una combinación lineal en F de las columnas de la matriz A).




      La expresión precedente, muestra que las columnas de la matriz A constituyen un conjunto
      generador de f(E).



En consecuencia, el número máximo de vectores columna LIN en A es igual a la dimensión del subespacio
vectorial f(E), de donde, emerge, la expresión de rango de una matriz por asociación a la de rango de una
aplicación lineal:




         rango(A)        =       número máximo de vectores LIN en A
                         =       número máximo de vectores LIN en f(E)
                         =       dim f(E)
                         =      rango de la aplicación lineal f de E en F




b.      Producto de una matriz por un vector

                                   n       m
Si f es una aplicación lineal de E=K en F=K de matriz A relativa a las bases canónicas de ambos espacios,
se acaba de mostrar que f(X), para todo X en E, puede escribirse como una combinación lineal de las
columnas de la matriz A.


Por convención, esa combinación lineal se escribe como el producto de la matriz A por el vector X:




        Producto de una matriz A por un vector x:

                                            f(X) = AX= Σxjaj

        es una combinación lineal de los vectores columna de la matriz A.




                                                    29
c.      Suma de aplicaciones lineales y suma de matrices



Si f y g son 2 aplicaciones lineales de E en F de matrices A y B, la aplicación (f+g)(X) = f(X) + g(X) es una
aplicación lineal de E en F de matriz A+B, donde la suma de matrices está definida de la misma manera que
fue introducida en el capítulo I.



d.      Composición de aplicaciones lineales y producto de matrices


Sean E, F, G tres espacios vectoriales sobre un mismo cuerpo K y sea f una aplicación lineal de E en F de
matriz A de rango r y sea g una aplicación lineal de F en G de matriz B y de rango t.

La aplicación compuesta g.f de E en G es, como se mencionó anteriormente, una aplicación lineal de E en
G.




                                     n      m       s
        Obsérvese que, cuando E=K , F=K y G=K :

        la matriz A tiene m líneas y n columnas y rango r
        la matriz B tiene s líneas y m columnas y rango t

        y, que:

        todo elemento Y=f(X) en F se escribe f(X) = AX
        todo elemento Z=g(Y) en G se escribe g(Y) = BY
        ó, en forma equivalente:    g(f(X)) = BAX

        Luego, C=BA es la matriz de la aplicación compuesta g.f




La matriz BA es denominada producto de B por A. Es un producto no conmutativo. Recibe la interpretación
siguiente:
                    n
Considérese en E=K , los vectores ej, j=1,2,,,n de la base canónica usual.

Las imágenes en F de los ej, j=1,2,,,n, en E, son, como se vio anteriormente, los vectores columna aj de la
matriz A.




                                                        30
Por otra parte, las imágenes en G de los ej, j=1,2,,n, en E, son los vectores columna cj de la matriz C=BA.

Luego:

                                               Cj = Baj , j=1,2,..,n


Como se explicó anteriormente, para todo Y en F, el vector g(Y)=BY es una combinación lineal de los
vectores columna de la matriz B.



         De donde, los vectores columna de la matriz C=BA, producto de B por A, están definidos como las
         siguientes combinaciones lineales de los vectores columna de la matriz B :

                                               m
                                         C j = ∑ aij Bi        j = 1,2, , , n
                                              i=1




         De la expresión precedente, se deduce la definición clásica del producto de una matriz por un
         vector. En efecto, si cij es el elemento de la línea i y columna j de la matriz C=BA se tiene:

                                                      n
                                                cij = ∑ bik akj
                                                     k =1




e.       Caracterizaciones relativas al rango de una matriz



Reuniendo varios de los resultados anteriores, se llega a resultados muy útiles en la práctica en lo que
concierne el rango de una matriz.


Estos resultados son:


i.       rango(A) ≤ min {m,n }    donde m es el número de líneas de A y         n es el número de columnas

         Esta es una consecuencia directa de:

         dim f(E) ≤ min {dim E, dim F}


ii.      rango(BA) ≤ min {rango(B), rango(A)}




                                                          31
Obsérvese, en primer lugar, que gf(E) está contenido en g(F) luego dim gf(E) ≤ dim g(F), lo que a su
         vez implica que rango(BA) ≤ rango(B).

         Por otra parte, recuérdese que en la sección I se ha mostrado que el espacio imagen tiene una
         dimensión menor o igual al espacio raíz, de donde:

         dim g(f(E)) ≤ dim f(E), de donde, rango(BA) ≤ rango(A)

         En consecuencia, rango(BA) ≤ min {rango(B), rango(A)}


iii.     Como consecuencia de los dos puntos anteriores, se tiene el resultado siguiente:

         rango(BA) ≤ min {m,n,s} ,              donde B es una matriz sxm y,    A      una matriz mxn



 iv.     Si B es una matriz con m columnas y rango(B)=m, entonces rango(BA)=rango(A) y

         Si A es una matriz con m columnas y rango(A)=m, entonces rango(BA)=rango(B)




5.      APLICACIONES LINEALES INVERSAS E INVERSOS DE MATRICES



En la sección 2, se enunció de que si f es una aplicación lineal de E en F y que si F=E con el rango de f igual
a la dimensión de E, existía una aplicación g, denominada inversa de f, tal que gf(X)=fg(X)=X para todo X en
E.

En la presente sección se demostrará este resultado y se introducirá la noción de inverso de una matriz.


Si el rango de f es igual a la dimensión n de E y E=F, se tiene que f(E)=F=E y existen n vectores f(X1),
f(X2),..f(Xn) en E que son LIN y que forman una base para E. Luego todo X en E, en particular, los Xj, j=1,2,,,n
pueden escribirse como combinaciones lineales de estos vectores, es decir, existen escalares bij tales que:


                                            n

                                    X j = ∑ b ji    f( X )
                                                         i        j = 1,2,..n                              (5)
                                           i=1




Por otra parte, si A={aij} es la matriz asociada a la aplicación lineal f, se tiene:




                                                             32
n
                                              f( X i ) = ∑ aik X k                                      (6)
                                                         k =1




Reemplazando la expresión (6) en (5), se tiene:



                                                 n

                                         X j = ∑ δ jk X k        donde :
                                                k =1
                                                                                                        (7)
                                                         n
                                                δ jk = ∑ b ji aik
                                                        i=1




Teniendo en cuenta que X1, X2,..Xn forman también una base en E en virtud del resultado b. de la sección 2
y puesto que la representación de cualquier vector en términos de los vectores de una base es única, se
tiene que existen coeficientes bij tales que:


                                          δij = 1. si i = j
                                          δij = 0. si i ╪ j


puesto que Xj=Xj es la representación única del vector Xj en términos de la base X1, X2,...Xn


El anterior resultado muestra que bajo las condiciones anteriormente enunciadas en relación a la aplicación
lineal f, existe una relación "uno-a-uno" entre los vectores Xi y los vectores f(Xi), es decir, que para cada
vector Xi existe un vector f(Xi) y vice-versa. ésta admite una inversa g en el sentido en que se cumple
g.f(X)=X para todo X en E.


En términos de las matrices A y B y de sus vectores columnas, los resultados anteriores pueden escribirse
en la forma siguiente:



        Baj = ej ,       j=1,2,...n

        BA = I ,         Con I la matriz identidad nxn




                                                        33
Por otra parte, reemplazando la expresión (5) en (6), se tiene:



                                                 n
                                   f( X j ) = ∑ ω jk        f( X )  k         donde :
                                              k =1
                                                                                                               (8)
                                                     n
                                         ω jk=∑ a ji bik                j,k =1,2,..n
                                                     i=1




Nuevamente, teniendo en cuenta que f(X1), f(X2),..f(Xn) forman también una base en E en virtud del resultado
b. de la sección 2 y puesto que la representación de cualquier vector en términos de los vectores de una
base es única, se tiene que los coeficientes bij verifican también :



                                                         ωij = 1. si i = j
                                                         ωij = 0. si i ╪ j



puesto que f(Xj)=f(Xj) es la representación única del vector Xj en términos de la base f(X1), f(X2),...f(Xn)

En términos de las matrices A y B y de sus vectores columnas, los resultados anteriores pueden escribirse
en la forma siguiente:


         Abj = ej ,                 j=1,2,...n

        AB = I ,          Con I la matriz identidad nxn




Con lo que se ha demostrado la existencia para toda matriz A de rango completo de otra matriz B, también
de rango completo, denominada inversa de A, tal que AB= y BA=I.



         Definición:

        Sea A una matriz nxn. La nxn-matriz B es la matriz inversa de A si:

                                                           AB = I
                                                           BA = I




                                                               34
6.      ALGORITMO DE INVERSIÓN DE UNA MATRIZ




A partir de los desarrollos anteriores, emerge, naturalmente, la idea de calcular el inverso de una matriz A a
partir de sucesivos cambios de base, con un algoritmo similar al que fue propuesto en el capítulo I.

En efecto, en la sección precedente se ha demostrado que los coeficientes bij de la matriz B inversa de A
                                                                   n
permiten representar los vectores de la base canónica usual ej de K en términos de los vectores columna
                                                               n
a1, a2,..an de la matriz A, los que constituyen una base para K :



                                                           n

                                             e j = Ab j = ∑ bij ai
                                                           i=1




Recordando los puntos fundamentales del algoritmo de cambios de base expuesto en el Capítulo I, se
puede diseñar un algoritmo para invertir una matriz:

        i.       Planteando como base inicial la base canónica usual,
        ii.      Representando los vectores aj, j=1,2,..n en esta base,
        iii.     Introduciendo sucesivamente los vectores aj, j=1,2,..n, en la base hasta sacar de ella, todos
                 los vectores de la base canónica usual ei,i=1,2,..n

Los coeficientes bij, obtenidos en la última tabla, permiten representar los vectores ej en términos de
combinaciones lineales de los vectores columna de la matriz A, luego la matriz B={bij } es la matriz inversa de
A, acorde con los desarrollos anteriores.


Algunos puntos prácticos en relación a este algoritmo:

i.      Un vector aj puede reemplazar dentro de la base un vector ei sólo si el pivote respectivo (elemento
        de la celda {i,j}) es diferente de cero.

ii.     Si inicialmente los vectores de la base e1, e2,..en están ordenados, al igual que los que se
        encuentran fuera de ella, a1, a2,..an, la tabla inicial es idéntica a la matriz A.

iii.    Si en cada etapa del algoritmo ha sido posible intercambiar vectores en el mismo orden, es decir,
        utilizando como pivotes los elementos de la diagonal principal de la tabla, la última tabla es idéntica
        a la matriz B inversa de A.

iv.     Si se utiliza pivotes que se encuentran fuera de la diagonal principal, la última tabla contiene todos
        los coeficientes de la matriz B inversa de A pero, para identificarla con la matriz B, es necesario
        reordenar sus columnas, de manera a tener e1, e2,..en y, en su caso, también, las líneas de manera
        a tener a1, a2,..an.




                                                      35
Si después de k < n iteraciones, han entrado dentro de la base k vectores aj, siendo
      imposible introducir en ella los vectores restantes por que todos los posibles pivotes
      son nulos, la matriz no es inversible, su rango es igual a k < n.




La tabla siguiente ilustra esta situación, cuando los k-vectores que se han podido introducir son a1, a2,..ak:


Considérese las particiones siguientes:



          A = [a1,..ak | ak+1....an] = [ A1 | A2]

          E = [e1,..ek | ek+1,...en] = [ E1 | E2]




Con las cuales se construirá la siguiente tabla de Tucker:


                                                                    Vectores fuera de la base
 Vectores en la Base                                E1                             A2
    A1'                                             C                              G
    E2'                                             R                              D=0



En este caso, los vectores que componen A2 no pueden reemplazar en la base a los que componen E2
puesto que todos los posibles pivotes, que se encuentran reagrupados en la matriz D, son nulos.

Obsérvese que utilizando las convenciones usuales, los coeficientes de la matriz G contienen los escalares
que permiten representar los vectores columna de A2 en términos de los vectores columna de A1 y puesto
que D es igual a cero, se tiene:


                                                         A2 = A1G


Esta expresión muestra que los n-k vectores columna de A2 son linealmente dependientes de los de k-
vectores columna que contiene la submatriz A1.




                                                           36
Luego, a lo máximo, la matriz A contiene k vectores LIN, es decir, a lo máximo su rango es igual a k. Pero,
por otra parte, obsérvese que los k-vectores columna de la submatriz A1 se encuentran en la base, luego son
LIN, en consecuencia, k es igual al rango de la matriz A.




7.      INVERSIÓN DE MATRICES PARTICIONADAS



Es fácil demostrar que la inversión por bloques de una matriz A sigue reglas semejantes a las del algoritmo
anterior.

Considérese la siguiente partición de la nxn matriz A:



                              A11                                                 A12


                              A21                                                 A22



Donde A11 es una matriz kxk. Supóngase que, en una primera etapa, es posible introducir dentro de la base
los k primeros vectores columna aj, j=1,2,..k, de la matriz A en lugar de los k primeros vectores ej, j=1,2,..k,
de la base canónica usual para Rn. Se tendrá una tabla del tipo siguiente:



                                -1                                                 -1
                          A11                                                   A11 A12


                                     -1                                                      -1
                        -A21A11                                          D= [A22 - A21A11 A12]




Si en una segunda etapa es posible introducir dentro de la base los n-k vectores restantes de la matriz A, la
tabla siguiente contendrá la matriz inversa de A:


                  -1     -1          -1        -1                                 -1        -1
               A11 - A11 A12D A11 A21                                         -A11 A12D


                         -1               -1                                           -1
                       -D A21A11                                                  D




                                                         37
8.      DETERMINANTES


a.      Definición


Sea A una matriz nxn particionada en forma de columnas:

                                                 A = {a1, a2,...an}

Se denomina determinante de la matriz A (det A) una función de A, d(a1, a2,...an) en R, que posee las 4
propiedades siguientes:

        i.      Si B es una matriz obtenida de A permutando 2 de sus columnas, det B = - det A

        ii.     Si a una de las columnas de A, por ejemplo a la primera, se le añade un vector c se tiene:

                                d(a1+c, a2,..,an) = d(a1, a2,..,an) + d(c, a2,..,an)

        iii.    Si B es una matriz obtenida a partir de A multiplicando una de sus columnas por un escalar
                µ, entonces

                                                 det B = µ det A
                                                                 n
                Luego, si A es una matriz nxn, det(-A) = (-1) det A.

        iv.     El determinante de la matriz identidad es igual a 1.


b.      Algoritmo de cálculo de un determinante


Existen muchos algoritmos diferentes para calcular un determinante. En el presente texto se presentará sólo
aquel que está asociado al algoritmo de cambios de base y de inversos de matrices explicado anteriormente.
Como se verá, no exige mayor esfuerzo de cálculo, pero, obviamente, no se pretende que sea el mejor
desde el punto de vista numérico.

i.      Si piv(i), i=1,2,..n, es el valor del pivote en cada etapa del algoritmo de inversión de una matriz y si
        los cambios de base se han realizado de manera a introducir dentro de la base, en cada etapa, un
        vector aj en lugar de un vector ej (es decir, si los pivotes han sido los elementos de la diagonal
        principal de la tabla entonces:



                                                          n
                                               det A = ∏ piv(i)
                                                         i=1



ii.     Si piv(i), i=1,2,..n, es el valor del pivote en cada etapa del algoritmo de inversión de una matriz y si
        los cambios de base no se han realizado con pivotes de la diagonal principal de la tabla, la última




                                                        38
tabla contendrá los elementos de la matriz inversa de A desordenados. Para obtener la matriz
        inversa a partir de esta tabla es necesario permutar sus columnas (siempre se puede organizar el
        algoritmo de manera a que no sea también necesario permutar las líneas). Si k es el número de
        permutaciones necesarias, acorde con la propiedad 1 de los determinantes, se tendrá:



                                                           n
                                         det A = (-1 )k ∏ piv(i)
                                                           i=1




c.     Determinantes de matrices particionadas


Considérese una partición de la matriz A como la analizada precedentemente:



                        A11                                                   A12


                        A21                                                   A22



Como en el caso escalar, el determinante de una matriz particionada puede ser calculado como el producto
                                                                                     k
de los determinantes de sus pivotes, debiendo ser multiplicado por el factor (-1) , en caso en que sea
necesario realizar k permutaciones. Con k= 0 y las anotaciones de la sección anterior, se tendrá:



                                             det A = det A11. det D
                                                                 -1
                                        con D = [A22 - A21A11 A12]



d.     Determinante del producto de 2 matriz de rango máximo



       Si A y B son dos matriz nxn de rango máximo, se tiene que:


       det (AB) = det (BA) = det(A).det(B)




                                                      39
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica
1992 descripcion e inferencia lineal en estadistica

Más contenido relacionado

La actualidad más candente

Calzado informe
Calzado informeCalzado informe
Calzado informePau Chavez
 
Programacion
ProgramacionProgramacion
Programaciongeopaloma
 
La playa bajo los adoquines
La playa bajo los adoquinesLa playa bajo los adoquines
La playa bajo los adoquines
Ana Belén López Plazas
 
Informe completo base de datos
Informe completo base de datosInforme completo base de datos
Informe completo base de datosricop88
 
Secuencias logicas
Secuencias logicasSecuencias logicas
Secuencias logicastautianos
 
Excelente cuadernillo con secuencias logicas (2)
Excelente cuadernillo con secuencias logicas (2)Excelente cuadernillo con secuencias logicas (2)
Excelente cuadernillo con secuencias logicas (2)
U.S.A.E.R VII, MAESTRA DE APOYO EN LA SECUNDARIA 47 "CUAUHTEMOC" T.V
 
Lenguaje y Comunicación II
Lenguaje y Comunicación IILenguaje y Comunicación II
Lenguaje y Comunicación II
Any Lau
 
Adultos historia
Adultos historiaAdultos historia
Adultos historia
ssuser4a1804
 
Matematica funciones.pdf 06
Matematica funciones.pdf   06Matematica funciones.pdf   06
Matematica funciones.pdf 06
Andres Fernando Quispe Avalos
 
Lenguaje y Comunicación I
Lenguaje y Comunicación ILenguaje y Comunicación I
Lenguaje y Comunicación I
Any Lau
 
Guía para el diseño hidráulico de redes de alcantarillado
Guía para el diseño hidráulico de redes de alcantarilladoGuía para el diseño hidráulico de redes de alcantarillado
Guía para el diseño hidráulico de redes de alcantarillado
Yony Fernandez
 

La actualidad más candente (16)

Calzado informe
Calzado informeCalzado informe
Calzado informe
 
Programacion
ProgramacionProgramacion
Programacion
 
La playa bajo los adoquines
La playa bajo los adoquinesLa playa bajo los adoquines
La playa bajo los adoquines
 
Informe completo base de datos
Informe completo base de datosInforme completo base de datos
Informe completo base de datos
 
Secuencias logicas
Secuencias logicasSecuencias logicas
Secuencias logicas
 
Secuencias Logicas
Secuencias LogicasSecuencias Logicas
Secuencias Logicas
 
Excelente cuadernillo con secuencias logicas (2)
Excelente cuadernillo con secuencias logicas (2)Excelente cuadernillo con secuencias logicas (2)
Excelente cuadernillo con secuencias logicas (2)
 
Historia Mundial I Manual
Historia Mundial I ManualHistoria Mundial I Manual
Historia Mundial I Manual
 
Lenguaje y Comunicación II
Lenguaje y Comunicación IILenguaje y Comunicación II
Lenguaje y Comunicación II
 
Fisica
FisicaFisica
Fisica
 
Adultos historia
Adultos historiaAdultos historia
Adultos historia
 
Historia Mundial II Manual
Historia Mundial II ManualHistoria Mundial II Manual
Historia Mundial II Manual
 
Matematica funciones.pdf 06
Matematica funciones.pdf   06Matematica funciones.pdf   06
Matematica funciones.pdf 06
 
Historia Mundial III Manual
Historia Mundial III ManualHistoria Mundial III Manual
Historia Mundial III Manual
 
Lenguaje y Comunicación I
Lenguaje y Comunicación ILenguaje y Comunicación I
Lenguaje y Comunicación I
 
Guía para el diseño hidráulico de redes de alcantarillado
Guía para el diseño hidráulico de redes de alcantarilladoGuía para el diseño hidráulico de redes de alcantarillado
Guía para el diseño hidráulico de redes de alcantarillado
 

Similar a 1992 descripcion e inferencia lineal en estadistica

Sistema experto/soporte para la optimización de líneas ferroviaria, Juan pavó...
Sistema experto/soporte para la optimización de líneas ferroviaria, Juan pavó...Sistema experto/soporte para la optimización de líneas ferroviaria, Juan pavó...
Sistema experto/soporte para la optimización de líneas ferroviaria, Juan pavó...
Juan Pavón
 
Electricidad sistemas puesta_a_tierra
Electricidad sistemas puesta_a_tierraElectricidad sistemas puesta_a_tierra
Electricidad sistemas puesta_a_tierrafedericoblanco
 
Riego por aspersion
Riego por aspersionRiego por aspersion
Riego por aspersion
cesar llactahuaman huaman
 
Portafolio de algebra........
Portafolio de algebra........Portafolio de algebra........
Portafolio de algebra........Xiomy Sepulveda
 
Apuntes digitales calculo multi
Apuntes digitales calculo multiApuntes digitales calculo multi
Apuntes digitales calculo multi
JorgeRodriguez1175
 
Calculo II
Calculo IICalculo II
Costos y presupuestos_en_edificacion_-_capeco
Costos y presupuestos_en_edificacion_-_capecoCostos y presupuestos_en_edificacion_-_capeco
Costos y presupuestos_en_edificacion_-_capecoVictoria Salazar Bazan
 
Manual-Básico-de-Ecotecnias.-Un-acercamiento-a-las-ecotecnias-y-buenos-hábito...
Manual-Básico-de-Ecotecnias.-Un-acercamiento-a-las-ecotecnias-y-buenos-hábito...Manual-Básico-de-Ecotecnias.-Un-acercamiento-a-las-ecotecnias-y-buenos-hábito...
Manual-Básico-de-Ecotecnias.-Un-acercamiento-a-las-ecotecnias-y-buenos-hábito...
DavidOrtiz470990
 
bovedas para difusion
bovedas para difusionbovedas para difusion
bovedas para difusion
ceciliasalgadoaguayo
 
TUNELES - SISTEMAS DE CLASIFICACION
TUNELES - SISTEMAS DE CLASIFICACIONTUNELES - SISTEMAS DE CLASIFICACION
TUNELES - SISTEMAS DE CLASIFICACION
ROBINSON VILLAMIL
 
SEGURIDAD E HIGIENE SINDICATO ÚNICO DE TRABAJADORES ELECTRICISTAS(SUTERM)
SEGURIDAD E HIGIENE SINDICATO ÚNICO DE TRABAJADORES ELECTRICISTAS(SUTERM)SEGURIDAD E HIGIENE SINDICATO ÚNICO DE TRABAJADORES ELECTRICISTAS(SUTERM)
SEGURIDAD E HIGIENE SINDICATO ÚNICO DE TRABAJADORES ELECTRICISTAS(SUTERM)Anibal Garcia Velazquez
 
Matemáticas Avanzadas autor Erick E. Luna Rojero.pdf
Matemáticas Avanzadas autor Erick E. Luna Rojero.pdfMatemáticas Avanzadas autor Erick E. Luna Rojero.pdf
Matemáticas Avanzadas autor Erick E. Luna Rojero.pdf
RosaLuciaBazanCandue
 
Pdf practicas minas
Pdf practicas minasPdf practicas minas
Pdf practicas minas
EZEQUIEL PEZO
 
Balance de materiales en yacimientos de petoleo con gas disuelto
Balance de materiales en yacimientos de petoleo con gas disueltoBalance de materiales en yacimientos de petoleo con gas disuelto
Balance de materiales en yacimientos de petoleo con gas disuelto
Magnus Fernandez
 
Programa de buenas prácticas agricolas y turisticas otún
Programa de buenas prácticas agricolas y turisticas otúnPrograma de buenas prácticas agricolas y turisticas otún
Programa de buenas prácticas agricolas y turisticas otún
agendaturismosostenible
 

Similar a 1992 descripcion e inferencia lineal en estadistica (20)

Sistema experto/soporte para la optimización de líneas ferroviaria, Juan pavó...
Sistema experto/soporte para la optimización de líneas ferroviaria, Juan pavó...Sistema experto/soporte para la optimización de líneas ferroviaria, Juan pavó...
Sistema experto/soporte para la optimización de líneas ferroviaria, Juan pavó...
 
Electricidad sistemas puesta_a_tierra
Electricidad sistemas puesta_a_tierraElectricidad sistemas puesta_a_tierra
Electricidad sistemas puesta_a_tierra
 
Riego por aspersion
Riego por aspersionRiego por aspersion
Riego por aspersion
 
Portafolio de algebra........
Portafolio de algebra........Portafolio de algebra........
Portafolio de algebra........
 
Apuntes digitales calculo multi
Apuntes digitales calculo multiApuntes digitales calculo multi
Apuntes digitales calculo multi
 
Calculo II
Calculo IICalculo II
Calculo II
 
Costos y presupuestos en edificacion capeco
Costos y presupuestos en edificacion   capecoCostos y presupuestos en edificacion   capeco
Costos y presupuestos en edificacion capeco
 
Costos y presupuestos_en_edificacion_-_capeco
Costos y presupuestos_en_edificacion_-_capecoCostos y presupuestos_en_edificacion_-_capeco
Costos y presupuestos_en_edificacion_-_capeco
 
Libro
LibroLibro
Libro
 
Manual-Básico-de-Ecotecnias.-Un-acercamiento-a-las-ecotecnias-y-buenos-hábito...
Manual-Básico-de-Ecotecnias.-Un-acercamiento-a-las-ecotecnias-y-buenos-hábito...Manual-Básico-de-Ecotecnias.-Un-acercamiento-a-las-ecotecnias-y-buenos-hábito...
Manual-Básico-de-Ecotecnias.-Un-acercamiento-a-las-ecotecnias-y-buenos-hábito...
 
bovedas para difusion
bovedas para difusionbovedas para difusion
bovedas para difusion
 
TUNELES - SISTEMAS DE CLASIFICACION
TUNELES - SISTEMAS DE CLASIFICACIONTUNELES - SISTEMAS DE CLASIFICACION
TUNELES - SISTEMAS DE CLASIFICACION
 
Porosimetria de mercurio
Porosimetria de mercurioPorosimetria de mercurio
Porosimetria de mercurio
 
SEGURIDAD E HIGIENE SINDICATO ÚNICO DE TRABAJADORES ELECTRICISTAS(SUTERM)
SEGURIDAD E HIGIENE SINDICATO ÚNICO DE TRABAJADORES ELECTRICISTAS(SUTERM)SEGURIDAD E HIGIENE SINDICATO ÚNICO DE TRABAJADORES ELECTRICISTAS(SUTERM)
SEGURIDAD E HIGIENE SINDICATO ÚNICO DE TRABAJADORES ELECTRICISTAS(SUTERM)
 
Matemáticas Avanzadas autor Erick E. Luna Rojero.pdf
Matemáticas Avanzadas autor Erick E. Luna Rojero.pdfMatemáticas Avanzadas autor Erick E. Luna Rojero.pdf
Matemáticas Avanzadas autor Erick E. Luna Rojero.pdf
 
Pdf practicas minas
Pdf practicas minasPdf practicas minas
Pdf practicas minas
 
03 puertos rev08
03 puertos rev0803 puertos rev08
03 puertos rev08
 
Balance de materiales en yacimientos de petoleo con gas disuelto
Balance de materiales en yacimientos de petoleo con gas disueltoBalance de materiales en yacimientos de petoleo con gas disuelto
Balance de materiales en yacimientos de petoleo con gas disuelto
 
Intro vibespanol
Intro vibespanolIntro vibespanol
Intro vibespanol
 
Programa de buenas prácticas agricolas y turisticas otún
Programa de buenas prácticas agricolas y turisticas otúnPrograma de buenas prácticas agricolas y turisticas otún
Programa de buenas prácticas agricolas y turisticas otún
 

1992 descripcion e inferencia lineal en estadistica

  • 1. UNIVERSIDAD MAYOR DE SAN ÁNDRES FACULTAD DE CIENCIAS PURAS Y NATURALES CARRERA DE ESTADÍSTICA INTRODUCCIÓN A LA DESCRIPCIÓN E INFERENCIA LINEAL EN ESTADÍSTICA POR: DR. ROLANDO MORALES A. LA PAZ, ENERO 1992
  • 2. TABLA DE MATERIAS PRESENTACIÓN PARTE A: ..................................................................................................................................................... 1 ELEMENTOS BÁSICOS DE ........................................................................................................................ 1 ALGEBRA LINEAL ...................................................................................................................................... 1 CAPÍTULO I. CONCEPTOS BÁSICOS .................................................................................................................................. 2 1. INTRODUCCIÓN.......................................................................................................................................................... 2 2. ESPACIOS VECTORIALES ......................................................................................................................................... 3 3. ESPACIOS VECTORIALES "V=Kn EN K" DONDE K ES UN CUERPO ........................................................................ 6 4. ESPACIOS VECTORIALES DE MATRICES .............................................................................................................. 11 5. SUB-ESPACIOS VECTORIALES ............................................................................................................................... 13 6. SUBESPACIOS GENERADOS POR UN CONJUNTO DE VECTORES ..................................................................... 14 a. Combinaciones lineales de vectores ..................................................................................................................... 14 b. Conjuntos generadores, espacios generados por un conjunto de vectores............................................................ 14 7. DEPENDENCIA E INDEPENDENCIA LINEAL ........................................................................................................... 15 a. Dependencia lineal................................................................................................................................................ 15 b. Independencia lineal ............................................................................................................................................. 15 c. Consecuencias de las definiciones........................................................................................................................ 16 8. DIMENSIÓN DE UN ESPACIO VECTORIAL.............................................................................................................. 17 9. BASE DE UN ESPACIO VECTORIAL ........................................................................................................................ 17 10. CAMBIOS DE BASE................................................................................................................................................... 18 11. DUALIDAD EN LOS CAMBIOS DE BASE .................................................................................................................. 21 CAPÍTULO II. APLICACIONES LINEALES Y MATRICES............................................................................................... 25 1. DEFINICIÓN............................................................................................................................................................... 25 2. ALGUNAS CONSECUENCIAS IMPORTANTES DE LA DEFINICIÓN........................................................................ 26 3. APLICACIONES LINEALES Y MATRICES: MATRIZ DE UNA APLICACION LINEAL f. ............................................ 28 4. APLICACIONES LINEALES CUANDO E=Kn Y F=Km EN K ........................................................................................ 28 a. Una aplicación lineal como una combinación lineal en F ....................................................................................... 28 b. Producto de una matriz por un vector .................................................................................................................... 29 c. Suma de aplicaciones lineales y suma de matrices ............................................................................................... 30 d. Composición de aplicaciones lineales y producto de matrices............................................................................... 30 e. Caracterizaciones relativas al rango de una matriz................................................................................................ 31 5. APLICACIONES LINEALES INVERSAS E INVERSOS DE MATRICES ..................................................................... 32 6. ALGORITMO DE INVERSIÓN DE UNA MATRIZ ....................................................................................................... 35 7. INVERSIÓN DE MATRICES PARTICIONADAS ......................................................................................................... 37 8. DETERMINANTES..................................................................................................................................................... 38 a. Definición .............................................................................................................................................................. 38 b. Algoritmo de cálculo de un determinante............................................................................................................... 38 c. Determinantes de matrices particionadas .............................................................................................................. 39 d. Determinante del producto de 2 matriz de rango máximo...................................................................................... 39 9. FACTORIZACIÓN DE UNA MATRIZ SINGULAR ....................................................................................................... 40 10. NUCLEO DE UNA APLICACIÓN LINEAL Y NUCLEO DE UNA MATRIZ.................................................................... 42 11. INVERSOS GENERALIZADOS DE MATRICES ......................................................................................................... 44 12. ALGUNAS APLICACIONES LINEALES PARTICULARES.......................................................................................... 46 CAPÍTULO III. SISTEMAS DE ECUACIONES LINEALES............................................................................................... 51 1. PLANTEAMIENTO DEL PROBLEMA ......................................................................................................................... 51 2. CARACTERIZACIONES INICIALES DEL ESPACIO DE SOLUCIONES..................................................................... 51 a. Consistencia.......................................................................................................................................................... 51 b. Redundancia ......................................................................................................................................................... 52 c. Soluciones múltiples.............................................................................................................................................. 53 d. Número máximo de vectores LIN en S .................................................................................................................. 53 3. SOLUCIONES BASICAS A UN SISTEMA DE ECUACIONES LINEALES .................................................................. 54 4. UN ALGORITMO DE RESOLUCION Y ANÁLISIS DE UN SISTEMA DE ECUACIONES LINEALES.......................... 55 a. Rango de A. .......................................................................................................................................................... 57 b. Consistencia.......................................................................................................................................................... 57 c. Soluciones básicas................................................................................................................................................ 57 d. Solución única....................................................................................................................................................... 57 e. Soluciones múltiples.............................................................................................................................................. 58 5. SISTEMAS DE ECUACIONES CON LA RESTRICCION DE QUE LAS SOLUCIONES SEAN NO NEGATIVAS ........ 58 ii
  • 3. CAPÍTULO IV. FORMAS BILINEALES ............................................................................................................................. 62 1. DEFINICIÓN............................................................................................................................................................... 62 2. FORMAS BILINEALES Y MATRICES ........................................................................................................................ 63 3. DISTANCIAS.............................................................................................................................................................. 64 4. NORMAS Y ESPACIOS VECTORIALES NORMADOS .............................................................................................. 66 5. PRODUCTOS ESCALARES ...................................................................................................................................... 67 6. EXTENSIONES DEL PRODUCTO ESCALAR CLÁSICO EN Rn ................................................................................. 68 a. Norma euclidiana .................................................................................................................................................. 68 b. Distancia euclidiana .............................................................................................................................................. 69 c. Ángulo entre dos vectores..................................................................................................................................... 70 d. Ortogonalidad........................................................................................................................................................ 72 7. BASES ORTOGONALES Y BASES ORTONORMADAS EN Rn ................................................................................. 73 8. MATRICES Y PRODUCTO ESCALAR CLASICO EN Rn ............................................................................................ 74 9. PRODUCTO ESCALAR GENERALIZADO EN Rn ...................................................................................................... 74 CAPITULO V. LA ESPERANZA MATEMATICA COMO OPERADOR LINEAL ................................................................ 76 1. ESPERANZAS MATEMÁTICAS ................................................................................................................................. 76 2. VARIANZAS Y COVARIANZAS.................................................................................................................................. 78 3. ESPERANZA MATEMÁTICA DE UNA FORMA QUADRÁTICA .................................................................................. 81 CAPÍTULO VI. DERIVACIÓN CON VECTORES Y MATRICES ........................................................................................ 82 1. CONVENCIONES GENERALES ()............................................................................................................................. 82 2. DERIVADAS DE FORMAS LINEALES ....................................................................................................................... 85 3. DERIVADAS DE FORMAS CUADRÁTICAS............................................................................................................... 86 4. PROBLEMAS DE OPTIMIZACIÓN ............................................................................................................................. 87 CAPÍTULO VII. VALORES Y VECTORES PROPIOS DE MATRICES SIMÉTRICAS ......................................................... 93 1. DEFINICIONES .......................................................................................................................................................... 93 2. POLINOMIO CARACTERÍSTICO ............................................................................................................................... 94 3. LA PROPIEDAD DE ORTOGONALIDAD DE LOS VECTORES PROPIOS ................................................................ 95 4. LA DESCOMPOSICIÓN ESPECTRAL DE UNA MATRIZ SIMÉTRICA....................................................................... 96 5. CARACTERIZACIONES POR MEDIO DE LOS VALORES PROPIOS ....................................................................... 97 6. FORMAS CUADRÁTICAS Y VALORES PROPIOS .................................................................................................... 98 7. VALORES SINGULARES Y DESCOMPOSICIÓN SINGULAR DE UNA MATRIZ RECTANGULAR ......................... 100 8. EL INVERSO GENERALIZADO DE PENROSE DE UNA MATRIZ RECTANGULAR................................................ 102 9. RESOLUCIÓN DE ECUACIONES LINEALES POR MEDIO DEL INVERSO ............................................................ 103 GENERALIZADO DE PENROSE. PROPIEDADES DE LAS SOLUCIONES ....................................................................... 103 CAPÍTULO VIII. LA DESIGUALDAD DE SCHWARTZ Y OTRAS DESIGUALDADES UTILES EN ESTADISTICA .......... 104 1. LA DESIGUALDAD DE SCHWARTZ Y SUS EXTENSIONES .................................................................................. 104 2. LA DESIGUALDAD TRIANGULAR Y SUS EXTENSIONES ..................................................................................... 106 3. IGUALDADES Y DESIGUALDADES UTILIZANDO TRANSFORMACIONES ORTOGONALES. .............................. 108 4. OTRAS DESIGUALDADES UTILES......................................................................................................................... 109 5. LOS PROBLEMAS DE PROCUSTE......................................................................................................................... 110 ANEXOS DE LA PARTE A. ..................................................................................................................................................... 112 PROGRAMACIÓN LINEAL EL ALGORITMO DEL SIMPLEX ................................................................................................ 112 1. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 112 2. REPASO DE ALGUNOS CONCEPTOS BÁSICOS DE TOPOLOGIA. ...................................................................... 114 3. CARACTERIZACIÓN DE LAS SOLUCIONES A UN PROGRAMA LINEAL .............................................................. 126 4. ALGORITMO DEL SIMPLEX.................................................................................................................................... 135 PARTE B: ................................................................................................................................................. 138 MODELOS LINEALES ............................................................................................................................. 138 CAPITULO IX. INTRODUCCIÓN..................................................................................................................................... 139 1. MODELOS LINEALES Y CAUSALIDAD EN ESTADÍSTICA ..................................................................................... 139 2. EL MODELO LINEAL. NOTACION Y DEFINICIONES.............................................................................................. 141 CAPÍTULO X. ESTIMACIÓN POR MÍNIMOS CUADRADOS DE UN MODELO LINEAL ............................................... 142 1. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 142 2. EL CRITERIO DE ESTIMACION DE MINIMOS CUADRADOS DE p........................................................................ 142 3. LA SOLUCIÓN DE MÍNIMOS CUADRADOS............................................................................................................ 144 4. EL TEOREMA DE LA PROYECCIÓN....................................................................................................................... 147 5. DESCOMPOSICIÓN DE LA VARIANZA.-................................................................................................................. 149 DESCOMPOSICIÒN TRIANGULAR DE LA NORMA .............................................................................................................. 151 6. CORRELACION PARCIAL ....................................................................................................................................... 155 CAPÍTULO XI VECTOR ALEATORIO NORMAL Y VARIABLES ALEATORIAS QUE LE SON DEDUCIDAS............... 157 1. EL VECTOR NORMAL ESTÁNDAR ......................................................................................................................... 157 2. NOTA SOBRE LOS CAMBIOS DE VARIABLE EN LA INTEGRACION .................................................................... 158 3. FUNCIONES LINEALES DE VARIABLES NORMALES ........................................................................................... 159 4. FUNCIONES CUADRATICAS DE VARIABLES NORMALES ESTANDAR ............................................................... 165 5. VARIABLE DE STUDENT ........................................................................................................................................ 165 iii
  • 4. 6. VARIABLE DE FISHER ............................................................................................................................................ 165 7. EXTENSIONES CON VECTORES NORMALES QUE NO SON ESTÁNDAR........................................................... 166 a. Variable Chi-Cuadrado con n grados de libertad ................................................................................................. 166 b. Variables Chi-Cuadrado y formas cuadráticas X'QX donde la matriz Q es un proyector de rango r. .................... 167 8. INDEPENDENCIA DE FORMAS LINEALES Y CUADRATICAS DE VECTORES NORMALES ESTANDAR ............ 168 a. Independencia de dos formas lineales................................................................................................................. 168 b. Independencia de una forma lineal y de una forma cuadrática ............................................................................ 169 c. Independencia de dos formas cuadráticas........................................................................................................... 170 CAPÍTULO XII. HIPOTESIS ALEATORIAS EN EL MODELO LINEAL ............................................................................ 171 1. LAS HIPOTESIS SIMPLES: NORMALIDAD, INDEPENDENCIA Y HOMOCEDASTICIDAD..................................... 171 ESQUEMA DE CAUSALIDAD............................................................................................................................................. 171 2. FUNCIONES DE DISTRIBUCION DEDUCIDAS DE LA HIPOTESIS SIMPLE PARA LOS ESTIMADORES Y OTROS ESTADISTICOS.................................................................................................................................................................. 172 3. TESTS DE HIPOTESIS SIMPLE PARA LOS ESTIMADORES DE CADA UNO DE LOS PARAMETROS ................ 176 4. ANÁLISIS DE LA VARIANZA Y TEST COMPUESTO PARA UN CONJUNTO DE HIPOTESIS SIMULTÁNEAS ..... 176 CAPÍTULO XIII. LA ESTIMACIÓN MÁXIMO VEROSIMIL DE UN MODELO LINEAL....................................................... 180 1. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 180 2. LA ESTIMACIÓN DEL MODELO CON Ω CONOCIDA.............................................................................................. 181 3. LA ESTIMACIÓN DEL MODELO CON Ω DESCONOCIDA ...................................................................................... 182 CAPITULO XIV. ASPECTOS PRÁCTICOS RELATIVOS A LA REGRESIÓN LINEAL ..................................................... 184 1. LA REGRESIÓN POR ETAPAS ............................................................................................................................... 184 2. AUTOMATICIDAD DE LOS CÁLCULOS DE REGRESIÓN ...................................................................................... 186 PARTE C................................................................................................................................................... 188 DISEÑO DE EXPERIMENTOS................................................................................................................. 188 CAPITULO XV. INTRODUCCIÒN..................................................................................................................................... 189 CAPITULO XVI. LOS MODELOS LINEALES SINGULARES ............................................................................................ 191 1. DEFINICIONES Y PLANTEAMIENTO DEL PROBLEMA.......................................................................................... 191 2. TÈCNICAS DE ESTIMACIÒN DE FUNCIONES LINEALES DE LOS PARÀMETROS .............................................. 191 a. Inversos generalizados........................................................................................................................................ 191 b. Base para un espacio vectorial............................................................................................................................ 192 c. Restricciones líneales sobre los parámetros........................................................................................................ 192 CAPÍTULO XVII. ESTIMACIÓN MÍNIMO CUADRÁTICA CON RESTRICCIONES LINEALES SOBRE LOS PARÁMETROS 193 1. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 193 2. CARACTERIZACION DE LAS SOLUCIONES AL PROBLEMA DE REGRESION LINEAL CON RESTRICCIONES SOBRE LOS PARÁMETROS.............................................................................................................................................. 195 a. Condiciones de rango para la existencia de una solución única .......................................................................... 195 b. Condiciones de rango para que exista una solución única e igual al punto óptimo sin restricciones .................... 197 CAPÍTULO XVIII. PROYECCIONES Y PROYECTORES ................................................................................................ 198 1. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 198 2. SUMA DIRECTA ...................................................................................................................................................... 198 3. PROYECCIÓN ......................................................................................................................................................... 199 4. PROYECTOR........................................................................................................................................................... 199 5. PROYECTORES ORTOGONALES .......................................................................................................................... 202 6. EXPRESIÓN EXPLICITA DE UN PROYECTOR ORTOGONAL ............................................................................... 203 7. LAS ECUACIONES NORMALES ............................................................................................................................. 204 8. SECUENCIA DE PROYECTORES ORTOGONALES Y PROPIEDADES ................................................................. 204 9. UNA SECUENCIA PARTICULAR DE PROYECTORES ORTOGONALES ............................................................... 207 10. OTRAS PROPIEDADES DE LOS PROYECTORES................................................................................................. 208 11. DESCOMPOSICIÓN DE LA VARIANZA EN EL MARCO DE LOS MODELOS DE "ANÁLISIS DE LA VARIANZA" CORRIENTES EN LOS DISEÑOS DE EXPERIMENTOS ................................................................................................... 210 TABLA DE ANÁLISIS DE LA VARIANZA ............................................................................................................................... 211 ANEXOS DE LA PARTE C ...................................................................................................................................................... 213 A. UNA CLASE PARTICULAR DE INVERSOS GENERALIZADOS .............................................................................. 213 1. PRESENTACIÓN ............................................................................................................................................... 213 2. ALGUNAS CONSECUENCIAS ........................................................................................................................... 214 3. DEMOSTRACIÓN ............................................................................................................................................... 214 B. SOBRE UNA CLASE PARTICULAR DE SOLUCIONES A UN SISTEMA DE ECUACIONES LINEALES ................. 217 1. PRESENTACIÓN................................................................................................................................................ 217 2. COMPROBACIÓN .............................................................................................................................................. 217 3. EXTENSIÓN ....................................................................................................................................................... 218 PARTE D................................................................................................................................................... 219 ELEMENTOS DE...................................................................................................................................... 219 ANALISIS MULTIVARIANTE ................................................................................................................... 219 iv
  • 5. CAPITULO XIX. ANÁLISIS FACTORIAL........................................................................................................................... 220 1. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 220 2. NOCION DE INERCIA DE UNA NUBE DE PUNTOS ............................................................................................... 221 3. EL MODELO DE MINIMOS CUADRADOS............................................................................................................... 225 4. LA DUALIDAD DE LOS ANALISIS POR LINEAS Y POR COLUMNAS DE UNA MATRIZ DE OBSERVACIONES ... 229 CAPÍTULO XX. ANÁLISIS EN CORRELACIONES CANÓNICAS .................................................................................... 231 1. EL MARCO GENERAL DEL CONCEPTO DE CORRELACION EN ESTADÍSTICA.................................................. 231 a. Correlación como medida de dependencia lineal................................................................................................. 231 b. El coeficiente de correlación Lineal Simple.......................................................................................................... 231 c. Correlación Múltiple............................................................................................................................................ 233 d. Correlación parcial .............................................................................................................................................. 234 e. Correlación canónica........................................................................................................................................... 235 2. LA BATERIA DE CORRELACIONES CANONICAS.................................................................................................. 235 CAPÍTULO XXI. ANÁLISIS EN CORRESPONDENCIAS PRINCIPALES ......................................................................... 240 1. INTRODUCCIÓN...................................................................................................................................................... 240 2. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 240 3. DESCOMPOSICIÓN SINGULAR ............................................................................................................................. 241 4. PROPIEDADES DE LA DESCOMPOSICIÓN SINGULAR DE C=P-½TQ-½ ............................................................... 242 5. MEDIAS, VARIANZAS, COVARIANZAS, CORRELACIONES .................................................................................. 244 6. LOS EFECTOS CRUZADOS DE LINEAS Y COLUMNAS ........................................................................................ 247 7. REPRESENTACIONES GRÁFICAS......................................................................................................................... 251 8. CONCENTRACIÓN O COMPACTACIÓN................................................................................................................. 252 9. COMENTARIOS FINALES ....................................................................................................................................... 254 BIBLIOGRAFIA ........................................................................................................................................ 255 v
  • 6. PRESENTACIÓN El presente trabajo es el resultado del acopio y ordenamiento de notas de los cursos dictados por su autor entre 1976 y 1990 en la Carrera de Estadística de la Facultad de Ciencias Puras y Naturales. Estas notas han podido concretizarse en el presento texto gracias al apoyo que la Universidad de San Andrés de La Paz prestó al autor concediéndole un año sabático entre abril 1990 y abril 1991. Este texto está dedicado, en primera instancia, a los alumnos sin los cuales sería muy difícil que los profesores puedan cristalizar sus conocimientos, siendo, de todas maneras obvio que lo contrario no es forzosamente cierto... El texto está organizado para hacer parte de 4 cursos diferentes de 1 semestre. El primero constituye una introducción al Algebra Lineal con una orientación particular hacia sus aplicaciones en estadística. Contiene además un capítulo relativo a la Programación Lineal. El segundo curso es de modelos lineales, el tercero, de diseño de experimentos y el cuarto de análisis multivariante. Rolando Morales Universidad de San Andrés La Paz - Bolivia vi
  • 7. PARTE A: ELEMENTOS BÁSICOS DE ALGEBRA LINEAL 1
  • 8. CAPÍTULO I. CONCEPTOS BÁSICOS 1. INTRODUCCIÓN En matemáticas aplicadas, sobre todo en varias de las ramas de estadística y de investigación operativa, el investigador trabaja con grandes cantidades de datos que, en general, se presentan en la forma de tablas de n líneas y m columnas de números reales. Los elementos de cualquier columna (o línea) de esta tabla pueden ser interpretados como las coordenadas n m de un punto en R (o en R ). La distancia de uno de estos puntos al origen, como se verá posteriormente, puede ser asociada al concepto 1 de varianza en estadística y el ángulo que dos de estos puntos forman con el origen al concepto de correlación. La regresión lineal puede considerarse come una proyección ortogonal de un punto sobre un espacio vectorial. De manera a conceptualizar correctamente el enfoque geométrico de algunas ramas de la estadística así como de la investigación operativa conviene considerar esos puntos como elementos de un espacio vectorial y las tablas de números como matrices. Esta observación lleva naturalmente a introducir los espacios vectoriales. Las reflexiones anteriores ponen el acento en la importancia de espacios vectoriales conformados por n- uplas de números reales. Sin embargo, muchas aplicaciones necesitan también la consideración de espacios vectoriales de n-uplas de números complejos. El presente texto supone que los estudiantes han seguido previamente un curso de Algebra Lineal, limitando muchos de los desarrollo posteriores a espacios vectoriales conformados por n-uplas de reales o complejos. 1 La distancia es múltiplo de la varianza 2
  • 9. 2. ESPACIOS VECTORIALES El juego de ajedrez (o todo otro juego) tiene un soporte, las fichas y el tablero, y un conjunto de reglas que definen las "operaciones" o jugadas posibles. Aún si es banal, cabe señalar que ninguna ficha puede jugar fuera del tablero y que todas ellas pueden desplazarse sólo según las reglas predefinidas del juego (por ejemplo, un caballo no puede desplazarse en línea recta). La expresión "puede" en este caso no significa una limitación absoluta, mas implica que toda violación a las reglas significa que ya no se trata de un juego de ajedrez.... Un espacio vectorial es definido a través de: -un conjunto de elementos V -un cuerpo K y un conjunto de reglas o de operaciones que se ejecutan al interior de V. Estas operaciones son de dos tipos: -las que se refieren sólo a los elementos de V (reglas o leyes de composición interna) -las que combinan elementos del cuerpo K con los de los elementos del conjunto V para dar lugar a otros elementos de V (reglas o leyes de composición externa) En el recuadro, se introduce V como un conjunto de elementos cualquiera. No es el caso de K, el cual tiene una estructura de cuerpo. En matemáticas aplicadas, K con frecuencia es el cuerpo de reales R o el de complejos C. La ley de composición interna asocia a 2 ó más elementos de V un tercer elemento, también en V. Con frecuencia se la denomina suma y se la abrevia + por que en los espacios vectoriales compuestos por todas las n-uplas de números reales, esta ley equivale a la suma en los reales. No obstante, si V es un conjunto cualquiera, esta abreviación puede prestar a confusión. 3
  • 10. La ley de composición interna en V asocia a 2 o más de sus elementos un tercer elemento también en V con las características siguientes: 1. Es una ley conmutativa en el sentido en que si X+Y = Z también Y+X = Z 2. Es una ley asociativa en el sentido en que si X+Y = A y Y+Z=B, se tiene A+Z = X+B 3. En relación a la ley de composición interna, para que V sea un espacio vectorial 4. tiene que existir en V un elemento neutro 0 común a todos sus elementos tal que para cualquier X en V, X+0 = X 5. En forma simétrica al punto anterior, para que V sea un espacio vectorial, para * * cada X en V tiene que existir un elemento simétrico X tal que X+X = 0 La ley de composición externa asocia a uno (ó varios) elementos de V y a uno (ó varios) elementos de K (denominados escalares) un elemento de V. Con frecuencia se la denomina "multiplicación por un escalar" y se la abrevia con un punto (.) por que en los espacios vectoriales compuestos por todas las n-uplas de números reales, esta ley equivale a la multiplicación en los reales. No obstante, como en el caso de la ley de composición interna, si V es un conjunto cualquiera, esta 2 abreviación puede presta a confusión ( ). 2 ) Desde el momento en que se usa el símbolo suma, el estudiante tiene la tendencia a asimilar esta operación a la suma de los reales y se pregunta por qué complicar tanto una operación tan simple...que la conocía desde el primer año básico. 4
  • 11. La ley de composición externa está definida como sigue: Para todo X en V y para todo escalar a en K, a.X es un elemento de V. La ley de composición externa verifica los axiomas siguientes: 1. La ley de composición externa es asociativa en el sentido siguiente: si A=a.X y B =b.X se tiene b.A = a.B 2. En K, con relación a V, existe un elemento u, denominado neutro tal que para todo X en V, u.X= X (u es entonces el elemento neutro en relación a la multiplicación) 3. La ley de composición externa es distributiva en relación a la suma definida en V en el sentido siguiente: a.(X+Y) = a.X + a.Y , con a en K y X,Y en V 3 4. La ley de composición externa es también distributiva en relación a la suma( ) definida en el cuerpo K: (a+b).X = a.X + b.X , con a, b en K y X en V Vocabulario: Un conjunto V donde se ha definido una regla de composición interna y otra de composición externa en relación a un cuerpo K se denomina "espacio vectorial V en el cuerpo K". Los elementos de un espacio vectorial son denominados vectores. 3 ) La suma en K y en V no se refiere, necesariamente, a las mismas operaciones. Así el signo + en a+b en relación a K no es el mismo que en X+Y en V. 5
  • 12. n 3. ESPACIOS VECTORIALES "V=K EN K" DONDE K ES UN CUERPO n K es una abreviación para identificar el conjunto de n-uplas de escalares del cuerpo K. Utilizando la suma y n la multiplicación definidas en K para definir las leyes de composición interna y externa en K (en el sentido n que se verá posteriormente), se puede demostrar que "K es un espacio vectorial en K". Las n-uplas de K, por convención son presentadas en la forma de una lista vertical de escalares de K (o "vector columna) : Ejemplo: ⎡α ⎤ ⎢ ⎥ ⎢β ⎥ n - upla en K n = ⎢ ⎥ ⎢γ ⎥ ⎢ ⎥ ⎣δ ⎦ La ley de composición interna está definida como la suma (en K) "término a término" de los componentes de n las n-uplas de V=K . Ejemplo: ⎡ a⎤ ⎡α ⎤ ⎡ a +α ⎤ ⎢ ⎥ ⎢β ⎥ ⎢ ⎥ ⎢ b ⎥+⎢ ⎥ ⎢ b+ β ⎥ ⎢ c⎥ ⎢ γ ⎥= ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ c +γ ⎥ ⎢d ⎥ ⎢δ ⎣ ⎦ ⎣ ⎥ ⎢ ⎦ ⎣ d +δ ⎥ ⎦ La ley de composición externa está definida como la multiplicación (en K) de un escalar de K "por cada uno n de las componentes de le n-upla que constituye un elemento de V=K " Ejemplo: ⎡ x ⎤ ⎡ b.x ⎤ ⎢ ⎥ ⎢ ⎥ ⎢ y ⎥ ⎢ b.y ⎥ b.⎢ ⎥ = ⎢ ⎥ ⎢ z ⎥ ⎢ b.z ⎥ ⎢ w ⎥ ⎢ b.w ⎥ ⎣ ⎦ ⎣ ⎦ 6
  • 13. n Cada n-upla en V=K es denominada vector o punto. Cada elemento de la n-upla es denominado componente o también coordenada. Un vector ei tal que todas sus componentes son nulas salvo la i-ésima que es igual al elemento neutro para la multiplicación en el cuerpo K es denominado "vector unidad-i". Ejemplo, si K=R : ⎡0⎤ ⎢ ⎥ ⎢0⎥ ⎢0⎥ ei = ⎢ ⎥ ⎢ 1⎥ ⎢ ⎥ ⎢0⎥ ⎢ ⎥ ⎣0⎦ n El conjunto de n vectores ei, para i=1,2,..n, es denominado "base canónica usual para K ". El término "base" tiene una importancia particular en Algebra Lineal y será explicado posteriormente. Por el momento, n obsérvese que todo vector X en K puede escribirse en la forma: X = x1e1 + x2e2 + ... + ......xnen Como puede observarse por la expresión precedente, el término "coordenada" para identificar la i-ésima componente xi del vector X está relacionado a su representación en términos de la base canónica usual. Si R=K y n=2, los vectores e1 y e2 pueden representarse por 2 puntos ubicados sobre dos ejes ortogonales en forma equidistante a su intersección. 7
  • 14. e2 e1 Cualquier punto del primer eje puede representarse como un múltiplo de e1 así como cualquier punto del segundo eje como un múltiplo de e2. Por otra parte, cualquier punto X del plano puede representarse como la suma de un punto x1e1 ubicado sobre el primer eje y de otro punto x2e2 situado sobre el segundo eje. x2e2 X x1e1 En relación a la geometría elemental, se comprende entonces por que las componentes xi de un vector X se denominan coordenadas. Pero, obsérvese también que esta denominación se refiere a la representación gráfica de un punto en un sistema de ejes ortogonales definido por los vectores de la base canónica. 8
  • 15. Obviamente que un mismo vector puede representarse en otros sistemas de ejes y en consecuencia, con otras coordenadas. Imagínese solamente la rotación de los ejes del gráfico anterior en 30 grados o posibilidad de rotar solamente uno de ellos en 45 grados. n La representación gráfica en ejes ortogonales de un vector o conjunto de vectores en R será utilizada con frecuencia en lo que sigue por lo que vale la pena prestarle alguna atención. n Obsérvese que un vector X en R es, en consecuencia, un "punto" en el plano cuando n=2 y un punto en el espacio cuando n=3. Para n cualquiera, se seguirá identificando gráficamente un vector X por un punto. n Un conjunto de vectores X,Y,Z,...en R forma, entonces, una "nube de puntos" en el espacio. Cuando n=2, estos vectores pueden ser representados como una nube de puntos en un plano. n Obsérvese que si X es un punto en R y a es un número, el vector aX se encuentra en la misma dirección que X en relación al origen. Haciendo variar a entre -infinito y +infinito, el conjunto de vectores aX genera una línea que pasa por el origen. Intuitivamente, se puede observar la relación de dependencia lineal que tiene todo vector aX con X. Este concepto tiene gran importancia en estadística y será tratado con detalle posteriormente. aX X Se puede determinar el valor del vector Z=X+Y gráficamente, como lo muestra el ejemplo siguiente: 9
  • 16. Z X Y Si a y b son dos escalares no negativos que suman 1, el vector Z=aX+bY se encuentra sobre la línea que une los vectores X e Y; es denominado "combinación lineal convexa" de X e Y. Obsérvese que las coordenadas de Z son medias aritméticas ponderadas de las coordenadas de X e Y. Ejemplo: Combinación Lineal Convexa X aX 0<a<1 - (1 -a) Y Y 10
  • 17. Un caso muy importante de representación gráfica de vectores es el de la representación de conjuntos definidos por medio de desigualdades lineales. n Cabe, en primera instancia señalar que si y y x son dos vectores en K , la expresión x≤y significa que cada una de las componentes del vector x es inferior o igual a cada una de las componentes del vector y. 2 2 Por ejemplo S{xεR / x≥0} recubre la totalidad del primer cuadrante en R . 2 El conjunto S={xεR /0≤x≤a, con a'=[1,1]} esta conformado por todos los puntos que se encuentran sobre un cuadrado de lado igual a 1, sobre el primer cuadrante, comenzado en el origen [0,0]. n ALGUNOS VECTORES PARTICULARES EN R : -VECTOR CERO : Sus componentes son iguales a cero -VECTOR UNO o SUMA : Sus componentes son iguales a uno -VECTOR PONDERACION : Sus componentes son no negativos y suman 1. -VECTOR DE CONTRASTE : Sus componentes suman cero 4. ESPACIOS VECTORIALES DE MATRICES n En la sección precedente, se ha visto que el conjunto de n-uplas de K (conjunto K ) es un espacio vectorial. n A su vez, las m-uplas de vectores de K conforman un espacio vectorial sobre K, como se verá posteriormente. n Así como se señaló anteriormente que, por convención, los vectores de K se escriben en forma de una lista n vertical de escalares, las m-uplas de K se representan en forma de una lista horizontal de m vectores columna, es decir, en la forma de una tabla de n líneas y m columnas compuesta por escalares en K. Ejemplo: ⎡a b c⎤ ⎢ ⎥ A= ⎢ d e f ⎥ ⎢ ⎥ ⎢g ⎣ h i⎥ ⎦ 11
  • 18. Esta tabla recibe el nombre de matriz. Independientemente de la forma de escribirla, no se puede perder de vista de que el espacio de matrices de n líneas y m columnas no es otras cosa que el espacio de nxm-uplas nxm de K y que, en consecuencia, se trata del espacio vectorial K en K. Luego, la suma de 2 matrices está definida en forma similar a la suma de dos vectores: "término por término" Ejemplo: ⎡a b⎤ ⎡ e f ⎤ ⎡ a+e b+ f ⎤ ⎢ ⎥+⎢ ⎥= ⎢ ⎥ ⎣c d⎦ ⎢g ⎣ h ⎥ ⎢ c+ g ⎦ ⎣ d +h ⎥ ⎦ De igual manera la multiplicación por un escalar equivale a multiplicar todos los términos de la matriz por el escalar. Ejemplo: ⎡a b ⎤ ⎡ λ .a λ .b ⎤ λ .⎢ ⎥= ⎢ ⎥ ⎣c d ⎦ ⎣ λ .c λ .d ⎦ ALGUNAS MATRICES PARTICULARES: MATRIZ IDENTIDAD: Es una matriz cuadrada con 1 en su diagonal principal siendo ceros todas sus otras componentes MATRIZ CERO: Es una matriz llena de ceros MATRIZ UNO O MATRIZ SUMA Es una matriz llena de unos MATRIZ SIMÉTRICA Es una matriz cuadrada nxn en la cual la i-ésima línea es idéntica la i-ésima columna, con i=1,2,..n 12
  • 19. Cuando una matriz A es tal que sus líneas son iguales a las columnas de una matriz B se dice que A es la matriz transpuesta de B y vice-versa. Obsérvese que una matriz simétrica es igual a su transpuesta. TRAZA DE UNA MATRIZ nxn Se denomina traza de una matriz cuadrada a la suma de los elementos de su diagonal principal. n traza(A) = ∑ aii i=1 La traza tiene las siguientes propiedades: i. Traza (A+B) = Traza(A) + Traza (B) ii. Traza (µA ) = µ.Traza. (A) iii. Traza (ABC) = Traza(BCA) = Traza(CAB) (circularidad). 5. SUB-ESPACIOS VECTORIALES Un sub-espacio vectorial no vacío del espacio vectorial V es un subconjunto de éste que a su vez es un espacio vectorial en relación al mismo cuerpo K y las mismas leyes de composición interna y externa que V. Luego, una condición necesaria y suficiente para que un subconjunto W del espacio vectorial V en K sea, a su vez, un espacio vectorial es que para todo X,Y en W y para todo par de escalares a,b en K, el vector (a.X + b.Y) pertenezca a W. Como consecuencia de la definición se remarcará que: a. Todo subespacio vectorial W de V contiene al elemento neutro 0 de V en relación a la ley de composición interna. b. Un subconjunto de V conteniendo solo al vector neutro 0 es un subespacio vectorial de V 13
  • 20. 3 Ejemplo: Sea V=R y H={xεV/ x= ae1 +be2, para todo a,b en R}. El conjunto H es un subconjunto de V y es fácil de demostrar que si x,y son elementos de H, también lo son cx+dy para todo c,d 3 en R. Luego H es un subespacio vectorial en R . Geométricamente, V representa un espacio de 3 dimensiones. H constituye un plano de este espacio. 6. SUBESPACIOS GENERADOS POR UN CONJUNTO DE VECTORES a. Combinaciones lineales de vectores Una combinación lineal de los vectores X1, X2,...Xn del espacio vectorial V en relación a un conjunto de escalares λ1,λ2,...,λn en K es un vector Z en V tal que: Z = λ1.X1 + λ2.X2 +.....λn.Xn Z es una combinación lineal convexa de estos vectores si los escalares λi, i=1,2,..n son no negativos y su suma es igual al elemento neutro en K en relación a la ley de composición externa (si K=R, este elemento es igual a 1). b. Conjuntos generadores, espacios generados por un conjunto de vectores Sea S un subconjunto de un espacio vectorial V. Se dirá que S genera o engendra el subespacio vectorial {S} en V si todo elemento de {S} puede escribirse como combinación lineal de los elementos de S. S es denominado el conjunto generador del espacio vectorial {S} en V y {S} el espacio vectorial engendrado por el conjunto de vectores S. 14
  • 21. 7. DEPENDENCIA E INDEPENDENCIA LINEAL El vector X del espacio vectorial V es linealmente dependiente de un subconjunto S de vectores en V, si X pertenece al conjunto engendrado por S, es decir, si X es una combinación lineal de vectores contenidos en S. De manera simétrica, X es linealmente independiente de S, si X no pertenece al espacio vectorial engendrado por los vectores de S, es decir, si X no es una combinación lineal de los vectores contenidos en S. Un conjunto D en V está formado por vectores linealmente independientes, si cada uno de sus vectores es linealmente independiente del conjunto de vectores formado por los vectores restantes. De manera semejante: un conjunto D en V está formado por vectores linealmente dependientes, si por lo menos uno de sus vectores es linealmente dependiente de algún subconjunto de vectores formado por los vectores restantes. Las definiciones anteriores pueden traducirse de la siguiente manera: a. Dependencia lineal Un conjunto de vectores (X1,X2,...,Xn) en V es un conjunto de vectores linealmente dependientes si existen escalares ui no todos simultáneamente nulos tales que: u1X1 + u2X2 + ... + unXn = 0 b. Independencia lineal Un conjunto de vectores (X1,X2,...,Xn) en V es un conjunto de vectores linealmente independientes (LIN) si la igualdad: u1X1 + u2X2 + ... + unXn = 0 implica que todos los escalares ui son simultáneamente nulos. 15
  • 22. c. Consecuencias de las definiciones i) Un vector X es linealmente dependiente de un conjunto de vectores LIN (X1, X2,... Xn) en V si el conjunto S=( X1, X2,..., Xn;X) está formado por vectores linealmente dependientes ii) Si S es conjunto de vectores LIN, cada uno de sus subconjuntos será también LIN. Demostración (por absurdo) Sea S=(X1,X2,...,Xr,Xr+1,...,Xn) un conjunto formado por vectores LIN. Supongamos que S1=(X1,X2,...,Xr) es un subconjunto de S formado por vectores que no son LIN; es decir, supongamos que existen escalares u1,u2,...ur no simultáneamente nulos tales que: u1X1 + u2X2 + ... + urXr = 0 Pero en tal caso: (u1X1+...+urXr) + (ur+1Xr+1+...+umXm)= 0 con ur+1=ur+2=...un=0, expresión que contradice el supuesto inicial de que S está formado por vectores LIN. iii. Si un conjunto S está formado por vectores que no son LIN, todo conjunto para el cual S sea un subconjunto estará formado por vectores que no son LIN. iv. Si X1, X2,...Xn son LIN y si para dos conjuntos de escalares (v1, v2,..vn) y (w1, w2,..wn) se tiene: v1.X1 + v2.X2 +...vn.Xn = w1.X1 + w2.X2 + ...wn.Xn entonces, vi=wi, para todo i=1,2,...n. Demostración: Con ui=vi-wi la expresión precedente puede escribirse: u1.X1 + u2.X2 + ..unXn = 0, Si uno o más de los coeficientes ui fuesen diferentes de cero, los vectores Xi no serían independientes, lo que contradice la hipótesis inicial. Luego ui=0, i=1,2,..n. En consecuencia: La representación de un vector X en términos de una combinación lineal de vectores LIN X1, X2,...Xn es única. Es decir, existe un solo juego de escalares vi, i=1,2,..n, tal que X=v1.X1 + v2.X2 + ...vnXn. En particular, si X=Xi, entonces, vi=1, y vj=0 para todo i≠j) 16
  • 23. 8. DIMENSIÓN DE UN ESPACIO VECTORIAL El número máximo de vectores LIN en un conjunto de vectores S en V es igual a M si en S existe algún subconjunto conformado por M vectores LIN y si todo otro vector en S puede escribirse como combinación lineal de los vectores de ese subconjunto. Consecuentemente con la definición anterior, se denomina "dimensión de un espacio vectorial" al número máximo de vectores LIN que contiene el espacio vectorial. Obsérvese que en todo espacio vectorial puede definirse una infinidad de conjuntos diferentes de vectores conteniendo todos ellos el número máximo de vectores LIN. Obsérvese que si un conjunto de vectores S engendra {S} y si T es un subconjunto de S conteniendo el máximo número de vectores LIN, T también genera {S}. En ese caso T es el conjunto en S con menos vectores capaz de generar {S}. Si W es un subespacio vectorial del espacio vectorial V, es evidente que no puede contener más vectores LIN que V, luego: dim W ≤ dim V 9. BASE DE UN ESPACIO VECTORIAL Sea V un espacio vectorial en K y B un subconjunto de V. El conjunto de vectores B es una BASE para V si: i. Esta compuesto de vectores LIN ii. Todo otro vector en V es una combinación lineal de los vectores de B. 17
  • 24. Obsérvese que una base es un conjunto generador del espacio vectorial con la propiedad suplementaria de contener sólo vectores LIN. Puesto que todo otro vector en V es una combinación lineal de los vectores de B, el número de vectores que contiene es igual al número máximo de vectores LIN en V; luego, consecuentemente con la definición anterior ese número es igual a la dimensión del espacio vectorial V. Si n es la dimensión del espacio vectorial V, todo conjunto de n vectores LIN {X1, X2,...Xn} es una base para V. Esto muestra que para cada espacio vectorial existe una infinidad de bases diferentes. En la sección 3 se señaló que el conjunto de vectores unidad-i, para i=1,2,..n constituía una base para el n espacio vectorial K . Con las definiciones anteriores queda en evidencia por qué este conjunto es efectivamente una Base para ese espacio vectorial. 10. CAMBIOS DE BASE A partir de una Base se puede construir nuevas Bases para V reemplazando sucesivamente algunos (o todos) los vectores de la base inicial por nuevos vectores en V. Esta operación se denomina "cambio de base". Obviamente que si se reemplaza un vector de la Base por otro que se encuentra fuera de ella, el nuevo conjunto es todavía una Base sólo si el nuevo vector es linealmente independiente de los demás. Sea, por ejemplo, B={X1,X2,...Xs} una base para V y Xr un vector en V fuera de B. Si se introduce Xr≠[0] en * lugar de Xs, obteniendo un nuevo conjunto B*={X1, X2,..,Xr}, B es todavía una base sólo si Xr es linealmente independiente de los Xi, i=1,2,,,s-1. La reflexión anterior nos lleva a platear el resultado siguiente: i. Puesto que B es una Base para V existen escalares ui, i=1,2,..s tales que Xr= u1.X1 +u2.X2...+usXs, ii. Si us=0, la expresión precedente muestra que Xr es una combinación lineal de X1, X2,..Xs-1, * luego B no podría ser una base. En consecuencia, us≠0 es una condición necesaria para * que B pueda ser una base. * iii. Supóngase que con us diferente de cero, B no contiene vectores LIN. Fácilmente se puede demostrar que en ese caso, B tampoco contiene vectores LIN. Luego, us diferente de cero es también una condición suficiente para que B* sea una base para V. Para muchos algoritmos, por ejemplo, el del SIMPLEX en el marco de la programación lineal o el de la inversión de matrices o el de la regresión lineal por etapas, es importante el algoritmo que permite representar un vector cualquiera como una combinación lineal de los vectores de una nueva Base partiendo de la representación relativa a una base anterior. 18
  • 25. Sea B ={X1, X2,...Xs} una base inicial y, sea B*={X1, X2,...Xr} la nueva base. Supóngase que la representación del vector Xr en términos de B tiene la estructura siguiente: s -1 X r = ∑ a kr X k + a sr X s (9) k =1 De donde: s -1 1 X s=( ) X r - ∑ ( a kr ) X k (10) a sr k =1 a sr Si, inicialmente, la representación de un vector Xs+j cualquiera en términos de la base B era: s -1 X s+ j = ∑ a kj X k + a sj X s (11) k =1 Reemplazando Xs en (11) por su expresión determinada en (10), se tiene la representación siguiente del * vector Xs+j en términos de la nueva base B : s -1 ) X r + ∑ ( a kj - sj kr ) X k a sj a a X s+ j = ( (12) a sr k =1 a sr Las relaciones (10) y (12) proporcionan los elementos básicos para los cambios de representación de un vector cualquiera Xs+j en términos de una nueva base. 19
  • 26. En efecto: Considérese la siguiente tabla denominada de Tucker: Vectores fuera de la base B Vectores en Xs+1 Xs+j . Xr la base B . X1 . . . . Xk akj akr . Xs asj asr En esta tabla, la representación de los vectores que se encuentran fuera de la base se la hace con los escalares que se encuentran en las columnas de estos vectores. Estos escalares son los coeficientes asociados a cada uno de los vectores que se encuentran en la Base B. Obsérvese cómo esta tabla se modifica con la introducción del vector Xr dentro de la base, en lugar del vector Xs: Vectores fuera de la base B* Vectores en Xs+1 Xs+j . Xr la base B* . X1 . . . . Xk akj-(asjakr)/asr -akr/asr . Xr asj/asr 1/asr Las expresiones que se encuentran en esta tabla corresponden a los coeficientes de las relaciones (10) y (11). Recuérdese que los coeficientes sobre una misma columna se interpretan, en cada una de las iteraciones, como los coeficientes asociados a los vectores de la base correspondientes a la representación del vector que se encuentra fuera de la base en la misma columna. 20
  • 27. Algoritmo. A partir de una tabla inicial de Tucker es posible realizar sucesivos cambios de base y obtener las nuevas representaciones de los vectores que se encuentran fuera de ellas en términos de combinaciones lineales de sus vectores de las bases. 1. Se denomina pivote al elemento que se encuentra en la intersección de la columna del vector que entra en la base y en la línea del que sale de la base. Consecuentemente con los desarrollo anteriores, el pivote debe ser diferente de cero. El valor orignal del pivote será reemplazado por su inverso. 2. Los elementos de la columna del pivote se dividen por el pivote y cambian de signo 3. Los elementos de la línea del pivote se dividen por el pivote 5. El resto de los elementos se calculan de la siguiente manera: al elemento que se encontraba en la celda (i,j) se le sustrae el producto de los elementos que se encuentran en la línea i y la columna del pivote y en la columna j y la línea del pivote dividido por el valor del pivote. Las tablas anteriores ilustran estas operaciones. 11. DUALIDAD EN LOS CAMBIOS DE BASE En matemáticas aplicadas reviste particular importancia, como se señaló anteriormente, los espacios n vectoriales del tipo K en K, particularmente, cuando K=R. m m Sean Xj, j=1,2,..n, n-vectores en R y reténgase como base inicial para R la base canónica usual E = {e1, e2,..em} en este espacio vectorial. Los vectores Xj pueden considerarse como vectores columna de una matriz X con m-líneas y n-columnas. La transpuesta de esta matriz, X', tiene n-líneas y m-columnas; cada uno de sus vectores columna Yj, j=1,2,..m puede ser representado en términos de los vectores B = {bi,i=1,2,..n}, de la base canónica usual de n R. Obsérvese que sin esfuerzo adicional de cálculo, se puede realizar cambios de base simultáneamente en la base E y en la base B así como lograr las representaciones respectivas de los vectores en los espacios m n vectoriales R y R : 21
  • 28. Vectores fuera de la base E Vectores en Xm+1 Xm+j . Xm+n la base E . e1 . . Yn+1 . . . ek akj akn Yn+k . em amj amn Yn+m Vectores en b1 . bj bn Vectores la Base B fuera de la base B Obsérvese que todo cambio de base en E implica un cambio automático de base en B. Se dice que E y B así como las bases siguientes son bases duales. 22
  • 29. CAPÍTULO II. APLICACIONES LINEALES Y MATRICES 1. DEFINICIÓN Sean E y F dos espacios vectoriales sobre un mismo cuerpo K. Sean X, W dos elementos cualesquiera de E y µ algún escalar en K. Una aplicación lineal f de E en F es una aplicación tal que: i. f(X + W) = f(X) + f(W) ii. f(µX) = µ.f(X) En muchos textos, ambas propiedades de una aplicación lineal son resumidas en una sola: Se dice que f es una aplicación lineal de E en F si para todo X, W en E y todo par de escalares η,µ se tiene: f(ηX+µW) = η.f(X) + µ.f(W) Vocabulario: f(E) es el subconjunto de F con las imágenes de todos los elementos de E por la aplicación f. Cuando f(E)=F, se dice que f es una aplicación sobre F; si no, f es una aplicación en F. Se denomina rango de la aplicación lineal f al número máximo de vectores linealmente independientes contenidos en f(E) Posteriormente, se verá que f(E) es un espacio vectorial, en consecuencia, el rango de la aplicación lineal f es la dimensión del espacio vectorial f(E)). 25
  • 30. 2. ALGUNAS CONSECUENCIAS IMPORTANTES DE LA DEFINICIÓN a. f(E) es un subespacio vectorial en F En efecto: Obsérvese que si Y1=f(X1) y Y2=f(X2) son dos elementos de f(E), para todo par η,µ en K se tiene: ηf(X1)+µf(X2) = f(ηX1+µX2) ε f(E) Puesto que f es una aplicación lineal de E en F. Se puede concluir, por otra parte, que si 0E es el elemento neutro en E, se tiene f(0E) = OF, donde este último es el elemento neutro en F. b. Si f(X1),f(X2),..f(Xr) son LIN en F, entonces X1, X2,..Xr son LIN en E. En efecto: Partiendo de que f(X1), f(X2),..f(Xr) son LIN en F, supóngase que X1, X2,..Xr no son LIN en E y que en consecuencia existen escalares λi tales que: λ1.X1 + λ2.X2 +....λr.Xr = 0E Utilizando a la izquierda y a la derecha de esta expresión la aplicación lineal f, se tiene: f(1.X1 + λ2.X2 +....λr.Xr)= f(0E) y, puesto que f es una aplicación lineal: λ1.f(X1) + λ2.f(X2) + ....λr.f(Xr) = f(0E) = 0F Lo que implicaría que los vectores f(X1), f(X2),..f(Xr) en F tampoco son LIN, contradiciendo la hipótesis inicial. 26
  • 31. El resultado anterior implica que: dim f(E) ≤ dim E Para cualquier aplicación lineal f de E en F. Y, puesto que f(E) es un subespacio vectorial de F, se tiene que dim f(E) ≤ dim F, juntando ambos resultados se concluye que: dim f(E) ≤ min {dim E, dim F} Para cualquier aplicación lineal f de E en F. c. Si f y g son dos aplicaciones lineales de E en F, f+g es también una aplicación lineal de E en F. d. Sean E, F, G tres espacios vectoriales sobre un mismo cuerpo K y sea f una aplicación lineal de E en F y g una aplicación lineal de F en g: E → F → G f g La aplicación lineal compuesta f.g es una aplicación lineal de E en G. Obviamente que la composición de funciones lineales no es conmutativa (salvo pocas excepciones). e. Si E es igual a F y si el rango de la aplicación lineal f es igual a la dimensión de E, existe una aplicación lineal g, tal que para todo X en E : g(f(X)) = X f(g(X)) = X Se dice que f es la aplicación inversa de g o que g es la aplicación inversa de f. (ver sección 5 de este mismo capítulo). La composición de estas aplicaciones lineales f.g=g.f es uno de los pocos casos donde se observa la conmutatividad. 27
  • 32. f. El conjunto de aplicaciones lineales {f} de E en F constituye un espacio vectorial en K. 3. APLICACIONES LINEALES Y MATRICES: MATRIZ DE UNA APLICACION LINEAL f. Sea B = {b1, b2,..bn} una base para el espacio vectorial E y sea D= {d1, d2,,,dm} una base para el espacio vectorial F y f una aplicación lineal de E en F de rango m. Los vectores f(bj), j=1,2,..n, se encuentran en f(E) ε F, en consecuencia, para cada uno de estos vectores existen escales aij en K que permiten representarlos como combinaciones lineales de los vectores di de la base D del espacio vectorial F: m f( b j ) = ∑ aij .d i j = 1,2,..n i=1 Se denomina "matriz de la aplicación lineal f de E en F relativa a las bases B y D de E y F respectivamente, a la tabla A, de m líneas y n columnas cuyos elementos son los escalares aij, i=1,2,..m y j=1,2,..,n, de la representación anterior. n m 4. APLICACIONES LINEALES CUANDO E=K Y F=K EN K a. Una aplicación lineal como una combinación lineal en F n m Si E=K y F=K y D es la base canónica usual de F, se tiene, según el recuadro precedente, que f(bj) = aj, es decir, el vector f(bj) es igual a la columna j de la matriz A. Este resultado pone en evidencia, también, que las columnas de la matriz A pertenecen al subespacio vectorial f(E). Sea X = Σxjbj, algún vector en E, con B={b1, b2,..bn} la base canónica usual de E. Obsérvese que para todo X en E se tiene: n n n f(X) = f( ∑ x j b j ) = ∑ x j f( b )= ∑ x j j aj j=1 j=1 j=1 28
  • 33. n m Esta expresión pone en evidencia que una aplicación lineal de E=K en F=K de matriz A es una combinación lineal de los vectores columna de esta matriz (es decir, que la imagen de todo vector X en E es una combinación lineal en F de las columnas de la matriz A). La expresión precedente, muestra que las columnas de la matriz A constituyen un conjunto generador de f(E). En consecuencia, el número máximo de vectores columna LIN en A es igual a la dimensión del subespacio vectorial f(E), de donde, emerge, la expresión de rango de una matriz por asociación a la de rango de una aplicación lineal: rango(A) = número máximo de vectores LIN en A = número máximo de vectores LIN en f(E) = dim f(E) = rango de la aplicación lineal f de E en F b. Producto de una matriz por un vector n m Si f es una aplicación lineal de E=K en F=K de matriz A relativa a las bases canónicas de ambos espacios, se acaba de mostrar que f(X), para todo X en E, puede escribirse como una combinación lineal de las columnas de la matriz A. Por convención, esa combinación lineal se escribe como el producto de la matriz A por el vector X: Producto de una matriz A por un vector x: f(X) = AX= Σxjaj es una combinación lineal de los vectores columna de la matriz A. 29
  • 34. c. Suma de aplicaciones lineales y suma de matrices Si f y g son 2 aplicaciones lineales de E en F de matrices A y B, la aplicación (f+g)(X) = f(X) + g(X) es una aplicación lineal de E en F de matriz A+B, donde la suma de matrices está definida de la misma manera que fue introducida en el capítulo I. d. Composición de aplicaciones lineales y producto de matrices Sean E, F, G tres espacios vectoriales sobre un mismo cuerpo K y sea f una aplicación lineal de E en F de matriz A de rango r y sea g una aplicación lineal de F en G de matriz B y de rango t. La aplicación compuesta g.f de E en G es, como se mencionó anteriormente, una aplicación lineal de E en G. n m s Obsérvese que, cuando E=K , F=K y G=K : la matriz A tiene m líneas y n columnas y rango r la matriz B tiene s líneas y m columnas y rango t y, que: todo elemento Y=f(X) en F se escribe f(X) = AX todo elemento Z=g(Y) en G se escribe g(Y) = BY ó, en forma equivalente: g(f(X)) = BAX Luego, C=BA es la matriz de la aplicación compuesta g.f La matriz BA es denominada producto de B por A. Es un producto no conmutativo. Recibe la interpretación siguiente: n Considérese en E=K , los vectores ej, j=1,2,,,n de la base canónica usual. Las imágenes en F de los ej, j=1,2,,,n, en E, son, como se vio anteriormente, los vectores columna aj de la matriz A. 30
  • 35. Por otra parte, las imágenes en G de los ej, j=1,2,,n, en E, son los vectores columna cj de la matriz C=BA. Luego: Cj = Baj , j=1,2,..,n Como se explicó anteriormente, para todo Y en F, el vector g(Y)=BY es una combinación lineal de los vectores columna de la matriz B. De donde, los vectores columna de la matriz C=BA, producto de B por A, están definidos como las siguientes combinaciones lineales de los vectores columna de la matriz B : m C j = ∑ aij Bi j = 1,2, , , n i=1 De la expresión precedente, se deduce la definición clásica del producto de una matriz por un vector. En efecto, si cij es el elemento de la línea i y columna j de la matriz C=BA se tiene: n cij = ∑ bik akj k =1 e. Caracterizaciones relativas al rango de una matriz Reuniendo varios de los resultados anteriores, se llega a resultados muy útiles en la práctica en lo que concierne el rango de una matriz. Estos resultados son: i. rango(A) ≤ min {m,n } donde m es el número de líneas de A y n es el número de columnas Esta es una consecuencia directa de: dim f(E) ≤ min {dim E, dim F} ii. rango(BA) ≤ min {rango(B), rango(A)} 31
  • 36. Obsérvese, en primer lugar, que gf(E) está contenido en g(F) luego dim gf(E) ≤ dim g(F), lo que a su vez implica que rango(BA) ≤ rango(B). Por otra parte, recuérdese que en la sección I se ha mostrado que el espacio imagen tiene una dimensión menor o igual al espacio raíz, de donde: dim g(f(E)) ≤ dim f(E), de donde, rango(BA) ≤ rango(A) En consecuencia, rango(BA) ≤ min {rango(B), rango(A)} iii. Como consecuencia de los dos puntos anteriores, se tiene el resultado siguiente: rango(BA) ≤ min {m,n,s} , donde B es una matriz sxm y, A una matriz mxn iv. Si B es una matriz con m columnas y rango(B)=m, entonces rango(BA)=rango(A) y Si A es una matriz con m columnas y rango(A)=m, entonces rango(BA)=rango(B) 5. APLICACIONES LINEALES INVERSAS E INVERSOS DE MATRICES En la sección 2, se enunció de que si f es una aplicación lineal de E en F y que si F=E con el rango de f igual a la dimensión de E, existía una aplicación g, denominada inversa de f, tal que gf(X)=fg(X)=X para todo X en E. En la presente sección se demostrará este resultado y se introducirá la noción de inverso de una matriz. Si el rango de f es igual a la dimensión n de E y E=F, se tiene que f(E)=F=E y existen n vectores f(X1), f(X2),..f(Xn) en E que son LIN y que forman una base para E. Luego todo X en E, en particular, los Xj, j=1,2,,,n pueden escribirse como combinaciones lineales de estos vectores, es decir, existen escalares bij tales que: n X j = ∑ b ji f( X ) i j = 1,2,..n (5) i=1 Por otra parte, si A={aij} es la matriz asociada a la aplicación lineal f, se tiene: 32
  • 37. n f( X i ) = ∑ aik X k (6) k =1 Reemplazando la expresión (6) en (5), se tiene: n X j = ∑ δ jk X k donde : k =1 (7) n δ jk = ∑ b ji aik i=1 Teniendo en cuenta que X1, X2,..Xn forman también una base en E en virtud del resultado b. de la sección 2 y puesto que la representación de cualquier vector en términos de los vectores de una base es única, se tiene que existen coeficientes bij tales que: δij = 1. si i = j δij = 0. si i ╪ j puesto que Xj=Xj es la representación única del vector Xj en términos de la base X1, X2,...Xn El anterior resultado muestra que bajo las condiciones anteriormente enunciadas en relación a la aplicación lineal f, existe una relación "uno-a-uno" entre los vectores Xi y los vectores f(Xi), es decir, que para cada vector Xi existe un vector f(Xi) y vice-versa. ésta admite una inversa g en el sentido en que se cumple g.f(X)=X para todo X en E. En términos de las matrices A y B y de sus vectores columnas, los resultados anteriores pueden escribirse en la forma siguiente: Baj = ej , j=1,2,...n BA = I , Con I la matriz identidad nxn 33
  • 38. Por otra parte, reemplazando la expresión (5) en (6), se tiene: n f( X j ) = ∑ ω jk f( X ) k donde : k =1 (8) n ω jk=∑ a ji bik j,k =1,2,..n i=1 Nuevamente, teniendo en cuenta que f(X1), f(X2),..f(Xn) forman también una base en E en virtud del resultado b. de la sección 2 y puesto que la representación de cualquier vector en términos de los vectores de una base es única, se tiene que los coeficientes bij verifican también : ωij = 1. si i = j ωij = 0. si i ╪ j puesto que f(Xj)=f(Xj) es la representación única del vector Xj en términos de la base f(X1), f(X2),...f(Xn) En términos de las matrices A y B y de sus vectores columnas, los resultados anteriores pueden escribirse en la forma siguiente: Abj = ej , j=1,2,...n AB = I , Con I la matriz identidad nxn Con lo que se ha demostrado la existencia para toda matriz A de rango completo de otra matriz B, también de rango completo, denominada inversa de A, tal que AB= y BA=I. Definición: Sea A una matriz nxn. La nxn-matriz B es la matriz inversa de A si: AB = I BA = I 34
  • 39. 6. ALGORITMO DE INVERSIÓN DE UNA MATRIZ A partir de los desarrollos anteriores, emerge, naturalmente, la idea de calcular el inverso de una matriz A a partir de sucesivos cambios de base, con un algoritmo similar al que fue propuesto en el capítulo I. En efecto, en la sección precedente se ha demostrado que los coeficientes bij de la matriz B inversa de A n permiten representar los vectores de la base canónica usual ej de K en términos de los vectores columna n a1, a2,..an de la matriz A, los que constituyen una base para K : n e j = Ab j = ∑ bij ai i=1 Recordando los puntos fundamentales del algoritmo de cambios de base expuesto en el Capítulo I, se puede diseñar un algoritmo para invertir una matriz: i. Planteando como base inicial la base canónica usual, ii. Representando los vectores aj, j=1,2,..n en esta base, iii. Introduciendo sucesivamente los vectores aj, j=1,2,..n, en la base hasta sacar de ella, todos los vectores de la base canónica usual ei,i=1,2,..n Los coeficientes bij, obtenidos en la última tabla, permiten representar los vectores ej en términos de combinaciones lineales de los vectores columna de la matriz A, luego la matriz B={bij } es la matriz inversa de A, acorde con los desarrollos anteriores. Algunos puntos prácticos en relación a este algoritmo: i. Un vector aj puede reemplazar dentro de la base un vector ei sólo si el pivote respectivo (elemento de la celda {i,j}) es diferente de cero. ii. Si inicialmente los vectores de la base e1, e2,..en están ordenados, al igual que los que se encuentran fuera de ella, a1, a2,..an, la tabla inicial es idéntica a la matriz A. iii. Si en cada etapa del algoritmo ha sido posible intercambiar vectores en el mismo orden, es decir, utilizando como pivotes los elementos de la diagonal principal de la tabla, la última tabla es idéntica a la matriz B inversa de A. iv. Si se utiliza pivotes que se encuentran fuera de la diagonal principal, la última tabla contiene todos los coeficientes de la matriz B inversa de A pero, para identificarla con la matriz B, es necesario reordenar sus columnas, de manera a tener e1, e2,..en y, en su caso, también, las líneas de manera a tener a1, a2,..an. 35
  • 40. Si después de k < n iteraciones, han entrado dentro de la base k vectores aj, siendo imposible introducir en ella los vectores restantes por que todos los posibles pivotes son nulos, la matriz no es inversible, su rango es igual a k < n. La tabla siguiente ilustra esta situación, cuando los k-vectores que se han podido introducir son a1, a2,..ak: Considérese las particiones siguientes: A = [a1,..ak | ak+1....an] = [ A1 | A2] E = [e1,..ek | ek+1,...en] = [ E1 | E2] Con las cuales se construirá la siguiente tabla de Tucker: Vectores fuera de la base Vectores en la Base E1 A2 A1' C G E2' R D=0 En este caso, los vectores que componen A2 no pueden reemplazar en la base a los que componen E2 puesto que todos los posibles pivotes, que se encuentran reagrupados en la matriz D, son nulos. Obsérvese que utilizando las convenciones usuales, los coeficientes de la matriz G contienen los escalares que permiten representar los vectores columna de A2 en términos de los vectores columna de A1 y puesto que D es igual a cero, se tiene: A2 = A1G Esta expresión muestra que los n-k vectores columna de A2 son linealmente dependientes de los de k- vectores columna que contiene la submatriz A1. 36
  • 41. Luego, a lo máximo, la matriz A contiene k vectores LIN, es decir, a lo máximo su rango es igual a k. Pero, por otra parte, obsérvese que los k-vectores columna de la submatriz A1 se encuentran en la base, luego son LIN, en consecuencia, k es igual al rango de la matriz A. 7. INVERSIÓN DE MATRICES PARTICIONADAS Es fácil demostrar que la inversión por bloques de una matriz A sigue reglas semejantes a las del algoritmo anterior. Considérese la siguiente partición de la nxn matriz A: A11 A12 A21 A22 Donde A11 es una matriz kxk. Supóngase que, en una primera etapa, es posible introducir dentro de la base los k primeros vectores columna aj, j=1,2,..k, de la matriz A en lugar de los k primeros vectores ej, j=1,2,..k, de la base canónica usual para Rn. Se tendrá una tabla del tipo siguiente: -1 -1 A11 A11 A12 -1 -1 -A21A11 D= [A22 - A21A11 A12] Si en una segunda etapa es posible introducir dentro de la base los n-k vectores restantes de la matriz A, la tabla siguiente contendrá la matriz inversa de A: -1 -1 -1 -1 -1 -1 A11 - A11 A12D A11 A21 -A11 A12D -1 -1 -1 -D A21A11 D 37
  • 42. 8. DETERMINANTES a. Definición Sea A una matriz nxn particionada en forma de columnas: A = {a1, a2,...an} Se denomina determinante de la matriz A (det A) una función de A, d(a1, a2,...an) en R, que posee las 4 propiedades siguientes: i. Si B es una matriz obtenida de A permutando 2 de sus columnas, det B = - det A ii. Si a una de las columnas de A, por ejemplo a la primera, se le añade un vector c se tiene: d(a1+c, a2,..,an) = d(a1, a2,..,an) + d(c, a2,..,an) iii. Si B es una matriz obtenida a partir de A multiplicando una de sus columnas por un escalar µ, entonces det B = µ det A n Luego, si A es una matriz nxn, det(-A) = (-1) det A. iv. El determinante de la matriz identidad es igual a 1. b. Algoritmo de cálculo de un determinante Existen muchos algoritmos diferentes para calcular un determinante. En el presente texto se presentará sólo aquel que está asociado al algoritmo de cambios de base y de inversos de matrices explicado anteriormente. Como se verá, no exige mayor esfuerzo de cálculo, pero, obviamente, no se pretende que sea el mejor desde el punto de vista numérico. i. Si piv(i), i=1,2,..n, es el valor del pivote en cada etapa del algoritmo de inversión de una matriz y si los cambios de base se han realizado de manera a introducir dentro de la base, en cada etapa, un vector aj en lugar de un vector ej (es decir, si los pivotes han sido los elementos de la diagonal principal de la tabla entonces: n det A = ∏ piv(i) i=1 ii. Si piv(i), i=1,2,..n, es el valor del pivote en cada etapa del algoritmo de inversión de una matriz y si los cambios de base no se han realizado con pivotes de la diagonal principal de la tabla, la última 38
  • 43. tabla contendrá los elementos de la matriz inversa de A desordenados. Para obtener la matriz inversa a partir de esta tabla es necesario permutar sus columnas (siempre se puede organizar el algoritmo de manera a que no sea también necesario permutar las líneas). Si k es el número de permutaciones necesarias, acorde con la propiedad 1 de los determinantes, se tendrá: n det A = (-1 )k ∏ piv(i) i=1 c. Determinantes de matrices particionadas Considérese una partición de la matriz A como la analizada precedentemente: A11 A12 A21 A22 Como en el caso escalar, el determinante de una matriz particionada puede ser calculado como el producto k de los determinantes de sus pivotes, debiendo ser multiplicado por el factor (-1) , en caso en que sea necesario realizar k permutaciones. Con k= 0 y las anotaciones de la sección anterior, se tendrá: det A = det A11. det D -1 con D = [A22 - A21A11 A12] d. Determinante del producto de 2 matriz de rango máximo Si A y B son dos matriz nxn de rango máximo, se tiene que: det (AB) = det (BA) = det(A).det(B) 39