Este documento presenta una introducción a la descripción e inferencia lineal en estadística. Contiene cuatro capítulos que cubren elementos básicos de álgebra lineal como espacios vectoriales, subespacios, dependencia e independencia lineal, aplicaciones lineales y matrices. También incluye capítulos sobre sistemas de ecuaciones lineales y formas bilineales, que son conceptos fundamentales en estadística lineal. El documento provee los fundamentos matemáticos necesarios para comprender métodos estadísticos lineales
Observar la playa bajo los adoquines para elaborar estrategias de conocimiento del espacio público en unas condiciones novedosas. La cartografía del deseo fue nuestra aproximación a París a través de un dispositivo digital, nos hizo formar parte de la intimidad de los usuarios de la ciudad, revelándonos territorios digitales deseados por medio de tecnologías actuales. Será por medio de las coordenadas de nuestro itinerario como formularemos conceptoso, referencias’ y escenarios’’. Usar instantes para proyectar la ciudad a largo plazo. Trabajo Fin Laboratorio realizado en el Máster de Proyectos Arquitectónicos Avanzados 2011/2012, ETSA Madrid.
Todo lector, entonces, debe ir reconociendo las diferentes partes de la estructura, para avanzar en su comprensión o, si se ubica en el lugar de productor del texto, debe seleccionar qué aspectos de esa estructura textual necesita y cuáles dejará de lado a la hora de construir un mensaje efectivo.
El texto escrito se arma poco a poco mediante diferentes “partes”, cada una de las cuales responde a características propias. A estas “partes de los textos” las denominamos “secuencias” o también “tramas”, continuando con nuestra metáfora de ver el texto como “un tejido de conceptos”.
El propósito es “practicar y optimizar la comunicación, comunicándonos”. ¿Cómo? A través de la práctica de la lectura motivada, mediante acciones comunicativas concretas desarrolladas en los encuentros con el docente tutor y con la participación de usted, como lector, como productor de textos y, principalmente, como protagonista que reflexiona sobre el uso de la lengua y descubre en ella una poderosa herramienta de intervención para accionar en la vida cotidiana: familiar, laboral, académica y social.
Sistema experto/soporte para la optimización de líneas ferroviaria, Juan pavó...Juan Pavón
(TODO LO QUE SE ENCUENTRA EN ESTE DOCUMENTO RESPECTO AL DISEÑO DEL MODELO ES DE DISEÑO PROPIO, 100%, LA MAYORÍA DE REFERENCIAS ES SIMPLE BUROCRACIA. PARA CUALQUIER CONSULTA, DEJEN UN MENSAJE. GRACIAS)
Proyecto fin de máster del máster 'Organización industrial y gestión de empresas'. Se trata de resolver un conjunto de problemas de optimización acoplados. Todos ellos simulan los diferentes aspectos que intervienen en la electrificación ferroviaria; cinemática, dinámica, electrificación, catenarias, trasnporte de potencia, ... y sin olvidar la propia optimización del conjunto de sistemas y bases de datos, generación de fases de datos (origen del sistema experto). Todo ello queda englobado bajo un complejo modelo dividido en diversos módulos que interactúan entre ellos bajo unos parámetros (internos y externos) todos modificables por el usuario. La misión del modelo es optimizar el diseño completo de toda la electrificación, desde localización de las subestaciones, elección de catenarias, elección de más de un tipo de catenarias por subsecor si es necesario, elección de necesitar subsectores o no a ambos lados, cálculos dinámicos de velocidades máximas permitidas, restricciones por defecto de potencia, curvas de trazado, limitaciones por tráfico ferroviario... etc. El modelo comienza la optimización accedeiendo a su base de datos de simulaciones anteriores para en base a cotejos con éstas, encontrar una similitud y así encontrar una vía posiblemente más directa en tiempo a una solución aceptable. Igualmente se puede acceder a modificar parámetros de precisión de cálculo, evolución de mejora de la solución óptima actual (todas ellas modificables y seguidas en tiempo real durante la simulación), número de soluciones finales, gráficas y datos que muestra, y un largo etc. En resumen, un modelo muy potente de cara al diseño y soporte técnico en simulaciones de todo lo que rodea a la electrificación ferroviaria.
Observar la playa bajo los adoquines para elaborar estrategias de conocimiento del espacio público en unas condiciones novedosas. La cartografía del deseo fue nuestra aproximación a París a través de un dispositivo digital, nos hizo formar parte de la intimidad de los usuarios de la ciudad, revelándonos territorios digitales deseados por medio de tecnologías actuales. Será por medio de las coordenadas de nuestro itinerario como formularemos conceptoso, referencias’ y escenarios’’. Usar instantes para proyectar la ciudad a largo plazo. Trabajo Fin Laboratorio realizado en el Máster de Proyectos Arquitectónicos Avanzados 2011/2012, ETSA Madrid.
Todo lector, entonces, debe ir reconociendo las diferentes partes de la estructura, para avanzar en su comprensión o, si se ubica en el lugar de productor del texto, debe seleccionar qué aspectos de esa estructura textual necesita y cuáles dejará de lado a la hora de construir un mensaje efectivo.
El texto escrito se arma poco a poco mediante diferentes “partes”, cada una de las cuales responde a características propias. A estas “partes de los textos” las denominamos “secuencias” o también “tramas”, continuando con nuestra metáfora de ver el texto como “un tejido de conceptos”.
El propósito es “practicar y optimizar la comunicación, comunicándonos”. ¿Cómo? A través de la práctica de la lectura motivada, mediante acciones comunicativas concretas desarrolladas en los encuentros con el docente tutor y con la participación de usted, como lector, como productor de textos y, principalmente, como protagonista que reflexiona sobre el uso de la lengua y descubre en ella una poderosa herramienta de intervención para accionar en la vida cotidiana: familiar, laboral, académica y social.
Sistema experto/soporte para la optimización de líneas ferroviaria, Juan pavó...Juan Pavón
(TODO LO QUE SE ENCUENTRA EN ESTE DOCUMENTO RESPECTO AL DISEÑO DEL MODELO ES DE DISEÑO PROPIO, 100%, LA MAYORÍA DE REFERENCIAS ES SIMPLE BUROCRACIA. PARA CUALQUIER CONSULTA, DEJEN UN MENSAJE. GRACIAS)
Proyecto fin de máster del máster 'Organización industrial y gestión de empresas'. Se trata de resolver un conjunto de problemas de optimización acoplados. Todos ellos simulan los diferentes aspectos que intervienen en la electrificación ferroviaria; cinemática, dinámica, electrificación, catenarias, trasnporte de potencia, ... y sin olvidar la propia optimización del conjunto de sistemas y bases de datos, generación de fases de datos (origen del sistema experto). Todo ello queda englobado bajo un complejo modelo dividido en diversos módulos que interactúan entre ellos bajo unos parámetros (internos y externos) todos modificables por el usuario. La misión del modelo es optimizar el diseño completo de toda la electrificación, desde localización de las subestaciones, elección de catenarias, elección de más de un tipo de catenarias por subsecor si es necesario, elección de necesitar subsectores o no a ambos lados, cálculos dinámicos de velocidades máximas permitidas, restricciones por defecto de potencia, curvas de trazado, limitaciones por tráfico ferroviario... etc. El modelo comienza la optimización accedeiendo a su base de datos de simulaciones anteriores para en base a cotejos con éstas, encontrar una similitud y así encontrar una vía posiblemente más directa en tiempo a una solución aceptable. Igualmente se puede acceder a modificar parámetros de precisión de cálculo, evolución de mejora de la solución óptima actual (todas ellas modificables y seguidas en tiempo real durante la simulación), número de soluciones finales, gráficas y datos que muestra, y un largo etc. En resumen, un modelo muy potente de cara al diseño y soporte técnico en simulaciones de todo lo que rodea a la electrificación ferroviaria.
Se presentan los principales sistemas de clasificación del macizo rocoso dentro de la construcción de túneles y un esquema de voladuras para la solución encontrada.
Programa de buenas prácticas agricolas y turisticas otún
1992 descripcion e inferencia lineal en estadistica
1. UNIVERSIDAD MAYOR DE SAN ÁNDRES
FACULTAD DE CIENCIAS PURAS Y NATURALES
CARRERA DE ESTADÍSTICA
INTRODUCCIÓN A LA
DESCRIPCIÓN E INFERENCIA LINEAL
EN ESTADÍSTICA
POR: DR. ROLANDO MORALES A.
LA PAZ, ENERO 1992
2. TABLA DE MATERIAS
PRESENTACIÓN
PARTE A: ..................................................................................................................................................... 1
ELEMENTOS BÁSICOS DE ........................................................................................................................ 1
ALGEBRA LINEAL ...................................................................................................................................... 1
CAPÍTULO I. CONCEPTOS BÁSICOS .................................................................................................................................. 2
1. INTRODUCCIÓN.......................................................................................................................................................... 2
2. ESPACIOS VECTORIALES ......................................................................................................................................... 3
3. ESPACIOS VECTORIALES "V=Kn EN K" DONDE K ES UN CUERPO ........................................................................ 6
4. ESPACIOS VECTORIALES DE MATRICES .............................................................................................................. 11
5. SUB-ESPACIOS VECTORIALES ............................................................................................................................... 13
6. SUBESPACIOS GENERADOS POR UN CONJUNTO DE VECTORES ..................................................................... 14
a. Combinaciones lineales de vectores ..................................................................................................................... 14
b. Conjuntos generadores, espacios generados por un conjunto de vectores............................................................ 14
7. DEPENDENCIA E INDEPENDENCIA LINEAL ........................................................................................................... 15
a. Dependencia lineal................................................................................................................................................ 15
b. Independencia lineal ............................................................................................................................................. 15
c. Consecuencias de las definiciones........................................................................................................................ 16
8. DIMENSIÓN DE UN ESPACIO VECTORIAL.............................................................................................................. 17
9. BASE DE UN ESPACIO VECTORIAL ........................................................................................................................ 17
10. CAMBIOS DE BASE................................................................................................................................................... 18
11. DUALIDAD EN LOS CAMBIOS DE BASE .................................................................................................................. 21
CAPÍTULO II. APLICACIONES LINEALES Y MATRICES............................................................................................... 25
1. DEFINICIÓN............................................................................................................................................................... 25
2. ALGUNAS CONSECUENCIAS IMPORTANTES DE LA DEFINICIÓN........................................................................ 26
3. APLICACIONES LINEALES Y MATRICES: MATRIZ DE UNA APLICACION LINEAL f. ............................................ 28
4. APLICACIONES LINEALES CUANDO E=Kn Y F=Km EN K ........................................................................................ 28
a. Una aplicación lineal como una combinación lineal en F ....................................................................................... 28
b. Producto de una matriz por un vector .................................................................................................................... 29
c. Suma de aplicaciones lineales y suma de matrices ............................................................................................... 30
d. Composición de aplicaciones lineales y producto de matrices............................................................................... 30
e. Caracterizaciones relativas al rango de una matriz................................................................................................ 31
5. APLICACIONES LINEALES INVERSAS E INVERSOS DE MATRICES ..................................................................... 32
6. ALGORITMO DE INVERSIÓN DE UNA MATRIZ ....................................................................................................... 35
7. INVERSIÓN DE MATRICES PARTICIONADAS ......................................................................................................... 37
8. DETERMINANTES..................................................................................................................................................... 38
a. Definición .............................................................................................................................................................. 38
b. Algoritmo de cálculo de un determinante............................................................................................................... 38
c. Determinantes de matrices particionadas .............................................................................................................. 39
d. Determinante del producto de 2 matriz de rango máximo...................................................................................... 39
9. FACTORIZACIÓN DE UNA MATRIZ SINGULAR ....................................................................................................... 40
10. NUCLEO DE UNA APLICACIÓN LINEAL Y NUCLEO DE UNA MATRIZ.................................................................... 42
11. INVERSOS GENERALIZADOS DE MATRICES ......................................................................................................... 44
12. ALGUNAS APLICACIONES LINEALES PARTICULARES.......................................................................................... 46
CAPÍTULO III. SISTEMAS DE ECUACIONES LINEALES............................................................................................... 51
1. PLANTEAMIENTO DEL PROBLEMA ......................................................................................................................... 51
2. CARACTERIZACIONES INICIALES DEL ESPACIO DE SOLUCIONES..................................................................... 51
a. Consistencia.......................................................................................................................................................... 51
b. Redundancia ......................................................................................................................................................... 52
c. Soluciones múltiples.............................................................................................................................................. 53
d. Número máximo de vectores LIN en S .................................................................................................................. 53
3. SOLUCIONES BASICAS A UN SISTEMA DE ECUACIONES LINEALES .................................................................. 54
4. UN ALGORITMO DE RESOLUCION Y ANÁLISIS DE UN SISTEMA DE ECUACIONES LINEALES.......................... 55
a. Rango de A. .......................................................................................................................................................... 57
b. Consistencia.......................................................................................................................................................... 57
c. Soluciones básicas................................................................................................................................................ 57
d. Solución única....................................................................................................................................................... 57
e. Soluciones múltiples.............................................................................................................................................. 58
5. SISTEMAS DE ECUACIONES CON LA RESTRICCION DE QUE LAS SOLUCIONES SEAN NO NEGATIVAS ........ 58
ii
3. CAPÍTULO IV. FORMAS BILINEALES ............................................................................................................................. 62
1. DEFINICIÓN............................................................................................................................................................... 62
2. FORMAS BILINEALES Y MATRICES ........................................................................................................................ 63
3. DISTANCIAS.............................................................................................................................................................. 64
4. NORMAS Y ESPACIOS VECTORIALES NORMADOS .............................................................................................. 66
5. PRODUCTOS ESCALARES ...................................................................................................................................... 67
6. EXTENSIONES DEL PRODUCTO ESCALAR CLÁSICO EN Rn ................................................................................. 68
a. Norma euclidiana .................................................................................................................................................. 68
b. Distancia euclidiana .............................................................................................................................................. 69
c. Ángulo entre dos vectores..................................................................................................................................... 70
d. Ortogonalidad........................................................................................................................................................ 72
7. BASES ORTOGONALES Y BASES ORTONORMADAS EN Rn ................................................................................. 73
8. MATRICES Y PRODUCTO ESCALAR CLASICO EN Rn ............................................................................................ 74
9. PRODUCTO ESCALAR GENERALIZADO EN Rn ...................................................................................................... 74
CAPITULO V. LA ESPERANZA MATEMATICA COMO OPERADOR LINEAL ................................................................ 76
1. ESPERANZAS MATEMÁTICAS ................................................................................................................................. 76
2. VARIANZAS Y COVARIANZAS.................................................................................................................................. 78
3. ESPERANZA MATEMÁTICA DE UNA FORMA QUADRÁTICA .................................................................................. 81
CAPÍTULO VI. DERIVACIÓN CON VECTORES Y MATRICES ........................................................................................ 82
1. CONVENCIONES GENERALES ()............................................................................................................................. 82
2. DERIVADAS DE FORMAS LINEALES ....................................................................................................................... 85
3. DERIVADAS DE FORMAS CUADRÁTICAS............................................................................................................... 86
4. PROBLEMAS DE OPTIMIZACIÓN ............................................................................................................................. 87
CAPÍTULO VII. VALORES Y VECTORES PROPIOS DE MATRICES SIMÉTRICAS ......................................................... 93
1. DEFINICIONES .......................................................................................................................................................... 93
2. POLINOMIO CARACTERÍSTICO ............................................................................................................................... 94
3. LA PROPIEDAD DE ORTOGONALIDAD DE LOS VECTORES PROPIOS ................................................................ 95
4. LA DESCOMPOSICIÓN ESPECTRAL DE UNA MATRIZ SIMÉTRICA....................................................................... 96
5. CARACTERIZACIONES POR MEDIO DE LOS VALORES PROPIOS ....................................................................... 97
6. FORMAS CUADRÁTICAS Y VALORES PROPIOS .................................................................................................... 98
7. VALORES SINGULARES Y DESCOMPOSICIÓN SINGULAR DE UNA MATRIZ RECTANGULAR ......................... 100
8. EL INVERSO GENERALIZADO DE PENROSE DE UNA MATRIZ RECTANGULAR................................................ 102
9. RESOLUCIÓN DE ECUACIONES LINEALES POR MEDIO DEL INVERSO ............................................................ 103
GENERALIZADO DE PENROSE. PROPIEDADES DE LAS SOLUCIONES ....................................................................... 103
CAPÍTULO VIII. LA DESIGUALDAD DE SCHWARTZ Y OTRAS DESIGUALDADES UTILES EN ESTADISTICA .......... 104
1. LA DESIGUALDAD DE SCHWARTZ Y SUS EXTENSIONES .................................................................................. 104
2. LA DESIGUALDAD TRIANGULAR Y SUS EXTENSIONES ..................................................................................... 106
3. IGUALDADES Y DESIGUALDADES UTILIZANDO TRANSFORMACIONES ORTOGONALES. .............................. 108
4. OTRAS DESIGUALDADES UTILES......................................................................................................................... 109
5. LOS PROBLEMAS DE PROCUSTE......................................................................................................................... 110
ANEXOS DE LA PARTE A. ..................................................................................................................................................... 112
PROGRAMACIÓN LINEAL EL ALGORITMO DEL SIMPLEX ................................................................................................ 112
1. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 112
2. REPASO DE ALGUNOS CONCEPTOS BÁSICOS DE TOPOLOGIA. ...................................................................... 114
3. CARACTERIZACIÓN DE LAS SOLUCIONES A UN PROGRAMA LINEAL .............................................................. 126
4. ALGORITMO DEL SIMPLEX.................................................................................................................................... 135
PARTE B: ................................................................................................................................................. 138
MODELOS LINEALES ............................................................................................................................. 138
CAPITULO IX. INTRODUCCIÓN..................................................................................................................................... 139
1. MODELOS LINEALES Y CAUSALIDAD EN ESTADÍSTICA ..................................................................................... 139
2. EL MODELO LINEAL. NOTACION Y DEFINICIONES.............................................................................................. 141
CAPÍTULO X. ESTIMACIÓN POR MÍNIMOS CUADRADOS DE UN MODELO LINEAL ............................................... 142
1. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 142
2. EL CRITERIO DE ESTIMACION DE MINIMOS CUADRADOS DE p........................................................................ 142
3. LA SOLUCIÓN DE MÍNIMOS CUADRADOS............................................................................................................ 144
4. EL TEOREMA DE LA PROYECCIÓN....................................................................................................................... 147
5. DESCOMPOSICIÓN DE LA VARIANZA.-................................................................................................................. 149
DESCOMPOSICIÒN TRIANGULAR DE LA NORMA .............................................................................................................. 151
6. CORRELACION PARCIAL ....................................................................................................................................... 155
CAPÍTULO XI VECTOR ALEATORIO NORMAL Y VARIABLES ALEATORIAS QUE LE SON DEDUCIDAS............... 157
1. EL VECTOR NORMAL ESTÁNDAR ......................................................................................................................... 157
2. NOTA SOBRE LOS CAMBIOS DE VARIABLE EN LA INTEGRACION .................................................................... 158
3. FUNCIONES LINEALES DE VARIABLES NORMALES ........................................................................................... 159
4. FUNCIONES CUADRATICAS DE VARIABLES NORMALES ESTANDAR ............................................................... 165
5. VARIABLE DE STUDENT ........................................................................................................................................ 165
iii
4. 6. VARIABLE DE FISHER ............................................................................................................................................ 165
7. EXTENSIONES CON VECTORES NORMALES QUE NO SON ESTÁNDAR........................................................... 166
a. Variable Chi-Cuadrado con n grados de libertad ................................................................................................. 166
b. Variables Chi-Cuadrado y formas cuadráticas X'QX donde la matriz Q es un proyector de rango r. .................... 167
8. INDEPENDENCIA DE FORMAS LINEALES Y CUADRATICAS DE VECTORES NORMALES ESTANDAR ............ 168
a. Independencia de dos formas lineales................................................................................................................. 168
b. Independencia de una forma lineal y de una forma cuadrática ............................................................................ 169
c. Independencia de dos formas cuadráticas........................................................................................................... 170
CAPÍTULO XII. HIPOTESIS ALEATORIAS EN EL MODELO LINEAL ............................................................................ 171
1. LAS HIPOTESIS SIMPLES: NORMALIDAD, INDEPENDENCIA Y HOMOCEDASTICIDAD..................................... 171
ESQUEMA DE CAUSALIDAD............................................................................................................................................. 171
2. FUNCIONES DE DISTRIBUCION DEDUCIDAS DE LA HIPOTESIS SIMPLE PARA LOS ESTIMADORES Y OTROS
ESTADISTICOS.................................................................................................................................................................. 172
3. TESTS DE HIPOTESIS SIMPLE PARA LOS ESTIMADORES DE CADA UNO DE LOS PARAMETROS ................ 176
4. ANÁLISIS DE LA VARIANZA Y TEST COMPUESTO PARA UN CONJUNTO DE HIPOTESIS SIMULTÁNEAS ..... 176
CAPÍTULO XIII. LA ESTIMACIÓN MÁXIMO VEROSIMIL DE UN MODELO LINEAL....................................................... 180
1. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 180
2. LA ESTIMACIÓN DEL MODELO CON Ω CONOCIDA.............................................................................................. 181
3. LA ESTIMACIÓN DEL MODELO CON Ω DESCONOCIDA ...................................................................................... 182
CAPITULO XIV. ASPECTOS PRÁCTICOS RELATIVOS A LA REGRESIÓN LINEAL ..................................................... 184
1. LA REGRESIÓN POR ETAPAS ............................................................................................................................... 184
2. AUTOMATICIDAD DE LOS CÁLCULOS DE REGRESIÓN ...................................................................................... 186
PARTE C................................................................................................................................................... 188
DISEÑO DE EXPERIMENTOS................................................................................................................. 188
CAPITULO XV. INTRODUCCIÒN..................................................................................................................................... 189
CAPITULO XVI. LOS MODELOS LINEALES SINGULARES ............................................................................................ 191
1. DEFINICIONES Y PLANTEAMIENTO DEL PROBLEMA.......................................................................................... 191
2. TÈCNICAS DE ESTIMACIÒN DE FUNCIONES LINEALES DE LOS PARÀMETROS .............................................. 191
a. Inversos generalizados........................................................................................................................................ 191
b. Base para un espacio vectorial............................................................................................................................ 192
c. Restricciones líneales sobre los parámetros........................................................................................................ 192
CAPÍTULO XVII. ESTIMACIÓN MÍNIMO CUADRÁTICA CON RESTRICCIONES LINEALES SOBRE LOS
PARÁMETROS 193
1. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 193
2. CARACTERIZACION DE LAS SOLUCIONES AL PROBLEMA DE REGRESION LINEAL CON RESTRICCIONES
SOBRE LOS PARÁMETROS.............................................................................................................................................. 195
a. Condiciones de rango para la existencia de una solución única .......................................................................... 195
b. Condiciones de rango para que exista una solución única e igual al punto óptimo sin restricciones .................... 197
CAPÍTULO XVIII. PROYECCIONES Y PROYECTORES ................................................................................................ 198
1. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 198
2. SUMA DIRECTA ...................................................................................................................................................... 198
3. PROYECCIÓN ......................................................................................................................................................... 199
4. PROYECTOR........................................................................................................................................................... 199
5. PROYECTORES ORTOGONALES .......................................................................................................................... 202
6. EXPRESIÓN EXPLICITA DE UN PROYECTOR ORTOGONAL ............................................................................... 203
7. LAS ECUACIONES NORMALES ............................................................................................................................. 204
8. SECUENCIA DE PROYECTORES ORTOGONALES Y PROPIEDADES ................................................................. 204
9. UNA SECUENCIA PARTICULAR DE PROYECTORES ORTOGONALES ............................................................... 207
10. OTRAS PROPIEDADES DE LOS PROYECTORES................................................................................................. 208
11. DESCOMPOSICIÓN DE LA VARIANZA EN EL MARCO DE LOS MODELOS DE "ANÁLISIS DE LA VARIANZA"
CORRIENTES EN LOS DISEÑOS DE EXPERIMENTOS ................................................................................................... 210
TABLA DE ANÁLISIS DE LA VARIANZA ............................................................................................................................... 211
ANEXOS DE LA PARTE C ...................................................................................................................................................... 213
A. UNA CLASE PARTICULAR DE INVERSOS GENERALIZADOS .............................................................................. 213
1. PRESENTACIÓN ............................................................................................................................................... 213
2. ALGUNAS CONSECUENCIAS ........................................................................................................................... 214
3. DEMOSTRACIÓN ............................................................................................................................................... 214
B. SOBRE UNA CLASE PARTICULAR DE SOLUCIONES A UN SISTEMA DE ECUACIONES LINEALES ................. 217
1. PRESENTACIÓN................................................................................................................................................ 217
2. COMPROBACIÓN .............................................................................................................................................. 217
3. EXTENSIÓN ....................................................................................................................................................... 218
PARTE D................................................................................................................................................... 219
ELEMENTOS DE...................................................................................................................................... 219
ANALISIS MULTIVARIANTE ................................................................................................................... 219
iv
5. CAPITULO XIX. ANÁLISIS FACTORIAL........................................................................................................................... 220
1. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 220
2. NOCION DE INERCIA DE UNA NUBE DE PUNTOS ............................................................................................... 221
3. EL MODELO DE MINIMOS CUADRADOS............................................................................................................... 225
4. LA DUALIDAD DE LOS ANALISIS POR LINEAS Y POR COLUMNAS DE UNA MATRIZ DE OBSERVACIONES ... 229
CAPÍTULO XX. ANÁLISIS EN CORRELACIONES CANÓNICAS .................................................................................... 231
1. EL MARCO GENERAL DEL CONCEPTO DE CORRELACION EN ESTADÍSTICA.................................................. 231
a. Correlación como medida de dependencia lineal................................................................................................. 231
b. El coeficiente de correlación Lineal Simple.......................................................................................................... 231
c. Correlación Múltiple............................................................................................................................................ 233
d. Correlación parcial .............................................................................................................................................. 234
e. Correlación canónica........................................................................................................................................... 235
2. LA BATERIA DE CORRELACIONES CANONICAS.................................................................................................. 235
CAPÍTULO XXI. ANÁLISIS EN CORRESPONDENCIAS PRINCIPALES ......................................................................... 240
1. INTRODUCCIÓN...................................................................................................................................................... 240
2. PLANTEAMIENTO DEL PROBLEMA ....................................................................................................................... 240
3. DESCOMPOSICIÓN SINGULAR ............................................................................................................................. 241
4. PROPIEDADES DE LA DESCOMPOSICIÓN SINGULAR DE C=P-½TQ-½ ............................................................... 242
5. MEDIAS, VARIANZAS, COVARIANZAS, CORRELACIONES .................................................................................. 244
6. LOS EFECTOS CRUZADOS DE LINEAS Y COLUMNAS ........................................................................................ 247
7. REPRESENTACIONES GRÁFICAS......................................................................................................................... 251
8. CONCENTRACIÓN O COMPACTACIÓN................................................................................................................. 252
9. COMENTARIOS FINALES ....................................................................................................................................... 254
BIBLIOGRAFIA ........................................................................................................................................ 255
v
6. PRESENTACIÓN
El presente trabajo es el resultado del acopio y ordenamiento de notas de los cursos dictados por su
autor entre 1976 y 1990 en la Carrera de Estadística de la Facultad de Ciencias Puras y Naturales.
Estas notas han podido concretizarse en el presento texto gracias al apoyo que la Universidad de
San Andrés de La Paz prestó al autor concediéndole un año sabático entre abril 1990 y abril 1991.
Este texto está dedicado, en primera instancia, a los alumnos sin los cuales sería muy difícil que los
profesores puedan cristalizar sus conocimientos, siendo, de todas maneras obvio que lo contrario no
es forzosamente cierto...
El texto está organizado para hacer parte de 4 cursos diferentes de 1 semestre. El primero
constituye una introducción al Algebra Lineal con una orientación particular hacia sus aplicaciones
en estadística. Contiene además un capítulo relativo a la Programación Lineal. El segundo curso es
de modelos lineales, el tercero, de diseño de experimentos y el cuarto de análisis multivariante.
Rolando Morales
Universidad de San Andrés
La Paz - Bolivia
vi
8. CAPÍTULO I. CONCEPTOS BÁSICOS
1. INTRODUCCIÓN
En matemáticas aplicadas, sobre todo en varias de las ramas de estadística y de investigación operativa, el
investigador trabaja con grandes cantidades de datos que, en general, se presentan en la forma de tablas de
n líneas y m columnas de números reales.
Los elementos de cualquier columna (o línea) de esta tabla pueden ser interpretados como las coordenadas
n m
de un punto en R (o en R ).
La distancia de uno de estos puntos al origen, como se verá posteriormente, puede ser asociada al concepto
1
de varianza en estadística y el ángulo que dos de estos puntos forman con el origen al concepto de
correlación. La regresión lineal puede considerarse come una proyección ortogonal de un punto sobre un
espacio vectorial.
De manera a conceptualizar correctamente el enfoque geométrico de algunas ramas de la estadística así
como de la investigación operativa conviene considerar esos puntos como elementos de un espacio vectorial
y las tablas de números como matrices. Esta observación lleva naturalmente a introducir los espacios
vectoriales.
Las reflexiones anteriores ponen el acento en la importancia de espacios vectoriales conformados por n-
uplas de números reales.
Sin embargo, muchas aplicaciones necesitan también la consideración de espacios vectoriales de n-uplas
de números complejos.
El presente texto supone que los estudiantes han seguido previamente un curso de Algebra Lineal, limitando
muchos de los desarrollo posteriores a espacios vectoriales conformados por n-uplas de reales o complejos.
1
La distancia es múltiplo de la varianza
2
9. 2. ESPACIOS VECTORIALES
El juego de ajedrez (o todo otro juego) tiene un soporte, las fichas y el tablero, y un conjunto de reglas que
definen las "operaciones" o jugadas posibles. Aún si es banal, cabe señalar que ninguna ficha puede jugar
fuera del tablero y que todas ellas pueden desplazarse sólo según las reglas predefinidas del juego (por
ejemplo, un caballo no puede desplazarse en línea recta).
La expresión "puede" en este caso no significa una limitación absoluta, mas implica que toda violación a las
reglas significa que ya no se trata de un juego de ajedrez....
Un espacio vectorial es definido a través de:
-un conjunto de elementos V
-un cuerpo K
y un conjunto de reglas o de operaciones que se ejecutan al interior de V.
Estas operaciones son de dos tipos:
-las que se refieren sólo a los elementos de V (reglas o leyes de composición interna)
-las que combinan elementos del cuerpo K con los de los elementos del conjunto V para
dar lugar a otros elementos de V (reglas o leyes de composición externa)
En el recuadro, se introduce V como un conjunto de elementos cualquiera. No es el caso de K, el cual tiene
una estructura de cuerpo. En matemáticas aplicadas, K con frecuencia es el cuerpo de reales R o el de
complejos C.
La ley de composición interna asocia a 2 ó más elementos de V un tercer elemento, también en V. Con
frecuencia se la denomina suma y se la abrevia + por que en los espacios vectoriales compuestos por todas
las n-uplas de números reales, esta ley equivale a la suma en los reales. No obstante, si V es un conjunto
cualquiera, esta abreviación puede prestar a confusión.
3
10. La ley de composición interna en V asocia a 2 o más de sus elementos un tercer elemento
también en V con las características siguientes:
1. Es una ley conmutativa en el sentido en que si X+Y = Z también Y+X = Z
2. Es una ley asociativa en el sentido en que si X+Y = A y Y+Z=B, se tiene A+Z = X+B
3. En relación a la ley de composición interna, para que V sea un espacio vectorial
4. tiene que existir en V un elemento neutro 0 común a todos sus elementos tal que
para cualquier X en V, X+0 = X
5. En forma simétrica al punto anterior, para que V sea un espacio vectorial, para
* *
cada X en V tiene que existir un elemento simétrico X tal que X+X = 0
La ley de composición externa asocia a uno (ó varios) elementos de V y a uno (ó varios) elementos de K
(denominados escalares) un elemento de V. Con frecuencia se la denomina "multiplicación por un escalar" y
se la abrevia con un punto (.) por que en los espacios vectoriales compuestos por todas las n-uplas de
números reales, esta ley equivale a la multiplicación en los reales.
No obstante, como en el caso de la ley de composición interna, si V es un conjunto cualquiera, esta
2
abreviación puede presta a confusión ( ).
2
) Desde el momento en que se usa el símbolo suma, el estudiante tiene la tendencia a
asimilar esta operación a la suma de los reales y se pregunta por qué complicar tanto una
operación tan simple...que la conocía desde el primer año básico.
4
11. La ley de composición externa está definida como sigue:
Para todo X en V y para todo escalar a en K, a.X es un elemento de V.
La ley de composición externa verifica los axiomas siguientes:
1. La ley de composición externa es asociativa en el sentido siguiente:
si A=a.X y B =b.X se tiene b.A = a.B
2. En K, con relación a V, existe un elemento u, denominado neutro tal que
para todo X en V, u.X= X (u es entonces el elemento neutro en relación a
la multiplicación)
3. La ley de composición externa es distributiva en relación a la suma definida
en V en el sentido siguiente:
a.(X+Y) = a.X + a.Y , con a en K y X,Y en V
3
4. La ley de composición externa es también distributiva en relación a la suma( )
definida en el cuerpo K:
(a+b).X = a.X + b.X , con a, b en K y X en V
Vocabulario: Un conjunto V donde se ha definido una regla de composición interna y otra de
composición externa en relación a un cuerpo K se denomina "espacio vectorial
V en el cuerpo K". Los elementos de un espacio vectorial son denominados
vectores.
3
) La suma en K y en V no se refiere, necesariamente, a las mismas operaciones. Así el
signo + en a+b en relación a K no es el mismo que en X+Y en V.
5
12. n
3. ESPACIOS VECTORIALES "V=K EN K" DONDE K ES UN CUERPO
n
K es una abreviación para identificar el conjunto de n-uplas de escalares del cuerpo K. Utilizando la suma y
n
la multiplicación definidas en K para definir las leyes de composición interna y externa en K (en el sentido
n
que se verá posteriormente), se puede demostrar que "K es un espacio vectorial en K".
Las n-uplas de K, por convención son presentadas en la forma de una lista vertical de escalares de K (o
"vector columna) :
Ejemplo:
⎡α ⎤
⎢ ⎥
⎢β ⎥
n - upla en K n = ⎢ ⎥
⎢γ ⎥
⎢ ⎥
⎣δ ⎦
La ley de composición interna está definida como la suma (en K) "término a término" de los componentes de
n
las n-uplas de V=K .
Ejemplo:
⎡ a⎤ ⎡α ⎤ ⎡ a +α ⎤
⎢ ⎥ ⎢β ⎥ ⎢ ⎥
⎢ b ⎥+⎢ ⎥ ⎢ b+ β ⎥
⎢ c⎥ ⎢ γ ⎥= ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ c +γ ⎥
⎢d ⎥ ⎢δ
⎣ ⎦ ⎣ ⎥ ⎢
⎦ ⎣ d +δ
⎥
⎦
La ley de composición externa está definida como la multiplicación (en K) de un escalar de K "por cada uno
n
de las componentes de le n-upla que constituye un elemento de V=K "
Ejemplo:
⎡ x ⎤ ⎡ b.x ⎤
⎢ ⎥ ⎢ ⎥
⎢ y ⎥ ⎢ b.y ⎥
b.⎢ ⎥ = ⎢ ⎥
⎢ z ⎥ ⎢ b.z ⎥
⎢ w ⎥ ⎢ b.w ⎥
⎣ ⎦ ⎣ ⎦
6
13. n
Cada n-upla en V=K es denominada vector o punto. Cada elemento de la n-upla es denominado
componente o también coordenada.
Un vector ei tal que todas sus componentes son nulas salvo la i-ésima que es igual al elemento neutro para
la multiplicación en el cuerpo K es denominado "vector unidad-i".
Ejemplo, si K=R :
⎡0⎤
⎢ ⎥
⎢0⎥
⎢0⎥
ei = ⎢ ⎥
⎢ 1⎥
⎢ ⎥
⎢0⎥
⎢ ⎥
⎣0⎦
n
El conjunto de n vectores ei, para i=1,2,..n, es denominado "base canónica usual para K ". El término "base"
tiene una importancia particular en Algebra Lineal y será explicado posteriormente. Por el momento,
n
obsérvese que todo vector X en K puede escribirse en la forma:
X = x1e1 + x2e2 + ... + ......xnen
Como puede observarse por la expresión precedente, el término "coordenada" para identificar la i-ésima
componente xi del vector X está relacionado a su representación en términos de la base canónica usual.
Si R=K y n=2, los vectores e1 y e2 pueden representarse por 2 puntos ubicados sobre dos ejes ortogonales
en forma equidistante a su intersección.
7
14. e2
e1
Cualquier punto del primer eje puede representarse como un múltiplo de e1 así como cualquier punto del
segundo eje como un múltiplo de e2.
Por otra parte, cualquier punto X del plano puede representarse como la suma de un punto x1e1 ubicado
sobre el primer eje y de otro punto x2e2 situado sobre el segundo eje.
x2e2 X
x1e1
En relación a la geometría elemental, se comprende entonces por que las componentes xi de un vector X se
denominan coordenadas.
Pero, obsérvese también que esta denominación se refiere a la representación gráfica de un punto en un
sistema de ejes ortogonales definido por los vectores de la base canónica.
8
15. Obviamente que un mismo vector puede representarse en otros sistemas de ejes y en consecuencia, con
otras coordenadas. Imagínese solamente la rotación de los ejes del gráfico anterior en 30 grados o
posibilidad de rotar solamente uno de ellos en 45 grados.
n
La representación gráfica en ejes ortogonales de un vector o conjunto de vectores en R será utilizada con
frecuencia en lo que sigue por lo que vale la pena prestarle alguna atención.
n
Obsérvese que un vector X en R es, en consecuencia, un "punto" en el plano cuando n=2 y un punto en el
espacio cuando n=3. Para n cualquiera, se seguirá identificando gráficamente un vector X por un punto.
n
Un conjunto de vectores X,Y,Z,...en R forma, entonces, una "nube de puntos" en el espacio. Cuando n=2,
estos vectores pueden ser representados como una nube de puntos en un plano.
n
Obsérvese que si X es un punto en R y a es un número, el vector aX se encuentra en la misma dirección
que X en relación al origen. Haciendo variar a entre -infinito y +infinito, el conjunto de vectores aX genera
una línea que pasa por el origen. Intuitivamente, se puede observar la relación de dependencia lineal que
tiene todo vector aX con X. Este concepto tiene gran importancia en estadística y será tratado con detalle
posteriormente.
aX
X
Se puede determinar el valor del vector Z=X+Y gráficamente, como lo muestra el ejemplo siguiente:
9
16. Z
X
Y
Si a y b son dos escalares no negativos que suman 1, el vector Z=aX+bY se encuentra sobre la línea que
une los vectores X e Y; es denominado "combinación lineal convexa" de X e Y. Obsérvese que las
coordenadas de Z son medias aritméticas ponderadas de las coordenadas de X e Y.
Ejemplo:
Combinación Lineal
Convexa
X
aX 0<a<1
- (1
-a)
Y
Y
10
17. Un caso muy importante de representación gráfica de vectores es el de la representación de conjuntos
definidos por medio de desigualdades lineales.
n
Cabe, en primera instancia señalar que si y y x son dos vectores en K , la expresión x≤y significa que cada
una de las componentes del vector x es inferior o igual a cada una de las componentes del vector y.
2 2
Por ejemplo S{xεR / x≥0} recubre la totalidad del primer cuadrante en R .
2
El conjunto S={xεR /0≤x≤a, con a'=[1,1]} esta conformado por todos los puntos que se encuentran sobre un
cuadrado de lado igual a 1, sobre el primer cuadrante, comenzado en el origen [0,0].
n
ALGUNOS VECTORES PARTICULARES EN R :
-VECTOR CERO : Sus componentes son iguales a cero
-VECTOR UNO o SUMA : Sus componentes son iguales a uno
-VECTOR PONDERACION : Sus componentes son no negativos y suman 1.
-VECTOR DE CONTRASTE : Sus componentes suman cero
4. ESPACIOS VECTORIALES DE MATRICES
n
En la sección precedente, se ha visto que el conjunto de n-uplas de K (conjunto K ) es un espacio vectorial.
n
A su vez, las m-uplas de vectores de K conforman un espacio vectorial sobre K, como se verá
posteriormente.
n
Así como se señaló anteriormente que, por convención, los vectores de K se escriben en forma de una lista
n
vertical de escalares, las m-uplas de K se representan en forma de una lista horizontal de m vectores
columna, es decir, en la forma de una tabla de n líneas y m columnas compuesta por escalares en K.
Ejemplo:
⎡a b c⎤
⎢ ⎥
A= ⎢ d e f ⎥
⎢ ⎥
⎢g
⎣ h i⎥
⎦
11
18. Esta tabla recibe el nombre de matriz. Independientemente de la forma de escribirla, no se puede perder de
vista de que el espacio de matrices de n líneas y m columnas no es otras cosa que el espacio de nxm-uplas
nxm
de K y que, en consecuencia, se trata del espacio vectorial K en K.
Luego, la suma de 2 matrices está definida en forma similar a la suma de dos vectores: "término por término"
Ejemplo:
⎡a b⎤ ⎡ e f ⎤ ⎡ a+e b+ f ⎤
⎢ ⎥+⎢ ⎥= ⎢ ⎥
⎣c d⎦ ⎢g
⎣ h ⎥ ⎢ c+ g
⎦ ⎣ d +h ⎥
⎦
De igual manera la multiplicación por un escalar equivale a multiplicar todos los términos de la matriz por el
escalar.
Ejemplo:
⎡a b ⎤ ⎡ λ .a λ .b ⎤
λ .⎢ ⎥= ⎢ ⎥
⎣c d ⎦ ⎣ λ .c λ .d ⎦
ALGUNAS MATRICES PARTICULARES:
MATRIZ IDENTIDAD:
Es una matriz cuadrada con 1 en su diagonal principal siendo ceros todas sus otras componentes
MATRIZ CERO:
Es una matriz llena de ceros
MATRIZ UNO O MATRIZ SUMA
Es una matriz llena de unos
MATRIZ SIMÉTRICA
Es una matriz cuadrada nxn en la cual la i-ésima línea es idéntica la i-ésima columna, con i=1,2,..n
12
19. Cuando una matriz A es tal que sus líneas son iguales a las columnas de una matriz B se dice que A es la
matriz transpuesta de B y vice-versa. Obsérvese que una matriz simétrica es igual a su transpuesta.
TRAZA DE UNA MATRIZ nxn
Se denomina traza de una matriz cuadrada a la suma de los elementos de su diagonal principal.
n
traza(A) = ∑ aii
i=1
La traza tiene las siguientes propiedades:
i. Traza (A+B) = Traza(A) + Traza (B)
ii. Traza (µA ) = µ.Traza. (A)
iii. Traza (ABC) = Traza(BCA) = Traza(CAB) (circularidad).
5. SUB-ESPACIOS VECTORIALES
Un sub-espacio vectorial no vacío del espacio vectorial V es un subconjunto de éste que a su vez es un
espacio vectorial en relación al mismo cuerpo K y las mismas leyes de composición interna y externa que V.
Luego, una condición necesaria y suficiente para que un subconjunto W del espacio vectorial V en K sea, a
su vez, un espacio vectorial es que para todo X,Y en W y para todo par de escalares a,b en K, el vector
(a.X + b.Y) pertenezca a W.
Como consecuencia de la definición se remarcará que:
a. Todo subespacio vectorial W de V contiene al elemento neutro 0 de V en relación a la ley de
composición interna.
b. Un subconjunto de V conteniendo solo al vector neutro 0 es un subespacio vectorial de V
13
20. 3
Ejemplo: Sea V=R y H={xεV/ x= ae1 +be2, para todo a,b en R}. El conjunto H es un subconjunto de
V y es fácil de demostrar que si x,y son elementos de H, también lo son cx+dy para todo c,d
3
en R. Luego H es un subespacio vectorial en R . Geométricamente, V representa un
espacio de 3 dimensiones. H constituye un plano de este espacio.
6. SUBESPACIOS GENERADOS POR UN CONJUNTO DE VECTORES
a. Combinaciones lineales de vectores
Una combinación lineal de los vectores X1, X2,...Xn del espacio vectorial V en relación a un conjunto de
escalares λ1,λ2,...,λn en K es un vector Z en V tal que:
Z = λ1.X1 + λ2.X2 +.....λn.Xn
Z es una combinación lineal convexa de estos vectores si los escalares λi, i=1,2,..n son no negativos y su
suma es igual al elemento neutro en K en relación a la ley de composición externa (si K=R, este elemento es
igual a 1).
b. Conjuntos generadores, espacios generados por un conjunto de vectores
Sea S un subconjunto de un espacio vectorial V. Se dirá que S genera o engendra el subespacio vectorial
{S} en V si todo elemento de {S} puede escribirse como combinación lineal de los elementos de S.
S es denominado el conjunto generador del espacio vectorial {S} en V y {S} el espacio vectorial engendrado
por el conjunto de vectores S.
14
21. 7. DEPENDENCIA E INDEPENDENCIA LINEAL
El vector X del espacio vectorial V es linealmente dependiente de un subconjunto S de vectores en V, si X
pertenece al conjunto engendrado por S, es decir, si X es una combinación lineal de vectores contenidos en
S.
De manera simétrica, X es linealmente independiente de S, si X no pertenece al espacio vectorial
engendrado por los vectores de S, es decir, si X no es una combinación lineal de los vectores contenidos en
S.
Un conjunto D en V está formado por vectores linealmente independientes, si cada uno de sus vectores es
linealmente independiente del conjunto de vectores formado por los vectores restantes.
De manera semejante: un conjunto D en V está formado por vectores linealmente dependientes, si por lo
menos uno de sus vectores es linealmente dependiente de algún subconjunto de vectores formado por los
vectores restantes.
Las definiciones anteriores pueden traducirse de la siguiente manera:
a. Dependencia lineal
Un conjunto de vectores (X1,X2,...,Xn) en V es un conjunto de vectores linealmente dependientes si existen
escalares ui no todos simultáneamente nulos tales que:
u1X1 + u2X2 + ... + unXn = 0
b. Independencia lineal
Un conjunto de vectores (X1,X2,...,Xn) en V es un conjunto de vectores linealmente independientes (LIN) si la
igualdad:
u1X1 + u2X2 + ... + unXn = 0
implica que todos los escalares ui son simultáneamente nulos.
15
22. c. Consecuencias de las definiciones
i) Un vector X es linealmente dependiente de un conjunto de vectores LIN (X1, X2,... Xn) en V si el
conjunto S=( X1, X2,..., Xn;X) está formado por vectores linealmente dependientes
ii) Si S es conjunto de vectores LIN, cada uno de sus subconjuntos será también LIN.
Demostración (por absurdo)
Sea S=(X1,X2,...,Xr,Xr+1,...,Xn) un conjunto formado por vectores LIN. Supongamos que S1=(X1,X2,...,Xr) es un
subconjunto de S formado por vectores que no son LIN; es decir, supongamos que existen escalares
u1,u2,...ur no simultáneamente nulos tales que:
u1X1 + u2X2 + ... + urXr = 0
Pero en tal caso:
(u1X1+...+urXr) + (ur+1Xr+1+...+umXm)= 0
con ur+1=ur+2=...un=0, expresión que contradice el supuesto inicial de que S está formado por vectores LIN.
iii. Si un conjunto S está formado por vectores que no son LIN, todo conjunto para el cual S sea un
subconjunto estará formado por vectores que no son LIN.
iv. Si X1, X2,...Xn son LIN y si para dos conjuntos de escalares (v1, v2,..vn) y (w1, w2,..wn) se tiene:
v1.X1 + v2.X2 +...vn.Xn = w1.X1 + w2.X2 + ...wn.Xn
entonces, vi=wi, para todo i=1,2,...n.
Demostración: Con ui=vi-wi la expresión precedente puede escribirse:
u1.X1 + u2.X2 + ..unXn = 0,
Si uno o más de los coeficientes ui fuesen diferentes de cero, los vectores Xi no serían
independientes, lo que contradice la hipótesis inicial. Luego ui=0, i=1,2,..n.
En consecuencia:
La representación de un vector X en términos de una combinación lineal de vectores LIN
X1, X2,...Xn es única. Es decir, existe un solo juego de escalares vi, i=1,2,..n, tal que
X=v1.X1 + v2.X2 + ...vnXn. En particular, si X=Xi, entonces, vi=1, y vj=0 para todo i≠j)
16
23. 8. DIMENSIÓN DE UN ESPACIO VECTORIAL
El número máximo de vectores LIN en un conjunto de vectores S en V es igual a M si en S existe algún
subconjunto conformado por M vectores LIN y si todo otro vector en S puede escribirse como combinación
lineal de los vectores de ese subconjunto.
Consecuentemente con la definición anterior, se denomina "dimensión de un espacio vectorial"
al número máximo de vectores LIN que contiene el espacio vectorial.
Obsérvese que en todo espacio vectorial puede definirse una infinidad de conjuntos diferentes de vectores
conteniendo todos ellos el número máximo de vectores LIN.
Obsérvese que si un conjunto de vectores S engendra {S} y si T es un subconjunto de S conteniendo el
máximo número de vectores LIN, T también genera {S}. En ese caso T es el conjunto en S con menos
vectores capaz de generar {S}.
Si W es un subespacio vectorial del espacio vectorial V, es evidente que no puede contener
más vectores LIN que V, luego:
dim W ≤ dim V
9. BASE DE UN ESPACIO VECTORIAL
Sea V un espacio vectorial en K y B un subconjunto de V.
El conjunto de vectores B es una BASE para V si:
i. Esta compuesto de vectores LIN
ii. Todo otro vector en V es una combinación lineal de los vectores de B.
17
24. Obsérvese que una base es un conjunto generador del espacio vectorial con la propiedad suplementaria de
contener sólo vectores LIN.
Puesto que todo otro vector en V es una combinación lineal de los vectores de B, el número de vectores que
contiene es igual al número máximo de vectores LIN en V; luego, consecuentemente con la definición
anterior ese número es igual a la dimensión del espacio vectorial V.
Si n es la dimensión del espacio vectorial V, todo conjunto de n vectores LIN {X1, X2,...Xn} es una base para
V. Esto muestra que para cada espacio vectorial existe una infinidad de bases diferentes.
En la sección 3 se señaló que el conjunto de vectores unidad-i, para i=1,2,..n constituía una base para el
n
espacio vectorial K . Con las definiciones anteriores queda en evidencia por qué este conjunto es
efectivamente una Base para ese espacio vectorial.
10. CAMBIOS DE BASE
A partir de una Base se puede construir nuevas Bases para V reemplazando sucesivamente algunos (o
todos) los vectores de la base inicial por nuevos vectores en V. Esta operación se denomina "cambio de
base".
Obviamente que si se reemplaza un vector de la Base por otro que se encuentra fuera de ella, el nuevo
conjunto es todavía una Base sólo si el nuevo vector es linealmente independiente de los demás.
Sea, por ejemplo, B={X1,X2,...Xs} una base para V y Xr un vector en V fuera de B. Si se introduce Xr≠[0] en
*
lugar de Xs, obteniendo un nuevo conjunto B*={X1, X2,..,Xr}, B es todavía una base sólo si Xr es linealmente
independiente de los Xi, i=1,2,,,s-1.
La reflexión anterior nos lleva a platear el resultado siguiente:
i. Puesto que B es una Base para V existen escalares ui, i=1,2,..s tales que Xr= u1.X1
+u2.X2...+usXs,
ii. Si us=0, la expresión precedente muestra que Xr es una combinación lineal de X1, X2,..Xs-1,
*
luego B no podría ser una base. En consecuencia, us≠0 es una condición necesaria para
*
que B pueda ser una base.
*
iii. Supóngase que con us diferente de cero, B no contiene vectores LIN. Fácilmente se puede
demostrar que en ese caso, B tampoco contiene vectores LIN. Luego, us diferente de cero
es también una condición suficiente para que B* sea una base para V.
Para muchos algoritmos, por ejemplo, el del SIMPLEX en el marco de la programación lineal o el de la
inversión de matrices o el de la regresión lineal por etapas, es importante el algoritmo que permite
representar un vector cualquiera como una combinación lineal de los vectores de una nueva Base partiendo
de la representación relativa a una base anterior.
18
25. Sea B ={X1, X2,...Xs} una base inicial y,
sea B*={X1, X2,...Xr} la nueva base.
Supóngase que la representación del vector Xr en términos de B tiene la estructura siguiente:
s -1
X r = ∑ a kr X k + a sr X s (9)
k =1
De donde:
s -1
1
X s=( ) X r - ∑ ( a kr ) X k (10)
a sr k =1 a sr
Si, inicialmente, la representación de un vector Xs+j cualquiera en términos de la base B era:
s -1
X s+ j = ∑ a kj X k + a sj X s (11)
k =1
Reemplazando Xs en (11) por su expresión determinada en (10), se tiene la representación siguiente del
*
vector Xs+j en términos de la nueva base B :
s -1
) X r + ∑ ( a kj - sj kr ) X k
a sj a a
X s+ j = ( (12)
a sr k =1 a sr
Las relaciones (10) y (12) proporcionan los elementos básicos para los cambios de representación de un
vector cualquiera Xs+j en términos de una nueva base.
19
26. En efecto:
Considérese la siguiente tabla denominada de Tucker:
Vectores fuera de la base B
Vectores en Xs+1 Xs+j . Xr
la base B
.
X1 . .
. .
Xk akj akr
.
Xs asj asr
En esta tabla, la representación de los vectores que se encuentran fuera de la base se la hace con los
escalares que se encuentran en las columnas de estos vectores. Estos escalares son los coeficientes
asociados a cada uno de los vectores que se encuentran en la Base B.
Obsérvese cómo esta tabla se modifica con la introducción del vector Xr dentro de la base, en lugar del
vector Xs:
Vectores fuera de la base B*
Vectores en Xs+1 Xs+j . Xr
la base B*
.
X1 . .
. .
Xk akj-(asjakr)/asr -akr/asr
.
Xr asj/asr 1/asr
Las expresiones que se encuentran en esta tabla corresponden a los coeficientes de las relaciones (10) y
(11). Recuérdese que los coeficientes sobre una misma columna se interpretan, en cada una de las
iteraciones, como los coeficientes asociados a los vectores de la base correspondientes a la representación
del vector que se encuentra fuera de la base en la misma columna.
20
27. Algoritmo.
A partir de una tabla inicial de Tucker es posible realizar sucesivos cambios de base y obtener
las nuevas representaciones de los vectores que se encuentran fuera de ellas en términos de
combinaciones lineales de sus vectores de las bases.
1. Se denomina pivote al elemento que se encuentra en la intersección de la columna
del vector que entra en la base y en la línea del que sale de la base. Consecuentemente
con los desarrollo anteriores, el pivote debe ser diferente de cero. El valor orignal del
pivote será reemplazado por su inverso.
2. Los elementos de la columna del pivote se dividen por el pivote y cambian de signo
3. Los elementos de la línea del pivote se dividen por el pivote
5. El resto de los elementos se calculan de la siguiente manera: al elemento que se
encontraba en la celda (i,j) se le sustrae el producto de los elementos que se encuentran
en la línea i y la columna del pivote y en la columna j y la línea del pivote dividido por el
valor del pivote.
Las tablas anteriores ilustran estas operaciones.
11. DUALIDAD EN LOS CAMBIOS DE BASE
En matemáticas aplicadas reviste particular importancia, como se señaló anteriormente, los espacios
n
vectoriales del tipo K en K, particularmente, cuando K=R.
m m
Sean Xj, j=1,2,..n, n-vectores en R y reténgase como base inicial para R la base canónica usual E = {e1,
e2,..em} en este espacio vectorial.
Los vectores Xj pueden considerarse como vectores columna de una matriz X con m-líneas y n-columnas.
La transpuesta de esta matriz, X', tiene n-líneas y m-columnas; cada uno de sus vectores columna Yj,
j=1,2,..m puede ser representado en términos de los vectores B = {bi,i=1,2,..n}, de la base canónica usual de
n
R.
Obsérvese que sin esfuerzo adicional de cálculo, se puede realizar cambios de base simultáneamente en la
base E y en la base B así como lograr las representaciones respectivas de los vectores en los espacios
m n
vectoriales R y R :
21
28. Vectores fuera de la base E
Vectores en Xm+1 Xm+j . Xm+n
la base E
.
e1 . . Yn+1
. . .
ek akj akn Yn+k
.
em amj amn Yn+m
Vectores en b1 . bj bn Vectores
la Base B fuera de la
base B
Obsérvese que todo cambio de base en E implica un cambio automático de base en B. Se dice que E y B
así como las bases siguientes son bases duales.
22
29. CAPÍTULO II. APLICACIONES LINEALES Y MATRICES
1. DEFINICIÓN
Sean E y F dos espacios vectoriales sobre un mismo cuerpo K. Sean X, W dos elementos cualesquiera de E
y µ algún escalar en K.
Una aplicación lineal f de E en F es una aplicación tal que:
i. f(X + W) = f(X) + f(W)
ii. f(µX) = µ.f(X)
En muchos textos, ambas propiedades de una aplicación lineal son resumidas en una sola:
Se dice que f es una aplicación lineal de E en F si para todo X, W en E y todo par de escalares
η,µ se tiene:
f(ηX+µW) = η.f(X) + µ.f(W)
Vocabulario:
f(E) es el subconjunto de F con las imágenes de todos los elementos de E por la aplicación f.
Cuando f(E)=F, se dice que f es una aplicación sobre F; si no, f es una aplicación en F.
Se denomina rango de la aplicación lineal f al número máximo de vectores linealmente independientes
contenidos en f(E)
Posteriormente, se verá que f(E) es un espacio vectorial, en consecuencia, el rango de la aplicación lineal f
es la dimensión del espacio vectorial f(E)).
25
30. 2. ALGUNAS CONSECUENCIAS IMPORTANTES DE LA DEFINICIÓN
a. f(E) es un subespacio vectorial en F
En efecto: Obsérvese que si Y1=f(X1) y Y2=f(X2) son dos elementos de f(E), para todo
par η,µ en K se tiene:
ηf(X1)+µf(X2) = f(ηX1+µX2) ε f(E)
Puesto que f es una aplicación lineal de E en F.
Se puede concluir, por otra parte, que si 0E es el elemento neutro en E, se tiene f(0E) = OF, donde
este último es el elemento neutro en F.
b. Si f(X1),f(X2),..f(Xr) son LIN en F, entonces X1, X2,..Xr son LIN en E.
En efecto:
Partiendo de que f(X1), f(X2),..f(Xr) son LIN en F, supóngase que X1, X2,..Xr no son LIN en E y que en
consecuencia existen escalares λi tales que:
λ1.X1 + λ2.X2 +....λr.Xr = 0E
Utilizando a la izquierda y a la derecha de esta expresión la aplicación lineal f, se tiene:
f(1.X1 + λ2.X2 +....λr.Xr)= f(0E)
y, puesto que f es una aplicación lineal:
λ1.f(X1) + λ2.f(X2) + ....λr.f(Xr) = f(0E) = 0F
Lo que implicaría que los vectores f(X1), f(X2),..f(Xr) en F tampoco son LIN, contradiciendo la
hipótesis inicial.
26
31. El resultado anterior implica que:
dim f(E) ≤ dim E
Para cualquier aplicación lineal f de E en F.
Y, puesto que f(E) es un subespacio vectorial de F, se tiene que dim f(E) ≤ dim F, juntando ambos resultados
se concluye que:
dim f(E) ≤ min {dim E, dim F}
Para cualquier aplicación lineal f de E en F.
c. Si f y g son dos aplicaciones lineales de E en F, f+g es también una aplicación lineal de E en F.
d. Sean E, F, G tres espacios vectoriales sobre un mismo cuerpo K y sea f una aplicación lineal de E
en F y g una aplicación lineal de F en g:
E → F → G
f g
La aplicación lineal compuesta f.g es una aplicación lineal de E en G. Obviamente que la
composición de funciones lineales no es conmutativa (salvo pocas excepciones).
e. Si E es igual a F y si el rango de la aplicación lineal f es igual a la dimensión de E, existe una
aplicación lineal g, tal que para todo X en E :
g(f(X)) = X
f(g(X)) = X
Se dice que f es la aplicación inversa de g o que g es la aplicación inversa de f. (ver sección 5 de
este mismo capítulo). La composición de estas aplicaciones lineales f.g=g.f es uno de los pocos
casos donde se observa la conmutatividad.
27
32. f. El conjunto de aplicaciones lineales {f} de E en F constituye un espacio vectorial en K.
3. APLICACIONES LINEALES Y MATRICES: MATRIZ DE UNA APLICACION LINEAL f.
Sea B = {b1, b2,..bn} una base para el espacio vectorial E y sea D= {d1, d2,,,dm} una base para el espacio
vectorial F y f una aplicación lineal de E en F de rango m.
Los vectores f(bj), j=1,2,..n, se encuentran en f(E) ε F, en consecuencia, para cada uno de estos vectores
existen escales aij en K que permiten representarlos como combinaciones lineales de los vectores di de la
base D del espacio vectorial F:
m
f( b j ) = ∑ aij .d i j = 1,2,..n
i=1
Se denomina "matriz de la aplicación lineal f de E en F relativa a las bases B y D de E y F respectivamente,
a la tabla A, de m líneas y n columnas cuyos elementos son los escalares aij, i=1,2,..m y j=1,2,..,n, de la
representación anterior.
n m
4. APLICACIONES LINEALES CUANDO E=K Y F=K EN K
a. Una aplicación lineal como una combinación lineal en F
n m
Si E=K y F=K y D es la base canónica usual de F, se tiene, según el recuadro precedente, que f(bj) = aj, es
decir, el vector f(bj) es igual a la columna j de la matriz A. Este resultado pone en evidencia, también, que las
columnas de la matriz A pertenecen al subespacio vectorial f(E).
Sea X = Σxjbj, algún vector en E, con B={b1, b2,..bn} la base canónica usual de E.
Obsérvese que para todo X en E se tiene:
n n n
f(X) = f( ∑ x j b j ) = ∑ x j f( b )= ∑ x
j j aj
j=1 j=1 j=1
28
33. n m
Esta expresión pone en evidencia que una aplicación lineal de E=K en F=K de matriz A es una
combinación lineal de los vectores columna de esta matriz (es decir, que la imagen de todo vector X en E es
una combinación lineal en F de las columnas de la matriz A).
La expresión precedente, muestra que las columnas de la matriz A constituyen un conjunto
generador de f(E).
En consecuencia, el número máximo de vectores columna LIN en A es igual a la dimensión del subespacio
vectorial f(E), de donde, emerge, la expresión de rango de una matriz por asociación a la de rango de una
aplicación lineal:
rango(A) = número máximo de vectores LIN en A
= número máximo de vectores LIN en f(E)
= dim f(E)
= rango de la aplicación lineal f de E en F
b. Producto de una matriz por un vector
n m
Si f es una aplicación lineal de E=K en F=K de matriz A relativa a las bases canónicas de ambos espacios,
se acaba de mostrar que f(X), para todo X en E, puede escribirse como una combinación lineal de las
columnas de la matriz A.
Por convención, esa combinación lineal se escribe como el producto de la matriz A por el vector X:
Producto de una matriz A por un vector x:
f(X) = AX= Σxjaj
es una combinación lineal de los vectores columna de la matriz A.
29
34. c. Suma de aplicaciones lineales y suma de matrices
Si f y g son 2 aplicaciones lineales de E en F de matrices A y B, la aplicación (f+g)(X) = f(X) + g(X) es una
aplicación lineal de E en F de matriz A+B, donde la suma de matrices está definida de la misma manera que
fue introducida en el capítulo I.
d. Composición de aplicaciones lineales y producto de matrices
Sean E, F, G tres espacios vectoriales sobre un mismo cuerpo K y sea f una aplicación lineal de E en F de
matriz A de rango r y sea g una aplicación lineal de F en G de matriz B y de rango t.
La aplicación compuesta g.f de E en G es, como se mencionó anteriormente, una aplicación lineal de E en
G.
n m s
Obsérvese que, cuando E=K , F=K y G=K :
la matriz A tiene m líneas y n columnas y rango r
la matriz B tiene s líneas y m columnas y rango t
y, que:
todo elemento Y=f(X) en F se escribe f(X) = AX
todo elemento Z=g(Y) en G se escribe g(Y) = BY
ó, en forma equivalente: g(f(X)) = BAX
Luego, C=BA es la matriz de la aplicación compuesta g.f
La matriz BA es denominada producto de B por A. Es un producto no conmutativo. Recibe la interpretación
siguiente:
n
Considérese en E=K , los vectores ej, j=1,2,,,n de la base canónica usual.
Las imágenes en F de los ej, j=1,2,,,n, en E, son, como se vio anteriormente, los vectores columna aj de la
matriz A.
30
35. Por otra parte, las imágenes en G de los ej, j=1,2,,n, en E, son los vectores columna cj de la matriz C=BA.
Luego:
Cj = Baj , j=1,2,..,n
Como se explicó anteriormente, para todo Y en F, el vector g(Y)=BY es una combinación lineal de los
vectores columna de la matriz B.
De donde, los vectores columna de la matriz C=BA, producto de B por A, están definidos como las
siguientes combinaciones lineales de los vectores columna de la matriz B :
m
C j = ∑ aij Bi j = 1,2, , , n
i=1
De la expresión precedente, se deduce la definición clásica del producto de una matriz por un
vector. En efecto, si cij es el elemento de la línea i y columna j de la matriz C=BA se tiene:
n
cij = ∑ bik akj
k =1
e. Caracterizaciones relativas al rango de una matriz
Reuniendo varios de los resultados anteriores, se llega a resultados muy útiles en la práctica en lo que
concierne el rango de una matriz.
Estos resultados son:
i. rango(A) ≤ min {m,n } donde m es el número de líneas de A y n es el número de columnas
Esta es una consecuencia directa de:
dim f(E) ≤ min {dim E, dim F}
ii. rango(BA) ≤ min {rango(B), rango(A)}
31
36. Obsérvese, en primer lugar, que gf(E) está contenido en g(F) luego dim gf(E) ≤ dim g(F), lo que a su
vez implica que rango(BA) ≤ rango(B).
Por otra parte, recuérdese que en la sección I se ha mostrado que el espacio imagen tiene una
dimensión menor o igual al espacio raíz, de donde:
dim g(f(E)) ≤ dim f(E), de donde, rango(BA) ≤ rango(A)
En consecuencia, rango(BA) ≤ min {rango(B), rango(A)}
iii. Como consecuencia de los dos puntos anteriores, se tiene el resultado siguiente:
rango(BA) ≤ min {m,n,s} , donde B es una matriz sxm y, A una matriz mxn
iv. Si B es una matriz con m columnas y rango(B)=m, entonces rango(BA)=rango(A) y
Si A es una matriz con m columnas y rango(A)=m, entonces rango(BA)=rango(B)
5. APLICACIONES LINEALES INVERSAS E INVERSOS DE MATRICES
En la sección 2, se enunció de que si f es una aplicación lineal de E en F y que si F=E con el rango de f igual
a la dimensión de E, existía una aplicación g, denominada inversa de f, tal que gf(X)=fg(X)=X para todo X en
E.
En la presente sección se demostrará este resultado y se introducirá la noción de inverso de una matriz.
Si el rango de f es igual a la dimensión n de E y E=F, se tiene que f(E)=F=E y existen n vectores f(X1),
f(X2),..f(Xn) en E que son LIN y que forman una base para E. Luego todo X en E, en particular, los Xj, j=1,2,,,n
pueden escribirse como combinaciones lineales de estos vectores, es decir, existen escalares bij tales que:
n
X j = ∑ b ji f( X )
i j = 1,2,..n (5)
i=1
Por otra parte, si A={aij} es la matriz asociada a la aplicación lineal f, se tiene:
32
37. n
f( X i ) = ∑ aik X k (6)
k =1
Reemplazando la expresión (6) en (5), se tiene:
n
X j = ∑ δ jk X k donde :
k =1
(7)
n
δ jk = ∑ b ji aik
i=1
Teniendo en cuenta que X1, X2,..Xn forman también una base en E en virtud del resultado b. de la sección 2
y puesto que la representación de cualquier vector en términos de los vectores de una base es única, se
tiene que existen coeficientes bij tales que:
δij = 1. si i = j
δij = 0. si i ╪ j
puesto que Xj=Xj es la representación única del vector Xj en términos de la base X1, X2,...Xn
El anterior resultado muestra que bajo las condiciones anteriormente enunciadas en relación a la aplicación
lineal f, existe una relación "uno-a-uno" entre los vectores Xi y los vectores f(Xi), es decir, que para cada
vector Xi existe un vector f(Xi) y vice-versa. ésta admite una inversa g en el sentido en que se cumple
g.f(X)=X para todo X en E.
En términos de las matrices A y B y de sus vectores columnas, los resultados anteriores pueden escribirse
en la forma siguiente:
Baj = ej , j=1,2,...n
BA = I , Con I la matriz identidad nxn
33
38. Por otra parte, reemplazando la expresión (5) en (6), se tiene:
n
f( X j ) = ∑ ω jk f( X ) k donde :
k =1
(8)
n
ω jk=∑ a ji bik j,k =1,2,..n
i=1
Nuevamente, teniendo en cuenta que f(X1), f(X2),..f(Xn) forman también una base en E en virtud del resultado
b. de la sección 2 y puesto que la representación de cualquier vector en términos de los vectores de una
base es única, se tiene que los coeficientes bij verifican también :
ωij = 1. si i = j
ωij = 0. si i ╪ j
puesto que f(Xj)=f(Xj) es la representación única del vector Xj en términos de la base f(X1), f(X2),...f(Xn)
En términos de las matrices A y B y de sus vectores columnas, los resultados anteriores pueden escribirse
en la forma siguiente:
Abj = ej , j=1,2,...n
AB = I , Con I la matriz identidad nxn
Con lo que se ha demostrado la existencia para toda matriz A de rango completo de otra matriz B, también
de rango completo, denominada inversa de A, tal que AB= y BA=I.
Definición:
Sea A una matriz nxn. La nxn-matriz B es la matriz inversa de A si:
AB = I
BA = I
34
39. 6. ALGORITMO DE INVERSIÓN DE UNA MATRIZ
A partir de los desarrollos anteriores, emerge, naturalmente, la idea de calcular el inverso de una matriz A a
partir de sucesivos cambios de base, con un algoritmo similar al que fue propuesto en el capítulo I.
En efecto, en la sección precedente se ha demostrado que los coeficientes bij de la matriz B inversa de A
n
permiten representar los vectores de la base canónica usual ej de K en términos de los vectores columna
n
a1, a2,..an de la matriz A, los que constituyen una base para K :
n
e j = Ab j = ∑ bij ai
i=1
Recordando los puntos fundamentales del algoritmo de cambios de base expuesto en el Capítulo I, se
puede diseñar un algoritmo para invertir una matriz:
i. Planteando como base inicial la base canónica usual,
ii. Representando los vectores aj, j=1,2,..n en esta base,
iii. Introduciendo sucesivamente los vectores aj, j=1,2,..n, en la base hasta sacar de ella, todos
los vectores de la base canónica usual ei,i=1,2,..n
Los coeficientes bij, obtenidos en la última tabla, permiten representar los vectores ej en términos de
combinaciones lineales de los vectores columna de la matriz A, luego la matriz B={bij } es la matriz inversa de
A, acorde con los desarrollos anteriores.
Algunos puntos prácticos en relación a este algoritmo:
i. Un vector aj puede reemplazar dentro de la base un vector ei sólo si el pivote respectivo (elemento
de la celda {i,j}) es diferente de cero.
ii. Si inicialmente los vectores de la base e1, e2,..en están ordenados, al igual que los que se
encuentran fuera de ella, a1, a2,..an, la tabla inicial es idéntica a la matriz A.
iii. Si en cada etapa del algoritmo ha sido posible intercambiar vectores en el mismo orden, es decir,
utilizando como pivotes los elementos de la diagonal principal de la tabla, la última tabla es idéntica
a la matriz B inversa de A.
iv. Si se utiliza pivotes que se encuentran fuera de la diagonal principal, la última tabla contiene todos
los coeficientes de la matriz B inversa de A pero, para identificarla con la matriz B, es necesario
reordenar sus columnas, de manera a tener e1, e2,..en y, en su caso, también, las líneas de manera
a tener a1, a2,..an.
35
40. Si después de k < n iteraciones, han entrado dentro de la base k vectores aj, siendo
imposible introducir en ella los vectores restantes por que todos los posibles pivotes
son nulos, la matriz no es inversible, su rango es igual a k < n.
La tabla siguiente ilustra esta situación, cuando los k-vectores que se han podido introducir son a1, a2,..ak:
Considérese las particiones siguientes:
A = [a1,..ak | ak+1....an] = [ A1 | A2]
E = [e1,..ek | ek+1,...en] = [ E1 | E2]
Con las cuales se construirá la siguiente tabla de Tucker:
Vectores fuera de la base
Vectores en la Base E1 A2
A1' C G
E2' R D=0
En este caso, los vectores que componen A2 no pueden reemplazar en la base a los que componen E2
puesto que todos los posibles pivotes, que se encuentran reagrupados en la matriz D, son nulos.
Obsérvese que utilizando las convenciones usuales, los coeficientes de la matriz G contienen los escalares
que permiten representar los vectores columna de A2 en términos de los vectores columna de A1 y puesto
que D es igual a cero, se tiene:
A2 = A1G
Esta expresión muestra que los n-k vectores columna de A2 son linealmente dependientes de los de k-
vectores columna que contiene la submatriz A1.
36
41. Luego, a lo máximo, la matriz A contiene k vectores LIN, es decir, a lo máximo su rango es igual a k. Pero,
por otra parte, obsérvese que los k-vectores columna de la submatriz A1 se encuentran en la base, luego son
LIN, en consecuencia, k es igual al rango de la matriz A.
7. INVERSIÓN DE MATRICES PARTICIONADAS
Es fácil demostrar que la inversión por bloques de una matriz A sigue reglas semejantes a las del algoritmo
anterior.
Considérese la siguiente partición de la nxn matriz A:
A11 A12
A21 A22
Donde A11 es una matriz kxk. Supóngase que, en una primera etapa, es posible introducir dentro de la base
los k primeros vectores columna aj, j=1,2,..k, de la matriz A en lugar de los k primeros vectores ej, j=1,2,..k,
de la base canónica usual para Rn. Se tendrá una tabla del tipo siguiente:
-1 -1
A11 A11 A12
-1 -1
-A21A11 D= [A22 - A21A11 A12]
Si en una segunda etapa es posible introducir dentro de la base los n-k vectores restantes de la matriz A, la
tabla siguiente contendrá la matriz inversa de A:
-1 -1 -1 -1 -1 -1
A11 - A11 A12D A11 A21 -A11 A12D
-1 -1 -1
-D A21A11 D
37
42. 8. DETERMINANTES
a. Definición
Sea A una matriz nxn particionada en forma de columnas:
A = {a1, a2,...an}
Se denomina determinante de la matriz A (det A) una función de A, d(a1, a2,...an) en R, que posee las 4
propiedades siguientes:
i. Si B es una matriz obtenida de A permutando 2 de sus columnas, det B = - det A
ii. Si a una de las columnas de A, por ejemplo a la primera, se le añade un vector c se tiene:
d(a1+c, a2,..,an) = d(a1, a2,..,an) + d(c, a2,..,an)
iii. Si B es una matriz obtenida a partir de A multiplicando una de sus columnas por un escalar
µ, entonces
det B = µ det A
n
Luego, si A es una matriz nxn, det(-A) = (-1) det A.
iv. El determinante de la matriz identidad es igual a 1.
b. Algoritmo de cálculo de un determinante
Existen muchos algoritmos diferentes para calcular un determinante. En el presente texto se presentará sólo
aquel que está asociado al algoritmo de cambios de base y de inversos de matrices explicado anteriormente.
Como se verá, no exige mayor esfuerzo de cálculo, pero, obviamente, no se pretende que sea el mejor
desde el punto de vista numérico.
i. Si piv(i), i=1,2,..n, es el valor del pivote en cada etapa del algoritmo de inversión de una matriz y si
los cambios de base se han realizado de manera a introducir dentro de la base, en cada etapa, un
vector aj en lugar de un vector ej (es decir, si los pivotes han sido los elementos de la diagonal
principal de la tabla entonces:
n
det A = ∏ piv(i)
i=1
ii. Si piv(i), i=1,2,..n, es el valor del pivote en cada etapa del algoritmo de inversión de una matriz y si
los cambios de base no se han realizado con pivotes de la diagonal principal de la tabla, la última
38
43. tabla contendrá los elementos de la matriz inversa de A desordenados. Para obtener la matriz
inversa a partir de esta tabla es necesario permutar sus columnas (siempre se puede organizar el
algoritmo de manera a que no sea también necesario permutar las líneas). Si k es el número de
permutaciones necesarias, acorde con la propiedad 1 de los determinantes, se tendrá:
n
det A = (-1 )k ∏ piv(i)
i=1
c. Determinantes de matrices particionadas
Considérese una partición de la matriz A como la analizada precedentemente:
A11 A12
A21 A22
Como en el caso escalar, el determinante de una matriz particionada puede ser calculado como el producto
k
de los determinantes de sus pivotes, debiendo ser multiplicado por el factor (-1) , en caso en que sea
necesario realizar k permutaciones. Con k= 0 y las anotaciones de la sección anterior, se tendrá:
det A = det A11. det D
-1
con D = [A22 - A21A11 A12]
d. Determinante del producto de 2 matriz de rango máximo
Si A y B son dos matriz nxn de rango máximo, se tiene que:
det (AB) = det (BA) = det(A).det(B)
39