SlideShare una empresa de Scribd logo
1 de 9
Descargar para leer sin conexión
Sobre Matrices Inversas Generalizadas
1
SOBRE INVERSAS GENERALIZADAS Y SU APLICACIÓN
EN LA REGRESIÓN
José Carlos de Miguel Domínguez
Agustín Ramos Calvo
Dpto. de Métodos Cuantitativos
para la Economía y la Empresa
Fac. de C.C.E.E. Santiago de C.
0.- INTRODUCCIÓN
El uso de Matrices Inversas Generalizadas aparece constantemente en
aplicaciones estadísticas; sin embargo, su tratamiento se reduce a los lugares en que
son utilizadas y resaltando -unicamente- aquellas propiedades que son necesarias
para cada Ejemplo concreto. Así, unas veces su aplicación responde a fines
meramente pedagógicos, mientras que en otras su interés responde a facilitar los
cálculos y la comprensión.
Como ejemplo de todo ello pueden citarse:
1. Método de Mínimos Cuadrados y Estimación Insesgada.
2. Estimación recursiva y Mínimos Cuadrados secuenciales.
3. Distribución Normal Multivariante y problemas predictivos asociados.
4. Problemas relativos al Análisis de la Varianza.
5. Problemas relativos al Análisis Discriminante.
6. Análisis del modelo de regresión generalizado en Métodos Econométricos.
Como se establece al final de la comunicación; en un modelo lineal de
regresión, la predicción, el estimador de una combinación lineal y la S.C.E. son
independientes de la inversa generalizada utilizada.
También es conocido el hecho de que existen distintos tipos de Matrices
Inversas Generalizadas, entre las que destaca el concepto de Inversa de Moore-
Penrose, que- entre otras- goza de la propiedad de su unicidad. De modo general,
pueden distinguirse distintos tipos de ellas que obedecen a las siguientes
condiciones:
Dada una matriz A arbitraria, dependiendo de las condiciones exigidas, las
distintas clases de inversas generalizadas más usuales són:
φ1 : A A-
A = A (Inversa Generalizada)
Sobre Matrices Inversas Generalizadas
2
φ2 : A A-
A = A ; A-
A A-
= A (Inv. Generalizada Reflexiva)
φ3 : A A-
A = A ; A-
A A-
= A ; ( A A-
)´ = A A-
(Inv. Gen. Normalizada)
φ4 : A A-
A = A ; A-
A A-
= A ; ( A A-
)´ = A A-
; ( A-
A )´ = A-
A
(1)
1.- CONCEPTO Y PROPIEDADES DE LA INVERSA MP
Es conocido el hecho de que la última clase de matrices recibe el nombre de
Inversa de Moore - Penrose (MP) y es debida a Penrose (1955), cuyos trabajos
constituyen una profundización de los primeros estudios debidos a Moore (1920).
Además, dicha clase se reduce a un solo elemento, ya que la matriz que cumple
dichas condiciones es única:
Teorema 1.- Si son K y L dos inversas MP de A entonces K = L. Como puede
observarse en la demostración se utilizan todas las propiedades enunciadas:
K = K A K = (KA)’ K = A’ K’ K = (ALA)’ K’ K = A’ L’ A’ K’ K
=
= (LA)’ (KA)’ K = L A K A K = L A K = L (ALA) K = L (AL)’ A K =
L’A’AK = LL’A’ (AK)’ = L L’A’ K’ A’ = L L’A’ = L (AL)’ = L A L =
L.
Antes de obtener la inversa MP, se establecen algunos resultados que serán
útiles en las demostraciones de resultados posteriores:
Lema 1.- Para cualquier matriz X (mxn) se cumple; X’ X = 0 si y solo si X = 0.
Es consecuencia inmediata de que en la diagonal principal de la matriz X’
X están las sumas de los cuadrados de los elementos de las columnas de la matriz
X.
Lema 2.- Para matrices arbitrarias P,Q : P X’ X = Q X’ X implica P X’ = Q X’ .
La demostración se obtiene aplicando el lema anterior a la expresión:
(PX’X - QX’X) (P - Q) = (PX’ - QX’) (PX’ - QX’)’ = 0
Lema 3.- Si para una matriz B arbitraria ocurre que BB’ = B, (o bien B’B = B)
dicha matriz es simétrica, como se comprueba trivialmente hallando traspuestas en
la igualdad correspondiente.
Teorema 2.- Las cuatro condiciones de la definición de inversa MP son
equivalentes a las dos siguientes:
i.- K A A’ = A’ ii.- A K K’ = K’
Demostración.- Para establecer la necesidad basta tener en cuenta que las
condiciones i. , iii. de la definición inicial implican:
A = AKA = A(KA)’ = AA’K’ , o bien (trasponiendo): K A A’ = A’
1 Como se demostrará en el teorema 2, las condiciones pueden ser reducidas a solo dos.
Sobre Matrices Inversas Generalizadas
3
Viceversa; Si AA’K’ = A, pre-multiplicando por K resulta KA (KA)’ = KA.
Como consecuencia del lema 3 la matriz KA es simétrica y así: A = AA’K’ =
A(KA)’ = AKA, (que es la condición i).
Las condiciones ii. y iv. se obtienen igualmente a partir de 2.
Lema 4.- (Descomposición espectral de una matriz) Si es A una matriz m x n de
rango r, existen matrices B (m x r) y C (n x r) tales que :
B´B = Ir ; C´C = Ir cumpliendo que A = B ΛΛ C´
siendo Λ una matriz diagonal con elementos positivos (concretamente, la matriz
formada por los autovalores de la matriz A´A, que es semidefinida positiva).
Salvo indicación en otro sentido, en adelante se denota Ag la inversa MP de A.
Teorema 3.- Se verifica que:
i.- AgA y AAg son matrices idempotentes (luego semidefinidas positivas)
ii.- ( A’) g = ( A g)’. (la traspuesta de la inversa es la inversa de la
traspuesta)
iii.- rang (A) = rang (Ag) = rang (AAg) = tr (AAg) = rang (AgA) = tr
(AgA).
iv.- Si A es simétrica e idempotente, entonces Ag = A
v.- ( Ag) g = A.
vi.- ( A Ag) g = A Ag y (Ag A ) g = Ag A
vii.- Las columnas de Ag y las de A´
generan el mismo subespacio.
Demostración.-
i.- Es inmediato comprobar que ambas matrices son idempotentes (y por
consiguiente semidefinidas positivas y así sus autovalores son 0 ó 1) ya que se
verifica:
(Ag A) (Ag A) = Ag A Ag A = Ag (A Ag A) = Ag A
(A Ag) (A Ag) = A Ag A Ag = (A Ag A) Ag = AAg
ii.- Basta usar la traspuesta en las propiedades de la definición.
iii.- El hecho de que el rango de las matrices señaladas sea igual a su traza
es debido al hecho de que son idempotentes. Por otro lado:
rang (A) = rang(AAgA) = min {rang (AAg),rang (A)}=rang(AAg) = rang(Ag)
rang (Ag) = rang (AgAAg) = min {rang(AgA) , rang(Ag)} = rang(AgA) =
rang(A)
iv) y v).- Es trivial establecerlos.
vi.- Es consecuencia inmediata de iv).
vii.- Supuesto es y un vector perteneciente al subespacio generado por las
columnas de Ag, entonces se podrá escribir en la forma y = Ag x1, así:
y = Ag x1 = Ag A Ag x1 = A’ (Ag)’ Ag x1 = A’ x2 siendo x2 = (Ag)’Ag
x1.
Sobre Matrices Inversas Generalizadas
4
Viceversa, si es y un vector combinación lineal de las columnas de A’ entonces se
tiene:
y = A’ x1 = A’ (Ag)’ A’ x1 = Ag A A’ x1 = Ag x2 ; x2 = A A’ x1
Teorema 4.- (A’A)g = AgAg
’.
Demostración.- Se comprueban todas las propiedades.
i.- (A’A) (AgAg
’) (A’A) = A’A AgAg
’ A’A = A’A Ag (AAg)’ A =
= A’A Ag A Ag A = A’ AAgA A = A’A
ii.- (AgAg
’) (A’A) (AgAg
’) = Ag (Ag
’A’) AAgAg
’ = AgAAg A Ag Ag
’
= Ag AAgAg
’ = AgAg
’.
iii.- (A’A) (AgAg
’) = A’ (A Ag)’Ag
’ = A’Ag
’ A’Ag
’ = A’Ag
’ = AgA.
iv.- (AgAg
’) (A’A) = Ag (Ag
’A’) A = Ag (AAg)’ A = AgAAgA =
AgA.
y las dos últimas son, obviamente, simétricas.
Del teorema establecido, se obtiene Ag = AgAAg = Ag(AAg)’ =
AgAg
’A’ = (A’A)gA´ . Además, si es A una matriz tipo (m,n) de rango n (full
rank), entonces la matriz A’A es no singular, por lo que se tiene:
Corolario.- i.- Ag = (A’A)g A’ ; ii.- Ag = (A’A)-1 A’.
Obsevación.- Es posible establecer el corolario 1 anterior sin necesidad de utilizar
el teorema que le precede, bien usando la descomposición espectral de la matriz A,
bien directamente como se muestra a continuación:
Ag = (A’A)g A’
(1).- Para ver que A (A’A)g A’ = A:
A (A’A)g A’ A = AAgA (A’A)g A’A = (AAg)’A (A’A)g A’A =
= (Ag)’A’A (A’A)g A’A = (Ag)’A’A = A Ag A = A.
(2).- [(A’A)g A’] A ([A’A)g A’] = [(A’A)g A’A (A’A)g] A’ = (A’A)g A’
(3).- [ A (A’A)g A’]’= A (A’A)g’ A’ = A (A’A)g A’.
(4).- [(A’A)g A’A]’= (A’A)g A’A
Teorema 5.- Si A es simétrica, entonces AAg = AgA.
Demostración.- Ya es conocido el hecho de que (Ag)’ = (A’)g, luego:
AAg = (AAg)’ = Ag
’A’ = AgA.
Sobre Matrices Inversas Generalizadas
5
Teorema 6.- Si son P (m,m) y Q (n,n) dos matrices ortogonales y es A una
matriz (m,n), entonces:
( P A Q)g = Q’ Ag P’.
Demostración.-
i.- (PAQ) Q’AgP’ (PAQ) = PAQ Q’AgP’ PAQ = P AAgA Q = PAQ.
ii.- Q’AgP’ (PAQ) Q’AgP’ = Q’Ag P’P A QQ’ Ag P’ = Q’AgP’.
iii.- (PAQ) Q’AgP’ = PA QQ’ Ag P’ = P (AAg) P’ simétrica.
iv.- Q’AgP’ (PAQ) = Q’Ag P’P A Q = Q’ (AgA) Q simétrica.
Observación.- En general, no es cierto que ( A B )g = Bg Ag aunque la
igualdad sí se cumple en algunos Ejemplos. Por ejemplo, es cierto para las
matrices del teorema 10 y también es cierto en las que siguen:
Teorema 7.- Si son B y C del tipo (m,r) y (r,n) y rango r; entonces: ( B C )g
= Cg Bg
Demostración.- Por los corolarios 2 y 3 anteriores: Bg = (B’B)-1B’ ; Cg =
C’(CC’)-1
de donde resulta:
i.- (BC) CgBg (BC) = BC C’(CC’)-1 (B’B)-1B’ = BC
ii.- CgBg (BC) CgBg = C’(CC’)-1(B’B)-1B’ (BC) C’(CC’)-1(B’B)-1B’
=
= C’ (CC’)-1 (B’B)-1 B’B CC’ (CC’)-1 (B’B)-1 B’ =
= C’ (CC’)-1 (B’B)-1 B’ = Cg Bg.
iii.- (BC)CgBg = BC C’(CC’)-1 (B’B)-1B’ = B CC’ (CC’)-1 (B’B)-1B’ =
= B (B’B)-1 B’, simétrica.
iv.- CgBg (BC) = C’(CC’)-1 (B’B)-1B’ (BC) = C’(CC’)-1 (B’B)-1 B’B C
=
= C’ (CC’)-1 C, simétrica.
Se exponen, a continuación, algunos resultados muy útiles para los cálculos
y obtención de la solución de un sistema de ecuaciones lineales, así como en los
cálculos relativos al análisis de la varianza.
Teorema 8.- Si A es una matriz (m,n). Entonces:
i.- I-AAg , I-AgA son simétricas e idempotentes.
ii.- (I-AAg) A = 0 ; Ag (I-AAg) = 0.
iii.- (I-AAg) AAg = AAg (I-AAg) = 0.
iv.- (I-AgA) AgA = AgA (I-AgA) = 0.
Sobre Matrices Inversas Generalizadas
6
Demostración.- Por definición de inversa MP, las matrices AgA y AgA son
simétricas, y por el teorema 9.i. son idempotentes, luego:
i.- (I-AAg) (I-AAg) = I - AAg - AAg + AAgAAg = I - AAg
Análogamente: (I-AgA) (I-AgA) = I - AgA - AgA + AgAAgA = I-
AgA.
El mismo procedimiento conduce a establecer el resto.
2.- OBTENCIÓN DE LA INVERSA MP
Una primera expresión teórica de la inversa MP y algunas de sus
propiedades vienen dadas en el siguiente desarrollo:
1ª Forma.- La matriz A+
= C Λ-1
B´ es, entonces, la inversa
generalizada de Penrose, ya que:
i .- A A+
A = B ΛΛ C´ C ΛΛ-1
B´
B ΛΛ C´ = B ΛΛ C´ = A
ii .- A+
A A+
= C ΛΛ-1
B´
B ΛΛ C´ C ΛΛ-1
B´
= A+
iii .- (A A+
)´ = (B ΛΛ C´ C ΛΛ-1
B´
)´ = (BB´)´ = A A+
iv .- ( A+
A ) = (C ΛΛ-1
B´
B ΛΛ C´)´ = ( CC´ )´ = CC´ = A+
A
Con la expresión obtenida, es inmediato comprobar las siguientes propiedades
generales señaladas en el teorema 3 para este caso particular de la inversa MP:
a.- (A+
)+
= A
b.- (A+
)´ = (A´ )+
c.- A+
A y A A+
son idempotentes ( y, por tanto,
semidefinidas positivas )
d.- ( A´ A )+
A´ = A+
e.- Las columnas de A+
y A´ generan el mismo subespacio de
ℜℜn
.
Es posible establecer dichas propiedades con cálculos inmediatos y
utilizando las propiedades enunciadas, aunque no conocemos ninguna
demostración directa de la propiedad d) (para la que suele usarse siempre la
expresión obtenida de C Λ-1
B´) ( 2)
2ª Forma : Supuesto la matriz buscada es de la forma K = TA’ para
alguna matriz T, se satisface la condición i) si es que se cumple: T A’ A A’ = A’
(*)
y como dicha condición implica i (de la definición), entonces:
2 Dicha demostración se obtiene inmediatamente como sigue:
a.- A(A´A)+
A´A = AA+
A(A´A)+
A´A = (AA+
)´A(A´A)+
A´A = A+
´A´ A (A´A)+
A´A = A+
´A´A = AA+
A = A
b.- ((A´A)+
A´) A ( (A´A)+
A´) = (A´A)+
A´ A (A´A)+
A´ = (A´A)+
A´
c.- [ A (A´A)+
A´ ]´ = A (A´A)+´
A´ = A (A´A)+
A´
d.- [ (A´A)+
A´ A ]´ = (A´A)+
A´ A
Sobre Matrices Inversas Generalizadas
7
A’K’A’ = A’
en la que pre-multiplicando por T se obtiene:
T A’ K’ A’ = T A’ ; es decir, K K’ A’ = K, que es
la condición 2.
Se ha demostrado así que si K = TA’ siendo T una matriz que satisface (*)
y, por consiguiente, K es la inversa de Penrose.
Para obtener la matriz adecuada T basta considerar la matriz cuadrada y
simétrica A’A. Como consecuencia del teorema de Hamilton-Cayley (3)
existen
escalares µ 1 , µ2 , . . . , µt no todos nulos y cumpliendo que:
µ 1 (A’A) + µ 2 (A’A)2 + . . . + µ t (A’A)t = 0
Por consiguiente, si es µ r el primero de dichos escalares no nulo, la matriz T
buscada es:
T = (-1/µr) [ µr+1 I + µr+2 (A’A) + . . . + µ t (A’A)t-r+1]
Para demostrar que T satisface -efectivamente- la condición exigida, basta tener en
cuenta que:
T(A’A)r+1 = (-1/µr) [ µr+1 (A’A)r+1 + µr+2 (A’A)r+2 + . . . + µt
(A’A)t]
= (-1/µr) [ -µ1 (A’A) - µ2 (A’A)2 + . . . + µr(A’A)r ].
Como se ha elegido µ r el primer escalar no nulo de la combinación lineal, lo
anterior se reduce a:
T ( A’ A ) r+1 = ( A’ A ) r
Aplicando repetidamente el lema 2 a la expresión se reduce a la expresión buscada
T A’AA’ = A’.
3.- SITUACIÓN PARTICULAR DE LA REGRESIÓN.
El estudio de modelos lineales conduce, en muchos casos, a la resolución de
las ecuaciones normales de la forma X’X b = X’y. De ahí que tenga especial
interés el estudio de las propiedades de la inversa de la matriz X’X en el caso de
multicolinealedad (la matriz no es de rango pleno).
Teorema 9.- Si G es una g-inversa (no necesariamente la MP) de la matriz X’X
entonces se tiene:
1.- G’ es tamién una g-inversa de X’X.
2.- XGX’X = X; es decir, GX’ es una g-inversa de X
3 “Toda matriz cuadrada, satisface su propia ecuación característica”
Sobre Matrices Inversas Generalizadas
8
3.- XGX’ es invariante respecto a G.
4.- XGX’ es simétrica, independientemente de que G lo sea o no.
Demostración.- 1.- Como por definición G cumple que X’XGX’X = X’X, basta
trasponer para obtener X’XG’X’X = X’X. Además, aplicando el lema 2 a esta
última expresión se obtiene 2.
3.- Supuesto es F otra g-inversa diferente de G; por el apartado 2 del
enunciado se obtiene: XGX’X = X = XFX’X y aplicando el lema 2 a esa igualdad
resulta el enunciado.
4.- Si es S una g-inversa de X’X que es simétrica (4) , por el apartado
anterior se tiene XGX’= XSX’, y la última expresión es simétrica.
Corolario.- Aplicando el apartado 1 del teorema al resto se obtiene:
XG’X’X=X, X’XGX’=X y X’XG’X’=X’; XG’X’=XGX’; y XG’X’ es
simétrica.
Observación.- Es preciso insistir en que no todas las g-inversas de una matriz
simétrica son simétricas; ello es consecuencia inmediata del algoritmo que se
estudió al principio. Sin embargo, el teorema anterior y su corolario lo que hacen es
evitar que se interprete mal esa simetría en cuanto a las g-inversas de X’X.
Llamando H = GX´X se establece inmediatamente:
Teorema 10.- 1.- H es idempotente y rg (H) = rg (X) = r
2.- rg ( H-I ) = r-p
3.- b0
= GX´y + ( H-I ) z, (z arbitrario) es una solución de las
ecs normales; toda solución de dichas ecuaciones
se puede escribir de esa forma.
La no existencia de unicidad de la g-inversa exige usar “restricciones
convenientes” para obtener los estimadores de b ya que b0
es solamente una
solución de dichas ecs. normales, pero bajo ningún concepto puede considerarse un
estimador de b , salvo cuando X´X es no singular.
A pesar de esa circunstancia, que pudiera conducir a cierto desánimo en
cuanto a los resultados obtenidos con el uso de la g-inversa, las propiedades
señaladas para G y H conducen a situaciones menos traumáticas de lo que cabría
esperar, como se expone brevemente en lo que sigue.
Ejemplo 1.- Considerada una combinación lineal de los parámetros del modelo y =
Xββ + εε [ se recuerda que q´b es estimable si existe un vector t cumpliendo que
q´b = t´ E(y) ] resulta:
Cuando q´b es estimable, entoonces q´bo
es invariante respecto de
cualquier solución de las ecs. normales ya que la ser q´b = t´ E(y) resulta q´ =
t´X y, por consiguiente:
4 La existencia de tal g-inversa simétrica está asegurada sin más que tener en cuenta la matriz S=1/2(G+G')
Sobre Matrices Inversas Generalizadas
9
q´b = t´ X bo
= X G X´ y
y, como se ha demostrado, X G X´ es invariante respecto a G.
Ejemplo 2.- Si se consideran los valores de predicción ( Ÿ ) para el modelo:
ŸŸ = Xbo
= X G X´ y
resulta Ÿ invariante en G, en el sentido de que no importa la matriz G utilizada
para la predicción.
Insistiendo en ello, como es H = G X´X resulta:
ŸŸ = Xbo
= X [[G X´y + (H -I) z ]] = X G X´y + (X H -X) z = XGX´y + (X G X´X
- X) z = X G X´y
Ejemplo 3.- Para la estimación de la varianza del error [ o Suma de Cuadrados de
Errores (S.C.E.)]] en el modelo se tiene:
S.C.E =
i j,
∑ (Yij - Ÿij)2
= (Y - Ÿ)´ (Y - Ÿ) por lo que:
S.C.E = ( y - Xbo
)´ ( y - Xbo
) = y´ ( I - X G X´) ( I - X G X´) y = y´ ( I - X G
X´) y
obteniendose -nuevamente- que dicha S.C.E. es invariante en G.
BIBLIOGRAFÍA
Chipman J. & M. M. Rao.- The Treatement of Linear Restrictions in Regression.
Minnesota. 1960.
Dhrymes P. J.- Econometría.- Ed. AC. 1984.
Dhrymes P. J.- Mathematics for Econometrics.- Springer-Verlag. 1984.
Penrose R. A.- Generalized Inverse for Matrices.- Cambridge. 1955.
Ronde Ch. A.- Special applications of the theory of Generalized Matrix Inversion.-
John Hopkins. 1983.
Searle S. R..- Matrix Algegra Useful for Statistics.- Wiley & Sons. 1982.
Searle S. R..- Linear Models.- Wiley & Sons. 1978

Más contenido relacionado

La actualidad más candente

Las funciones cuadraticas.Reacciones quimicas
Las funciones cuadraticas.Reacciones quimicasLas funciones cuadraticas.Reacciones quimicas
Las funciones cuadraticas.Reacciones quimicasagomezjimenez
 
Ajuste de curvas metodo de jacobi
Ajuste de curvas  metodo de jacobiAjuste de curvas  metodo de jacobi
Ajuste de curvas metodo de jacobiTefy Ruiz
 
Algebra lineal problemas_resueltos
Algebra lineal problemas_resueltosAlgebra lineal problemas_resueltos
Algebra lineal problemas_resueltosmathbmc
 
1 algebra lineal y vectores aleatorios
1 algebra lineal y vectores aleatorios1 algebra lineal y vectores aleatorios
1 algebra lineal y vectores aleatoriosAlondra Casas
 
Operaciones de renglon y reduccion de gauss jordan
Operaciones de renglon y reduccion de gauss   jordanOperaciones de renglon y reduccion de gauss   jordan
Operaciones de renglon y reduccion de gauss jordanBeth Gómez
 
Temario II trimestre Física Décimo grado
Temario II trimestre Física Décimo gradoTemario II trimestre Física Décimo grado
Temario II trimestre Física Décimo gradoKharla Santacoloma
 
Analisis de datos experimentales y graficos
Analisis de datos experimentales y graficosAnalisis de datos experimentales y graficos
Analisis de datos experimentales y graficosDarwin Mendoza
 
propiedades de matrices y determinantes
propiedades de  matrices y determinantespropiedades de  matrices y determinantes
propiedades de matrices y determinantesplincoqueoc
 
Numeros complejos
Numeros complejosNumeros complejos
Numeros complejosJose Chacon
 
Representación de datos experimentales
Representación de datos experimentalesRepresentación de datos experimentales
Representación de datos experimentalesFabio Dorta
 

La actualidad más candente (20)

Quincena10
Quincena10Quincena10
Quincena10
 
Taller 2 factorizacion
Taller 2 factorizacionTaller 2 factorizacion
Taller 2 factorizacion
 
Funciones exponenciales
Funciones exponencialesFunciones exponenciales
Funciones exponenciales
 
Aprendiendo a graficar
Aprendiendo a graficarAprendiendo a graficar
Aprendiendo a graficar
 
Ecuacion diferencial de segundo orden
Ecuacion diferencial de segundo ordenEcuacion diferencial de segundo orden
Ecuacion diferencial de segundo orden
 
Las funciones cuadraticas.Reacciones quimicas
Las funciones cuadraticas.Reacciones quimicasLas funciones cuadraticas.Reacciones quimicas
Las funciones cuadraticas.Reacciones quimicas
 
Ajuste de curvas metodo de jacobi
Ajuste de curvas  metodo de jacobiAjuste de curvas  metodo de jacobi
Ajuste de curvas metodo de jacobi
 
Algebra lineal problemas_resueltos
Algebra lineal problemas_resueltosAlgebra lineal problemas_resueltos
Algebra lineal problemas_resueltos
 
Funciones trascendentales
Funciones  trascendentalesFunciones  trascendentales
Funciones trascendentales
 
1 algebra lineal y vectores aleatorios
1 algebra lineal y vectores aleatorios1 algebra lineal y vectores aleatorios
1 algebra lineal y vectores aleatorios
 
Operaciones de renglon y reduccion de gauss jordan
Operaciones de renglon y reduccion de gauss   jordanOperaciones de renglon y reduccion de gauss   jordan
Operaciones de renglon y reduccion de gauss jordan
 
Temario II trimestre Física Décimo grado
Temario II trimestre Física Décimo gradoTemario II trimestre Física Décimo grado
Temario II trimestre Física Décimo grado
 
Funciones
Funciones Funciones
Funciones
 
Función Lineal
Función LinealFunción Lineal
Función Lineal
 
Analisis de datos experimentales y graficos
Analisis de datos experimentales y graficosAnalisis de datos experimentales y graficos
Analisis de datos experimentales y graficos
 
propiedades de matrices y determinantes
propiedades de  matrices y determinantespropiedades de  matrices y determinantes
propiedades de matrices y determinantes
 
PRE CALCULO N°5 ESAN
PRE CALCULO N°5 ESANPRE CALCULO N°5 ESAN
PRE CALCULO N°5 ESAN
 
Numeros complejos
Numeros complejosNumeros complejos
Numeros complejos
 
Tema03res
Tema03resTema03res
Tema03res
 
Representación de datos experimentales
Representación de datos experimentalesRepresentación de datos experimentales
Representación de datos experimentales
 

Similar a 21

Similar a 21 (20)

Diagonalizacion
DiagonalizacionDiagonalizacion
Diagonalizacion
 
Estadistica excelente
Estadistica excelenteEstadistica excelente
Estadistica excelente
 
Topicosenalgebralineal
TopicosenalgebralinealTopicosenalgebralineal
Topicosenalgebralineal
 
Clase8 minisem
Clase8 minisemClase8 minisem
Clase8 minisem
 
S1. NÚMEROS REALES.pptx
S1. NÚMEROS REALES.pptxS1. NÚMEROS REALES.pptx
S1. NÚMEROS REALES.pptx
 
Matrices introducción
Matrices introducciónMatrices introducción
Matrices introducción
 
Diagonalización de matrices
Diagonalización de matricesDiagonalización de matrices
Diagonalización de matrices
 
Matrices y sus aplicaciones
Matrices y sus aplicacionesMatrices y sus aplicaciones
Matrices y sus aplicaciones
 
GUIA 1 MATRICES CESAR VALLEJO
GUIA 1 MATRICES CESAR VALLEJOGUIA 1 MATRICES CESAR VALLEJO
GUIA 1 MATRICES CESAR VALLEJO
 
Matrices
MatricesMatrices
Matrices
 
Resumen de algebra_mat 2
Resumen de algebra_mat 2Resumen de algebra_mat 2
Resumen de algebra_mat 2
 
matrices determinanates y sistema de ecuaciones lineales
matrices determinanates y sistema de ecuaciones linealesmatrices determinanates y sistema de ecuaciones lineales
matrices determinanates y sistema de ecuaciones lineales
 
Algebra y-geometria
Algebra y-geometriaAlgebra y-geometria
Algebra y-geometria
 
Matrices y determinantes
Matrices y determinantesMatrices y determinantes
Matrices y determinantes
 
Capitulo 2-matrices-y-determinantes-evaluaciones
Capitulo 2-matrices-y-determinantes-evaluacionesCapitulo 2-matrices-y-determinantes-evaluaciones
Capitulo 2-matrices-y-determinantes-evaluaciones
 
determinante inversa
determinante inversadeterminante inversa
determinante inversa
 
determinante inversa
 determinante inversa determinante inversa
determinante inversa
 
Matrices+y+determinantes 1
Matrices+y+determinantes 1Matrices+y+determinantes 1
Matrices+y+determinantes 1
 
Matrices
MatricesMatrices
Matrices
 
Matrices y sus Aplicaciones.pdf
Matrices y sus Aplicaciones.pdfMatrices y sus Aplicaciones.pdf
Matrices y sus Aplicaciones.pdf
 

Último

CAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdf
CAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdfCAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdf
CAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdfReneBellido1
 
Reporte de Exportaciones de Fibra de alpaca
Reporte de Exportaciones de Fibra de alpacaReporte de Exportaciones de Fibra de alpaca
Reporte de Exportaciones de Fibra de alpacajeremiasnifla
 
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIPSEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIPJosLuisFrancoCaldern
 
ECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfmatepura
 
Fe_C_Tratamientos termicos_uap _3_.ppt
Fe_C_Tratamientos termicos_uap   _3_.pptFe_C_Tratamientos termicos_uap   _3_.ppt
Fe_C_Tratamientos termicos_uap _3_.pptVitobailon
 
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023ANDECE
 
Caldera Recuperadora de químicos en celulosa tipos y funcionamiento
Caldera Recuperadora de químicos en celulosa  tipos y funcionamientoCaldera Recuperadora de químicos en celulosa  tipos y funcionamiento
Caldera Recuperadora de químicos en celulosa tipos y funcionamientoRobertoAlejandroCast6
 
Unidad 3 Administracion de inventarios.pptx
Unidad 3 Administracion de inventarios.pptxUnidad 3 Administracion de inventarios.pptx
Unidad 3 Administracion de inventarios.pptxEverardoRuiz8
 
CENTROIDES Y MOMENTOS DE INERCIA DE AREAS PLANAS.pdf
CENTROIDES Y MOMENTOS DE INERCIA DE AREAS PLANAS.pdfCENTROIDES Y MOMENTOS DE INERCIA DE AREAS PLANAS.pdf
CENTROIDES Y MOMENTOS DE INERCIA DE AREAS PLANAS.pdfpaola110264
 
Presentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdf
Presentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdfPresentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdf
Presentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdfMIGUELANGELCONDORIMA4
 
Diapositiva de Topografía Nivelación simple y compuesta
Diapositiva de Topografía Nivelación simple y compuestaDiapositiva de Topografía Nivelación simple y compuesta
Diapositiva de Topografía Nivelación simple y compuestajeffsalazarpuente
 
Presentación Proyecto Trabajo Creativa Profesional Azul.pdf
Presentación Proyecto Trabajo Creativa Profesional Azul.pdfPresentación Proyecto Trabajo Creativa Profesional Azul.pdf
Presentación Proyecto Trabajo Creativa Profesional Azul.pdfMirthaFernandez12
 
ECONOMIA APLICADA SEMANA 555555555555555555.pdf
ECONOMIA APLICADA SEMANA 555555555555555555.pdfECONOMIA APLICADA SEMANA 555555555555555555.pdf
ECONOMIA APLICADA SEMANA 555555555555555555.pdffredyflores58
 
Comite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxComite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxClaudiaPerez86192
 
Flujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxFlujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxEduardoSnchezHernnde5
 
Sesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
Sesión 02 TIPOS DE VALORIZACIONES CURSO CersaSesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
Sesión 02 TIPOS DE VALORIZACIONES CURSO CersaXimenaFallaLecca1
 
clases de dinamica ejercicios preuniversitarios.pdf
clases de dinamica ejercicios preuniversitarios.pdfclases de dinamica ejercicios preuniversitarios.pdf
clases de dinamica ejercicios preuniversitarios.pdfDanielaVelasquez553560
 
Residente de obra y sus funciones que realiza .pdf
Residente de obra y sus funciones que realiza  .pdfResidente de obra y sus funciones que realiza  .pdf
Residente de obra y sus funciones que realiza .pdfevin1703e
 
Edificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaEdificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaANDECE
 
Seleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusiblesSeleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusiblesSaulSantiago25
 

Último (20)

CAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdf
CAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdfCAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdf
CAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdf
 
Reporte de Exportaciones de Fibra de alpaca
Reporte de Exportaciones de Fibra de alpacaReporte de Exportaciones de Fibra de alpaca
Reporte de Exportaciones de Fibra de alpaca
 
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIPSEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
 
ECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdf
 
Fe_C_Tratamientos termicos_uap _3_.ppt
Fe_C_Tratamientos termicos_uap   _3_.pptFe_C_Tratamientos termicos_uap   _3_.ppt
Fe_C_Tratamientos termicos_uap _3_.ppt
 
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
 
Caldera Recuperadora de químicos en celulosa tipos y funcionamiento
Caldera Recuperadora de químicos en celulosa  tipos y funcionamientoCaldera Recuperadora de químicos en celulosa  tipos y funcionamiento
Caldera Recuperadora de químicos en celulosa tipos y funcionamiento
 
Unidad 3 Administracion de inventarios.pptx
Unidad 3 Administracion de inventarios.pptxUnidad 3 Administracion de inventarios.pptx
Unidad 3 Administracion de inventarios.pptx
 
CENTROIDES Y MOMENTOS DE INERCIA DE AREAS PLANAS.pdf
CENTROIDES Y MOMENTOS DE INERCIA DE AREAS PLANAS.pdfCENTROIDES Y MOMENTOS DE INERCIA DE AREAS PLANAS.pdf
CENTROIDES Y MOMENTOS DE INERCIA DE AREAS PLANAS.pdf
 
Presentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdf
Presentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdfPresentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdf
Presentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdf
 
Diapositiva de Topografía Nivelación simple y compuesta
Diapositiva de Topografía Nivelación simple y compuestaDiapositiva de Topografía Nivelación simple y compuesta
Diapositiva de Topografía Nivelación simple y compuesta
 
Presentación Proyecto Trabajo Creativa Profesional Azul.pdf
Presentación Proyecto Trabajo Creativa Profesional Azul.pdfPresentación Proyecto Trabajo Creativa Profesional Azul.pdf
Presentación Proyecto Trabajo Creativa Profesional Azul.pdf
 
ECONOMIA APLICADA SEMANA 555555555555555555.pdf
ECONOMIA APLICADA SEMANA 555555555555555555.pdfECONOMIA APLICADA SEMANA 555555555555555555.pdf
ECONOMIA APLICADA SEMANA 555555555555555555.pdf
 
Comite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxComite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptx
 
Flujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxFlujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptx
 
Sesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
Sesión 02 TIPOS DE VALORIZACIONES CURSO CersaSesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
Sesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
 
clases de dinamica ejercicios preuniversitarios.pdf
clases de dinamica ejercicios preuniversitarios.pdfclases de dinamica ejercicios preuniversitarios.pdf
clases de dinamica ejercicios preuniversitarios.pdf
 
Residente de obra y sus funciones que realiza .pdf
Residente de obra y sus funciones que realiza  .pdfResidente de obra y sus funciones que realiza  .pdf
Residente de obra y sus funciones que realiza .pdf
 
Edificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaEdificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes Granada
 
Seleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusiblesSeleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusibles
 

21

  • 1. Sobre Matrices Inversas Generalizadas 1 SOBRE INVERSAS GENERALIZADAS Y SU APLICACIÓN EN LA REGRESIÓN José Carlos de Miguel Domínguez Agustín Ramos Calvo Dpto. de Métodos Cuantitativos para la Economía y la Empresa Fac. de C.C.E.E. Santiago de C. 0.- INTRODUCCIÓN El uso de Matrices Inversas Generalizadas aparece constantemente en aplicaciones estadísticas; sin embargo, su tratamiento se reduce a los lugares en que son utilizadas y resaltando -unicamente- aquellas propiedades que son necesarias para cada Ejemplo concreto. Así, unas veces su aplicación responde a fines meramente pedagógicos, mientras que en otras su interés responde a facilitar los cálculos y la comprensión. Como ejemplo de todo ello pueden citarse: 1. Método de Mínimos Cuadrados y Estimación Insesgada. 2. Estimación recursiva y Mínimos Cuadrados secuenciales. 3. Distribución Normal Multivariante y problemas predictivos asociados. 4. Problemas relativos al Análisis de la Varianza. 5. Problemas relativos al Análisis Discriminante. 6. Análisis del modelo de regresión generalizado en Métodos Econométricos. Como se establece al final de la comunicación; en un modelo lineal de regresión, la predicción, el estimador de una combinación lineal y la S.C.E. son independientes de la inversa generalizada utilizada. También es conocido el hecho de que existen distintos tipos de Matrices Inversas Generalizadas, entre las que destaca el concepto de Inversa de Moore- Penrose, que- entre otras- goza de la propiedad de su unicidad. De modo general, pueden distinguirse distintos tipos de ellas que obedecen a las siguientes condiciones: Dada una matriz A arbitraria, dependiendo de las condiciones exigidas, las distintas clases de inversas generalizadas más usuales són: φ1 : A A- A = A (Inversa Generalizada)
  • 2. Sobre Matrices Inversas Generalizadas 2 φ2 : A A- A = A ; A- A A- = A (Inv. Generalizada Reflexiva) φ3 : A A- A = A ; A- A A- = A ; ( A A- )´ = A A- (Inv. Gen. Normalizada) φ4 : A A- A = A ; A- A A- = A ; ( A A- )´ = A A- ; ( A- A )´ = A- A (1) 1.- CONCEPTO Y PROPIEDADES DE LA INVERSA MP Es conocido el hecho de que la última clase de matrices recibe el nombre de Inversa de Moore - Penrose (MP) y es debida a Penrose (1955), cuyos trabajos constituyen una profundización de los primeros estudios debidos a Moore (1920). Además, dicha clase se reduce a un solo elemento, ya que la matriz que cumple dichas condiciones es única: Teorema 1.- Si son K y L dos inversas MP de A entonces K = L. Como puede observarse en la demostración se utilizan todas las propiedades enunciadas: K = K A K = (KA)’ K = A’ K’ K = (ALA)’ K’ K = A’ L’ A’ K’ K = = (LA)’ (KA)’ K = L A K A K = L A K = L (ALA) K = L (AL)’ A K = L’A’AK = LL’A’ (AK)’ = L L’A’ K’ A’ = L L’A’ = L (AL)’ = L A L = L. Antes de obtener la inversa MP, se establecen algunos resultados que serán útiles en las demostraciones de resultados posteriores: Lema 1.- Para cualquier matriz X (mxn) se cumple; X’ X = 0 si y solo si X = 0. Es consecuencia inmediata de que en la diagonal principal de la matriz X’ X están las sumas de los cuadrados de los elementos de las columnas de la matriz X. Lema 2.- Para matrices arbitrarias P,Q : P X’ X = Q X’ X implica P X’ = Q X’ . La demostración se obtiene aplicando el lema anterior a la expresión: (PX’X - QX’X) (P - Q) = (PX’ - QX’) (PX’ - QX’)’ = 0 Lema 3.- Si para una matriz B arbitraria ocurre que BB’ = B, (o bien B’B = B) dicha matriz es simétrica, como se comprueba trivialmente hallando traspuestas en la igualdad correspondiente. Teorema 2.- Las cuatro condiciones de la definición de inversa MP son equivalentes a las dos siguientes: i.- K A A’ = A’ ii.- A K K’ = K’ Demostración.- Para establecer la necesidad basta tener en cuenta que las condiciones i. , iii. de la definición inicial implican: A = AKA = A(KA)’ = AA’K’ , o bien (trasponiendo): K A A’ = A’ 1 Como se demostrará en el teorema 2, las condiciones pueden ser reducidas a solo dos.
  • 3. Sobre Matrices Inversas Generalizadas 3 Viceversa; Si AA’K’ = A, pre-multiplicando por K resulta KA (KA)’ = KA. Como consecuencia del lema 3 la matriz KA es simétrica y así: A = AA’K’ = A(KA)’ = AKA, (que es la condición i). Las condiciones ii. y iv. se obtienen igualmente a partir de 2. Lema 4.- (Descomposición espectral de una matriz) Si es A una matriz m x n de rango r, existen matrices B (m x r) y C (n x r) tales que : B´B = Ir ; C´C = Ir cumpliendo que A = B ΛΛ C´ siendo Λ una matriz diagonal con elementos positivos (concretamente, la matriz formada por los autovalores de la matriz A´A, que es semidefinida positiva). Salvo indicación en otro sentido, en adelante se denota Ag la inversa MP de A. Teorema 3.- Se verifica que: i.- AgA y AAg son matrices idempotentes (luego semidefinidas positivas) ii.- ( A’) g = ( A g)’. (la traspuesta de la inversa es la inversa de la traspuesta) iii.- rang (A) = rang (Ag) = rang (AAg) = tr (AAg) = rang (AgA) = tr (AgA). iv.- Si A es simétrica e idempotente, entonces Ag = A v.- ( Ag) g = A. vi.- ( A Ag) g = A Ag y (Ag A ) g = Ag A vii.- Las columnas de Ag y las de A´ generan el mismo subespacio. Demostración.- i.- Es inmediato comprobar que ambas matrices son idempotentes (y por consiguiente semidefinidas positivas y así sus autovalores son 0 ó 1) ya que se verifica: (Ag A) (Ag A) = Ag A Ag A = Ag (A Ag A) = Ag A (A Ag) (A Ag) = A Ag A Ag = (A Ag A) Ag = AAg ii.- Basta usar la traspuesta en las propiedades de la definición. iii.- El hecho de que el rango de las matrices señaladas sea igual a su traza es debido al hecho de que son idempotentes. Por otro lado: rang (A) = rang(AAgA) = min {rang (AAg),rang (A)}=rang(AAg) = rang(Ag) rang (Ag) = rang (AgAAg) = min {rang(AgA) , rang(Ag)} = rang(AgA) = rang(A) iv) y v).- Es trivial establecerlos. vi.- Es consecuencia inmediata de iv). vii.- Supuesto es y un vector perteneciente al subespacio generado por las columnas de Ag, entonces se podrá escribir en la forma y = Ag x1, así: y = Ag x1 = Ag A Ag x1 = A’ (Ag)’ Ag x1 = A’ x2 siendo x2 = (Ag)’Ag x1.
  • 4. Sobre Matrices Inversas Generalizadas 4 Viceversa, si es y un vector combinación lineal de las columnas de A’ entonces se tiene: y = A’ x1 = A’ (Ag)’ A’ x1 = Ag A A’ x1 = Ag x2 ; x2 = A A’ x1 Teorema 4.- (A’A)g = AgAg ’. Demostración.- Se comprueban todas las propiedades. i.- (A’A) (AgAg ’) (A’A) = A’A AgAg ’ A’A = A’A Ag (AAg)’ A = = A’A Ag A Ag A = A’ AAgA A = A’A ii.- (AgAg ’) (A’A) (AgAg ’) = Ag (Ag ’A’) AAgAg ’ = AgAAg A Ag Ag ’ = Ag AAgAg ’ = AgAg ’. iii.- (A’A) (AgAg ’) = A’ (A Ag)’Ag ’ = A’Ag ’ A’Ag ’ = A’Ag ’ = AgA. iv.- (AgAg ’) (A’A) = Ag (Ag ’A’) A = Ag (AAg)’ A = AgAAgA = AgA. y las dos últimas son, obviamente, simétricas. Del teorema establecido, se obtiene Ag = AgAAg = Ag(AAg)’ = AgAg ’A’ = (A’A)gA´ . Además, si es A una matriz tipo (m,n) de rango n (full rank), entonces la matriz A’A es no singular, por lo que se tiene: Corolario.- i.- Ag = (A’A)g A’ ; ii.- Ag = (A’A)-1 A’. Obsevación.- Es posible establecer el corolario 1 anterior sin necesidad de utilizar el teorema que le precede, bien usando la descomposición espectral de la matriz A, bien directamente como se muestra a continuación: Ag = (A’A)g A’ (1).- Para ver que A (A’A)g A’ = A: A (A’A)g A’ A = AAgA (A’A)g A’A = (AAg)’A (A’A)g A’A = = (Ag)’A’A (A’A)g A’A = (Ag)’A’A = A Ag A = A. (2).- [(A’A)g A’] A ([A’A)g A’] = [(A’A)g A’A (A’A)g] A’ = (A’A)g A’ (3).- [ A (A’A)g A’]’= A (A’A)g’ A’ = A (A’A)g A’. (4).- [(A’A)g A’A]’= (A’A)g A’A Teorema 5.- Si A es simétrica, entonces AAg = AgA. Demostración.- Ya es conocido el hecho de que (Ag)’ = (A’)g, luego: AAg = (AAg)’ = Ag ’A’ = AgA.
  • 5. Sobre Matrices Inversas Generalizadas 5 Teorema 6.- Si son P (m,m) y Q (n,n) dos matrices ortogonales y es A una matriz (m,n), entonces: ( P A Q)g = Q’ Ag P’. Demostración.- i.- (PAQ) Q’AgP’ (PAQ) = PAQ Q’AgP’ PAQ = P AAgA Q = PAQ. ii.- Q’AgP’ (PAQ) Q’AgP’ = Q’Ag P’P A QQ’ Ag P’ = Q’AgP’. iii.- (PAQ) Q’AgP’ = PA QQ’ Ag P’ = P (AAg) P’ simétrica. iv.- Q’AgP’ (PAQ) = Q’Ag P’P A Q = Q’ (AgA) Q simétrica. Observación.- En general, no es cierto que ( A B )g = Bg Ag aunque la igualdad sí se cumple en algunos Ejemplos. Por ejemplo, es cierto para las matrices del teorema 10 y también es cierto en las que siguen: Teorema 7.- Si son B y C del tipo (m,r) y (r,n) y rango r; entonces: ( B C )g = Cg Bg Demostración.- Por los corolarios 2 y 3 anteriores: Bg = (B’B)-1B’ ; Cg = C’(CC’)-1 de donde resulta: i.- (BC) CgBg (BC) = BC C’(CC’)-1 (B’B)-1B’ = BC ii.- CgBg (BC) CgBg = C’(CC’)-1(B’B)-1B’ (BC) C’(CC’)-1(B’B)-1B’ = = C’ (CC’)-1 (B’B)-1 B’B CC’ (CC’)-1 (B’B)-1 B’ = = C’ (CC’)-1 (B’B)-1 B’ = Cg Bg. iii.- (BC)CgBg = BC C’(CC’)-1 (B’B)-1B’ = B CC’ (CC’)-1 (B’B)-1B’ = = B (B’B)-1 B’, simétrica. iv.- CgBg (BC) = C’(CC’)-1 (B’B)-1B’ (BC) = C’(CC’)-1 (B’B)-1 B’B C = = C’ (CC’)-1 C, simétrica. Se exponen, a continuación, algunos resultados muy útiles para los cálculos y obtención de la solución de un sistema de ecuaciones lineales, así como en los cálculos relativos al análisis de la varianza. Teorema 8.- Si A es una matriz (m,n). Entonces: i.- I-AAg , I-AgA son simétricas e idempotentes. ii.- (I-AAg) A = 0 ; Ag (I-AAg) = 0. iii.- (I-AAg) AAg = AAg (I-AAg) = 0. iv.- (I-AgA) AgA = AgA (I-AgA) = 0.
  • 6. Sobre Matrices Inversas Generalizadas 6 Demostración.- Por definición de inversa MP, las matrices AgA y AgA son simétricas, y por el teorema 9.i. son idempotentes, luego: i.- (I-AAg) (I-AAg) = I - AAg - AAg + AAgAAg = I - AAg Análogamente: (I-AgA) (I-AgA) = I - AgA - AgA + AgAAgA = I- AgA. El mismo procedimiento conduce a establecer el resto. 2.- OBTENCIÓN DE LA INVERSA MP Una primera expresión teórica de la inversa MP y algunas de sus propiedades vienen dadas en el siguiente desarrollo: 1ª Forma.- La matriz A+ = C Λ-1 B´ es, entonces, la inversa generalizada de Penrose, ya que: i .- A A+ A = B ΛΛ C´ C ΛΛ-1 B´ B ΛΛ C´ = B ΛΛ C´ = A ii .- A+ A A+ = C ΛΛ-1 B´ B ΛΛ C´ C ΛΛ-1 B´ = A+ iii .- (A A+ )´ = (B ΛΛ C´ C ΛΛ-1 B´ )´ = (BB´)´ = A A+ iv .- ( A+ A ) = (C ΛΛ-1 B´ B ΛΛ C´)´ = ( CC´ )´ = CC´ = A+ A Con la expresión obtenida, es inmediato comprobar las siguientes propiedades generales señaladas en el teorema 3 para este caso particular de la inversa MP: a.- (A+ )+ = A b.- (A+ )´ = (A´ )+ c.- A+ A y A A+ son idempotentes ( y, por tanto, semidefinidas positivas ) d.- ( A´ A )+ A´ = A+ e.- Las columnas de A+ y A´ generan el mismo subespacio de ℜℜn . Es posible establecer dichas propiedades con cálculos inmediatos y utilizando las propiedades enunciadas, aunque no conocemos ninguna demostración directa de la propiedad d) (para la que suele usarse siempre la expresión obtenida de C Λ-1 B´) ( 2) 2ª Forma : Supuesto la matriz buscada es de la forma K = TA’ para alguna matriz T, se satisface la condición i) si es que se cumple: T A’ A A’ = A’ (*) y como dicha condición implica i (de la definición), entonces: 2 Dicha demostración se obtiene inmediatamente como sigue: a.- A(A´A)+ A´A = AA+ A(A´A)+ A´A = (AA+ )´A(A´A)+ A´A = A+ ´A´ A (A´A)+ A´A = A+ ´A´A = AA+ A = A b.- ((A´A)+ A´) A ( (A´A)+ A´) = (A´A)+ A´ A (A´A)+ A´ = (A´A)+ A´ c.- [ A (A´A)+ A´ ]´ = A (A´A)+´ A´ = A (A´A)+ A´ d.- [ (A´A)+ A´ A ]´ = (A´A)+ A´ A
  • 7. Sobre Matrices Inversas Generalizadas 7 A’K’A’ = A’ en la que pre-multiplicando por T se obtiene: T A’ K’ A’ = T A’ ; es decir, K K’ A’ = K, que es la condición 2. Se ha demostrado así que si K = TA’ siendo T una matriz que satisface (*) y, por consiguiente, K es la inversa de Penrose. Para obtener la matriz adecuada T basta considerar la matriz cuadrada y simétrica A’A. Como consecuencia del teorema de Hamilton-Cayley (3) existen escalares µ 1 , µ2 , . . . , µt no todos nulos y cumpliendo que: µ 1 (A’A) + µ 2 (A’A)2 + . . . + µ t (A’A)t = 0 Por consiguiente, si es µ r el primero de dichos escalares no nulo, la matriz T buscada es: T = (-1/µr) [ µr+1 I + µr+2 (A’A) + . . . + µ t (A’A)t-r+1] Para demostrar que T satisface -efectivamente- la condición exigida, basta tener en cuenta que: T(A’A)r+1 = (-1/µr) [ µr+1 (A’A)r+1 + µr+2 (A’A)r+2 + . . . + µt (A’A)t] = (-1/µr) [ -µ1 (A’A) - µ2 (A’A)2 + . . . + µr(A’A)r ]. Como se ha elegido µ r el primer escalar no nulo de la combinación lineal, lo anterior se reduce a: T ( A’ A ) r+1 = ( A’ A ) r Aplicando repetidamente el lema 2 a la expresión se reduce a la expresión buscada T A’AA’ = A’. 3.- SITUACIÓN PARTICULAR DE LA REGRESIÓN. El estudio de modelos lineales conduce, en muchos casos, a la resolución de las ecuaciones normales de la forma X’X b = X’y. De ahí que tenga especial interés el estudio de las propiedades de la inversa de la matriz X’X en el caso de multicolinealedad (la matriz no es de rango pleno). Teorema 9.- Si G es una g-inversa (no necesariamente la MP) de la matriz X’X entonces se tiene: 1.- G’ es tamién una g-inversa de X’X. 2.- XGX’X = X; es decir, GX’ es una g-inversa de X 3 “Toda matriz cuadrada, satisface su propia ecuación característica”
  • 8. Sobre Matrices Inversas Generalizadas 8 3.- XGX’ es invariante respecto a G. 4.- XGX’ es simétrica, independientemente de que G lo sea o no. Demostración.- 1.- Como por definición G cumple que X’XGX’X = X’X, basta trasponer para obtener X’XG’X’X = X’X. Además, aplicando el lema 2 a esta última expresión se obtiene 2. 3.- Supuesto es F otra g-inversa diferente de G; por el apartado 2 del enunciado se obtiene: XGX’X = X = XFX’X y aplicando el lema 2 a esa igualdad resulta el enunciado. 4.- Si es S una g-inversa de X’X que es simétrica (4) , por el apartado anterior se tiene XGX’= XSX’, y la última expresión es simétrica. Corolario.- Aplicando el apartado 1 del teorema al resto se obtiene: XG’X’X=X, X’XGX’=X y X’XG’X’=X’; XG’X’=XGX’; y XG’X’ es simétrica. Observación.- Es preciso insistir en que no todas las g-inversas de una matriz simétrica son simétricas; ello es consecuencia inmediata del algoritmo que se estudió al principio. Sin embargo, el teorema anterior y su corolario lo que hacen es evitar que se interprete mal esa simetría en cuanto a las g-inversas de X’X. Llamando H = GX´X se establece inmediatamente: Teorema 10.- 1.- H es idempotente y rg (H) = rg (X) = r 2.- rg ( H-I ) = r-p 3.- b0 = GX´y + ( H-I ) z, (z arbitrario) es una solución de las ecs normales; toda solución de dichas ecuaciones se puede escribir de esa forma. La no existencia de unicidad de la g-inversa exige usar “restricciones convenientes” para obtener los estimadores de b ya que b0 es solamente una solución de dichas ecs. normales, pero bajo ningún concepto puede considerarse un estimador de b , salvo cuando X´X es no singular. A pesar de esa circunstancia, que pudiera conducir a cierto desánimo en cuanto a los resultados obtenidos con el uso de la g-inversa, las propiedades señaladas para G y H conducen a situaciones menos traumáticas de lo que cabría esperar, como se expone brevemente en lo que sigue. Ejemplo 1.- Considerada una combinación lineal de los parámetros del modelo y = Xββ + εε [ se recuerda que q´b es estimable si existe un vector t cumpliendo que q´b = t´ E(y) ] resulta: Cuando q´b es estimable, entoonces q´bo es invariante respecto de cualquier solución de las ecs. normales ya que la ser q´b = t´ E(y) resulta q´ = t´X y, por consiguiente: 4 La existencia de tal g-inversa simétrica está asegurada sin más que tener en cuenta la matriz S=1/2(G+G')
  • 9. Sobre Matrices Inversas Generalizadas 9 q´b = t´ X bo = X G X´ y y, como se ha demostrado, X G X´ es invariante respecto a G. Ejemplo 2.- Si se consideran los valores de predicción ( Ÿ ) para el modelo: ŸŸ = Xbo = X G X´ y resulta Ÿ invariante en G, en el sentido de que no importa la matriz G utilizada para la predicción. Insistiendo en ello, como es H = G X´X resulta: ŸŸ = Xbo = X [[G X´y + (H -I) z ]] = X G X´y + (X H -X) z = XGX´y + (X G X´X - X) z = X G X´y Ejemplo 3.- Para la estimación de la varianza del error [ o Suma de Cuadrados de Errores (S.C.E.)]] en el modelo se tiene: S.C.E = i j, ∑ (Yij - Ÿij)2 = (Y - Ÿ)´ (Y - Ÿ) por lo que: S.C.E = ( y - Xbo )´ ( y - Xbo ) = y´ ( I - X G X´) ( I - X G X´) y = y´ ( I - X G X´) y obteniendose -nuevamente- que dicha S.C.E. es invariante en G. BIBLIOGRAFÍA Chipman J. & M. M. Rao.- The Treatement of Linear Restrictions in Regression. Minnesota. 1960. Dhrymes P. J.- Econometría.- Ed. AC. 1984. Dhrymes P. J.- Mathematics for Econometrics.- Springer-Verlag. 1984. Penrose R. A.- Generalized Inverse for Matrices.- Cambridge. 1955. Ronde Ch. A.- Special applications of the theory of Generalized Matrix Inversion.- John Hopkins. 1983. Searle S. R..- Matrix Algegra Useful for Statistics.- Wiley & Sons. 1982. Searle S. R..- Linear Models.- Wiley & Sons. 1978