Este documento presenta una introducción a la naturaleza y proceso del análisis econométrico. Explica que la econometría busca conectar la teoría económica con la medición de datos reales usando métodos estadísticos. Luego describe el proceso de investigación econométrica, incluyendo la formulación de preguntas, revisión de literatura, especificación de modelos, análisis de datos y conclusiones. Finalmente, introduce conceptos básicos de estadística descriptiva como medidas de posición central, dispersión y
Joseph E. Stiglitz - HLEG event "Beyond GDP: What counts for economic & socia...StatsCommunications
Keynote by Joseph E. Stiglitz at HLEG event "Beyond GDP: What counts for economic & social performance? Understanding different daily life challenges of Europeans", Jointly organised by Bertelsmann Stiftung & the OECD-hosted HLEG
Joseph E. Stiglitz - HLEG event "Beyond GDP: What counts for economic & socia...StatsCommunications
Keynote by Joseph E. Stiglitz at HLEG event "Beyond GDP: What counts for economic & social performance? Understanding different daily life challenges of Europeans", Jointly organised by Bertelsmann Stiftung & the OECD-hosted HLEG
Linear regression correlation coefficient, residual analysis,regression analysis,media aritmetica,error tipo 1 ,error tipo2, jose cintron, mba4help.com, advance business consulting
Material de Clase Econometria I 2015 Alex Aguayo MartinezAlex Aguayo
Esta asignatura pretende familiarizar a los estudiantes del Grado en Economía con los conceptos básicos del análisis de regresión aplicado a fenómenos económicos, de manera que sean capaces de utilizarlo de forma efectiva en su vida profesional como una herramienta para el análisis de información, la realización de predicciones, la evaluación de políticas alternativas y la toma de decisiones.
Métodos no experimentales y cuasi-experimentales. Comparación antes-después. Diferencias simples. Diferencias en diferencia. Discontinuidad en la Regresión. Matching. Variables instrumentales. Métodos de selección aleatoria.
Modelos de respuesta binaria. Modelo lineal de probabilidad. Modelos Logit y Probit. Formas de interpretación. Ratios de probabilidades. Efectos marginales. Bondad de ajuste
Bondad de ajuste. tabla de clasificación. Pseudo r-cuadrado. Aplicaciones. Perfiles de probabilidad.
Aquí se brinda un tratamiento más detallado a los modelos de heterocedasticidad. Test Breusch-Pagan. Test de White. Mínimos cuadrados ponderados (MCP). Mínimos cuadrados generalizados (MCG). Mínimos cuadrados generalizados factibles (MCGF). Estimación consistente de White.
Clase10 Endogeneidad y estimación por variables instrumentalesNerys Ramírez Mordán
Tratamiento, variables instrumentales, Validez del instrumento, Varianza del estimador VI, Mínimo cuadrado en 2 etapas
(MC2E), Prueba de endogeneidad de Hausman
Media condicional, Descomposición de una
variable aleatoria, Regresión particionada, Efecto causal, Bootstrap, Momentos del estimador, Efectos marginales de formas funcionales, Bondad de ajuste
Normalidad: Test gráficos, Test Jarque-Bera, Test Shapiro Wilk.
Multicolinialidad: Factor inflador de varianza,
Heterocedasticidad: Test Breusch-Pagan, Test de White, Míınimos Cuadrados Generalizados, Errores robustos
Problemas de especificación: Variable omitida, proxys, Variable irrelevante, Error de medición en las
independientes. Pruebas de errores de
especificación: Test de Ramsey. Selección del modelo; Problemas de datos.
Clase 1 del curso de fundamentos de Matlab para el análisis económico. Presenta aspectos fundamentales del ambiente del software, además de introducir a las operaciones con vectores, las funciones, vectores lógicos y principales operadores de Matlab, todo con ejemplos aplicados a la economía.
Curso de R: 1.1. introducción al lenguaje (Objetos y operadores básicos)Nerys Ramírez Mordán
El documento representa el primer módulo del curso de programación en R impartido por la Universidad Autónoma de Santo Domingo (UASD). El mismo incluye una introducción elemental al uso de los objetos y operadores básicos en R. Además incluye ejemplos comentados y ejercicios para ir verificando el avance.
Ipsos, empresa de investigación de mercados y opinión pública, divulgó su informe N°29 “Claves Ipsos” correspondiente al mes de abril, que encuestó a 800 personas con el fin de identificar las principales opiniones y comportamientos de las y los ciudadanos respecto de temas de interés para el país. En esta edición se abordó la a Carabineros de Chile, su evaluación, legitimidad en su actuar y el asesinato de tres funcionarios en Cañete. Además, se consultó sobre el Ejército y la opinión respecto de la marcha en Putre.
Reporte homicidio doloso descripción
Reporte que contiene información de las víctimas de homicidio doloso registradas en el municipio de Irapuato Guanajuato durante el periodo señalado, comprende información cualitativa y cuantitativa que hace referencia a las características principales de cada uno de los homicidios.
La información proviene tanto de medios de comunicación digitales e impresos como de los boletines que la propia Fiscalía del Estado de Guanajuato emite de manera diaria a los medios de comunicación quienes publican estas incidencias en sus distintos canales.
Podemos observar cantidad de personas fallecidas, lugar donde se registraron los eventos, colonia y calle así como un comparativo con el mismo periodo pero del año anterior.
Edades y género de las víctimas es parte de la información que incluye el reporte.
Clase1. Naturaleza del análisis econométrico y preliminares estadísticos
1. 1
Clase 1. Naturaleza del an´alisis econom´etrico y
preliminares estad´ısticos
Nerys Ram´ırez Mord´an
Pontificia Universidad Cat´olica Madre y Maestra
Econometr´ıa I (EC-411-T)
5 de mayo de 2018
2. 2
Contenido
1 Naturaleza de la econometr´ıa
2 Proceso de investigaci´on
3 Estad´ıstica descriptiva
El histograma
Medidas de posici´on central
Operador de sumatoria
Medidas de dispersi´on
Medidas de forma
Medidas de asociaci´on
Otras medidas de posici´on
4 Valores at´ıpicos
5 Teor´ıa de probabilidad
´Algebra de suceso
Axiomas de probabilidad
Probabilidad condicional e
independencia
6 Variables aleatorias
Funci´on de distribuci´on
Variables continuas y discreta
Funci´on de densidad
7 Momentos de una distribuci´on
8 Vectores aleatorios
Distribuci´on conjunta
Distribuciones condicionadas
Matriz varianza covarianza
9 Notas adicionales de inferencia
10 Referencias
4. 4
Naturaleza de la econometr´ıa
En t´erminos literales, econometr´ıa significa “medici´on
econ´omica” (Gujarati y Porter, 2009, p.1), esta parte del an´alisis
de eventos econ´omicos a partir de m´etodos estad´ısticos para
probar relaciones econ´omicas y evaluar e implementar pol´ıticas
p´ublicas y de negocios (Wooldridge, 2009, p.1).
La econometr´ıa busca una conjunci´on entre la teor´ıa econ´omica
−que no proporciona magnitudes− y la medici´on real de la
econom´ıa, conectando lo aprendido en los cursos de
econom´ıa con la pr´actica.
Ejemplo
La teor´ıa microecon´omica de la demanda establece una relaci´on
inversa entre precios y cantidad demandada, sin embargo, no
proporciona medida num´erica de la relaci´on.
5. 5
Ejemplos
Los prop´ositos de la econometr´ıa suelen ser fundamentalmente dos: (1)
medir impacto y (2) realizar pron´osticos, por ejemplo:
Efecto en las ventas del gasto en publicidad.
Efecto que tiene el gasto p´ublico en las escuelas sobre el
desempe˜no de los estudiantes.
El efecto de la escolaridad sobre el salario.
Determinar el gasto promedio esperado dado un nivel de ingresos.
Pron´ostico del nivel de demanda de una empresa o del crecimiento
de la econom´ıa.
6. 6
Regresi´on, correlaci´on y causalidad
Los datos provienen de dos fuentes: experimentales y no
experimentales u observacionales —Que no son obtenidos por
medio de experimentos controlados (Wooldridge, 2009, p.1)—.
El an´alisis de regresi´on resulta fundamental para la econometr´ıa,
los m´etodos de regresi´on estudian relaci´on entre variables
—reflejada en su distribuci´on condicional (Lobato, 2016)— sin que
esta necesariamente implique causalidad, dado que los datos
observados son generalmente no experimentales.
7. 7
Tipos datos
Los economistas suelen representar sus datos en bases planas
(tablas) o relacionales (ej. bases de hogares), en forma de
matrices, donde las columnas representan variables (cuantitativas
o cualitativas) y las filas representan observaciones en el mismo
(corte transversales) o en diversos puntos temporales (series de
tiempo), o ambas (datos panel), seg´un el tipo de datos.
i Y X K
1 y1 x1 k1
2 y2 x2 k2
... ... ... ...
n yn xn kn
Los datos pueden asumir diversas caracter´ısticas seg´un nivel de
agregaci´on (macro o micro-datos) o naturaleza (cuantitativas o
cualitativas).
8. 8
An´alisis econom´etrico
El proceso de an´alisis econom´etrico parte de una especificaci´on
te´orica (que propone sentido pero no cuantifica magnitudes), pero
no podemos exagerar el papel de la teor´ıa, dado que el economista
es solamente observador pasivo de datos no experimentales
pasados (Greene, 2006, p.2), lo anterior puede dificultar la
estimaci´on de un efecto causal.
Ejemplo
Por ejemplo: suponga desea estimar como un programa de
capacitaci´on a personas (grupo tratamiento, d = 1), incide sobre
su salario (y), respecto al grupo de personas comparables
(equivalencia inicial y durante) que no participa en dicha
capacitaci´on (grupo control, d = 0):
γ = E[y|d = 1] − E[y|d = 0] (1)
9. 9
El modelo matem´atico vs. Modelo econom´etrico
El modelo matem´atico postula una relaci´on determinista entre
variables que suelen llamarse dependiente (end´ogena) e
independientes (ex´ogena), cuya elecci´on viene determinada por la
teor´ıa econ´omica y los datos.
E[Y |Xi] = f(Xi) (2)
No obstante, dada la inexactitud entre las variables econ´omicas, la
econometr´ıa incluye un t´ermino de perturbaci´on o de error
(u), donde se incluyen factores no precisados en el modelo.
E[Y |Xi] = f(Xi) + u (3)
10. 10
La interpretaci´on de un modelo media condicional
En el modelo econom´etrico f(Xi) denota una funci´on de esperanza
condicional de la variable explicativa, cuya forma funcional resulta
una pregunta emp´ırica, pero aqu´ı, como primera hip´otesis se
asume lineal:
E[Y |Xi] = β0 + β1Xi (4)
Las constantes βi son los par´ametros desconocidos, conocidos
como coeficientes de regresi´on, intersecci´on (β0) y pendiente
(β1); Y es nuestra variable dependiente; y X es nuestra variable (o
conjunto de variables) independiente (s).
Ejemplo
Efecto de la educaci´on en el salario.
11. 11
La interpretaci´on de un modelo media condicional
El an´alisis econom´etrico intenta pronosticar el valor medio de una
variable independiente en base a valores fijos de las variables
explicativas (E[Y |X]). La uni´on de medias condicionales arroja la
l´ınea de regresi´on.
Fuente: tomado de Gujarati y Porter (2009).
12. 12
La interpretaci´on de un modelo media condicional
Los par´ametros (β) son desconocidos y se estiman utilizando datos
econ´omicos y una t´ecnica econom´etrica.
A partir de estas estimaciones se establecen hip´otesis sobre el
par´ametro poblacional, por ejemplo de que β1 = 0 en el caso de
independencia entre variables o significancia estad´ıstica.
La relaci´on entre variables se deriva de la forma funcional, cuya
validez se verifica a partir de la teor´ıa y los datos.
13. 13
An´alisis econom´etrico
El modelo econom´etrico es un modelo media condicional
(E(y|x) = β0 + β1x1) que reconoce tres condiciones b´asicas:
1 La naturaleza estoc´astica en la relaci´on entre variables
(existen una relaci´on no exacta (u), por tanto, debe considerarse
como tratar otros factores).
2 Establecer la relaci´on funcional entre variables ( y = β x si
u = 0).
3 Estar seguro de una relaci´on ceteris paribus (E[u|x] = E[u]).
El concepto ceteris paribus tiene un papel importante en el an´alisis
causal, que resulta en el objetivo de los economistas.
Ejemplo
Efecto de un fertilizante en el rendimiento de un cultivo.
15. 15
Proceso de investigaci´on
Seg´un Greene (2003), el estudio econom´etrico comienza con un
conjunto de proposiciones sobre alg´un aspecto de la econom´ıa.
La teor´ıa especifica un conjunto de relaciones deterministas y
precisas entre las variables.
La investigaci´on emp´ırica proporciona estimaciones de par´ametros
desconocidos en el modelo: como elasticidades o an´alisis de
impacto, lo que permite a los modelos ser utilizados para an´alisis
de pol´ıticas y pron´osticos.
16. 16
Proceso de investigaci´on
“En un an´alisis emp´ırico se utilizan datos para probar teor´ıas o
estimar relaciones”, este parte de una pregunta concreta y
alcanzable.
1 Formulaci´on concisa del problema (preguntas de inter´es)
2 Revisi´on de la literatura
3 Modelo econ´omico
4 Modelo econom´etrico
5 Descripci´on de los datos
6 Procedimientos de estimaci´on e inferencia
7 Resultados emp´ıricos y conclusiones
8 Posibles extensiones y limitaciones del estudio
9 Referencias
18. 18
El histograma
La interpretaci´on probabil´ıstica derivada del histograma es
bastante ´util para seguir el objetivo de inferencia estad´ıstica, dado
que el ´area del rect´angulo es proporcional a la proporci´on de datos
que caen dentro del dicho intervalo, esta se puede interpretar como
probabilidades.
No obstante, es preciso disponer de informaci´on precisa para
resumir la informaci´on contenida en la muestra. En el caso
univariado es com´un precisar medidas de posici´on, dispersi´on y
forma.
19. 19
La media aritm´etica y operador de sumatoria
La media es la medida de posici´on central m´as utiliza, resulta de
dividir la suma de los valores de una variable entre el n´umero total
de observaciones.
µx =
1
N
N
i=1
xi (5)
Note que 1
N es en realidad solo aplicable en caso de media
xponderadas, ya que esto es una medida de probabilidad asociada
a cada uno de los valores de las variables.
1
N x1 + 1
N x2 + ... + 1
N xN
20. 20
Operador de sumatoria
La Σ se utiliza para representar sumatoria, operador sumamente
usado en econometr´ıa.
n
i=1 xi = x1 + x2 + ... + xn
Algunas de sus propiedades son:
n
i=1 k = nk donde k es una constante.
n
i=1 kxi = k
n
i=1 xi
n
i=1 (a + bxi) = na + b
n
i=1 xi
n
i=1 xi = n¯x
n
i=1 (xi − ¯x) =
n
i=1 xi −
n
i=1 ¯x =
n
i=1 xi − n¯x = n¯x − n¯x = 0
n
i=1 (xi − ¯x) (yi − ¯y) =
n
i=1 (xi − ¯x)yi
21. 21
La varianza
Dado que dos series pueden tener igual media, pero desviaciones
respecto a la misma totalmente distinta, es com´un utilizar la
varianza como una medida de la esperanza al cuadrado de las
desviaciones de las variables de las series respecto a la media de
posici´on central.
σ2
x =
1
N − 1
N
i=1
xi − ¯X
2
(6)
No obstante, como la varianza se expresa como el cuadrado de la
medida original, los economistas suele usar la desviaci´on est´andar
para obtener una medida de desviaci´on en la misma escala.
σx = σ2
x =
1
N − 1
N
i=1
xi − ¯X
2
(7)
22. 22
La asimetr´ıa
La asimetr´ıa es una medida que permite estudiar, sin necesidad de
utilizar gr´aficos, el grado de simetr´ıa entre los lados de una
distribuci´on respecto a su posici´on central.
El coeficiente tradicional de asimetr´ıa se entiende como el tercer
momento de una distribuci´on y asume el valor de cero en
distribuciones sim´etricas.
a =
1
N
N
i=1 xi − ¯X
3
ni
1
N
N
i=1 xi − ¯X
2
ni
3
2
(8)
23. 23
La curtosis
La curtosis (o apuntamiento) es una medida de forma que mide la
cantidad de masa que agrupa una distribuci´on alrededor del centro
o en la cola de la misma.
Como la curtosis de una normal es 3, por lo general suele
especificarse el exceso de curtosis como cuanto se aleja esta de tres:
k =
1
N
N
i=1 xi − ¯X
4
ni
1
N
N
i=1 xi − ¯X
2
ni
2 − 3 (9)
24. 24
Covarianza
Hasta ahora hemos estado interesados en medidas de resumen
sobre una sola variable, sin embargo, generalmente interesa el caso
de m´as de una variable y la relaci´on que pudiese existir entre ellas,
en tales casos obtenemos la covarianza, cuya representaci´on
muestral es:
σyx =
1
N
N
i=1
xi − ¯X yi − ¯Y (10)
25. 25
Coeficiente de correlaci´on
La covarianza solo nos permite establecer la relaci´on de la
asociaci´on, en tal sentido, es m´as com´un representar esta
asociaci´on lineal por medio del coeficiente de correlaci´on.
Con el fin de mantener una medida de asociaci´on que no depende
de la escala, se usa el coeficiente de correlaci´on de Pearson, que va
de -1 a 1.
ρyx =
σyx
σyσx
(11)
26. 26
Los percentiles
Los percentiles de una variable aleatoria indican, una vez
ordenados los datos de mayor a menor, el valor de la variable por
debajo del cual se encuentra un porcentaje (p %) dado de
observaciones.
Bajo tales circunstancia podemos utilizar alguna de la siguiente
medida:
px =
n + 1
100
(x) (12)
28. 28
Series normalizadas
En muchos casos necesitamos normalizar nuestras variables x, en
una nueva variable aleatoria z ∼ N(0, 1) para normalizar o
identificar valores at´ıpicos a partir de la posici´on de nuestra
observaci´on en t´erminos relativo al n´umero de desviaciones que se
aleja desde la media.
zi =
xi − µx
σx
(13)
29. 29
Valores at´ıpicos
En el caso de la varianza y los valores at´ıpicos, presentaremos
especial atenci´on, pues, pueden disfrazar los resultados de los
an´alisis (Walpole, 2009).
No confundir valores at´ıpicos con datos influyentes.
Ante la presencia de valores at´ıpicos es com´un utilizar medidas
robustas, como:
1 Mediana
2 Media recortada
3 Desviaci´on media absoluta
4 Rango intercuart´ılico (iqr)
31. 31
Fen´omenos y experimentos aleatorios
Existen dos tipos de fen´omenos:
1 Determinista: previo al experimento conocemos el resultado final.
Por tanto, pueden predecirse con certeza.
2 Aleatorio: existen varias situaciones posibles con cierta
incertidumbre asociada.
La teor´ıa de probabilidad estudia los experimentos −o
fen´omenos− aleatorios.
1 Lanzar una moneda al aire Ω = {C, +}
2 Invertir en opciones de compra Ω = {ganar, perder}
32. 32
Teor´ıa de probabilidad
En un experimento aleatorio:
1 Conocemos de antemano todos los resultados posibles (espacio
muestral Ω).
2 No es posible conocer el resultado antes de realizar el experimento.
3 La teor´ıa de probabilidad permite cuantificar la incertidumbre
asociada a cada evento.
A cada subconjunto de Ω (A ⊆ Ω) (usualmente denotado por letra
min´uscula) se les llama suceso aleatorio. Este puede ser
elemental o compuesto.
Ω es el suceso seguro y φ el suceso imposible.
33. 33
Teor´ıa de probabilidad
Un experimento aleatorio tiene resultados inciertos, pese a que
conocemos de antemano los posibles resultados. Sobre estos
fen´omenos versa la teor´ıa de probabilidad (Garc´ıa-Donato, 2013).
Suponga realiza el experimento aleatorio de lanzar un dado al aire:
espacio muestral: Ω = {1, 2, 3, 4, 5, 6} (suceso seguro)
ω4 = {4} es un suceso elemental.
ω7 = {7} es un suceso imposible.
ωpar = {2, 4, 6} es un suceso compuesto.
ωc
par = {1, 3, 5} es el complemento de ωpar.
ωi y ωj son equiprobables si tienen igual probabilidad.
ωpar y ω1 son mutuamente excluyentes.
34. 34
´Algebra de suceso
A los suceso aleatorio se les aplican las operaciones de conjunto:
1 Uni´on ∪. La uni´on de sucesos A ∪ B que ocurre si solo si, al menos
uno de los dos sucesos ocurre (se lee como suma de A y B; A o B; A
unido a B.).
2 Inclusi´on ⊂. Si a la ocurrencia de un suceso A = {6} siempre esta
unida un suceso B = {2, 4, 6}, diremos que A ⊆ B . Dos sucesos
aleatorios son iguales si A ⊆ B y B ⊆ A.
3 Intersecci´on ∩. Producto de sucesos. Es el suceso que ocurre, solo
si ocurre tanto A como B.
4 Diferencia AB, si ocurre A pero no ocurre el evento B. Si
A = {2, 4, 6} y A = {6}, entonces AB={2, 4}.
35. 35
Probabilidad
Def.: cl´asica de Laplace. La probabilidad de cualquier suceso
A, que se suele escribir como Pr(A), es el cociente entre el total
de casos favorables/casos posible (que sucede con Ω infinito?).
Def.: frecuentista o emp´ırica. Se define como el l´ımite de
frecuencias relativa del suceso (no precisa cuanta pruebas se deben
realizar, o como trabajar con sucesos que solo se repiten una vez).
Def.: Axiom´atica.
36. 36
Axiomas
Dado un espacio muestral (Ω), se entiende por probabilidad a
una funci´on del conjunto de σ con dominio en σ y rango [0,1], que
satisface las siguientes condiciones:
Axioma 1: p(A) ≥ 0 ∀A ∈ σ
Axioma 2: p(Ω) = 1
Axioma 3 (teorema de adici´on): p(∪Ai) = ΣP(Ai), cuando Ai es
una secuencia de eventos mutuamente excluyentes
(Ai ∩ Aj = φ ∀i = j).
37. 37
Espacio de probabilidad
Espacio muestral discreto finito o numerable Ω = {a1, ..., an, ...}.
Espacio muestral continuo Infinito no numerable.
38. 38
Espacio de probabilidad
Si [Ω, σ] es un espacio medible y P una medida de probabilidad
sobre σ (σ-´algebra) P : σ → [0, 1], a la terna [Ω, σ, P] se le llama
espacio de probabilidad.
Cuando una funci´on de probabilidad cumple los axiomas de
Kolmogorov, se conoce como una funci´on de probabilidad,
entonces para cualquier par de sucesos A y B:
Pr(φ) = 0
Pr(A) ≤ 1
Pr(Ac
) = 1 − Pr(A)
Si A ⊂ B, entonces, Pr(A) ≤ Pr(B)
Pr(B ∩ Ac
) = Pr(B) − Pr(A ∩ B)
Pr(A ∪ B) = Pr(A) + Pr(B) − Pr(A ∩ B)
39. 39
Probabilidad condicional
Si A y B son subconjuntos de un espacio muestral, {A, B} ⊂ Ω y
Pr(B) ≥ 0, decimos la probabilidad de A condicionada al suceso
B, supone asignar nuevas probabilidades al suceso A.
Seg´un el teorema de caracterizaci´on:
Pr(A|B) =
Pr(A ∩ B)
Pr(B)
(14)
Aqu´ı, el espacio muestral original es Ω, en tanto el espacio modificado
es Ω ∩ B.
Ejemplo tirada de un dado
Si A={1, 2, 3, 4} y B={3, 5, 6}.
P(A) = 4
6; P(B) = 3
6; P(A ∩ B) = 1
6; P(A|B) = 6
18; P(B|A) = 6
24
40. 40
Independencia
Adicionalmente, A y B son sucesos independientes cuando la
informaci´on sobre la ocurrencia de uno, no modifica la
probabilidad de que ocurra el otro (Pr(A|B) = Pr(A)).
Pr(A ∩ B) = Pr(A)Pr(B) (15)
Si A y B son independiente, Ac y Bc tambi´en lo son.
41. 41
Probabilidad condicional e independencia
Ejemplo tomado de Hill; Griffinths and Lim (2011, p.24)
y/x 1 2 3 4 f(y)
0 0 0.1 0.2 0.3 0.6
1 0.1 0.1 0.1 0.1 0.4
f(x) 0.1 0.2 0.3 0.4
Esperanza condicional E[Y |X = x0].
Probabilidades condicionales Pr(Y = y1|X = x0).
f (x = 2|y = 1) = P(X=2,Y =1)
P(Y =1) = 0,1
0,4 = 0,25
Independencia (f(x|y) = fX(x), debe cumplirse para cada par x e
y de valores posibles de la variable aleatoria). Como la condicional
P(X = 1, Y = 1) = 0,1 es distinta al producto de las marginales
P(X = 1)P(Y = 1) = 0,1 ∗ 0,4 = 0,04, concluimos no hay
independencia.
42. 42
Independencia
El concepto de independencia visto (f(x|y) = fX(x)) es el
concepto m´as fuerte de independencia; en la pr´actica se suele
asumir:
1 Independencia en media (E(y|x) = E(y)).
2 Ausencia de autocorrelaci´on cov(y, x) = 0. Es el concepto m´as d´ebil
al considerar solo relaciones lineales.
44. 44
Variables aleatorias
En econometr´ıa se estudian relaciones entre variables aleatorias
(v.a.), una funci´on que asigna un n´umero real y probabilidad a los
sub-conjuntos (elementos individuales (ω ∈ Ω)) de un conjunto
dado de un espacio muestral (Ω), caracterizada por:
1 Su dominio (valores que pueden tomar).
2 Su funci´on de probabilidad (continua o discreta).
Es decir, que dado un experimento aleatorio, a cada suceso del
espacio de probabilidad (Ω, p) le asignamos un valor num´erico,
obtenemos una variable que hereda de Ω la probabilidad p, le
llamamos variable aleatoria.
45. 45
Variables aleatorias
En el siguiente ejemplo, se muestra una variable aleatoria que
tomas valores al contabilizar el n´umero de caras que resultan del
experimento de lanzar una moneda dos veces al aire.
Fuente: Soto (2011). Notas Econom´etricas. Universidad de Chile.
La distribuci´on de una v.a. viene determinada por sus valores
posibles y la probabilidad de ocurrencia asociada a estos.
46. 46
Funci´on de distribuci´on
Sea X una variable aleatoria definida en (Ω, σ, p), la funci´on en el
rango [0,1], definida por:
F(xi) = Px((−´ınf, xi]) = Pr(X ≤ xi) xi ∈ X (16)
Se conoce como Funci´on de distribuci´on de X, y cumple las
siguientes propiedades:
F(.) es no decreciente.
Limxi→−∞F(X) = 0 Limxi→+∞F(X) = 1
F(.) es continua por la derecha.
47. 47
Funci´on de distribuci´on
[Ejercicio 1.1.] Tomado de Donato, 2013. Universidad de Valencia, M´aster en
Banca y Finanzas Cuantitativas (QF). Dada una variable aleatoria X, con rango
[0,20] y F(x):
FX (x) =
0 si x ≤ 0
x/20 si 0 ≤ x ≤ 20
1 si x > 20
1 Dibuje F(x) y argumente si esta es continua o discreta.
2 Calcula Pr(X < 10) y Pr(X > 5).
48. 48
Tipos de variables
Dependiendo de la forma asumida por F(x), existen dos tipos de
variables aleatorias: continuas y discretas.
1 Un espacio muestral discreto es aquel formado por un n´umero
infinito contable de puntos muestrales.
2 Mientras que el espacio continuo esta formado por un conjunto
infinito no numerable.
3 Existen adem´as variables aleatorias mixtas.
49. 49
Funci´on de densidad
F(x) acumula probabilidades, pero es ´util una funci´on que asigne
probabilidades directamente. Esta funci´on se obtiene a partir de la
derivada (siempre que exista) de la funci´on de distribuci´on y se
conoce como funci´on de densidad.
Seg´un Wackirly et al. (2008), la funci´on de densidad de una
variable aleatoria es un modelo te´orico para la distribuci´on de
frecuencia (histograma) de una poblaci´on.
f(x) =
dF(.)
dy
= F (y) (17)
Cuyas propiedades son:
1 f(x) ≥ 0 ∀y ∈ [−∞, +∞]
2
∞
−∞
f(y)dy = 1
50. 50
Calculo de probabilidades
Ambas funciones (distribuci´on y densidad) de una variable
aleatoria, permiten calcular probabilidades.
P(a < Y ≤ b) = F(Y ≤ b)−F(Y ≤ a) = F(b)−F(a) =
b
a
f(y)dy (18)
51. 51
Funci´on de distribuci´on
[Ejercicio 1.2.] Tomado de Donato, 2013. Universidad de Valencia, QF. Una
variable aleatoria X, tiene rango [0,20] y F(x):
FX (x) =
0 si x ≤ 0
x/20 si 0 ≤ x ≤ 20
1 si x > 20
1 Obtenga la funci´on de densidad.
2 Utilizando la funci´on de densidad calcule Pr(X < 10) y Pr(X > 5).
3 Compare las probabilidades obtenidas con la funci´on de densidad y con la de
distribuci´on.
52. 52
Funci´on de distribuci´on
[Ejercicio 1.3.*] Wackerly, et al. (2010). Dada f(y) = cy2
, 0 ≤ y ≤ 2 y f(y) = 0 en
el resto de los caso.
1 Encuentre el valor de c, para el cual f(y) es una funci´on de densidad. [R.
c = 3/8]
2 Calcule Pr(y < 1,5) y Pr(y > 1).
54. 54
Esperanza matem´atica
Los momentos se utilizan para describir la distribuci´on de una
variable aleatoria (X), dependiendo del tipo de variable:
Caso discreto:
E(X) = ΣXxiPr(X) (19)
Caso continuo:
E(X) =
+∞
−∞
xf(x)dx (20)
55. 55
Propiedades de la esperanza
E[c] = c
E(c) = +∞
−∞ cf(x)dx = c +∞
−∞ f(x)dx = c · 1
aX + b = aE[X] + b
E (aX + b) = +∞
−∞ aXf(x)dx + +∞
−∞ bf(x)dx
E (aX + b) = a +∞
−∞ Xf(x)dx + b +∞
−∞ f(x)dx
E (aX + b) = aE[X] + b
56. 56
Varianza de una variable aleatoria
La varianza de una variable aleatoria es: E[(X − E[X])2]
Caso discreto:
V (X) = ΣX[x − E(X)]2
Pr(X) (21)
Caso continuo, aunque en ocasiones ayuda V (X) = E(X2) − E(X)2:
V (X) =
+∞
−∞
[x − E(X)]2
f(x)dx (22)
57. 57
Propiedades de la varianza
var(k) = 0
var(axi + b) = a2var(xi)
Dado un par de variables independientes
var(y + x) = var(y) + var(x)
Dado un par de variables correlacionadas
var(y + x) = var(y) + var(x) + 2cov(x, y)
58. 58
Momentos de una variable aleatoria discreta
[Ejercicio 1.4.] Tomado de Wackerly, et al. (2010) (ejercicio 3.12). Sea
X una variable aleatoria que asume los valores xi = {1, 2, 3, 4}, con
funci´on de probabilidad Pr(x) = {0.4, 0.3, 0.2, 0.1}, encuentre:
1 E(X)
2 E(1/X)
3 E(X2)
4 E(X2 − 1)
5 V (X), considere (V (X) = E(X2) − E(X)2)
59. 59
Momentos de una variable aleatoria continua
[Ejercicio 1.5] Sea X una variable aleatoria con funci´on de densidad
f(x) = 1
20 con rango 0 ≤ x ≤ 20.
1 Calcule la E[X] R=10.
2 Calcule la V [X].
60. 60
Esperanza condicional y esperanzas iteradas
La esperanza condicional E[X|Y = y] es una variable aleatoria,
porque es funci´on de x, que expresa la esperanza de una variable
condicionada a que otra variable asuma un valor determinado.
Anteriormente, vimos que si dos variables son independientes
E[X|Y = y] = E[Y ].
La ley de esperanzas iteradas es una propiedad interesante de
las esperanzas condicionales que indica que el promedio de
esperanzas condicionales es igual a la esperanza incondicional de
una variable.
E[E[Y |X]] = E[Y ] (23)
63. 63
Vectores aleatorios
Dado un espacio muestral (Ω), diremos que X=(X1, X2, ..., Xk) es
un vector aleatorio de dimensi´on k, si cada uno de sus
componentes (X1, X2, ..., Xk) es una variable aleatoria.
La distribuci´on de probabilidad que describe el comportamiento
simult´aneo de todas las variables que componen el vector aleatorio,
se llama funci´on de probabilidad conjunta (Casco, 2009).
F(x, ..., y) = Prob(X < x, ..., Y < y) (24)
64. 64
Distribuci´on conjunta
En el caso bidimensional, de una funci´on de probabilidad conjunta
con variables aleatorias discretas:
Σ
x
Σ
y
P(X = x, Y = y) = 1 (25)
En el caso bidimensional, de una funci´on de probabilidad conjunta
con variables aleatorias continuas:
x y
fY,X(x, y)dydx = 1 (26)
65. 65
Marginales
La distribuci´on marginal intenta responder a la pregunta de si
conocida la funci´on de densidad conjunta de dos o m´as variables
aleatorias, podemos conocer la distribuci´on individual de cada una
de las variables que la componen.
Sean X e Y, dos variables aleatorias con funci´on de probabilidad
conjunta f(x, y), sus marginales vienen definidas a partir de las
siguientes ecuaciones:
En el caso discreto:
P(X) = Σ
todo y
P(x, y) y P(Y ) = Σ
todo x
P(x, y) (27)
En el caso continuo:
f(x) =
Ry
f(x, y)dy y f(y) =
Rx
f(x, y)dx (28)
66. 66
Distribuci´on conjunta y marginales (discretas)
Ejemplo tomado de Hill, C; Griffinths, W and Lim, G. (2011, p.23)
y/x 1 2 3 4 f(y)
0 0 0.1 0.2 0.3 0.6
1 0.1 0.1 0.1 0.1 0.4
f(x) 0.1 0.2 0.3 0.4
La distribuci´on conjunta asigna a cada par de valores posibles
de X e Y , una probabilidad.
Las marginales est´an representadas en la suma (total) de filas y
columnas.
En caso de independencia la funci´on de distribuci´on conjunta es
el producto de las marginales (f(xy) = fxy(x)fxy(y)) −recordar el
test chi-cuadrado. χ2−.
67. 67
Distribuci´on conjunta y marginales (continuas)
[Ejercicio 1.7.] Tomado de Juan Francisco. Sea (X,Y), una variable bidimensional,
con funci´on de densidad:
f(x, y) =
xy si 0 ≤ x ≤ 1, 0 ≤ y ≤ 2
0 en otros casos
(29)
1 Exprese en forma de integral la funci´on de distribuci´on conjunta.
2 Obtenga las marginales f(x) y f(y)
3 Calcule Pr(y < 1)
4 Calcule Pr(y < 1, x < 0,5)
68. 68
Distribuciones condicionadas
Caso discreto. Sean X e Y dos variables aleatorias discretas, con
funci´on de probabilidad conjunta f(x, y), la funci´on de
probabilidad de Y condicionada a X = x0:
P(Y |X = x0) =
P(X = x0, Y = y)
P(X = x0)
(30)
Usando el ejemplo de la tabla anterior:
Pr(X = 2|y = 1) = Pr(X=2,Y =1)
P(Y =1) = 0,1
0,4 = 0,25
69. 69
Matriz varianza covarianza
La covarianza es una medida de la relaci´on lineal entre dos variables:
Cov(X, Y ) = E[(X − µx) (X − µy)] (31)
La matriz varianza covarianzas viene dada por:
ΣX =
V ar[X1] Cov(X1, X2) . . . Cov(X1, Xk)
Cov(X2, X1) V ar[X2] . . . Cov(X2, Xk)
...
...
...
...
Cov(Xk, X1) Cov(Xk, X2) . . . V ar[Xk]
(32)
70. 70
Matriz varianza covarianza
[Ejercicio 1.8.] Dado los vectores x = [1, 4, 8, 3] y y = [3, 6, 7, 5].
1 Obtenga la matriz varianzas-covarianzas.
2 Obtenga la matriz de correlaciones.
71. 71
Matriz varianza covarianza
[Ejercicio 1.9.] Tomado de Juan Francisco. Sea (X,Y), una variable bidimensional,
con funci´on de densidad:
f(x, y) =
xy si 0 ≤ x ≤ 1, 0 ≤ y ≤ 2
0 en otros casos
(33)
1 Obtenga la matriz varianzas-covarianzas (Cov(X, Y ) = E[XY ] − E[X]E[Y ]).
2 Obtenga la matriz de correlaciones.
73. 73
Muestras aleatorias (n)
Sea X = (x1, x2, ..., xn) un vector aleatorio de longitud n, se dice
que es una muestra aleatoria (Rau, 2011; Lobato, 2016) cuando:
1 xi son mutuamente excluyentes (Pr(X = xi|X = xj) = 0).
2 Tienen distribuciones marginales id´enticas.
Usualmente se dice son variables aleatorias independientes e
id´enticamente distribuidas (i.i.d.).
74. 74
Muestras aleatorias (n)
Cualquier funci´on de X es un estad´ıstico (Y = T(x1, x2, ..., xn)),
cuando estos ayudan aprender sobre los par´ametros
poblacionales del modelo se llaman estimadores, que deseamos:
Insesgadez E[ˆθn] = θ. La distribuci´on del estimador ˆθn esta centrada
alrededor de θ (Error Cuadratico Medio ECM(ˆθn) = E(ˆθn − θ)
2
).
Eficiencia (varianza m´ınima).
Consistencia l´ımn→∞ P(|ˆθ − θ| > ) = 0.
Inferencia es establecer herramientas, basadas en la muestra, que
nos permitan aprender sobre los par´ametros poblacionales (Lobato,
2016).
76. 76
Referencias I
1 C´arcamo, Javier (n.d). Probabilidad y Estad´ıstica. Departamento de
Matem´aticas. Universidad Aut´onoma de Madrid. Disponible en:
https://www.uam.es/personal_pdi/ciencias/gallardo/Tema-PREST-2.pdf
2 Casco, Ignacio (2009). Vectores aleatorios. Universidad Carlos III de Madrid.
3 Casella, G and Berger, R. (1986). Statistical Inference. 2nd Edition.
4 Converse, Jean M. y Stanley Presser (1986). Survey Questions: Handcrafting
the Standardized Questionnaire. Beverly Hills, California: Sage Publications.
5 Garc´ıa, Donato (2013). Inferencia estad´ıstica. Universidad de Valencia. Curso
de estad´ıstica oto˜no 2013.
6 Greene, W. (2008). Econometric Analysis, Prentice Hall, 6th. Edici´on.
7 Gujarati, Danomar (2008). Introducci´on a la Econometr´ıa. 4ta. Ed.
8 Hill, C; Griffinths, W and Lim, G. (2011). Principle of Econometric. United
States of America. Foruth edition.
9 Pugachev, S. (2010). Introducci´on a la teor´ıa de probabilidades. Mir Mosc´u.
10 Ram´ırez, F. (2009). Notas de clases del diplomado en Econometr´ıa Aplicada,
2012. Universidad Aut´onoma de Santo Domingo.
77. 77
Referencias II
11 Wackerly, Dennis; Mendenhal, William and Scheaffer, Richard (2010).
Estad´ıstica matem´atica con aplicaciones. Cengage Learning Editores. M´exico,
D.F.
12 Wooldridge, J. (2009). Introducci´on a la Econometr´ıa: un enfoque moderno.
4ta. ed. Michigan State University. Cengage Learning