SlideShare una empresa de Scribd logo
1 de 195
Descargar para leer sin conexión
Técnicas cuantitativas de evaluación de
políticas públicas
Lima, 9 de septiembre de 2013
Técnicas cuantitativas de evaluación de
políticas públicas
Lima, 9 de septiembre de 2013
• «Es un error capital el teorizar antes de
poseer datos. Insensiblemente, uno
comienza a deformar los hechos para
hacerlos encajar en las teorías en lugar de
encajar las teorías en los hechos».
La evaluación
• Definición de evaluación
• Noción de lógica de la intervención
Reconstrucción de la lógica de la intervención
Utilidad de la lógica de la intervención
• Noción de efecto
• Noción de impacto
5
Definición de evaluación
• La evaluación es el “proceso sistemático de observación, medida, análisis e
interpretación encaminado al conocimiento de una intervención pública,
sea esta una norma, programa, plan o política, para alcanzar un juicio
valorativo basado en evidencias y criterios referenciales, respecto de su
diseño, puesta en práctica, efectos, resultados e impactos”, de acuerdo con
la definición que nos aporta la Agencia de Evaluación y Calidad española.
• Atribución: imputación de un vínculo causal entre cambios observados (o
que se espera observar) y una intervención específica
6
Noción de lógica de la intervención
• Se trata del conjunto de actividades puestas en práctica, de los
efectos esperados (productos, resultados e impactos) así como
de los supuestos que explican cómo las actividades van a
conducir a los efectos en el contexto de la intervención.
• Con frecuencia, la lógica de una intervención evoluciona a
través del tiempo. Llegado el caso, ello justifica la
reconstrucción de varias lógicas correspondientes a períodos
sucesivos.
7
Reconstrucción de la lógica de la intervención
• Recabar los documentos oficiales de la intervención.
• Identificar las principales actividades.
• Identificar los objetivos.
• Traducir los objetivos para que adopten la forma de resultados e impactos
esperados.
• Conectar las actividades con los impactos esperados mediante relaciones
causa-efecto lógicas.
• Debatir la lógica con expertos externos y con gestores internos.
8
Utilidad de la lógica de la intervención
• Ayudar a aclarar los objetivos y a traducirlos en una jerarquía
de efectos esperados de tal manera que ello permita su
evaluación.
• Sugerir preguntas de evaluación sobre dichos efectos.
• Ayudar a evaluar la coherencia interna de la intervención.
9
Noción de efecto
• Efecto es todo comportamiento o acontecimiento del que puede
razonablemente decirse que ha sido influido por algún aspecto del
programa o proyecto.
• Efecto  Objetivo. Los objetivos constituyen el estado deseado que se
pretende alcanzar con la realización del proyecto, se ubican temporalmente
antes de su realización y son fijados por sus diseñadores. En cambio, los
efectos constituyen resultados de las acciones llevadas a cabo por el
proyecto y se verifican durante o después del mismo.
10
Noción de impacto
• El impacto se define como un resultado de los efectos de un
proyecto. La determinación del impacto exige el
establecimiento de objetivos operacionales y de un modelo
causal que permita vincular el proyecto con los efectos
resultantes de su implementación.
• El impacto expresa el grado de cumplimiento de los objetivos
respecto a la población-meta del proyecto.
11
• «Watson, no hay que suponer si no tenemos
evidencia».
Diseño de experimentos
• ¿Qué es el diseño de experimentos?
• Preguntas que formulan los experimentos
• Causas, efectos y relaciones causales
• Cuasiexperimentos
• Validez de las conclusiones
13
Diseño de experimentos
• Diseñar estadísticamente un experimento es realizar una
prueba para poder caracterizar las variables explicativas de
mayor influencia a través de los efectos en varias variables
respuesta, de forma que se minimice el efecto de las variables
no controlables (covariables) y se estabilice y minimice la
variabilidad de las respuestas.
14
Preguntas que formulan los experimentos
• Descriptivas: recuento de los valores concretos de ciertas
variables en un conjunto de observaciones.
• Relacionales: ¿existen relaciones entre fenómenos, y en qué
sentido y magnitud se da la covariación?
• Causales: ¿una o más variables independientes tienen efectos
sobre una o más variables dependientes? ¿Cómo se obran estos
efectos?
15
Causas, efectos y relaciones causales
• En los experimentos:
Las supuestas causas se manipulan para observar los efectos.
La variabilidad en la causa se relaciona con la variación en el efecto.
El diseño y el conocimiento acumulado se usan para identificar y
descartar explicaciones alternativas plausibles.
16
Causas manipulables y no manipulables
• Los experimentos implican agentes casuales que pueden ser
manipulados por el investigador.
• Las causas no manipulables (origen étnico, desastres naturales)
no pueden ser causas en los experimentos ya que no están
sujetos a la manipulación del investigador.
17
Causas: descripción y explicación
• El primer paso consiste en identificar que existe una relación
causal entre A y B (molar causation): relación general entre
un tratamiento y sus efectos.
• El segundo paso es explicar cómo A causa B (molecular
causation): llegar a saber con detalle qué aspectos del
tratamiento son responsables de qué aspectos de un efecto.
18
Cuasiexperimentos
• El término cuasiexperimento se refiere a diseños de
investigación experimentales en los cuales los sujetos o grupos
de sujetos de estudio no están asignados aleatoriamente.
• Los cuasiexperimentos son más vulnerables a las amenazas a
la validez que las pruebas aleatorias.
19
Cuasiexperimentos
• Cuando se diseñan, controlan y analizan apropiadamente, los
cuasiexperimentos pueden ofrecer una evidencia casi tan fuerte del impacto
del programa como la de las pruebas aleatorias.
• El cuasiexperimento es más vulnerable a los sesgos de selección: el grupo
de tratamiento puede diferir del grupo control en características no
observadas correlacionadas con los resultados, lo que distorsiona el
impacto: problema de la heterogeneidad no observada.
20
Cuasiexperimentos
Muestra
Universo
Población
objetivo
Espacio
de probabilidad
Estadística
Técnicas de evaluación de impacto: el problema del contrafactual
X: variables exógenas
Z: variables instrumentales
Y, W: variables endógenas
Y: resultados
W: impactos
t0: inicio del tratamiento
t1: corto plazo
t2: medio o largo plazo
X
Z
Tratamiento
No tratamiento (grupo de control)
Y W
E N T O R N O
Causas externas
Análisis de datos
Econometría
t0 t1 t2
Ejercicio: el programa PIPE del ICEX
• Lea el folleto informativo sobre el programa PIPE.
• Reconstruya la lógica de la intervención del programa.
• Esboce el diseño experimental para evaluar el impacto del programa PIPE.
• En su opinión, ¿se trata de un experimento o de un cuasiexperimento?
 Fichero: Folleto_PIPE.pdf
 Tiempo: 15 minutos
 Ejercicio en grupo
22
Validez de las conclusiones
• Un experimento o cuasiexperimento genera conclusiones que,
bien validadas e interpretadas, pueden transformarse en
conocimiento.
• La validez de una conclusión es su grado de fidelidad y de
corrección. Hay varios tipos de validez: estadística, interna,
estructural y externa. Incrementar la validez de un tipo implica
a menudo reducir la validez de otros tipos.
23
Validez estadística
• La validez estadística de las conclusiones se centra en la
covariación entre el tratamiento (causa) y el resultado (efecto).
¿Ocurren A y B de verdad a la vez?
¿Cuál es la magnitud de la covarianza?
¿Es significativa la conclusión?
• La importancia real se halla en estimar el tamaño del efecto en
relación a los intervalos de confianza más que en demostrar la
significación estadística de la hipótesis nula (p-valor).
24
Validez interna
• La validez interna de las conclusiones se centra en si la covarianza
observada entre A y B refleja una relación causal.
 ¿Ha sido de verdad A la causa de B o ha sido otro factor C el responsable?
 Contrafactual: asignación aleatoria al grupo de tratamiento y al grupo de
control.
• La importancia reside en probar que la relación causal se debe en exclusiva
a la manipulación o la variación de las variables medidas. El mayor riesgo
es el sesgo de selección, presente por lo general en cuasiexperimentos.
25
Validez estructural
• La validez estructural de las conclusiones se centra en las estructuras de
orden superior que están representados por aspectos o elementos
particulares presentes en la muestra, es decir: entre el concepto teórico y la
medida empírica que se usa.
 ¿Hemos medido A en realidad u otro A’ en su lugar?
 ¿Cómo se mide el carácter emprendedor de una empresa?
 Conceptualización clara: se define un concepto o variable de forma que pueda
ser medido o que pueda dejar constancia de haber sufrido un cambio (efecto).
26
Validez externa
• La validez externa de las conclusiones se centra en si una
relación causa-efecto sigue siendo cierta aunque varíen los
individuos, el entorno, los tratamientos y los resultados.
¿Hay otras cosas parecidas a A que provoquen cosas como B?
Diseño de muestreo: factor de elevación a población
Generalización por extrapolación
27
Bibliografía
• HM Treasury Magenta book
• https://www.gov.uk/government/publications/the-magenta-book
• Impact Evaluation in Practice
• http://issuu.com/world.bank.publications/docs/9780821385418
• Glosario de evaluación de la OECD
• http://www.oecd.org/findDocument/0,2350,en_2649_34435_1_119678_1_1_1,
00.html
• Páginas de evaluación de las Relaciones Exteriores de la Unión Europea
• http://ec.europa.eu/europeaid/how/evaluation/index_es.htm
28
Técnicas cuantitativas de evaluación de
políticas públicas
Lima, 9 de septiembre de 2013
• «Cuando se excluye lo imposible, lo que
queda, por improbable que sea, debe ser la
verdad».
Nociones de probabilidad
• Población y muestra
• Espacio de probabilidad
• Variable aleatoria discreta y continua
• Esperanza matemática y momentos de una variable aleatoria
• Vectores aleatorios
31
Población y muestra
• La población objetivo es el grupo de todos los individuos del que el
investigador está interesado en extraer conclusiones válidas mediante
extrapolación
• La población o universo es la colección completa, finita o infinita, de
individuos distintos y perfectamente identificables sin ambigüedad que
podemos estudiar y de la que podemos obtener datos.
• Una muestra es un grupo de individuos seleccionados de la población y
representativo de esta.
32
Población y muestra
• Ejemplo 1: Estudio de salud infantil
• Universo: Todos los niños nacidos en el Reino Unido en 1980.
• Muestra: Todos los niños nacidos el 7 de mayo en cualquiera
de los años del período.
• Población objetivo: Todos los niños del mundo desarrollado.
33
Población y muestra
• Ejemplo 2: Programa de becas para pymes
• Universo: las empresas beneficiarias del programa.
• Muestra: una muestra aleatoria simple del universo.
• Población objetivo: todas las pymes del país.
34
Espacio de probabilidad
• Un fenómeno o experimento aleatorio es un fenómeno que cumple las
siguientes propiedades:
 Las mismas condiciones iniciales pueden dar lugar a diferentes resultados.
 Todos los resultados posibles se conocen de antemano.
 No se puede predecir el resultado de cada experiencia particular.
 Puede repetirse en las mismas condiciones de forma indefinida.
 Si se repite bajo condiciones idénticas un número determinado de veces n, y
anotamos el número de veces que aparecerá cada resultado ni , el cociente ni/n
tiende a estabilizarse a un valor fijo conforme aumenta n.
i ,  lím
n
ni
n
 pi 35
Espacio de probabilidad
• Dado un experimento aleatorio, llamaremos espacio muestral
 al conjunto de todos los resultados posibles de dicho
experimento aleatorio. Los elementos de  se denominan
sucesos elementales.
• Asociados a un mismo experimento aleatorio pueden
considerarse diferentes espacios muestrales.
36
Espacio de probabilidad
• Sea A una colección no vacía de subconjuntos del espacio
muestral . Llamaremos suceso a un conjunto A de A .
Diremos que se ha presentado el suceso A al realizar el
experimento si el resultado de dicho experimento es algún
punto   A.
37
• Dado el espacio muestral  , una clase A  P () tiene estructura de -
álgebra si y solo si
   A
  A  A es A*  A , donde A* es el complementario de A.
  toda sucesión  A es A
La -álgebra es cerrada por uniones numerables, intersecciones numerables,
diferencias, complementarios y paso al límite para sucesiones monótonas.
Espacio de probabilidad

An
n1



An nN
38
Espacio de probabilidad
• Al par { , A }, donde A  P () es una -álgebra de
subconjuntos de , se le denomina espacio medible o
probabilizable. A los elementos de A se les denomina
conjuntos medibles.
39
Espacio de probabilidad
• Axiomática de Kolmogorov
• Sea {  , A } un espacio probabilizable. Definimos una función de
conjunto P, que va ser una medida normada sobre A , mediante una
aplicación de A en R que cumple los siguientes axiomas:
  A  A es P(A) ≥ 0
 P()=1
  toda sucesión  A tal que Ai  Aj =  ,  i  j , es
P An
n1





 P An 
n1



An nN
40
Espacio de probabilidad
• El trío {  , A , P} , donde  es un espacio muestral, A una
-álgebra de sucesos sobre  y P una medida de probabilidad
sobre A recibe el nombre de espacio probabilístico o espacio
de probabilidades. A los elementos de A se les llama sucesos.
41
Variable aleatoria
• Sea {  , A , P} un espacio probabilístico y sea {R, B} el
espacio probabilizable formado por la recta real R y la -
álgebra de conjuntos de Borel B = B(R).
• Una aplicación X :   R es una variable aleatoria (v.a.) si y
solo si X-1(B)  A , B  B.
42
Variable aleatoria
• La variable aleatoria X induce una medida de probabilidad PX
sobre {R, B} que lo convierte en el espacio probabilístico {R,
B, PX}, donde:

PX B  P X1
B   P A , B  B, donde X A  B
43
Variable aleatoria
• De forma intuitiva, una variable aleatoria es una función real
definida sobre el espacio muestral  que conserva la
probabilidad asociada al experimento aleatorio.
• Diremos que se ha definido una variable aleatoria o que se ha
construido un modelo de distribución de probabilidad cuando
se especifican los posibles valores de la variable con sus
probabilidades respectivas.
44
Variable aleatoria discreta
• Diremos que una variable aleatoria X es discreta cuando toma
un número de valores finito o infinito numerable, es decir: X
puede tomar cualquiera de los valores x = 1, 2, 3, 4, ...
• Ejemplos: el número de piezas defectuosas que aparecen en un
proceso de fabricación, el número de contactos que ha hecho
una empresa en una feria, etc.
45
Variable aleatoria discreta
• La función dada por f(x) = P(X = x) (la probabilidad de que la
variable aleatoria X tome el valor x ), se llama distribución de
probabilidad, función de probabilidad o función de cuantía de
una variable aleatoria discreta. f(x) debe satisfacer las
siguientes condiciones:


f x 1, x  dom X 
f x 
xdom X 
 1
46
Variable aleatoria discreta
• Si X es una variable aleatoria discreta, la función dada por:
• donde f(t) es el valor de la distribución de probabilidad de X
en t, es llamada función de distribución acumulativa de la
variable aleatoria X.

F x  P X  x  f t 
tx
 ,   x  
47
Variable aleatoria discreta
Función de distribución
Función de cuantía
48
Variable aleatoria continua
• Una función f : R  R se llama función de densidad sobre R
si cumple las siguientes condiciones:

f admite a lo sumo un número finito de discontinuidades sobre cada
intervalo finito de R.


f x  0 , x  R
f x dx

 1
49
Variable aleatoria continua
• Una variable aleatoria se dice continua si su función de
distribución F(x) puede representarse para cada x  R por:
• donde f(t) es una función de densidad sobre R. A esta función
se la llama función de densidad de la variable aleatoria
continua X.

F x  f t dt
x
 ,   x  
50
Variable aleatoria continua
• Una variable aleatoria es continua cuando puede tomar
cualquier valor en un intervalo. Por ello, no es posible asignar
una probabilidad a cada uno de los infinitos posibles valores
de la variable aleatoria, sino que se asigna a intervalos o
rangos de valores.
• Ejemplos: longitud de las piezas defectuosas que aparecen en
un proceso de fabricación, la cifra de exportación de una
empresa, la renta anual de las personas de una población, etc.
51
Variable aleatoria continua
• El histograma de una variable aleatoria continua depende del
número de observaciones que tomemos. Conforme aumentan
las observaciones y se hacen más finos los intervalos, el
histograma tenderá a una curva suave y diferenciable.
• La derivada en cada punto a esta función límite nos dará la
función de densidad de la variable aleatoria.
52
Variable aleatoria continua
• La distribución de probabilidad de la variable aleatoria X se
describe mediante una curva de densidad. La probabilidad de
cualquier suceso es el área por debajo de la curva de densidad
y a lo largo de los valores de X que definen el suceso.
53
Aproximación a la distribución normal
h=1,6 h=1,0
0
0,2
0,4
0,6
0,8
1
-4 -2,4 -0,8 0,8 2,4 4
X
Función de densidad f(x) Función de distribución F(x)
0
0,2
0,4
0,6
0,8
1
-4 -2 0 2 4
X
Función de densidad f(x) Función de distribución F(x)
54
Aproximación a la distribución normal
h=0,8 h=0,4
0
0,2
0,4
0,6
0,8
1
-4 -0,8 2,4
X
Función de densidad f(x) Función de distribución F(x)
0
0,2
0,4
0,6
0,8
1
-4 -2 0 2 4
X
Función de densidad f(x) Función de distribución F(x)
55
Aproximación a la distribución normal
h=0,1
0
0,2
0,4
0,6
0,8
1
-4 -3,5 -3 -2,5 -2 -1,5 -1 -0,5 0 0,5 1 1,5 2 2,5 3 3,5 4
X
Función de densidad f(x) Función de distribución F(x)
56
Diferencia entre v.a. y distribución de
probabilidad
• Una variable aleatoria representa el resultado particular de un
experimento y una distribución de probabilidad representa
todos los posibles resultados que pueden suceder en el
experimento así como la correspondiente probabilidad.
• El valor obtenido en una variable aleatoria describe el pasado
mientras que la distribución de probabilidad describe cuán
probable es que suceda dicho resultado en el futuro.
57
Esperanza matemática
• Sea X una v.a. Llamaremos esperanza matemática de la v.a. a:
• siendo  la función medible identidad en {R, B}.
            
 RR
xdFxxdPxdPXX XX E
58
Esperanza matemática
• Si X es una v.a. discreta con función de cuantía pX y que puede
tomar valores en un conjunto numerable {xj}  R:
• Si X es una v.a. continua con función de densidad f:
   



1
E
j
jXj xpxX
     dxxfxX X
R
E
59
Momentos
• Sea g : R  R una función real medible y X una v.a. Entonces
Y=g(X) es también una variable aleatoria.
• Se llama momento de orden k de la v.a. X a la esperanza de
g(X) = Xk. Se representa por k.
k = E[Xk]
• Se llama momento respecto a la media de orden k de la v.a. X a
la esperanza de g(X) = (X — 1)k. Se representa por k.
k = E[(X — 1)k] = E[(X — )k]
60
Momentos destacados
• El momento de orden 1 recibe el nombre de media y se suele
representar normalmente como .
 = 1 = E[X]
• El momento respecto a la media de orden 2 recibe el nombre
de varianza y se representa por  2 o por V(X)
 2 = 2 = E[(X — 1)2] = E[(X — )2]
• La raíz cuadrada positiva de la varianza recibe el nombre de
desviación típica y se representa por  o por D[X].
61
Vectores aleatorios
• Sea {  , A , P} un espacio probabilístico y sea {Rn, Bn} el
espacio probabilizable formado por el espacio vectorial real Rn
y la -álgebra de conjuntos de Borel Bn = B(Rn).
• Una aplicación vectorial X :   Rn es un vector aleatorio o
una variable aleatoria n-dimensional si y solo si X-1(B)  A ,
 B  Bn.
62
Vectores aleatorios
• El vector aleatorio X induce una medida de probabilidad PX
sobre {Rn, Bn} que lo convierte en el espacio probabilístico
{Rn, Bn, PX}, donde:
• X=(X1, X2,... , Xn) es una variable aleatoria n-dimensional si y
solo si las Xi :   Rn son variables aleatorias
unidimensionales.
         BABAPBPBP  
XXX donde,,1
nB
63
Ejercicio: los resultados del programa PIPE
del ICEX como variables aleatorias
• Considere los resultados establecidos del programa PIPE.
• Describa dichos resultados como variable aleatoria. En particular, indique:
 El espacio muestral
 ¿Es la variable aleatoria unidimensional o multidimensional?
 ¿Es la variable aleatoria discreta o continua?
 ¿Qué modelo de distribución de probabilidad cree que define dicha variable
aleatoria?
 Tiempo: 15 minutos
 Ejercicio en grupo
64
Bibliografía
• Lecciones de cálculo de probabilidades
• Autores: Vicente Quesada y Alfonso García
• Ediciones Díaz de Santos, 1988
• Consultable en Google Books
65
Técnicas cuantitativas de evaluación de
políticas públicas
Lima, 10 de septiembre de 2013
• «Nada resulta más engañoso que un hecho
evidente».
Nociones de estadística
• Teorema central del límite
• Distribuciones más comunes en estadística
• Inferencia estadística
Muestra aleatoria
Estadísticos
Momentos muestrales
Intervalos y regiones de confianza
Contrastes de hipótesis
Tests de diferencias de medias
68
Teorema central del límite
• No existe un único Teorema Central del Límite, sino un
conjunto de teoremas. Todos ellos dan condiciones para que
una sucesión de variables aleatorias tienda a distribuirse según
una distribución normal.
69
Teorema central del límite
• Sea {Xn}n  N una sucesión de variables aleatorias definidas sobre el mismo
espacio probabilístico {  , A , P} , con medias y varianzas finitas.
Diremos que la sucesión {Xn}n  N obedece al teorema central del límite y lo
denotaremos Xn  LN , si y solo si la sucesión {Sn}n  N , donde
• converge en ley hacia una distribución normal. Tipificando:

Sn  Xi
i1
n
 , n  N
 
 
 1,0
D
E
N
S
SS
ZLNX
n
nn
nn 

 
70
Teorema central del límite
• Teorema de Levy-Lindeberg
• Sea {Xn}n  N una sucesión de variables aleatorias independientes e
idénticamente distribuidas, con media y varianza finitas. Entonces Xn  LN.
• Generalización vectorial del Teorema de Levy-Lindeberg
• Sea {Xn}n  N una sucesión de vectores aleatorios independientes e
idénticamente distribuidos, con vector de medias finitas  y matriz de
varianzas-covarianzas finitas  (definida positiva). Entonces:
 



,01
N
n
n
Y
n
i
i
n

X
71
La distribución normal
• Una variable aleatoria X se dice que tiene una distribución normal o de
Gauss-Laplace si su función de densidad es de la forma:
• Considerada por primera vez en 1753, se le dio el nombre de normal
porque se creyó que, en la práctica, la mayoría de las distribuciones eran de
este tipo y el resto, anormales. La distribución normal se denota como
N(0,1).

f x 
1
2
e

x2
2
,   x  
72
La distribución normal
• Una variable aleatoria X se dice que tiene una distribución normal con
parámetros  y  , y se denota como N(,), si su función de densidad es
de la forma:
• Si X tiene distribución N(, ), la variable

f x 
1
 2
e

x 2
2 2
,   x  ,     ,  0
Y 
X 

 N(0,1)
73
La distribución normal
• Sus momentos son:
• En particular, los momentos de la distribución N(0,1) son:
      2
,V,   NN ,E
      11,0V01,0  NN ,E
74
Función de densidad de la distribución N(0,)
para diferentes valores de 
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
-20 -19 -18 -17 -16 -15 -14 -13 -12 -11 -10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
N(0, 1)
N(0, 5)
N(0, 10)
N(0, 25)
0
0.2
0.4
0.6
0.8
1
1.2
-20 -19 -18 -17 -16 -15 -14 -13 -12 -11 -10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
N(0, 1)
N(0, 5)
N(0, 10)
N(0, 25)
Función de distribución de la distribución
N(0,) para diferentes valores de 
La distribución normal
En la distribución N(,) se cumple:

P    x      0.6827
P   2  x    2  0.9545
P   3  x    3  0.9973
77
Distribución  2 (ji-cuadrado) de Pearson
• Si X1, X2, ... , Xn son variables aleatorias independientesy con distribución
N(0,1), la distribución de la variable
• se denomina  2 (ji-cuadrado) de Pearson con n grados de libertad.

Xi
2
i1
n
  n
2
78
Distribución  2 (ji-cuadrado) de Pearson
• Sus momentos son:
• La función de densidad de la distribución n
2 es:

f y 
1
2n 2
 n 2 
y
n
2
1
ey 2
, y  0
    n,nE 2V 22
 nn 
79
Función de densidad de la distribución  2
para diferentes grados de libertad

5
2

10
2

15
2

25
2
Función de distribución de la distribución  2
para diferentes grados de libertad

5
2

10
2

15
2

25
2
Distribución t de Student
• Si X, X1, X2, ... , Xn son variables aleatorias independientes y con
distribución N(0,), la distribución de la variable
• se denomina distribución t de Student n grados de libertad.

X
1
n
Xi
2
i1
n

 tn
82
Distribución t de Student
• Sus momentos son:
• La función de densidad de la distribución tn es
f t 
1
n

n 1
2







n
2






1
t2
n







n1
2
, t  R
    2,
2
V0 

 n
n
n
tt nn ,E
Si  =1, tn
d
 N 0,1 
83
Función de densidad de la distribución t para
diferentes grados de libertad

t10
t1000
t1000000
N(0,1)
Función de distribución de la distribución t
para diferentes grados de libertad

t10
t1000
t1000000
N(0,1)
Distribución F de Snedecor
• Si X1, X2, ... , Xn, Y1, Y2, ... , Ym son variables aleatorias independientes y
con distribución N(0,), la distribución de la variable
• se denomina distribución F de Snedecor con n y m grados de libertad.

1
n
Xi
2
i1
n

1
m
Yi
2
i1
m

 Fn,m
86
Distribución F de Snedecor
• Sus momentos son:
• La función de densidad de la distribución Fn,m es

f t 

n  m
2







n
2






m
2






n
m






n
2
t n2  2
1
n
m
t







nm
2
, t  0
     
   
4,
42
22
V;2
2 2
2
,, 




 m
mmn
mnm
Fm
m
m
F mnmn ,E
87
Función de densidad de la distribución F para
diferentes grados de libertad

F10,10
F10,20

F20,10

F100,100
Función de distribución de la distribución F
para diferentes grados de libertad

F10,10

F10,20

F20,10

F100,100
La distribución normal n-dimensional
• Un vector aleatorio X se dice que tiene una distribución normal n-
dimensional con vector de medias  y matriz de varianzas-covarianzas  , y
se denota como N(,  ), si su función de densidad es de la forma:
• Los momentos del vector aleatorio son, efectivamente:
   
 
   
0,,,
2
,...,,
1'
2
1
2
21
21 



 
nn
xx
RRxx 

exxxff nn

     XX V,E 
90
La distribución normal n-dimensional
• Si el vector aleatorio X = (X1, X2, ..., Xn) tiene una distribución normal n-
dimensional N(,), siendo
• entonces cada Xi sigue una distribución normal unidimensional N(i ,ii ). Solo
serán independientes entre sí si  es diagonal.


































nnin
iniii
ni
n
i













11
1
11111
,
91
Inferencia estadística
• La estadística matemática o inferencia estadística tiene como
finalidad obtener información acerca de la ley de probabilidad
de un fenómeno aleatorio a través de una observación no
exhaustiva del mismo.
• Para ello, es necesario solo disponer de un conjunto finito de
observaciones del fenómeno aleatorio considerado.
92
Inferencia estadística
• Si el objetivo es obtener un pronóstico numérico único de un determinado
parámetro de la distribución poblacional, hablamos de problemas de
estimación puntual.
• Si el objetivo es obtener un margen de variación para un determinado
parámetro de la distribución poblacional, hablamos de problemas de
estimación por intervalos.
• Si el objetivo es corroborar o invalidar una determinada afirmación acerca
de la distribución poblacional, hablamos de problemas de contraste de
hipótesis.
93
Inferencia estadística
• La distribución desconocida F de la variable aleatoria involucrada recibe el nombre
de distribución teórica o distribución de la población.
• El mayor o menor grado de desconocimiento acerca de la distribución teórica F se
refleja mediante la familia F de distribuciones candidatas a ser la distribución de la
población.
• Cuando F está compuesta por distribuciones de forma funcional fija y conocida
dependientes de un parámetro  que varía dentro de un subconjunto   Rk,
denominado espacio paramétrico, hablamos de inferencia estadística paramétrica.
 k
R FF
94
Muestra aleatoria
• Llevando a cabo repeticiones del experimento aleatorio que da lugar a la
variable aleatoria X obtenemos un conjunto de valores numéricos (x1, x2, ...,
xn) que constituyen una muestra aleatoria de X. El número n se denomina
tamaño de la muestra.
• Todo problema de inferencia estadística debe incluir la definición precisa
del procedimiento de muestreo con el que se obtienen las observaciones.
Dicha definición recibe el nombre de diseño del muestreo y permitirá
elevar los resultados del muestro a la población de origen.
95
Muestra aleatoria
• Una muestra aleatoria simple (m.a.s) de tamaño n de una variable aleatoria
X con distribución teórica F son n variables aleatorias (X1, X2, ..., XN)
independientes e idénticamente distribuidas con distribución común F.
• La función de distribución conjunta de una muestra aleatoria simple
correspondiente a una distribución de la población F es:
       nn xFxFxFxxxF  2121 ,...,,
96
Muestra aleatoria
• Además se puede asociar a cada muestra concreta (x1, x2, ..., xn) una distribución
muestral F* con la pretensión de emular la distribución teórica F. F* se define como:
• La distribución muestral es siempre discreta, concentrada en los valores que aparecen en
la muestra y su función de probabilidad es:
• siendo j el número de valores muestrales que coinciden con x.
  R

 x
n
xmuestraleselementosdenúmero
xFn ,*

pn
*
x 
j
n
,  x  R
97
Espacio muestral
• Se llama espacio muestral X al conjunto de muestras posibles que pueden
obtenerse al seleccionar una muestra aleatoria de tamaño determinado de una cierta
población.
• Si la variable aleatoria de la que se extrae la muestra aleatoria de tamaño n es m-
dimensional, X es un subconjunto del espacio euclídeo Rmn, sobre el que podemos
considerar la -álgebra restringida de la - álgebra de Borel Bmn, que
representamos por B. La distribución de la muestra determina una medida de
probabilidad P en el espacio muestral (X ,B ) . Si el problema es paramétrico
suele incluirse en la notación el parámetro y escribimos P .
98
Comportamiento asintótico de la distribución
muestral
• Si elegimos la muestra mediante muestreo aleatorio simple, la función de
distribución muestral Fn*, donde n hace referencia al tamaño de la muestra,
debe considerarse también una variable aleatoria.
• El siguiente teorema prueba que Fn* converge a Fn uniformemente en x,
con probabilidad uno.
99
Comportamiento asintótico de la distribución
muestral
• Teorema de Glivenko-Cantelli:
• Sea una sucesión de variables aleatorias independientes y con distribución
común F. Si Fn* es la función de distribución muestral asociada a la muestra
aleatoria simple (X1, X2, ..., Xn) y
• entonces

n  sup
xR
Fn
*
x  F x 
segurocasilím n
n


P,0

Xi i1

100
Estadísticos
• Se denomina estadístico a cualquier función T del espacio muestral (X ,
B ) en un espacio euclídeo (Rk, Bk) que sea medible respecto a las -
álgebras B y Bk. La dimensión k del espacio euclídeo imagen se denomina
dimensión del estadístico.
101
Estadísticos
• Cuando se considera la muestra (X1, X2, ..., Xn) como una variable aleatoria,
el estadístico T es a su vez una variable aleatoria T(X1, X2, ..., Xn).
• Se denomina distribución en el muestreo de un estadístico T a la
distribución de la variable aleatoria T(X1, X2, ..., Xn): es decir, la
distribución en el muestreo del estadístico T es la medida de probabilidad
que induce la distribución de la muestra, P , mediante la función T: (X ,
B )  (Rk, Bk)
102
Estadísticos
• Parámetro y estadístico son conceptos muy diferentes. Un
parámetro es una constante que describe la población y cuando
se conoce queda determinado el modelo probabilístico,
mientras que un estadístico es una variable aleatoria cuyo valor
no contiene ningún valor o parámetro desconocido pues
depende solamente de las observaciones muestrales, por lo que
sí está sometido a una distribución de probabilidad.
103
Momentos muestrales
• Los momentos muestrales son estadísticos definidos para cada muestra
posible de tamaño n (x1, x2, ..., xn) según la expresión siguiente:
• Tienen particular importancia la media y la varianza muestrales:

ak x 
1
n
xi
k
i1
n
 , bk x 
1
n
xi  x 
k
i1
n

x  a1 x 
1
n
xi
i1
n
 , s2
 b2 x 
1
n
xi  x 
2
i1
n

104
Momentos muestrales
• La distribución en el muestreo de los momentos muestrales considerados
como variables aleatorias no admiten una expresión general, pues dependen
de la forma funcional de la distribución poblacional.
• Sin embargo, los momentos de los momentos muestrales sí admiten
expresiones generales.
105
Momentos muestrales
• Suponiendo que  y  2 (la media y la varianza poblacionales) existen, los
momentos de la media y la varianza muestrales son:
• Es frecuente considerar también la cuasivarianza muestral:
• que cumple:
      22
2
1
,V, 


n
n
s
n
XX

 EE
 





n
i
i XX
n
s
n
n
S
1
222
1
1
1
  22
SE
106
Distribución de la media y la varianza
muestral
• Teorema de Fisher
• Si (X1, X2, ..., Xn) es una muestra aleatoria simple de una población N(,),
entonces s2 y son variables aleatorias independientes y la distribución en
el muestreo de ambas es:







 
n
NX
s
n n




,
2
12
2
X
107
Estadístico de Student
• Teorema de Student
• Si (X1, X2, ..., Xn) es una muestra aleatoria simple de una población N(,),
el estadístico de Student:
• tiene distribución t de Student con n-1 grados de libertad.
11 



 nt
S
X
n
s
X
n

108
Distribución del cociente de cuasivarianzas
muestrales
• Teorema
• Si S1
2 y S2
2 son las cuasivarianzas de sendas muestras aleatorias simples de
tamaño n y m, respectivamente, de dos poblaciones normales de varianzas
1
2 y 2
2, respectivamente, el estadístico
• tiene distribución F de Snedecor con n-1 y m-1 grados de libertad.

U 
S1
2
1
2
S2
2
2
2
 Fn1,m1
109
Distribución del coeficiente de correlación
muestral
• Sea una muestra aleatoria simple de tamaño n de una población normal
bidimensional (X,Y) con matriz de varianzas y covarianzas . Llamamos
coeficiente de correlación muestral a
• es la cuasicovarianza muestral.
  



n
i
ii YYXX
n
S
SS
S
R
1
11
21
11
1
1
donde,
110
Distribución del coeficiente de correlación
muestral
• Si R es el coeficiente de correlación muestral de una
distribución normal bidimensional con coeficiente de
correlación poblacional  = 0, el estadístico
• tiene distribución t de Student con n-2 grados de libertad.

R*
 n 2
R
1 R2
 tn2
111
Intervalos de confianza
• Sea F una familia de distribuciones de forma funcional fija y conocida
dependientes de un parámetro  que varía dentro de un subconjunto   Rk,
• Si disponemos de un estadístico T para estimar , en muchas ocasiones la
distribución en el muestreo de dicho estadístico está muy concentrada en torno
al verdadero valor del parámetro. Esto nos permite conocer los márgenes de
variación previsibles para el parámetro con una probabilidad fijada de
antemano.
 k
R FF
112
Intervalos de confianza
• De una población descrita por una variable aleatoria X cuya distribución
teórica F  F , se considera una muestra aleatoria (X1, X2, ... , Xn) con
distribución P . Sea g( ) :  R una función real y T1  T2 dos
estadísticos unidimensionales tales que
• Entonces, para cualquier muestra concreta (x1, x2, ... , xn), el intervalo
• se denomina intervalo de confianza para g( ) de nivel de confianza 1-.
         ,1,,,, 1211 nn XXTgXXT P

T1 X1, ,Xn ,T2 X1, ,Xn  
113
Intervalos de confianza
• Ejemplo:
• Consideramos una muestra aleatoria de tamaño n (X1, X2, ... , Xn) proveniente de
una población con distribución teórica N(,) con  desconocida pero  conocida.
Sabemos que la media muestral
• Calculamos entonces la media muestral y sabemos que
  955.02222 







n
x
n
xPxxP XX











n
NX

,
114
Intervalos de confianza
• Veámoslo de otro modo. Suponemos conocida la media
poblacional  . Como asintóticamente la media muestral
converge hacia , si construimos un intervalo de la forma
• para el 95.5% de las muestras posibles de tamaño n que
obtengamos, la media muestral estará contenida en dicho
intervalo, es decir: de cada 100 muestras, solo para 4,5 la
media muestral estará fuera del intervalo. En este caso,  =
0.045 y el nivel de confianza es del 95.5%.





n
x
n
x

2,2
Regiones de confianza
• Si     Rk es un parámetro k-dimensional y se cumplen las mimas condiciones
anteriores, si S(x1, x2, ... , xn) es un subconjunto de , dependiente de la muestra (x1,
x2, ... , xn), que verifica
• el subconjunto S(x1, x2, ... , xn), asociado a cualquier muestra concreta, se denomina
región de confianza para el parámetro  de nivel de confianza 1-.
     ,1,,1 nXXS P
116
Importancia de los intervalos y las regiones de
confianza
• Hay dos maneras de construir intervalos y regiones de confianza: el método
de la cantidad pivotal y el método de Neymann.
• Poder construir estas regiones de confianza permite diseñar contrastes de
hipótesis formales, en los que la región de confianza para aceptar la
hipótesis se denomina región de aceptación y los puntos del espacio
muestral que quedan fuera de la región de confianza constituyen la
denominada región crítica.
117
• «Uno debe buscar siempre una posible
alternativa y demostrar que es falsa. Es la
primera regla de la investigación».
Contrastes de hipótesis
• La finalidad del contraste de hipótesis es decidir si una determinada
hipótesis sobre la distribución poblacional estudiada es confirmada o
invalidada estadísticamente a partir de las observaciones contenidas en una
muestra.
• La hipótesis que se quiere confirmar o refutar se denomina hipótesis nula y
se representa por H0. Esta hipótesis nula se contrasta frente a una segunda
hipótesis, llamada hipótesis alternativa y designada por H1, que agrupa
todas aquellas distribuciones poblaciones posibles en las que H0 no es
cierta.
119
Contrastes de hipótesis
• Un test de hipótesis es cualquier partición del espacio muestral X en una región
crítica C, en la cual se rechaza la hipótesis nula, y una región de aceptación Cc, en
la cual la hipótesis nula no es rechazada. Tales tests reciben el calificativo de no
aleatorizados.
• Un test aleatorizado es cualquier función medible
• llamada función crítica del test, tal que  (x1, x2, ... , xn) expresa la probabilidad de
rechazar la hipótesis nula cuando se observa la muestra (x1, x2, ... , xn)  X .
 1,0: X
120
Contrastes de hipótesis
• Rechazar la hipótesis nula cuando es cierta recibe el nombre de error de
tipo I, mientras que no descartarla siendo falsa se denomina error de tipo II.
• Lo idóneo sería conseguir un test que hiciese mínimas las probabilidades de
ambos errores.
H0 es cierta H0 es falsa
Rechazar H0 Error de tipo I Decisión correcta
Aceptar H0 Decisión correcta Error de tipo II
121
Contrastes de hipótesis
• Si la distribución teórica depende de un parámetro   ,
acerca del cual hay que contrastar la hipótesis nula H0:   0
frente a la alternativa H1:   1, se denomina función de
potencia  ( ) a la probabilidad de rechazar H0 cuando el
valor del parámetro es .
122
Contrastes de hipótesis
• Si se trata de un test no aleatorizado de región crítica C, la
potencia del test es:
• mientras que para un test de función crítica , la función de
potencia es:
   C P
    121 ,...,,E XXX 
123
Contrastes de hipótesis
• Un test tiene nivel de significación  si
• Se denomina tamaño del test al número

  ,   0
sup
 0
  
124
Contrastes de hipótesis
• Para seleccionar el test más adecuado para el contraste de una
hipótesis H0, consideramos tests de nivel de significación  (es
decir, de tamaño menor o igual que ). A continuación
intentamos maximizar la potencia para todos los valores de 
 1 (que constituyen la hipótesis H1) simultáneamente.
125
Contrastes de hipótesis
• En la práctica, dada la dificultad para calcular la función de potencia, se
diseña el test en función de  y, una vez obtenida la muestra concreta, se
observa el nivel de significación más pequeño para el que tal muestra
obliga a rechazar H0. Este número  (x1, x2, ... , xn)  [0, 1] se denomina
nivel crítico asociado a la muestra obtenida e indica el apoyo que la
hipótesis nula recibe de las observaciones; cuando más grande sea su valor,
más confirmada queda la hipótesis H0 . En la terminología, este valor recibe
el nombre de p-valor.
126
Fases en la construcción de un contraste de
hipótesis
• Fase 1. Formular la hipótesis nula H0 y la hipótesis alternativa H1 en
términos de probabilidad, de forma que sean mutuamente excluyentes y
complementarias.
• Fase 2. Determinar el estadístico apropiado que se utilizará para rechazar o
no rechazar la hipótesis nula H0.
127
Fases en la construcción de un contraste de
hipótesis
• Fase 3. Seleccionar el nivel de significación, valor . Este valor indica la
importancia o significado que el investigador atribuye a las consecuencias
asociadas de rechazar incorrectamente la hipótesis nula H0. Valores habituales
son  = 0.1,  = 0.05 y  = 0.01.
• Fase 4. Determinar la región crítica o región de rechazo y la región de
aceptación en la gráfica de la distribución del estadístico. La región de rechazo
es el conjunto de realizaciones muestrales para las que rechazamos H0. Por el
contrario la región de aceptación es el conjunto de realizaciones muestrales
para las que aceptamos H0.
128
Fases en la construcción de un contraste de
hipótesis
• Fase 5. Seleccionar aleatoriamente la muestra y calcular el
valor del estadístico.
• Fase 6. Interpretación. Si el valor calculado para el estadístico
cae dentro de la región crítica definida por el valor o valores
críticos, entonces la hipótesis nula H0 se rechaza. Y si el valor
calculado cae dentro de la región de aceptación, entonces la
hipótesis nula H0 no se rechaza.
129
Ejemplo de construcción de un contraste de
hipótesis
• Vamos a contrastar si la tensión ocular, X, de los consumidores
de un fármaco tiene distribución N(15,1) (H0) o N(18,1) (H1).
• Fase 1: H0 :  = 15; H1 :  > 15
• Fase 2: Usaremos como estadístico la media muestral
• Fase 3: Fijamos el nivel de significación en  = 0.05.
 nNX 1,
130
Contrastes de hipótesis
• Fase 4: La región crítica será de la forma donde c es el punto
crítico que cumple
• Despejando, tenemos:
• donde z es el valor tal que
 cXC 
  05.015   cXP

c 15 
z
n
P Z  z   0.05 si Z  N(0,1).
131
Contrastes de hipótesis
• Fases 5 y 6: Extraemos la muestra de tamaño n, calculamos el valor de la
media muestral y vemos si cae en la región de aceptación C o en la región
de rechazo CC.
132
Tests de diferencias de medias
• En evaluación de impacto, interesa comprobar los efectos, es
decir, si hay diferencia significativa entre las medias de las
variables de resultado para el grupo de tratamiento y el grupo
de control.
• Por ello, cobran especial relevancia los tests de diferencias de
medias.
133
Tests de diferencias de medias
• Sea (X,Y) una variable aleatoria bidimensional cuyas componentes son
independientes y siguen, respectivamente, distribuciones N(1,1) y N(2,2). Para
comprobar diferencias de medias entre X e Y, se utiliza como estadístico la variable
aleatoria:
• En el espacio muestral X se considera la distribución de la muestra (X1, X2, ..., Xn,
Y1, Y2, ..., Ym). Por ser X e Y independientes, podemos considerarlas como variables
aleatorias separadas y por ello tener muestras de tamaño diferente.
RR mn
 
X:YX
134
Tests de diferencias de medias
• Dependiendo de las suposiciones que hagamos en las hipótesis nula y
alternativa, el estadístico habrá que modificarlo o transformarlo
para conseguir que su distribución en el muestreo sea conocida y, por tanto,
fácil de trabajar.
• En todos los casos, consideramos H0 : 1=2 y las tres posibles hipótesis
alternativas siguientes:
 H1 : 1  2. Test bilateral o de dos colas.
 H2 : 1 > 2. Test unilateral o de una cola (cola superior).
 H3 : 1 < 2. Test unilateral o de una cola (cola inferior).
YX 
135
Tests de diferencias de medias
• En primer lugar, supongamos que tanto 1 como 2 son conocidas.
• En este caso, el estadístico para el contraste y las regiones críticas son:
)1,0(2
1
2
1
0 N
mn
YX
Z 




H1 : 1  2 H2 : 1 > 2 H3 : 1 < 2
z0 > z/2 z0 > z z0 < -z
136
Tests de diferencias de medias
• En segundo lugar, supongamos que tanto 1 como 2 son desconocidas y 1  2.
• En este caso, el estadístico para el contraste y las regiones críticas, debidas a la
aproximación de Welch, son:
   
11
,)1,0( 22
2
22
1
22
1
2
1
2
1
2
1
0














m
nS
n
nS
m
S
n
S
fNt
m
S
n
S
YX
T f

H1 : 1  2 H2 : 1 > 2 H3 : 1 < 2
t0 > t/2,f t0 > t,f t0 < -t,f
137
Tests de diferencias de medias
• En tercer lugar, supongamos que tanto 1 como 2 son desconocidas pero 1 = 2.
• En este caso, el estadístico para el contraste y las regiones críticas son:
   
2
11
,
11
2
2
22
1
20





 
mn
SnSn
St
mn
S
YX
T pmn
p
H1 : 1  2 H2 : 1 > 2 H3 : 1 < 2
t0 > t/2,n+m-2 t0 > t, n+m-2 t0 < -t, n+m-2
138
Ejercicio: diferencias de medias en una
población con tres grupos
• Disponemos de una muestra de tamaño 100 de tres poblaciones, identificadas como
grupos A, B y C, y queremos contrastar diferencias entre el grupo de control B y los
otros dos grupos, A y C.
• Realice con el software Stata sendos tests de diferencias de medias entre los grupos A-B
y B-C e interprete los resultados.
 ¿Existe diferencia entre A y B?
 ¿Existe diferencia entre B y C?
 Ficheros: Diferencias de medias AB.dta y Diferencias de medias BC.dta
 Tiempo: 10 minutos
 Ejercicio individual
139
Ejercicio: diferencias de medias en una
población con tres grupos
• Considere ahora la salida del software JMP de SAS de un test de
diferencias de medias entre los tres grupos.
 ¿Hay evidencia de que los tres grupos son distintos en la característica medida?
 ¿Refrenda esta salida sus conclusiones al comparar los grupos dos a dos?
 ¿Cuántos grupos considera que hay en realidad en la muestra: dos o tres?
 Fichero: Diferencia de medias A B C informe.TIFF
 Tiempo: 10 minutos
 Ejercicio en grupo
140
Bibliografía
• Principios de inferencia estadística
• Autores: Ricardo Vélez Ibarrola y Alfonso García Pérez
• UNED, 1993
141
Técnicas cuantitativas de evaluación de
políticas públicas
Lima, 10 de septiembre de 2013
• «Datos, datos, datos. No puedo fabricar
ladrillos sin arcilla».
Probabilidad condicionada
• Concepto de probabilidad condicionada
• Teorema de la probabilidad total
• Teorema de Bayes o de la probabilidad inversa
144
Probabilidad condicionada
• Sea {  , A , P} un espacio probabilístico y A  A un suceso tal que P(A)
> 0. Llamaremos probabilidad condicionada del suceso B  A respecto al
suceso A a
• A A = A  A es una -álgebra y la probabilidad P(·A) es una
probabilidad sobre A A . Por ello, {A, A A , P(·A) } es un espacio
probabilístico si P(A) > 0.
P B A 
P A B 
P A 
145
Teorema de la probabilidad total
• Sea {  , A , P} un espacio probabilístico y sea {An}nN  A un sistema
completo de sucesos, es decir, una sucesión de sucesos disjuntos tal que
• Sea B  A un suceso para el que se conocen las probabilidades
condicionadas P(BAi) y supongamos que se conocen también las
probabilidades P(Ai) > 0,  i  N. Entonces
Ai  Aj  , i  j; An
n1

 
P B  P B Ai 
i1

 P Ai 
146
Teorema de Bayes o de la probabilidad
inversa (1764)
• Sea {  , A , P} un espacio probabilístico y sea {An}nN  A un sistema
completo de sucesos tal que P(Ai) > 0,  i  N. Sea B  A un suceso con
P(B) > 0, para el que se conocen las probabilidades condicionadas P(BAi).
Entonces,
• A las probabilidades P(Ai) se les suele llamar probabilidades a priori; a las
P(AiB), probabilidades a posteriori; y a las P(BAi), verosimilitudes.

P Ai B 
P B Ai P Ai 
P B Ai 
i1

 P Ai 
, i  N
147
Teorema de Bayes o de la probabilidad
inversa (1764)
• {An}nN se consideran hipótesis sobre una cuestión en estudio y tenemos
una cierta información, subjetiva o no, acerca de dichas hipótesis,
reflejadas en P(Ai). Supongamos que se produce el suceso B asociado a un
experimento aleatorio, usualmente provocado por el investigador. El
teorema de Bayes nos proporciona el medio para obtener la alteración
provocada por B en nuestras hipótesis mediante las probabilidades a
posteriori P(AiB). Tras esto, el investigador provocará otro suceso C del
experimento aleatorio y utilizará las a las P(AiB) antes calculadas como
probabilidades a priori para obtener nuevas probabilidades a posteriori.
148
Teorema de Bayes o de la probabilidad
inversa (1764)
• Ejemplo: Tenemos una urna cerrada con cinco bolas cuya composición es
desconocida. Hay dos posibilidades: la urna contiene tres bolas rojas y dos bolas
blancas (hipótesis que llamaremos Urna I); o la urna contiene cuatro bolas blancas y
una roja (Urna II).
• Sea A1 el suceso “la urna es la Urna I” y A2 el suceso “la urna es la Urna II”. Al
principio: P(A1)= P(A2)=1/2. Extraemos una bola de la urna y provocamos el suceso
B: la bola extraída es blanca. Por el teorema de Bayes, calculamos P(A1B)=1/3 y
P(A2B)=2/3. Utilizamos estas probabilidades condicionadas como nuevas
probabilidades a priori y extraemos una segunda bola para provocar otro suceso C
que nos dé más información sobre la composición de la urna.
149
Ejercicio: teorema de Bayes
• En el ejemplo anterior, considere que el suceso B es: “la primera bola
extraída es roja” y el suceso C: “la segunda bola extraída es también roja”.
Calcule las probabilidades a posteriori tras conocer ambos sucesos.
• ¿Qué conclusión obtenemos de dichas probabilidades a posteriori?
 Tiempo: 10 minutos
 Ejercicio individual
150
• «No cabe combinación de acontecimientos
para los que la inteligencia del hombre no
pueda concebir una explicación».
Nociones de econometría
• Distribución condicionada
• Modelos de regresión lineal: la recta de regresión
• Estimación por mínimos cuadrados ordinarios (MCO)
• Diagnosis de modelos econométricos
• Problema de endogeneidad
• Método de las variables instrumentales
• Estimación por mínimos cuadrados en dos etapas: 2SLS
152
Distribución condicionada
• Sea un vector aleatorio n-dimensional  = (X1, X2, ..., Xn) : 
 Rn que sigue una distribución N(, ). Consideramos una
partición del vector  en dos vectores: un vector p-dimensional
1, y un segundo vector (n-p)-dimensional 2. Podemos
suponer, sin pérdida de generalidad, que 1 está compuesto por
las p primeras componentes de , mientras que 2 está
compuesto por las (n-p) últimas primeras componentes de .
153
Distribución condicionada
• Con esta división podemos escribir:
• Si llamamos
• La variable aleatoria 1  2 =x2 tiene una distribución N(1+ (x2- 2), 11.2). El
punto hace referencia a que la variable indicada ha sido fijada.















2221
1211
,




 
21
1
2212112.11
1
2212  
y
154
Recta de regresión
• La ecuación
• representa la línea general de regresión de 1 sobre 2. La
matriz se denomina matriz de regresión. El elemento
que ocupa el lugar (i,j) en la matriz de regresión lo
denominamos ij.p+1,p+2,…,n .
)(1
2212    
21 xx
1
2212


155
Recta de regresión
• A los elementos de la matriz de covarianzas de la distribución condicionada
11.2 los denotamos por ij.p+1,p+2,…,n .
• El coeficiente de correlación entre Xi y Xj calculado a partir de la matriz de
covarianzas de la distribución condicionada se denomina coeficiente de
correlación parcial entre Xi y Xj cuando 2 =(Xp+1 , Xp+2 , … , Xn) ha sido
fijado. Lo representamos por ij.p+1,p+2,…,n y viene dado por:
ij.p1,p2,...,n 
ij.p1,p2,...,n
ii.p1,p2,...,n jj.p1,p2,...,n
156
Recta de regresión
• En resumen, la variable aleatoria
• denominada residual, representa las discrepancias entre los
verdaderos valores de 1 y el valor esperado. 1.2 cumple las
siguientes condiciones:
)( 2
1
22121.    
2x
   0'E
),0(
22
1
221212.
21
1
221212.







 N
157
Recta de regresión
• Podemos por tanto considerar el siguiente modelo de previsión
para la variable 1:
• Esta es la base matemática de la regresión lineal por mínimos
cuadrados.
   
)(1
2212 2x
158
Recta de regresión
• Ahora, llamando i al vector fila i-ésimo de la matriz 12 ,
suponemos =0 y consideramos una combinación lineal
cualquiera del vector 2, obtenida multiplicado 2 por un
vector fila cualquiera . Entonces la combinación lineal de 2
que minimiza la varianza de Xi –  2 y maximiza la
correlación entre Xi y  2 se obtiene para el vector  = i
donde .1
22

 ii 
159
Recta de regresión
• Al coeficiente de correlación entre Xi y i 2 se le denomina
coeficiente de correlación múltiple. Se representa por
i.p+1,p+2,…,n y se calcula de la siguiente forma:
ii
nppi


’
ii  1
22
,...,2,1.




160
Recta de regresión
• Siendo ii.p+1,p+2,…,n la varianza de Xi  2 = x2 , se cumple que:
• por lo que el coeficiente de correlación múltiple mide la
proporción de varianza de Xi atribuible a la variación de 2 =
(Xp+1 , Xp+2 , … , Xn)
 2
,...,2,1. ,...,2,1.
1 nppiiinppii 
 
161
Recta de regresión en dos dimensiones
• Consideremos dos variables aleatorias X e Y cuyo coeficiente
de correlación lineal   0. Queremos hallar la recta que mejor
ajuste la relación lineal entre ambas variables a través de unas
pocas observaciones obtenidas a través de una muestra
aleatoria de tamaño n {(xi, yi)}i=1, 2, …, n . Dicha relación vendrá
dada por la siguiente expresión:
Y   X  u , u  N 0, 
162
Recta de regresión en dos dimensiones
• El problema se reduce a determinar los coeficientes  y  de la
ecuación que mejor se ajuste a los n pares (xi,yi) observados,
en el sentido de que se minimice la distancia entre lo
encontrado (yi) y lo pronosticado . Estas distancias o
diferencias entre los valores se denominan residuos y se
denotan como ui.
 iyˆ
163
Recta de regresión en dos dimensiones
• Los estimadores de los parámetros vienen dados por:
• El parámetro  representa la ordenada en el origen, esto es, el
valor que toma la variable dependiente cuando la variable
independiente toma el valor 0. El parámetro  es la pendiente
de la recta de regresión.
xy
s
s
X
XY
 ˆˆ;ˆ
2

164
Recta de regresión en dos dimensiones
• Gráficamente:
ˆXY  ˆˆ 
iii xyu ˆ
165
Recta de regresión en dos dimensiones
• Geométricamente, la recta de regresión lineal de Y con
respecto a X minimiza la suma de las distancias verticales de
los puntos a la recta. La recta de regresión lineal de X con
respecto a Y minimiza las distancias horizontales. Las dos
rectas se cortan en el centro de gravedad de la nube de
puntos. La separación entre las dos rectas es mayor cuando la
correlación es más débil.
 yx,
166
Estimación por mínimos cuadrados ordinarios
(MCO)
• El modelo poblacional a estudiar es:
• donde Y es una variable dependiente unidimensional y Xi ,
i=1,…k, son variables aleatorias unidimensionales con
distribución conocida, llamadas regresores.
• Estimar un modelo consiste en encontrar valores para i , que
denotamos , a partir de una muestra aleatoria.
  ,0,22110 NuuXXXY kk  
kii ,,2,1,ˆ 
167
Estimación por mínimos cuadrados ordinarios
(MCO)
• De forma equivalente, podemos escribir el modelo poblacional
en forma matricial:
• donde
 ,0, NuuY  X
 k
k
XXX 

212
1
0
1, 
















 X





168
Estimación por mínimos cuadrados ordinarios
(MCO)
• Si se cumplen los dos siguientes supuestos:
• el modelo está identificado, es decir: los parámetros i ,
i=0,…k, pueden escribirse en términos de momentos de las
variables observables Xi . Operando, obtenemos:
     
  krango
uuu


XX
XX
'
0E,0E0'E
   Y'E'E
-1
XXX
169
Estimación por mínimos cuadrados ordinarios
(MCO)
• Tomando una muestra aleatoria de tamaño N de la población, {yi, xi=(1, xi1 ,
xi2 , …, xik)}i=1, 2, …, N , el estimador para los parámetros se obtiene
sustituyendo los momentos poblaciones por los momentos muestrales:
• donde
  yxxxxxx
-1
-1
''''ˆ
1
1
1
1












  



N
i
ii
N
i
ii yNN


































N
i
NkNjN
kji
kj
y
y
y
xxx
xxx
xxx 1
1
111
1111
e
1
1
1
yx





170
Estimación por mínimos cuadrados ordinarios
(MCO)
• Si además se cumple el supuesto débil de homocedasticidad
• que implica que el error cuadrático está incorrelado con cada xi , xi
2 o
cualquier producto cruzado de la forma xi xj , 1  i < j  k, podemos
asegurar que, asintóticamente,
• donde A=

E u2
X'X 2
E X'X ,
   12,
A,0-ˆ 
  NN N

 .'E XX
171
Ejercicio 1: estimación por MCO
• Tenemos una muestra aleatoria de los valores de antigüedad (en años) y de
precio (en centenas de dólares) de 10 coches Corvettes.
• Ajuste un modelo lineal por mínimos cuadrados ordinarios con los datos.
• ¿Cree que el modelo lineal es suficiente para explicar la relación existente entre
la antigüedad del vehículo y su precio de venta?
 Fichero: Corvettes.dta
 Tiempo: 5 minutos
 Ejercicio individual
172
Ejercicio 1: estimación por MCO
• Esta es la salida de Stata.
173
Ejercicio 2: estimación por MCO
• Tenemos una muestra aleatoria de tamaño 100 con una variable
dependiente Y y 5 variables independientes X1, ... X5.
• Ajuste un modelo lineal por mínimos cuadrados ordinarios con los
datos.
• ¿Son todas las variables relevantes?
 Fichero: MCO.dta
 Tiempo: 5 minutos
 Ejercicio individual
174
Ejercicio 2: estimación por MCO
• Esta es la salida de Stata con las variables X1, X2, X3, X4 y X5.
Ejercicio 2: estimación por MCO
• Esta es la salida de Stata con las variables X1, X2 y X3.
Econometría
• La econometría es la rama de la economía que hace un uso
extensivo de modelos matemáticos y estadísticos así como de
la programación lineal y la teoría de juegos para analizar,
interpretar y hacer predicciones sobre sistemas económicos.
• La econometría, en tanto que “medida de los procesos
económicos”, provee modelos y técnicas útiles a la hora de
evaluar el óptimo uso de los recursos.
177
Diagnosis de modelos econométricos
• En econometría la diagnosis de un modelo es el punto esencial.
• Tras construir un modelo (por ejemplo, mediante mínimos
cuadrados ordinarios) hay que realizar su correcta diagnosis.
Para ello, existen contrastes de hipótesis matemáticos bien
formulados.
• Solo cuando un modelo pasa la diagnosis, se pueden hacer
predicciones.
178
Diagnosis de modelos econométricos
• Para diagnosticar un modelo, realizamos en este orden los siguientes
contrastes. Los marcados con asterisco (*) pueden obviarse para la
diagnosis de un modelo provisional, pero deben incluirse en el
modelo definitivo.
 Significatividad individual de los parámetros estimados: los parámetros no
pueden ser nulos.
 Significatividad conjunta de los parámetros estimados: no todos pueden ser
nulos.
 R2: indica el buen ajuste del modelo. Es suficiente pero no necesario.
179
Diagnosis de modelos econométricos
R2: indica el buen ajuste del modelo. Es suficiente pero no necesario.
Ausencia de autocorrelación. Si en el modelo hay varios términos de
error ut , t = 1, ..., T, (por ejemplo cuando se trabaja con series
temporales o con varias variable dependientes), se debe cumplir que
Cov(ur, us)=0,  r  s.
Ausencia de heterocedasticidad. V(uX1, X2, ... , Xk) = σ 2.
*Ausencia de endogeneidad. Las variables X1, X2, ... , Xk no están
correlacionadas con el término de error u: E(uX1, X2, ... , Xk) = 0.
180
Diagnosis de modelos econométricos
Ausencia de multicolinealidad. Las variables X1, X2, ... , Xk son
linealmente independientes, es decir, no existe relación lineal exacta
entre ellas. Esta hipótesis se denomina hipótesis de independencia, y
cuando no se cumple, decimos que el modelo presenta
multicolinealidad.
*El modelo debe presentar linealidad. La variable Y es aleatoria, ya que
depende de la variable aleatoria u. Además, la relación entre Y y X1,
X2, ... , Xk es efectivamente lineal.
181
Diagnosis de modelos econométricos
*El modelo debe estar bien especificado: forma funcional, variables
omitidas y redundantes. Ausencia de errores de especificación:
suponemos que todas las variables Xi que son relevantes para la
explicación de la variable Y están incluidas en la definición del modelo
lineal.
Ausencia de regresores estocásticos. En el modelo, las variables X1, X2,
... , Xk se consideran deterministas (no variables aleatorias), ya que su
valor es constante al provenir de una muestra.
Normalidad de los residuos. Todas las variables ut  N(0,t).
182
Problema de endogeneidad
• En los diseños cuasiexperimentales es habitual la presencia de
sesgo de selección. Eso implica que no se verifica una de las
condiciones para estimar el modelo lineal por MCO, a saber:
• Es decir: una o varias de las Xi no son exógenas.
    0E0'E  XX uu
183
Problema de endogeneidad
• Podemos suponer, sin pérdida de generalidad, que solo Xk
podría ser endógena mientras que son exógenas el resto de las
Xi , i=1, … , k – 1. Una posible razón es que u contiene una
variable omitida (no observada) q incorrelada con todos los
regresores menos con Xk.
184
Método de las variables instrumentales
• El método de las variables instrumentales resuelve el problema de variables
exógenas entre los regresores. Requerimos contar con una variable observable, Z1,
distinta a todas las Xi , i=1, … , k, que satisfaga las siguientes condiciones:
• Entonces podemos decir que Z1 es una posible variable instrumental o un posible
instrumento para Xk y la ecuación se llama forma reducida de Xk.
   
 
  0),,,(E
,0,:0
0E0E
111
11122110
11





kk
kkkkkk
rZXX
NrrZXXXX
ZuuZ

 
185
Método de las variables instrumentales
• En el modelo a estimar, sustituimos Xk por la expresión de su forma reducida para obtener:
• donde v es el error de la forma reducida y j y 1los parámetros de la forma reducida. En esta
ecuación, gracias a nuestros supuestos, se cumple que:
• y por ello dichos parámetros se pueden estimar por MCO.

E (X1, ,Xk1,Z 1)v  0
 
11
111122110
1,,1,
,0, 1



k
jkjj
Zkkkk
kj
NruvvZXXXY


 


186
Mínimos cuadrados en dos etapas: 2SLS
• Supongamos ahora que tenemos más de un instrumento para
Xk, es decir tenemos m > 1 variables Zh, h=1,…,m, distintas
todas ellas de las Xi , i=1,…k, que satisfacen las siguientes
condiciones:
   
 
  0),,,,,(E
,0
:0,,,1
,,1,0E0E
111
111122110






kmk
kk
kmmkkkh
hh
rZZXX
Nr
rZZXXXXmh
mhZuuZ





187
Mínimos cuadrados en dos etapas: 2SLS
• En este caso, hacemos la regresión de Xk sobre Xi y Zh,
i=1,…k-1, h=1,…m, y obtenemos una estimación de Xk, que
denotamos como Xk*. En la ecuación original utilizamos Xk*
en lugar de la Xk y resolvemos por MCO.
• De hecho, Xk* se interpreta a menudo como la parte de Xk
incorrelada con u. Si Xk es endógena, es porque rk está
correlado con u:
  0E kur
188
Mínimos cuadrados en dos etapas: 2SLS
• Vamos a ver ahora el caso general. Supongamos el modelo:
• donde
• pero algunos elementos de X están correlados con u:
 ,0, NuuY  +X
 

















k
kXXX





 2
1
0
21 ,1 X
    0E0'E  XX uu
189
Mínimos cuadrados en dos etapas: 2SLS
• Supongamos que existe un vector Z de dimensiones 1 x L que incluye
constante que cumple:
• y satisface la condición de rango
• y la condición de orden
    0E0'E  ZZ uu
 
  krango
Lrango


XZ
ZZ
'E
'E
L > k
190
Mínimos cuadrados en dos etapas: 2SLS
• Tomando una muestra aleatoria de tamaño N de la población, {yi, xi=(1, xi1 ,
xi2 , …, xik), zi=(1, zi1 , zi2 , …, ziL)}i=1, 2, …, N , el estimador 2SLS para los
parámetros se obtiene en función de los momentos muestrales:
• donde:
        yzzzzxxzzzzxzzzzxxzzzzx ’’’’’’’’’’’’ˆ 1
111
1
111














































 
N
i
ii
N
i
ii
N
i
ii
N
i
ii
N
i
ii
N
i
ii y
x 
1 x11 x1 j x1k
1 xi1 x1 j x1k
1 xN1 xNj xNk
















, z
1 z11 z1h z1L
1 zi1 z1h z1L
1 zN1 zNh zNL














e y 
y1
yi
yN














191
Mínimos cuadrados en dos etapas: 2SLS
• Si además se cumple el supuesto débil de homocedasticidad
• que implica que el error cuadrático está incorrelado con cada Zi , Zi
2 o cualquier
producto cruzado de la forma Zi Zj , 1  i < j  L, podemos asegurar que,
asintóticamente:
• donde
   ZZZZ 'E'E 22
u
   12,
A,0-ˆ 
  NN N

     .'E'E'EA
-1
XZZZZX
192
Ejercicio: problema de endogeneidad
• Considere su diseño del programa PIPE. ¿Cree que puede haber algún
problema de endogeneidad? En caso afirmativo:
 ¿Qué variable o variables pueden presentar dicho problema?
 ¿Qué instrumento o instrumentos podría utilizar para subsanar el problema de
endogeneidad?
 Tiempo: 15 minutos
 Ejercicio en grupo
193
Bibliografía
• Introductory Econometrics: A Modern Approach, fifth international edition
• Autor: Jeffrey M. Wooldridge
• South-Western CENGAGE Learning, 2013
• Econometric Analysis of Cross Section and Panel Data, second edition
• Autor: Jeffrey M. Wooldridge
• MIT Press, 2010
• Econometric Analysis (7th Edition)
• Autor: William H. Greene
• Prentice Hall, 2012
•
194
¡Gracias por su atención!
Joaquín María Núñez Varo
Analista del Departamento de Evaluación
ICEX España Exportación e Inversiones
joaquin.m.nunez@icex.es

Más contenido relacionado

La actualidad más candente

Diapositivas Arbol de Problemas
Diapositivas Arbol de ProblemasDiapositivas Arbol de Problemas
Diapositivas Arbol de ProblemasVelocidadaltense
 
Presentación del cuadro comparativo del perfeccionismo
Presentación del cuadro comparativo del perfeccionismoPresentación del cuadro comparativo del perfeccionismo
Presentación del cuadro comparativo del perfeccionismoVíctor Manuel García Fermín
 
Taller ¿Qué es evaluación?
Taller ¿Qué es evaluación?Taller ¿Qué es evaluación?
Taller ¿Qué es evaluación?Galaxia Mercury
 
Analisis del arbol del problema para planes de negocios
Analisis del arbol del problema para planes de negociosAnalisis del arbol del problema para planes de negocios
Analisis del arbol del problema para planes de negociosPATRICIA SÁNCHEZ MARTÍNEZ
 
Como elaborar un proyecto arbol de problema
Como elaborar un proyecto arbol de problemaComo elaborar un proyecto arbol de problema
Como elaborar un proyecto arbol de problemaEMILIACANE
 
Validez, confiabilidad y objetividad
Validez, confiabilidad y objetividadValidez, confiabilidad y objetividad
Validez, confiabilidad y objetividadClaudia Aravena
 
Modelos de evaluacion cuantitativa
Modelos de evaluacion cuantitativaModelos de evaluacion cuantitativa
Modelos de evaluacion cuantitativaurpisss
 
Evaluacion de necesidades michael scriven 1
Evaluacion de necesidades michael scriven 1Evaluacion de necesidades michael scriven 1
Evaluacion de necesidades michael scriven 1SanMarce PC
 
El modelo evaluativo centrado en el cliente
El modelo evaluativo centrado en el clienteEl modelo evaluativo centrado en el cliente
El modelo evaluativo centrado en el clienteCarlos Gonzalez
 
La planificación evaluativa según cronbach
La planificación evaluativa según cronbachLa planificación evaluativa según cronbach
La planificación evaluativa según cronbachDaniel Segura Sandoval
 
Caracteristicas tecnicas de la medición
Caracteristicas tecnicas de la mediciónCaracteristicas tecnicas de la medición
Caracteristicas tecnicas de la mediciónKary Fenix
 
Evaluacion de necesidades michael scriven (2)
Evaluacion de necesidades michael scriven (2)Evaluacion de necesidades michael scriven (2)
Evaluacion de necesidades michael scriven (2)karen318
 
Evaluacion de necesidades michael scriven
Evaluacion de necesidades michael scrivenEvaluacion de necesidades michael scriven
Evaluacion de necesidades michael scrivenSanMarce PC
 
Ute laestrategia en los emprendimientos sociales la culturaorganizacional en ...
Ute laestrategia en los emprendimientos sociales la culturaorganizacional en ...Ute laestrategia en los emprendimientos sociales la culturaorganizacional en ...
Ute laestrategia en los emprendimientos sociales la culturaorganizacional en ...evelyn17carolina
 

La actualidad más candente (20)

Diapositivas Arbol de Problemas
Diapositivas Arbol de ProblemasDiapositivas Arbol de Problemas
Diapositivas Arbol de Problemas
 
Presentación del cuadro comparativo del perfeccionismo
Presentación del cuadro comparativo del perfeccionismoPresentación del cuadro comparativo del perfeccionismo
Presentación del cuadro comparativo del perfeccionismo
 
Anexo 5 lectur aarbol7
Anexo 5 lectur aarbol7Anexo 5 lectur aarbol7
Anexo 5 lectur aarbol7
 
Evaluación de impacto
Evaluación de impactoEvaluación de impacto
Evaluación de impacto
 
Taller ¿Qué es evaluación?
Taller ¿Qué es evaluación?Taller ¿Qué es evaluación?
Taller ¿Qué es evaluación?
 
Analisis del arbol del problema para planes de negocios
Analisis del arbol del problema para planes de negociosAnalisis del arbol del problema para planes de negocios
Analisis del arbol del problema para planes de negocios
 
Validez y Confiabilidad
Validez y ConfiabilidadValidez y Confiabilidad
Validez y Confiabilidad
 
Como elaborar un proyecto arbol de problema
Como elaborar un proyecto arbol de problemaComo elaborar un proyecto arbol de problema
Como elaborar un proyecto arbol de problema
 
Validez, confiabilidad y objetividad
Validez, confiabilidad y objetividadValidez, confiabilidad y objetividad
Validez, confiabilidad y objetividad
 
Inv evaluativa ppt
Inv evaluativa pptInv evaluativa ppt
Inv evaluativa ppt
 
Validez y confiabilidad
Validez y confiabilidadValidez y confiabilidad
Validez y confiabilidad
 
Modelos de evaluacion cuantitativa
Modelos de evaluacion cuantitativaModelos de evaluacion cuantitativa
Modelos de evaluacion cuantitativa
 
Evaluacion de necesidades michael scriven 1
Evaluacion de necesidades michael scriven 1Evaluacion de necesidades michael scriven 1
Evaluacion de necesidades michael scriven 1
 
El modelo evaluativo centrado en el cliente
El modelo evaluativo centrado en el clienteEl modelo evaluativo centrado en el cliente
El modelo evaluativo centrado en el cliente
 
La planificación evaluativa según cronbach
La planificación evaluativa según cronbachLa planificación evaluativa según cronbach
La planificación evaluativa según cronbach
 
Caracteristicas tecnicas de la medición
Caracteristicas tecnicas de la mediciónCaracteristicas tecnicas de la medición
Caracteristicas tecnicas de la medición
 
Clase evaluacion firmat
Clase evaluacion firmatClase evaluacion firmat
Clase evaluacion firmat
 
Evaluacion de necesidades michael scriven (2)
Evaluacion de necesidades michael scriven (2)Evaluacion de necesidades michael scriven (2)
Evaluacion de necesidades michael scriven (2)
 
Evaluacion de necesidades michael scriven
Evaluacion de necesidades michael scrivenEvaluacion de necesidades michael scriven
Evaluacion de necesidades michael scriven
 
Ute laestrategia en los emprendimientos sociales la culturaorganizacional en ...
Ute laestrategia en los emprendimientos sociales la culturaorganizacional en ...Ute laestrategia en los emprendimientos sociales la culturaorganizacional en ...
Ute laestrategia en los emprendimientos sociales la culturaorganizacional en ...
 

Similar a Técnicas cuantitativas de evaluación de políticas públicas / Joaquín María Núñez Varo, ICEX España

Glosario formulación de proyectos
Glosario formulación de proyectosGlosario formulación de proyectos
Glosario formulación de proyectos1024471805
 
Evaluación de proyectos
Evaluación de proyectosEvaluación de proyectos
Evaluación de proyectosjulioencalada
 
Clase evaluacion proyectos en comunidades
Clase evaluacion proyectos en comunidadesClase evaluacion proyectos en comunidades
Clase evaluacion proyectos en comunidadesErnesto Huapaya Espejo
 
Marco Lógico y Sus Metodologías.pptx
Marco Lógico y Sus Metodologías.pptxMarco Lógico y Sus Metodologías.pptx
Marco Lógico y Sus Metodologías.pptxmarbelyescobar
 
Tema 4 evaluación de proyectos
Tema 4 evaluación de proyectosTema 4 evaluación de proyectos
Tema 4 evaluación de proyectosmartabombara
 
Pautas Para Elaborar El Proyecto
Pautas Para Elaborar El ProyectoPautas Para Elaborar El Proyecto
Pautas Para Elaborar El ProyectoDelmaflo
 
S2_Evaluación Proyectos Sociales_310821.pptx
S2_Evaluación Proyectos Sociales_310821.pptxS2_Evaluación Proyectos Sociales_310821.pptx
S2_Evaluación Proyectos Sociales_310821.pptxRomina Parisi V.
 
Unidad 4 fundamentos de la investigacion factores de calidad de la investigacion
Unidad 4 fundamentos de la investigacion factores de calidad de la investigacionUnidad 4 fundamentos de la investigacion factores de calidad de la investigacion
Unidad 4 fundamentos de la investigacion factores de calidad de la investigacionsmileinfected
 
Criterios e indicadores de la evaluación
Criterios e indicadores de la evaluaciónCriterios e indicadores de la evaluación
Criterios e indicadores de la evaluaciónmono211
 
Actividad 5.aproximacion inicial
Actividad 5.aproximacion inicialActividad 5.aproximacion inicial
Actividad 5.aproximacion inicialKarla_Hdz_F
 
clase maestria5.04.pptx
clase maestria5.04.pptxclase maestria5.04.pptx
clase maestria5.04.pptxkarla141039
 
Enfoquecuantitativoycualitativoenlainvestigacin 120410165102-phpapp01
Enfoquecuantitativoycualitativoenlainvestigacin 120410165102-phpapp01Enfoquecuantitativoycualitativoenlainvestigacin 120410165102-phpapp01
Enfoquecuantitativoycualitativoenlainvestigacin 120410165102-phpapp01Milagros Rodriguez
 

Similar a Técnicas cuantitativas de evaluación de políticas públicas / Joaquín María Núñez Varo, ICEX España (20)

Glosario formulación de proyectos
Glosario formulación de proyectosGlosario formulación de proyectos
Glosario formulación de proyectos
 
Investigacion Evaluativa
Investigacion EvaluativaInvestigacion Evaluativa
Investigacion Evaluativa
 
Evaluación de proyectos
Evaluación de proyectosEvaluación de proyectos
Evaluación de proyectos
 
Clase evaluacion proyectos en comunidades
Clase evaluacion proyectos en comunidadesClase evaluacion proyectos en comunidades
Clase evaluacion proyectos en comunidades
 
Marco Lógico y Sus Metodologías.pptx
Marco Lógico y Sus Metodologías.pptxMarco Lógico y Sus Metodologías.pptx
Marco Lógico y Sus Metodologías.pptx
 
1 conceptos basicos-en_evaluacion_de_programas
1 conceptos basicos-en_evaluacion_de_programas1 conceptos basicos-en_evaluacion_de_programas
1 conceptos basicos-en_evaluacion_de_programas
 
Tema 4 evaluación de proyectos
Tema 4 evaluación de proyectosTema 4 evaluación de proyectos
Tema 4 evaluación de proyectos
 
Pautas Para Elaborar El Proyecto
Pautas Para Elaborar El ProyectoPautas Para Elaborar El Proyecto
Pautas Para Elaborar El Proyecto
 
evaluacion-y-auditoria
evaluacion-y-auditoriaevaluacion-y-auditoria
evaluacion-y-auditoria
 
AUDITORIA Y EVALUACIÓN
AUDITORIA Y EVALUACIÓNAUDITORIA Y EVALUACIÓN
AUDITORIA Y EVALUACIÓN
 
evaluacion-y-auditoria
evaluacion-y-auditoriaevaluacion-y-auditoria
evaluacion-y-auditoria
 
Modelos de evaluación curricular
Modelos de evaluación curricularModelos de evaluación curricular
Modelos de evaluación curricular
 
S2_Evaluación Proyectos Sociales_310821.pptx
S2_Evaluación Proyectos Sociales_310821.pptxS2_Evaluación Proyectos Sociales_310821.pptx
S2_Evaluación Proyectos Sociales_310821.pptx
 
Elementos..
Elementos..Elementos..
Elementos..
 
Unidad 4 fundamentos de la investigacion factores de calidad de la investigacion
Unidad 4 fundamentos de la investigacion factores de calidad de la investigacionUnidad 4 fundamentos de la investigacion factores de calidad de la investigacion
Unidad 4 fundamentos de la investigacion factores de calidad de la investigacion
 
Criterios e indicadores de la evaluación
Criterios e indicadores de la evaluaciónCriterios e indicadores de la evaluación
Criterios e indicadores de la evaluación
 
Actividad 5.aproximacion inicial
Actividad 5.aproximacion inicialActividad 5.aproximacion inicial
Actividad 5.aproximacion inicial
 
clase maestria5.04.pptx
clase maestria5.04.pptxclase maestria5.04.pptx
clase maestria5.04.pptx
 
Lh formulacion proyectos
Lh formulacion proyectosLh formulacion proyectos
Lh formulacion proyectos
 
Enfoquecuantitativoycualitativoenlainvestigacin 120410165102-phpapp01
Enfoquecuantitativoycualitativoenlainvestigacin 120410165102-phpapp01Enfoquecuantitativoycualitativoenlainvestigacin 120410165102-phpapp01
Enfoquecuantitativoycualitativoenlainvestigacin 120410165102-phpapp01
 

Más de EUROsociAL II

Resultados Piloto Acreditación de la Calidad Regionales Atlántico y Nariño Co...
Resultados Piloto Acreditación de la Calidad Regionales Atlántico y Nariño Co...Resultados Piloto Acreditación de la Calidad Regionales Atlántico y Nariño Co...
Resultados Piloto Acreditación de la Calidad Regionales Atlántico y Nariño Co...EUROsociAL II
 
Transición Escuela - Trabajo: Propuesta de Plan de Acción para Mejorar el Niv...
Transición Escuela - Trabajo: Propuesta de Plan de Acción para Mejorar el Niv...Transición Escuela - Trabajo: Propuesta de Plan de Acción para Mejorar el Niv...
Transición Escuela - Trabajo: Propuesta de Plan de Acción para Mejorar el Niv...EUROsociAL II
 
Identificación y evaluación de proyectos de desarrollo regional / Raffaele Co...
Identificación y evaluación de proyectos de desarrollo regional / Raffaele Co...Identificación y evaluación de proyectos de desarrollo regional / Raffaele Co...
Identificación y evaluación de proyectos de desarrollo regional / Raffaele Co...EUROsociAL II
 
El Programa EUROsociAL en México / Ruggero Tabossi
El Programa EUROsociAL en México / Ruggero TabossiEl Programa EUROsociAL en México / Ruggero Tabossi
El Programa EUROsociAL en México / Ruggero TabossiEUROsociAL II
 
Procesos de profesionalización. Programas Sociales del MIDES: PASC, Cercanías...
Procesos de profesionalización. Programas Sociales del MIDES: PASC, Cercanías...Procesos de profesionalización. Programas Sociales del MIDES: PASC, Cercanías...
Procesos de profesionalización. Programas Sociales del MIDES: PASC, Cercanías...EUROsociAL II
 
Avances y Desafíos para la Evaluación: la experiencia de la Dirección de Gest...
Avances y Desafíos para la Evaluación: la experiencia de la Dirección de Gest...Avances y Desafíos para la Evaluación: la experiencia de la Dirección de Gest...
Avances y Desafíos para la Evaluación: la experiencia de la Dirección de Gest...EUROsociAL II
 
Institucionalización de la evaluación de políticas públicas / Blanca Lázaro
Institucionalización de la evaluación de políticas públicas / Blanca LázaroInstitucionalización de la evaluación de políticas públicas / Blanca Lázaro
Institucionalización de la evaluación de políticas públicas / Blanca LázaroEUROsociAL II
 
QUADRO / Paloma Baquero Dancausa
QUADRO / Paloma Baquero DancausaQUADRO / Paloma Baquero Dancausa
QUADRO / Paloma Baquero DancausaEUROsociAL II
 
Microsimulador de IRPF / Jaime Villanueva García
Microsimulador de IRPF / Jaime Villanueva GarcíaMicrosimulador de IRPF / Jaime Villanueva García
Microsimulador de IRPF / Jaime Villanueva GarcíaEUROsociAL II
 
Modelos de Simulación de Impuestos y Prestaciones (Tax - Benefit): EUROMOD / ...
Modelos de Simulación de Impuestos y Prestaciones (Tax - Benefit): EUROMOD / ...Modelos de Simulación de Impuestos y Prestaciones (Tax - Benefit): EUROMOD / ...
Modelos de Simulación de Impuestos y Prestaciones (Tax - Benefit): EUROMOD / ...EUROsociAL II
 
Herramientas de apoyo para la Elaboración y Análisis del Presupuesto: Microsi...
Herramientas de apoyo para la Elaboración y Análisis del Presupuesto: Microsi...Herramientas de apoyo para la Elaboración y Análisis del Presupuesto: Microsi...
Herramientas de apoyo para la Elaboración y Análisis del Presupuesto: Microsi...EUROsociAL II
 
Sistema Gestión Presupuestaria Sorolla2 / Pedro Luis García Repetto
Sistema Gestión Presupuestaria Sorolla2 / Pedro Luis García RepettoSistema Gestión Presupuestaria Sorolla2 / Pedro Luis García Repetto
Sistema Gestión Presupuestaria Sorolla2 / Pedro Luis García RepettoEUROsociAL II
 
Sistema Información Contable SIC3 / Pedro Luis García Repetto
Sistema Información Contable SIC3 / Pedro Luis García RepettoSistema Información Contable SIC3 / Pedro Luis García Repetto
Sistema Información Contable SIC3 / Pedro Luis García RepettoEUROsociAL II
 
Gestión de la Inversión Pública. Planes de Inversión Pública y su Presupuesta...
Gestión de la Inversión Pública. Planes de Inversión Pública y su Presupuesta...Gestión de la Inversión Pública. Planes de Inversión Pública y su Presupuesta...
Gestión de la Inversión Pública. Planes de Inversión Pública y su Presupuesta...EUROsociAL II
 
PGEnet / Paloma Baquero Dancausa
PGEnet / Paloma Baquero DancausaPGEnet / Paloma Baquero Dancausa
PGEnet / Paloma Baquero DancausaEUROsociAL II
 
ADENDA Inversiones / Paloma Baquero Dancausa
ADENDA Inversiones / Paloma Baquero DancausaADENDA Inversiones / Paloma Baquero Dancausa
ADENDA Inversiones / Paloma Baquero DancausaEUROsociAL II
 
QUANTO / Paloma Baquero Dancausa
QUANTO / Paloma Baquero DancausaQUANTO / Paloma Baquero Dancausa
QUANTO / Paloma Baquero DancausaEUROsociAL II
 
Proceso de Toma de Decisiones para la Distribución de los recursos y su Proye...
Proceso de Toma de Decisiones para la Distribución de los recursos y su Proye...Proceso de Toma de Decisiones para la Distribución de los recursos y su Proye...
Proceso de Toma de Decisiones para la Distribución de los recursos y su Proye...EUROsociAL II
 
Inventario de Información y Consulta de Información Individual: Sistemas auto...
Inventario de Información y Consulta de Información Individual: Sistemas auto...Inventario de Información y Consulta de Información Individual: Sistemas auto...
Inventario de Información y Consulta de Información Individual: Sistemas auto...EUROsociAL II
 
Elementos Esenciales para efectuar la Seleccion y Comprobacion / Javier Berro...
Elementos Esenciales para efectuar la Seleccion y Comprobacion / Javier Berro...Elementos Esenciales para efectuar la Seleccion y Comprobacion / Javier Berro...
Elementos Esenciales para efectuar la Seleccion y Comprobacion / Javier Berro...EUROsociAL II
 

Más de EUROsociAL II (20)

Resultados Piloto Acreditación de la Calidad Regionales Atlántico y Nariño Co...
Resultados Piloto Acreditación de la Calidad Regionales Atlántico y Nariño Co...Resultados Piloto Acreditación de la Calidad Regionales Atlántico y Nariño Co...
Resultados Piloto Acreditación de la Calidad Regionales Atlántico y Nariño Co...
 
Transición Escuela - Trabajo: Propuesta de Plan de Acción para Mejorar el Niv...
Transición Escuela - Trabajo: Propuesta de Plan de Acción para Mejorar el Niv...Transición Escuela - Trabajo: Propuesta de Plan de Acción para Mejorar el Niv...
Transición Escuela - Trabajo: Propuesta de Plan de Acción para Mejorar el Niv...
 
Identificación y evaluación de proyectos de desarrollo regional / Raffaele Co...
Identificación y evaluación de proyectos de desarrollo regional / Raffaele Co...Identificación y evaluación de proyectos de desarrollo regional / Raffaele Co...
Identificación y evaluación de proyectos de desarrollo regional / Raffaele Co...
 
El Programa EUROsociAL en México / Ruggero Tabossi
El Programa EUROsociAL en México / Ruggero TabossiEl Programa EUROsociAL en México / Ruggero Tabossi
El Programa EUROsociAL en México / Ruggero Tabossi
 
Procesos de profesionalización. Programas Sociales del MIDES: PASC, Cercanías...
Procesos de profesionalización. Programas Sociales del MIDES: PASC, Cercanías...Procesos de profesionalización. Programas Sociales del MIDES: PASC, Cercanías...
Procesos de profesionalización. Programas Sociales del MIDES: PASC, Cercanías...
 
Avances y Desafíos para la Evaluación: la experiencia de la Dirección de Gest...
Avances y Desafíos para la Evaluación: la experiencia de la Dirección de Gest...Avances y Desafíos para la Evaluación: la experiencia de la Dirección de Gest...
Avances y Desafíos para la Evaluación: la experiencia de la Dirección de Gest...
 
Institucionalización de la evaluación de políticas públicas / Blanca Lázaro
Institucionalización de la evaluación de políticas públicas / Blanca LázaroInstitucionalización de la evaluación de políticas públicas / Blanca Lázaro
Institucionalización de la evaluación de políticas públicas / Blanca Lázaro
 
QUADRO / Paloma Baquero Dancausa
QUADRO / Paloma Baquero DancausaQUADRO / Paloma Baquero Dancausa
QUADRO / Paloma Baquero Dancausa
 
Microsimulador de IRPF / Jaime Villanueva García
Microsimulador de IRPF / Jaime Villanueva GarcíaMicrosimulador de IRPF / Jaime Villanueva García
Microsimulador de IRPF / Jaime Villanueva García
 
Modelos de Simulación de Impuestos y Prestaciones (Tax - Benefit): EUROMOD / ...
Modelos de Simulación de Impuestos y Prestaciones (Tax - Benefit): EUROMOD / ...Modelos de Simulación de Impuestos y Prestaciones (Tax - Benefit): EUROMOD / ...
Modelos de Simulación de Impuestos y Prestaciones (Tax - Benefit): EUROMOD / ...
 
Herramientas de apoyo para la Elaboración y Análisis del Presupuesto: Microsi...
Herramientas de apoyo para la Elaboración y Análisis del Presupuesto: Microsi...Herramientas de apoyo para la Elaboración y Análisis del Presupuesto: Microsi...
Herramientas de apoyo para la Elaboración y Análisis del Presupuesto: Microsi...
 
Sistema Gestión Presupuestaria Sorolla2 / Pedro Luis García Repetto
Sistema Gestión Presupuestaria Sorolla2 / Pedro Luis García RepettoSistema Gestión Presupuestaria Sorolla2 / Pedro Luis García Repetto
Sistema Gestión Presupuestaria Sorolla2 / Pedro Luis García Repetto
 
Sistema Información Contable SIC3 / Pedro Luis García Repetto
Sistema Información Contable SIC3 / Pedro Luis García RepettoSistema Información Contable SIC3 / Pedro Luis García Repetto
Sistema Información Contable SIC3 / Pedro Luis García Repetto
 
Gestión de la Inversión Pública. Planes de Inversión Pública y su Presupuesta...
Gestión de la Inversión Pública. Planes de Inversión Pública y su Presupuesta...Gestión de la Inversión Pública. Planes de Inversión Pública y su Presupuesta...
Gestión de la Inversión Pública. Planes de Inversión Pública y su Presupuesta...
 
PGEnet / Paloma Baquero Dancausa
PGEnet / Paloma Baquero DancausaPGEnet / Paloma Baquero Dancausa
PGEnet / Paloma Baquero Dancausa
 
ADENDA Inversiones / Paloma Baquero Dancausa
ADENDA Inversiones / Paloma Baquero DancausaADENDA Inversiones / Paloma Baquero Dancausa
ADENDA Inversiones / Paloma Baquero Dancausa
 
QUANTO / Paloma Baquero Dancausa
QUANTO / Paloma Baquero DancausaQUANTO / Paloma Baquero Dancausa
QUANTO / Paloma Baquero Dancausa
 
Proceso de Toma de Decisiones para la Distribución de los recursos y su Proye...
Proceso de Toma de Decisiones para la Distribución de los recursos y su Proye...Proceso de Toma de Decisiones para la Distribución de los recursos y su Proye...
Proceso de Toma de Decisiones para la Distribución de los recursos y su Proye...
 
Inventario de Información y Consulta de Información Individual: Sistemas auto...
Inventario de Información y Consulta de Información Individual: Sistemas auto...Inventario de Información y Consulta de Información Individual: Sistemas auto...
Inventario de Información y Consulta de Información Individual: Sistemas auto...
 
Elementos Esenciales para efectuar la Seleccion y Comprobacion / Javier Berro...
Elementos Esenciales para efectuar la Seleccion y Comprobacion / Javier Berro...Elementos Esenciales para efectuar la Seleccion y Comprobacion / Javier Berro...
Elementos Esenciales para efectuar la Seleccion y Comprobacion / Javier Berro...
 

Técnicas cuantitativas de evaluación de políticas públicas / Joaquín María Núñez Varo, ICEX España

  • 1.
  • 2. Técnicas cuantitativas de evaluación de políticas públicas Lima, 9 de septiembre de 2013
  • 3. Técnicas cuantitativas de evaluación de políticas públicas Lima, 9 de septiembre de 2013
  • 4. • «Es un error capital el teorizar antes de poseer datos. Insensiblemente, uno comienza a deformar los hechos para hacerlos encajar en las teorías en lugar de encajar las teorías en los hechos».
  • 5. La evaluación • Definición de evaluación • Noción de lógica de la intervención Reconstrucción de la lógica de la intervención Utilidad de la lógica de la intervención • Noción de efecto • Noción de impacto 5
  • 6. Definición de evaluación • La evaluación es el “proceso sistemático de observación, medida, análisis e interpretación encaminado al conocimiento de una intervención pública, sea esta una norma, programa, plan o política, para alcanzar un juicio valorativo basado en evidencias y criterios referenciales, respecto de su diseño, puesta en práctica, efectos, resultados e impactos”, de acuerdo con la definición que nos aporta la Agencia de Evaluación y Calidad española. • Atribución: imputación de un vínculo causal entre cambios observados (o que se espera observar) y una intervención específica 6
  • 7. Noción de lógica de la intervención • Se trata del conjunto de actividades puestas en práctica, de los efectos esperados (productos, resultados e impactos) así como de los supuestos que explican cómo las actividades van a conducir a los efectos en el contexto de la intervención. • Con frecuencia, la lógica de una intervención evoluciona a través del tiempo. Llegado el caso, ello justifica la reconstrucción de varias lógicas correspondientes a períodos sucesivos. 7
  • 8. Reconstrucción de la lógica de la intervención • Recabar los documentos oficiales de la intervención. • Identificar las principales actividades. • Identificar los objetivos. • Traducir los objetivos para que adopten la forma de resultados e impactos esperados. • Conectar las actividades con los impactos esperados mediante relaciones causa-efecto lógicas. • Debatir la lógica con expertos externos y con gestores internos. 8
  • 9. Utilidad de la lógica de la intervención • Ayudar a aclarar los objetivos y a traducirlos en una jerarquía de efectos esperados de tal manera que ello permita su evaluación. • Sugerir preguntas de evaluación sobre dichos efectos. • Ayudar a evaluar la coherencia interna de la intervención. 9
  • 10. Noción de efecto • Efecto es todo comportamiento o acontecimiento del que puede razonablemente decirse que ha sido influido por algún aspecto del programa o proyecto. • Efecto  Objetivo. Los objetivos constituyen el estado deseado que se pretende alcanzar con la realización del proyecto, se ubican temporalmente antes de su realización y son fijados por sus diseñadores. En cambio, los efectos constituyen resultados de las acciones llevadas a cabo por el proyecto y se verifican durante o después del mismo. 10
  • 11. Noción de impacto • El impacto se define como un resultado de los efectos de un proyecto. La determinación del impacto exige el establecimiento de objetivos operacionales y de un modelo causal que permita vincular el proyecto con los efectos resultantes de su implementación. • El impacto expresa el grado de cumplimiento de los objetivos respecto a la población-meta del proyecto. 11
  • 12. • «Watson, no hay que suponer si no tenemos evidencia».
  • 13. Diseño de experimentos • ¿Qué es el diseño de experimentos? • Preguntas que formulan los experimentos • Causas, efectos y relaciones causales • Cuasiexperimentos • Validez de las conclusiones 13
  • 14. Diseño de experimentos • Diseñar estadísticamente un experimento es realizar una prueba para poder caracterizar las variables explicativas de mayor influencia a través de los efectos en varias variables respuesta, de forma que se minimice el efecto de las variables no controlables (covariables) y se estabilice y minimice la variabilidad de las respuestas. 14
  • 15. Preguntas que formulan los experimentos • Descriptivas: recuento de los valores concretos de ciertas variables en un conjunto de observaciones. • Relacionales: ¿existen relaciones entre fenómenos, y en qué sentido y magnitud se da la covariación? • Causales: ¿una o más variables independientes tienen efectos sobre una o más variables dependientes? ¿Cómo se obran estos efectos? 15
  • 16. Causas, efectos y relaciones causales • En los experimentos: Las supuestas causas se manipulan para observar los efectos. La variabilidad en la causa se relaciona con la variación en el efecto. El diseño y el conocimiento acumulado se usan para identificar y descartar explicaciones alternativas plausibles. 16
  • 17. Causas manipulables y no manipulables • Los experimentos implican agentes casuales que pueden ser manipulados por el investigador. • Las causas no manipulables (origen étnico, desastres naturales) no pueden ser causas en los experimentos ya que no están sujetos a la manipulación del investigador. 17
  • 18. Causas: descripción y explicación • El primer paso consiste en identificar que existe una relación causal entre A y B (molar causation): relación general entre un tratamiento y sus efectos. • El segundo paso es explicar cómo A causa B (molecular causation): llegar a saber con detalle qué aspectos del tratamiento son responsables de qué aspectos de un efecto. 18
  • 19. Cuasiexperimentos • El término cuasiexperimento se refiere a diseños de investigación experimentales en los cuales los sujetos o grupos de sujetos de estudio no están asignados aleatoriamente. • Los cuasiexperimentos son más vulnerables a las amenazas a la validez que las pruebas aleatorias. 19
  • 20. Cuasiexperimentos • Cuando se diseñan, controlan y analizan apropiadamente, los cuasiexperimentos pueden ofrecer una evidencia casi tan fuerte del impacto del programa como la de las pruebas aleatorias. • El cuasiexperimento es más vulnerable a los sesgos de selección: el grupo de tratamiento puede diferir del grupo control en características no observadas correlacionadas con los resultados, lo que distorsiona el impacto: problema de la heterogeneidad no observada. 20
  • 21. Cuasiexperimentos Muestra Universo Población objetivo Espacio de probabilidad Estadística Técnicas de evaluación de impacto: el problema del contrafactual X: variables exógenas Z: variables instrumentales Y, W: variables endógenas Y: resultados W: impactos t0: inicio del tratamiento t1: corto plazo t2: medio o largo plazo X Z Tratamiento No tratamiento (grupo de control) Y W E N T O R N O Causas externas Análisis de datos Econometría t0 t1 t2
  • 22. Ejercicio: el programa PIPE del ICEX • Lea el folleto informativo sobre el programa PIPE. • Reconstruya la lógica de la intervención del programa. • Esboce el diseño experimental para evaluar el impacto del programa PIPE. • En su opinión, ¿se trata de un experimento o de un cuasiexperimento?  Fichero: Folleto_PIPE.pdf  Tiempo: 15 minutos  Ejercicio en grupo 22
  • 23. Validez de las conclusiones • Un experimento o cuasiexperimento genera conclusiones que, bien validadas e interpretadas, pueden transformarse en conocimiento. • La validez de una conclusión es su grado de fidelidad y de corrección. Hay varios tipos de validez: estadística, interna, estructural y externa. Incrementar la validez de un tipo implica a menudo reducir la validez de otros tipos. 23
  • 24. Validez estadística • La validez estadística de las conclusiones se centra en la covariación entre el tratamiento (causa) y el resultado (efecto). ¿Ocurren A y B de verdad a la vez? ¿Cuál es la magnitud de la covarianza? ¿Es significativa la conclusión? • La importancia real se halla en estimar el tamaño del efecto en relación a los intervalos de confianza más que en demostrar la significación estadística de la hipótesis nula (p-valor). 24
  • 25. Validez interna • La validez interna de las conclusiones se centra en si la covarianza observada entre A y B refleja una relación causal.  ¿Ha sido de verdad A la causa de B o ha sido otro factor C el responsable?  Contrafactual: asignación aleatoria al grupo de tratamiento y al grupo de control. • La importancia reside en probar que la relación causal se debe en exclusiva a la manipulación o la variación de las variables medidas. El mayor riesgo es el sesgo de selección, presente por lo general en cuasiexperimentos. 25
  • 26. Validez estructural • La validez estructural de las conclusiones se centra en las estructuras de orden superior que están representados por aspectos o elementos particulares presentes en la muestra, es decir: entre el concepto teórico y la medida empírica que se usa.  ¿Hemos medido A en realidad u otro A’ en su lugar?  ¿Cómo se mide el carácter emprendedor de una empresa?  Conceptualización clara: se define un concepto o variable de forma que pueda ser medido o que pueda dejar constancia de haber sufrido un cambio (efecto). 26
  • 27. Validez externa • La validez externa de las conclusiones se centra en si una relación causa-efecto sigue siendo cierta aunque varíen los individuos, el entorno, los tratamientos y los resultados. ¿Hay otras cosas parecidas a A que provoquen cosas como B? Diseño de muestreo: factor de elevación a población Generalización por extrapolación 27
  • 28. Bibliografía • HM Treasury Magenta book • https://www.gov.uk/government/publications/the-magenta-book • Impact Evaluation in Practice • http://issuu.com/world.bank.publications/docs/9780821385418 • Glosario de evaluación de la OECD • http://www.oecd.org/findDocument/0,2350,en_2649_34435_1_119678_1_1_1, 00.html • Páginas de evaluación de las Relaciones Exteriores de la Unión Europea • http://ec.europa.eu/europeaid/how/evaluation/index_es.htm 28
  • 29. Técnicas cuantitativas de evaluación de políticas públicas Lima, 9 de septiembre de 2013
  • 30. • «Cuando se excluye lo imposible, lo que queda, por improbable que sea, debe ser la verdad».
  • 31. Nociones de probabilidad • Población y muestra • Espacio de probabilidad • Variable aleatoria discreta y continua • Esperanza matemática y momentos de una variable aleatoria • Vectores aleatorios 31
  • 32. Población y muestra • La población objetivo es el grupo de todos los individuos del que el investigador está interesado en extraer conclusiones válidas mediante extrapolación • La población o universo es la colección completa, finita o infinita, de individuos distintos y perfectamente identificables sin ambigüedad que podemos estudiar y de la que podemos obtener datos. • Una muestra es un grupo de individuos seleccionados de la población y representativo de esta. 32
  • 33. Población y muestra • Ejemplo 1: Estudio de salud infantil • Universo: Todos los niños nacidos en el Reino Unido en 1980. • Muestra: Todos los niños nacidos el 7 de mayo en cualquiera de los años del período. • Población objetivo: Todos los niños del mundo desarrollado. 33
  • 34. Población y muestra • Ejemplo 2: Programa de becas para pymes • Universo: las empresas beneficiarias del programa. • Muestra: una muestra aleatoria simple del universo. • Población objetivo: todas las pymes del país. 34
  • 35. Espacio de probabilidad • Un fenómeno o experimento aleatorio es un fenómeno que cumple las siguientes propiedades:  Las mismas condiciones iniciales pueden dar lugar a diferentes resultados.  Todos los resultados posibles se conocen de antemano.  No se puede predecir el resultado de cada experiencia particular.  Puede repetirse en las mismas condiciones de forma indefinida.  Si se repite bajo condiciones idénticas un número determinado de veces n, y anotamos el número de veces que aparecerá cada resultado ni , el cociente ni/n tiende a estabilizarse a un valor fijo conforme aumenta n. i ,  lím n ni n  pi 35
  • 36. Espacio de probabilidad • Dado un experimento aleatorio, llamaremos espacio muestral  al conjunto de todos los resultados posibles de dicho experimento aleatorio. Los elementos de  se denominan sucesos elementales. • Asociados a un mismo experimento aleatorio pueden considerarse diferentes espacios muestrales. 36
  • 37. Espacio de probabilidad • Sea A una colección no vacía de subconjuntos del espacio muestral . Llamaremos suceso a un conjunto A de A . Diremos que se ha presentado el suceso A al realizar el experimento si el resultado de dicho experimento es algún punto   A. 37
  • 38. • Dado el espacio muestral  , una clase A  P () tiene estructura de - álgebra si y solo si    A   A  A es A*  A , donde A* es el complementario de A.   toda sucesión  A es A La -álgebra es cerrada por uniones numerables, intersecciones numerables, diferencias, complementarios y paso al límite para sucesiones monótonas. Espacio de probabilidad  An n1    An nN 38
  • 39. Espacio de probabilidad • Al par { , A }, donde A  P () es una -álgebra de subconjuntos de , se le denomina espacio medible o probabilizable. A los elementos de A se les denomina conjuntos medibles. 39
  • 40. Espacio de probabilidad • Axiomática de Kolmogorov • Sea {  , A } un espacio probabilizable. Definimos una función de conjunto P, que va ser una medida normada sobre A , mediante una aplicación de A en R que cumple los siguientes axiomas:   A  A es P(A) ≥ 0  P()=1   toda sucesión  A tal que Ai  Aj =  ,  i  j , es P An n1       P An  n1    An nN 40
  • 41. Espacio de probabilidad • El trío {  , A , P} , donde  es un espacio muestral, A una -álgebra de sucesos sobre  y P una medida de probabilidad sobre A recibe el nombre de espacio probabilístico o espacio de probabilidades. A los elementos de A se les llama sucesos. 41
  • 42. Variable aleatoria • Sea {  , A , P} un espacio probabilístico y sea {R, B} el espacio probabilizable formado por la recta real R y la - álgebra de conjuntos de Borel B = B(R). • Una aplicación X :   R es una variable aleatoria (v.a.) si y solo si X-1(B)  A , B  B. 42
  • 43. Variable aleatoria • La variable aleatoria X induce una medida de probabilidad PX sobre {R, B} que lo convierte en el espacio probabilístico {R, B, PX}, donde:  PX B  P X1 B   P A , B  B, donde X A  B 43
  • 44. Variable aleatoria • De forma intuitiva, una variable aleatoria es una función real definida sobre el espacio muestral  que conserva la probabilidad asociada al experimento aleatorio. • Diremos que se ha definido una variable aleatoria o que se ha construido un modelo de distribución de probabilidad cuando se especifican los posibles valores de la variable con sus probabilidades respectivas. 44
  • 45. Variable aleatoria discreta • Diremos que una variable aleatoria X es discreta cuando toma un número de valores finito o infinito numerable, es decir: X puede tomar cualquiera de los valores x = 1, 2, 3, 4, ... • Ejemplos: el número de piezas defectuosas que aparecen en un proceso de fabricación, el número de contactos que ha hecho una empresa en una feria, etc. 45
  • 46. Variable aleatoria discreta • La función dada por f(x) = P(X = x) (la probabilidad de que la variable aleatoria X tome el valor x ), se llama distribución de probabilidad, función de probabilidad o función de cuantía de una variable aleatoria discreta. f(x) debe satisfacer las siguientes condiciones:   f x 1, x  dom X  f x  xdom X   1 46
  • 47. Variable aleatoria discreta • Si X es una variable aleatoria discreta, la función dada por: • donde f(t) es el valor de la distribución de probabilidad de X en t, es llamada función de distribución acumulativa de la variable aleatoria X.  F x  P X  x  f t  tx  ,   x   47
  • 48. Variable aleatoria discreta Función de distribución Función de cuantía 48
  • 49. Variable aleatoria continua • Una función f : R  R se llama función de densidad sobre R si cumple las siguientes condiciones:  f admite a lo sumo un número finito de discontinuidades sobre cada intervalo finito de R.   f x  0 , x  R f x dx   1 49
  • 50. Variable aleatoria continua • Una variable aleatoria se dice continua si su función de distribución F(x) puede representarse para cada x  R por: • donde f(t) es una función de densidad sobre R. A esta función se la llama función de densidad de la variable aleatoria continua X.  F x  f t dt x  ,   x   50
  • 51. Variable aleatoria continua • Una variable aleatoria es continua cuando puede tomar cualquier valor en un intervalo. Por ello, no es posible asignar una probabilidad a cada uno de los infinitos posibles valores de la variable aleatoria, sino que se asigna a intervalos o rangos de valores. • Ejemplos: longitud de las piezas defectuosas que aparecen en un proceso de fabricación, la cifra de exportación de una empresa, la renta anual de las personas de una población, etc. 51
  • 52. Variable aleatoria continua • El histograma de una variable aleatoria continua depende del número de observaciones que tomemos. Conforme aumentan las observaciones y se hacen más finos los intervalos, el histograma tenderá a una curva suave y diferenciable. • La derivada en cada punto a esta función límite nos dará la función de densidad de la variable aleatoria. 52
  • 53. Variable aleatoria continua • La distribución de probabilidad de la variable aleatoria X se describe mediante una curva de densidad. La probabilidad de cualquier suceso es el área por debajo de la curva de densidad y a lo largo de los valores de X que definen el suceso. 53
  • 54. Aproximación a la distribución normal h=1,6 h=1,0 0 0,2 0,4 0,6 0,8 1 -4 -2,4 -0,8 0,8 2,4 4 X Función de densidad f(x) Función de distribución F(x) 0 0,2 0,4 0,6 0,8 1 -4 -2 0 2 4 X Función de densidad f(x) Función de distribución F(x) 54
  • 55. Aproximación a la distribución normal h=0,8 h=0,4 0 0,2 0,4 0,6 0,8 1 -4 -0,8 2,4 X Función de densidad f(x) Función de distribución F(x) 0 0,2 0,4 0,6 0,8 1 -4 -2 0 2 4 X Función de densidad f(x) Función de distribución F(x) 55
  • 56. Aproximación a la distribución normal h=0,1 0 0,2 0,4 0,6 0,8 1 -4 -3,5 -3 -2,5 -2 -1,5 -1 -0,5 0 0,5 1 1,5 2 2,5 3 3,5 4 X Función de densidad f(x) Función de distribución F(x) 56
  • 57. Diferencia entre v.a. y distribución de probabilidad • Una variable aleatoria representa el resultado particular de un experimento y una distribución de probabilidad representa todos los posibles resultados que pueden suceder en el experimento así como la correspondiente probabilidad. • El valor obtenido en una variable aleatoria describe el pasado mientras que la distribución de probabilidad describe cuán probable es que suceda dicho resultado en el futuro. 57
  • 58. Esperanza matemática • Sea X una v.a. Llamaremos esperanza matemática de la v.a. a: • siendo  la función medible identidad en {R, B}.               RR xdFxxdPxdPXX XX E 58
  • 59. Esperanza matemática • Si X es una v.a. discreta con función de cuantía pX y que puede tomar valores en un conjunto numerable {xj}  R: • Si X es una v.a. continua con función de densidad f:        1 E j jXj xpxX      dxxfxX X R E 59
  • 60. Momentos • Sea g : R  R una función real medible y X una v.a. Entonces Y=g(X) es también una variable aleatoria. • Se llama momento de orden k de la v.a. X a la esperanza de g(X) = Xk. Se representa por k. k = E[Xk] • Se llama momento respecto a la media de orden k de la v.a. X a la esperanza de g(X) = (X — 1)k. Se representa por k. k = E[(X — 1)k] = E[(X — )k] 60
  • 61. Momentos destacados • El momento de orden 1 recibe el nombre de media y se suele representar normalmente como .  = 1 = E[X] • El momento respecto a la media de orden 2 recibe el nombre de varianza y se representa por  2 o por V(X)  2 = 2 = E[(X — 1)2] = E[(X — )2] • La raíz cuadrada positiva de la varianza recibe el nombre de desviación típica y se representa por  o por D[X]. 61
  • 62. Vectores aleatorios • Sea {  , A , P} un espacio probabilístico y sea {Rn, Bn} el espacio probabilizable formado por el espacio vectorial real Rn y la -álgebra de conjuntos de Borel Bn = B(Rn). • Una aplicación vectorial X :   Rn es un vector aleatorio o una variable aleatoria n-dimensional si y solo si X-1(B)  A ,  B  Bn. 62
  • 63. Vectores aleatorios • El vector aleatorio X induce una medida de probabilidad PX sobre {Rn, Bn} que lo convierte en el espacio probabilístico {Rn, Bn, PX}, donde: • X=(X1, X2,... , Xn) es una variable aleatoria n-dimensional si y solo si las Xi :   Rn son variables aleatorias unidimensionales.          BABAPBPBP   XXX donde,,1 nB 63
  • 64. Ejercicio: los resultados del programa PIPE del ICEX como variables aleatorias • Considere los resultados establecidos del programa PIPE. • Describa dichos resultados como variable aleatoria. En particular, indique:  El espacio muestral  ¿Es la variable aleatoria unidimensional o multidimensional?  ¿Es la variable aleatoria discreta o continua?  ¿Qué modelo de distribución de probabilidad cree que define dicha variable aleatoria?  Tiempo: 15 minutos  Ejercicio en grupo 64
  • 65. Bibliografía • Lecciones de cálculo de probabilidades • Autores: Vicente Quesada y Alfonso García • Ediciones Díaz de Santos, 1988 • Consultable en Google Books 65
  • 66. Técnicas cuantitativas de evaluación de políticas públicas Lima, 10 de septiembre de 2013
  • 67. • «Nada resulta más engañoso que un hecho evidente».
  • 68. Nociones de estadística • Teorema central del límite • Distribuciones más comunes en estadística • Inferencia estadística Muestra aleatoria Estadísticos Momentos muestrales Intervalos y regiones de confianza Contrastes de hipótesis Tests de diferencias de medias 68
  • 69. Teorema central del límite • No existe un único Teorema Central del Límite, sino un conjunto de teoremas. Todos ellos dan condiciones para que una sucesión de variables aleatorias tienda a distribuirse según una distribución normal. 69
  • 70. Teorema central del límite • Sea {Xn}n  N una sucesión de variables aleatorias definidas sobre el mismo espacio probabilístico {  , A , P} , con medias y varianzas finitas. Diremos que la sucesión {Xn}n  N obedece al teorema central del límite y lo denotaremos Xn  LN , si y solo si la sucesión {Sn}n  N , donde • converge en ley hacia una distribución normal. Tipificando:  Sn  Xi i1 n  , n  N      1,0 D E N S SS ZLNX n nn nn     70
  • 71. Teorema central del límite • Teorema de Levy-Lindeberg • Sea {Xn}n  N una sucesión de variables aleatorias independientes e idénticamente distribuidas, con media y varianza finitas. Entonces Xn  LN. • Generalización vectorial del Teorema de Levy-Lindeberg • Sea {Xn}n  N una sucesión de vectores aleatorios independientes e idénticamente distribuidos, con vector de medias finitas  y matriz de varianzas-covarianzas finitas  (definida positiva). Entonces:      ,01 N n n Y n i i n  X 71
  • 72. La distribución normal • Una variable aleatoria X se dice que tiene una distribución normal o de Gauss-Laplace si su función de densidad es de la forma: • Considerada por primera vez en 1753, se le dio el nombre de normal porque se creyó que, en la práctica, la mayoría de las distribuciones eran de este tipo y el resto, anormales. La distribución normal se denota como N(0,1).  f x  1 2 e  x2 2 ,   x   72
  • 73. La distribución normal • Una variable aleatoria X se dice que tiene una distribución normal con parámetros  y  , y se denota como N(,), si su función de densidad es de la forma: • Si X tiene distribución N(, ), la variable  f x  1  2 e  x 2 2 2 ,   x  ,     ,  0 Y  X    N(0,1) 73
  • 74. La distribución normal • Sus momentos son: • En particular, los momentos de la distribución N(0,1) son:       2 ,V,   NN ,E       11,0V01,0  NN ,E 74
  • 75. Función de densidad de la distribución N(0,) para diferentes valores de  0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 -20 -19 -18 -17 -16 -15 -14 -13 -12 -11 -10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 N(0, 1) N(0, 5) N(0, 10) N(0, 25)
  • 76. 0 0.2 0.4 0.6 0.8 1 1.2 -20 -19 -18 -17 -16 -15 -14 -13 -12 -11 -10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 N(0, 1) N(0, 5) N(0, 10) N(0, 25) Función de distribución de la distribución N(0,) para diferentes valores de 
  • 77. La distribución normal En la distribución N(,) se cumple:  P    x      0.6827 P   2  x    2  0.9545 P   3  x    3  0.9973 77
  • 78. Distribución  2 (ji-cuadrado) de Pearson • Si X1, X2, ... , Xn son variables aleatorias independientesy con distribución N(0,1), la distribución de la variable • se denomina  2 (ji-cuadrado) de Pearson con n grados de libertad.  Xi 2 i1 n   n 2 78
  • 79. Distribución  2 (ji-cuadrado) de Pearson • Sus momentos son: • La función de densidad de la distribución n 2 es:  f y  1 2n 2  n 2  y n 2 1 ey 2 , y  0     n,nE 2V 22  nn  79
  • 80. Función de densidad de la distribución  2 para diferentes grados de libertad  5 2  10 2  15 2  25 2
  • 81. Función de distribución de la distribución  2 para diferentes grados de libertad  5 2  10 2  15 2  25 2
  • 82. Distribución t de Student • Si X, X1, X2, ... , Xn son variables aleatorias independientes y con distribución N(0,), la distribución de la variable • se denomina distribución t de Student n grados de libertad.  X 1 n Xi 2 i1 n   tn 82
  • 83. Distribución t de Student • Sus momentos son: • La función de densidad de la distribución tn es f t  1 n  n 1 2        n 2       1 t2 n        n1 2 , t  R     2, 2 V0    n n n tt nn ,E Si  =1, tn d  N 0,1  83
  • 84. Función de densidad de la distribución t para diferentes grados de libertad  t10 t1000 t1000000 N(0,1)
  • 85. Función de distribución de la distribución t para diferentes grados de libertad  t10 t1000 t1000000 N(0,1)
  • 86. Distribución F de Snedecor • Si X1, X2, ... , Xn, Y1, Y2, ... , Ym son variables aleatorias independientes y con distribución N(0,), la distribución de la variable • se denomina distribución F de Snedecor con n y m grados de libertad.  1 n Xi 2 i1 n  1 m Yi 2 i1 m   Fn,m 86
  • 87. Distribución F de Snedecor • Sus momentos son: • La función de densidad de la distribución Fn,m es  f t   n  m 2        n 2       m 2       n m       n 2 t n2  2 1 n m t        nm 2 , t  0           4, 42 22 V;2 2 2 2 ,,       m mmn mnm Fm m m F mnmn ,E 87
  • 88. Función de densidad de la distribución F para diferentes grados de libertad  F10,10 F10,20  F20,10  F100,100
  • 89. Función de distribución de la distribución F para diferentes grados de libertad  F10,10  F10,20  F20,10  F100,100
  • 90. La distribución normal n-dimensional • Un vector aleatorio X se dice que tiene una distribución normal n- dimensional con vector de medias  y matriz de varianzas-covarianzas  , y se denota como N(,  ), si su función de densidad es de la forma: • Los momentos del vector aleatorio son, efectivamente:           0,,, 2 ,...,, 1' 2 1 2 21 21       nn xx RRxx   exxxff nn       XX V,E  90
  • 91. La distribución normal n-dimensional • Si el vector aleatorio X = (X1, X2, ..., Xn) tiene una distribución normal n- dimensional N(,), siendo • entonces cada Xi sigue una distribución normal unidimensional N(i ,ii ). Solo serán independientes entre sí si  es diagonal.                                   nnin iniii ni n i              11 1 11111 , 91
  • 92. Inferencia estadística • La estadística matemática o inferencia estadística tiene como finalidad obtener información acerca de la ley de probabilidad de un fenómeno aleatorio a través de una observación no exhaustiva del mismo. • Para ello, es necesario solo disponer de un conjunto finito de observaciones del fenómeno aleatorio considerado. 92
  • 93. Inferencia estadística • Si el objetivo es obtener un pronóstico numérico único de un determinado parámetro de la distribución poblacional, hablamos de problemas de estimación puntual. • Si el objetivo es obtener un margen de variación para un determinado parámetro de la distribución poblacional, hablamos de problemas de estimación por intervalos. • Si el objetivo es corroborar o invalidar una determinada afirmación acerca de la distribución poblacional, hablamos de problemas de contraste de hipótesis. 93
  • 94. Inferencia estadística • La distribución desconocida F de la variable aleatoria involucrada recibe el nombre de distribución teórica o distribución de la población. • El mayor o menor grado de desconocimiento acerca de la distribución teórica F se refleja mediante la familia F de distribuciones candidatas a ser la distribución de la población. • Cuando F está compuesta por distribuciones de forma funcional fija y conocida dependientes de un parámetro  que varía dentro de un subconjunto   Rk, denominado espacio paramétrico, hablamos de inferencia estadística paramétrica.  k R FF 94
  • 95. Muestra aleatoria • Llevando a cabo repeticiones del experimento aleatorio que da lugar a la variable aleatoria X obtenemos un conjunto de valores numéricos (x1, x2, ..., xn) que constituyen una muestra aleatoria de X. El número n se denomina tamaño de la muestra. • Todo problema de inferencia estadística debe incluir la definición precisa del procedimiento de muestreo con el que se obtienen las observaciones. Dicha definición recibe el nombre de diseño del muestreo y permitirá elevar los resultados del muestro a la población de origen. 95
  • 96. Muestra aleatoria • Una muestra aleatoria simple (m.a.s) de tamaño n de una variable aleatoria X con distribución teórica F son n variables aleatorias (X1, X2, ..., XN) independientes e idénticamente distribuidas con distribución común F. • La función de distribución conjunta de una muestra aleatoria simple correspondiente a una distribución de la población F es:        nn xFxFxFxxxF  2121 ,...,, 96
  • 97. Muestra aleatoria • Además se puede asociar a cada muestra concreta (x1, x2, ..., xn) una distribución muestral F* con la pretensión de emular la distribución teórica F. F* se define como: • La distribución muestral es siempre discreta, concentrada en los valores que aparecen en la muestra y su función de probabilidad es: • siendo j el número de valores muestrales que coinciden con x.   R   x n xmuestraleselementosdenúmero xFn ,*  pn * x  j n ,  x  R 97
  • 98. Espacio muestral • Se llama espacio muestral X al conjunto de muestras posibles que pueden obtenerse al seleccionar una muestra aleatoria de tamaño determinado de una cierta población. • Si la variable aleatoria de la que se extrae la muestra aleatoria de tamaño n es m- dimensional, X es un subconjunto del espacio euclídeo Rmn, sobre el que podemos considerar la -álgebra restringida de la - álgebra de Borel Bmn, que representamos por B. La distribución de la muestra determina una medida de probabilidad P en el espacio muestral (X ,B ) . Si el problema es paramétrico suele incluirse en la notación el parámetro y escribimos P . 98
  • 99. Comportamiento asintótico de la distribución muestral • Si elegimos la muestra mediante muestreo aleatorio simple, la función de distribución muestral Fn*, donde n hace referencia al tamaño de la muestra, debe considerarse también una variable aleatoria. • El siguiente teorema prueba que Fn* converge a Fn uniformemente en x, con probabilidad uno. 99
  • 100. Comportamiento asintótico de la distribución muestral • Teorema de Glivenko-Cantelli: • Sea una sucesión de variables aleatorias independientes y con distribución común F. Si Fn* es la función de distribución muestral asociada a la muestra aleatoria simple (X1, X2, ..., Xn) y • entonces  n  sup xR Fn * x  F x  segurocasilím n n   P,0  Xi i1  100
  • 101. Estadísticos • Se denomina estadístico a cualquier función T del espacio muestral (X , B ) en un espacio euclídeo (Rk, Bk) que sea medible respecto a las - álgebras B y Bk. La dimensión k del espacio euclídeo imagen se denomina dimensión del estadístico. 101
  • 102. Estadísticos • Cuando se considera la muestra (X1, X2, ..., Xn) como una variable aleatoria, el estadístico T es a su vez una variable aleatoria T(X1, X2, ..., Xn). • Se denomina distribución en el muestreo de un estadístico T a la distribución de la variable aleatoria T(X1, X2, ..., Xn): es decir, la distribución en el muestreo del estadístico T es la medida de probabilidad que induce la distribución de la muestra, P , mediante la función T: (X , B )  (Rk, Bk) 102
  • 103. Estadísticos • Parámetro y estadístico son conceptos muy diferentes. Un parámetro es una constante que describe la población y cuando se conoce queda determinado el modelo probabilístico, mientras que un estadístico es una variable aleatoria cuyo valor no contiene ningún valor o parámetro desconocido pues depende solamente de las observaciones muestrales, por lo que sí está sometido a una distribución de probabilidad. 103
  • 104. Momentos muestrales • Los momentos muestrales son estadísticos definidos para cada muestra posible de tamaño n (x1, x2, ..., xn) según la expresión siguiente: • Tienen particular importancia la media y la varianza muestrales:  ak x  1 n xi k i1 n  , bk x  1 n xi  x  k i1 n  x  a1 x  1 n xi i1 n  , s2  b2 x  1 n xi  x  2 i1 n  104
  • 105. Momentos muestrales • La distribución en el muestreo de los momentos muestrales considerados como variables aleatorias no admiten una expresión general, pues dependen de la forma funcional de la distribución poblacional. • Sin embargo, los momentos de los momentos muestrales sí admiten expresiones generales. 105
  • 106. Momentos muestrales • Suponiendo que  y  2 (la media y la varianza poblacionales) existen, los momentos de la media y la varianza muestrales son: • Es frecuente considerar también la cuasivarianza muestral: • que cumple:       22 2 1 ,V,    n n s n XX   EE        n i i XX n s n n S 1 222 1 1 1   22 SE 106
  • 107. Distribución de la media y la varianza muestral • Teorema de Fisher • Si (X1, X2, ..., Xn) es una muestra aleatoria simple de una población N(,), entonces s2 y son variables aleatorias independientes y la distribución en el muestreo de ambas es:          n NX s n n     , 2 12 2 X 107
  • 108. Estadístico de Student • Teorema de Student • Si (X1, X2, ..., Xn) es una muestra aleatoria simple de una población N(,), el estadístico de Student: • tiene distribución t de Student con n-1 grados de libertad. 11      nt S X n s X n  108
  • 109. Distribución del cociente de cuasivarianzas muestrales • Teorema • Si S1 2 y S2 2 son las cuasivarianzas de sendas muestras aleatorias simples de tamaño n y m, respectivamente, de dos poblaciones normales de varianzas 1 2 y 2 2, respectivamente, el estadístico • tiene distribución F de Snedecor con n-1 y m-1 grados de libertad.  U  S1 2 1 2 S2 2 2 2  Fn1,m1 109
  • 110. Distribución del coeficiente de correlación muestral • Sea una muestra aleatoria simple de tamaño n de una población normal bidimensional (X,Y) con matriz de varianzas y covarianzas . Llamamos coeficiente de correlación muestral a • es la cuasicovarianza muestral.       n i ii YYXX n S SS S R 1 11 21 11 1 1 donde, 110
  • 111. Distribución del coeficiente de correlación muestral • Si R es el coeficiente de correlación muestral de una distribución normal bidimensional con coeficiente de correlación poblacional  = 0, el estadístico • tiene distribución t de Student con n-2 grados de libertad.  R*  n 2 R 1 R2  tn2 111
  • 112. Intervalos de confianza • Sea F una familia de distribuciones de forma funcional fija y conocida dependientes de un parámetro  que varía dentro de un subconjunto   Rk, • Si disponemos de un estadístico T para estimar , en muchas ocasiones la distribución en el muestreo de dicho estadístico está muy concentrada en torno al verdadero valor del parámetro. Esto nos permite conocer los márgenes de variación previsibles para el parámetro con una probabilidad fijada de antemano.  k R FF 112
  • 113. Intervalos de confianza • De una población descrita por una variable aleatoria X cuya distribución teórica F  F , se considera una muestra aleatoria (X1, X2, ... , Xn) con distribución P . Sea g( ) :  R una función real y T1  T2 dos estadísticos unidimensionales tales que • Entonces, para cualquier muestra concreta (x1, x2, ... , xn), el intervalo • se denomina intervalo de confianza para g( ) de nivel de confianza 1-.          ,1,,,, 1211 nn XXTgXXT P  T1 X1, ,Xn ,T2 X1, ,Xn   113
  • 114. Intervalos de confianza • Ejemplo: • Consideramos una muestra aleatoria de tamaño n (X1, X2, ... , Xn) proveniente de una población con distribución teórica N(,) con  desconocida pero  conocida. Sabemos que la media muestral • Calculamos entonces la media muestral y sabemos que   955.02222         n x n xPxxP XX            n NX  , 114
  • 115. Intervalos de confianza • Veámoslo de otro modo. Suponemos conocida la media poblacional  . Como asintóticamente la media muestral converge hacia , si construimos un intervalo de la forma • para el 95.5% de las muestras posibles de tamaño n que obtengamos, la media muestral estará contenida en dicho intervalo, es decir: de cada 100 muestras, solo para 4,5 la media muestral estará fuera del intervalo. En este caso,  = 0.045 y el nivel de confianza es del 95.5%.      n x n x  2,2
  • 116. Regiones de confianza • Si     Rk es un parámetro k-dimensional y se cumplen las mimas condiciones anteriores, si S(x1, x2, ... , xn) es un subconjunto de , dependiente de la muestra (x1, x2, ... , xn), que verifica • el subconjunto S(x1, x2, ... , xn), asociado a cualquier muestra concreta, se denomina región de confianza para el parámetro  de nivel de confianza 1-.      ,1,,1 nXXS P 116
  • 117. Importancia de los intervalos y las regiones de confianza • Hay dos maneras de construir intervalos y regiones de confianza: el método de la cantidad pivotal y el método de Neymann. • Poder construir estas regiones de confianza permite diseñar contrastes de hipótesis formales, en los que la región de confianza para aceptar la hipótesis se denomina región de aceptación y los puntos del espacio muestral que quedan fuera de la región de confianza constituyen la denominada región crítica. 117
  • 118. • «Uno debe buscar siempre una posible alternativa y demostrar que es falsa. Es la primera regla de la investigación».
  • 119. Contrastes de hipótesis • La finalidad del contraste de hipótesis es decidir si una determinada hipótesis sobre la distribución poblacional estudiada es confirmada o invalidada estadísticamente a partir de las observaciones contenidas en una muestra. • La hipótesis que se quiere confirmar o refutar se denomina hipótesis nula y se representa por H0. Esta hipótesis nula se contrasta frente a una segunda hipótesis, llamada hipótesis alternativa y designada por H1, que agrupa todas aquellas distribuciones poblaciones posibles en las que H0 no es cierta. 119
  • 120. Contrastes de hipótesis • Un test de hipótesis es cualquier partición del espacio muestral X en una región crítica C, en la cual se rechaza la hipótesis nula, y una región de aceptación Cc, en la cual la hipótesis nula no es rechazada. Tales tests reciben el calificativo de no aleatorizados. • Un test aleatorizado es cualquier función medible • llamada función crítica del test, tal que  (x1, x2, ... , xn) expresa la probabilidad de rechazar la hipótesis nula cuando se observa la muestra (x1, x2, ... , xn)  X .  1,0: X 120
  • 121. Contrastes de hipótesis • Rechazar la hipótesis nula cuando es cierta recibe el nombre de error de tipo I, mientras que no descartarla siendo falsa se denomina error de tipo II. • Lo idóneo sería conseguir un test que hiciese mínimas las probabilidades de ambos errores. H0 es cierta H0 es falsa Rechazar H0 Error de tipo I Decisión correcta Aceptar H0 Decisión correcta Error de tipo II 121
  • 122. Contrastes de hipótesis • Si la distribución teórica depende de un parámetro   , acerca del cual hay que contrastar la hipótesis nula H0:   0 frente a la alternativa H1:   1, se denomina función de potencia  ( ) a la probabilidad de rechazar H0 cuando el valor del parámetro es . 122
  • 123. Contrastes de hipótesis • Si se trata de un test no aleatorizado de región crítica C, la potencia del test es: • mientras que para un test de función crítica , la función de potencia es:    C P     121 ,...,,E XXX  123
  • 124. Contrastes de hipótesis • Un test tiene nivel de significación  si • Se denomina tamaño del test al número    ,   0 sup  0    124
  • 125. Contrastes de hipótesis • Para seleccionar el test más adecuado para el contraste de una hipótesis H0, consideramos tests de nivel de significación  (es decir, de tamaño menor o igual que ). A continuación intentamos maximizar la potencia para todos los valores de   1 (que constituyen la hipótesis H1) simultáneamente. 125
  • 126. Contrastes de hipótesis • En la práctica, dada la dificultad para calcular la función de potencia, se diseña el test en función de  y, una vez obtenida la muestra concreta, se observa el nivel de significación más pequeño para el que tal muestra obliga a rechazar H0. Este número  (x1, x2, ... , xn)  [0, 1] se denomina nivel crítico asociado a la muestra obtenida e indica el apoyo que la hipótesis nula recibe de las observaciones; cuando más grande sea su valor, más confirmada queda la hipótesis H0 . En la terminología, este valor recibe el nombre de p-valor. 126
  • 127. Fases en la construcción de un contraste de hipótesis • Fase 1. Formular la hipótesis nula H0 y la hipótesis alternativa H1 en términos de probabilidad, de forma que sean mutuamente excluyentes y complementarias. • Fase 2. Determinar el estadístico apropiado que se utilizará para rechazar o no rechazar la hipótesis nula H0. 127
  • 128. Fases en la construcción de un contraste de hipótesis • Fase 3. Seleccionar el nivel de significación, valor . Este valor indica la importancia o significado que el investigador atribuye a las consecuencias asociadas de rechazar incorrectamente la hipótesis nula H0. Valores habituales son  = 0.1,  = 0.05 y  = 0.01. • Fase 4. Determinar la región crítica o región de rechazo y la región de aceptación en la gráfica de la distribución del estadístico. La región de rechazo es el conjunto de realizaciones muestrales para las que rechazamos H0. Por el contrario la región de aceptación es el conjunto de realizaciones muestrales para las que aceptamos H0. 128
  • 129. Fases en la construcción de un contraste de hipótesis • Fase 5. Seleccionar aleatoriamente la muestra y calcular el valor del estadístico. • Fase 6. Interpretación. Si el valor calculado para el estadístico cae dentro de la región crítica definida por el valor o valores críticos, entonces la hipótesis nula H0 se rechaza. Y si el valor calculado cae dentro de la región de aceptación, entonces la hipótesis nula H0 no se rechaza. 129
  • 130. Ejemplo de construcción de un contraste de hipótesis • Vamos a contrastar si la tensión ocular, X, de los consumidores de un fármaco tiene distribución N(15,1) (H0) o N(18,1) (H1). • Fase 1: H0 :  = 15; H1 :  > 15 • Fase 2: Usaremos como estadístico la media muestral • Fase 3: Fijamos el nivel de significación en  = 0.05.  nNX 1, 130
  • 131. Contrastes de hipótesis • Fase 4: La región crítica será de la forma donde c es el punto crítico que cumple • Despejando, tenemos: • donde z es el valor tal que  cXC    05.015   cXP  c 15  z n P Z  z   0.05 si Z  N(0,1). 131
  • 132. Contrastes de hipótesis • Fases 5 y 6: Extraemos la muestra de tamaño n, calculamos el valor de la media muestral y vemos si cae en la región de aceptación C o en la región de rechazo CC. 132
  • 133. Tests de diferencias de medias • En evaluación de impacto, interesa comprobar los efectos, es decir, si hay diferencia significativa entre las medias de las variables de resultado para el grupo de tratamiento y el grupo de control. • Por ello, cobran especial relevancia los tests de diferencias de medias. 133
  • 134. Tests de diferencias de medias • Sea (X,Y) una variable aleatoria bidimensional cuyas componentes son independientes y siguen, respectivamente, distribuciones N(1,1) y N(2,2). Para comprobar diferencias de medias entre X e Y, se utiliza como estadístico la variable aleatoria: • En el espacio muestral X se considera la distribución de la muestra (X1, X2, ..., Xn, Y1, Y2, ..., Ym). Por ser X e Y independientes, podemos considerarlas como variables aleatorias separadas y por ello tener muestras de tamaño diferente. RR mn   X:YX 134
  • 135. Tests de diferencias de medias • Dependiendo de las suposiciones que hagamos en las hipótesis nula y alternativa, el estadístico habrá que modificarlo o transformarlo para conseguir que su distribución en el muestreo sea conocida y, por tanto, fácil de trabajar. • En todos los casos, consideramos H0 : 1=2 y las tres posibles hipótesis alternativas siguientes:  H1 : 1  2. Test bilateral o de dos colas.  H2 : 1 > 2. Test unilateral o de una cola (cola superior).  H3 : 1 < 2. Test unilateral o de una cola (cola inferior). YX  135
  • 136. Tests de diferencias de medias • En primer lugar, supongamos que tanto 1 como 2 son conocidas. • En este caso, el estadístico para el contraste y las regiones críticas son: )1,0(2 1 2 1 0 N mn YX Z      H1 : 1  2 H2 : 1 > 2 H3 : 1 < 2 z0 > z/2 z0 > z z0 < -z 136
  • 137. Tests de diferencias de medias • En segundo lugar, supongamos que tanto 1 como 2 son desconocidas y 1  2. • En este caso, el estadístico para el contraste y las regiones críticas, debidas a la aproximación de Welch, son:     11 ,)1,0( 22 2 22 1 22 1 2 1 2 1 2 1 0               m nS n nS m S n S fNt m S n S YX T f  H1 : 1  2 H2 : 1 > 2 H3 : 1 < 2 t0 > t/2,f t0 > t,f t0 < -t,f 137
  • 138. Tests de diferencias de medias • En tercer lugar, supongamos que tanto 1 como 2 son desconocidas pero 1 = 2. • En este caso, el estadístico para el contraste y las regiones críticas son:     2 11 , 11 2 2 22 1 20        mn SnSn St mn S YX T pmn p H1 : 1  2 H2 : 1 > 2 H3 : 1 < 2 t0 > t/2,n+m-2 t0 > t, n+m-2 t0 < -t, n+m-2 138
  • 139. Ejercicio: diferencias de medias en una población con tres grupos • Disponemos de una muestra de tamaño 100 de tres poblaciones, identificadas como grupos A, B y C, y queremos contrastar diferencias entre el grupo de control B y los otros dos grupos, A y C. • Realice con el software Stata sendos tests de diferencias de medias entre los grupos A-B y B-C e interprete los resultados.  ¿Existe diferencia entre A y B?  ¿Existe diferencia entre B y C?  Ficheros: Diferencias de medias AB.dta y Diferencias de medias BC.dta  Tiempo: 10 minutos  Ejercicio individual 139
  • 140. Ejercicio: diferencias de medias en una población con tres grupos • Considere ahora la salida del software JMP de SAS de un test de diferencias de medias entre los tres grupos.  ¿Hay evidencia de que los tres grupos son distintos en la característica medida?  ¿Refrenda esta salida sus conclusiones al comparar los grupos dos a dos?  ¿Cuántos grupos considera que hay en realidad en la muestra: dos o tres?  Fichero: Diferencia de medias A B C informe.TIFF  Tiempo: 10 minutos  Ejercicio en grupo 140
  • 141. Bibliografía • Principios de inferencia estadística • Autores: Ricardo Vélez Ibarrola y Alfonso García Pérez • UNED, 1993 141
  • 142. Técnicas cuantitativas de evaluación de políticas públicas Lima, 10 de septiembre de 2013
  • 143. • «Datos, datos, datos. No puedo fabricar ladrillos sin arcilla».
  • 144. Probabilidad condicionada • Concepto de probabilidad condicionada • Teorema de la probabilidad total • Teorema de Bayes o de la probabilidad inversa 144
  • 145. Probabilidad condicionada • Sea {  , A , P} un espacio probabilístico y A  A un suceso tal que P(A) > 0. Llamaremos probabilidad condicionada del suceso B  A respecto al suceso A a • A A = A  A es una -álgebra y la probabilidad P(·A) es una probabilidad sobre A A . Por ello, {A, A A , P(·A) } es un espacio probabilístico si P(A) > 0. P B A  P A B  P A  145
  • 146. Teorema de la probabilidad total • Sea {  , A , P} un espacio probabilístico y sea {An}nN  A un sistema completo de sucesos, es decir, una sucesión de sucesos disjuntos tal que • Sea B  A un suceso para el que se conocen las probabilidades condicionadas P(BAi) y supongamos que se conocen también las probabilidades P(Ai) > 0,  i  N. Entonces Ai  Aj  , i  j; An n1    P B  P B Ai  i1   P Ai  146
  • 147. Teorema de Bayes o de la probabilidad inversa (1764) • Sea {  , A , P} un espacio probabilístico y sea {An}nN  A un sistema completo de sucesos tal que P(Ai) > 0,  i  N. Sea B  A un suceso con P(B) > 0, para el que se conocen las probabilidades condicionadas P(BAi). Entonces, • A las probabilidades P(Ai) se les suele llamar probabilidades a priori; a las P(AiB), probabilidades a posteriori; y a las P(BAi), verosimilitudes.  P Ai B  P B Ai P Ai  P B Ai  i1   P Ai  , i  N 147
  • 148. Teorema de Bayes o de la probabilidad inversa (1764) • {An}nN se consideran hipótesis sobre una cuestión en estudio y tenemos una cierta información, subjetiva o no, acerca de dichas hipótesis, reflejadas en P(Ai). Supongamos que se produce el suceso B asociado a un experimento aleatorio, usualmente provocado por el investigador. El teorema de Bayes nos proporciona el medio para obtener la alteración provocada por B en nuestras hipótesis mediante las probabilidades a posteriori P(AiB). Tras esto, el investigador provocará otro suceso C del experimento aleatorio y utilizará las a las P(AiB) antes calculadas como probabilidades a priori para obtener nuevas probabilidades a posteriori. 148
  • 149. Teorema de Bayes o de la probabilidad inversa (1764) • Ejemplo: Tenemos una urna cerrada con cinco bolas cuya composición es desconocida. Hay dos posibilidades: la urna contiene tres bolas rojas y dos bolas blancas (hipótesis que llamaremos Urna I); o la urna contiene cuatro bolas blancas y una roja (Urna II). • Sea A1 el suceso “la urna es la Urna I” y A2 el suceso “la urna es la Urna II”. Al principio: P(A1)= P(A2)=1/2. Extraemos una bola de la urna y provocamos el suceso B: la bola extraída es blanca. Por el teorema de Bayes, calculamos P(A1B)=1/3 y P(A2B)=2/3. Utilizamos estas probabilidades condicionadas como nuevas probabilidades a priori y extraemos una segunda bola para provocar otro suceso C que nos dé más información sobre la composición de la urna. 149
  • 150. Ejercicio: teorema de Bayes • En el ejemplo anterior, considere que el suceso B es: “la primera bola extraída es roja” y el suceso C: “la segunda bola extraída es también roja”. Calcule las probabilidades a posteriori tras conocer ambos sucesos. • ¿Qué conclusión obtenemos de dichas probabilidades a posteriori?  Tiempo: 10 minutos  Ejercicio individual 150
  • 151. • «No cabe combinación de acontecimientos para los que la inteligencia del hombre no pueda concebir una explicación».
  • 152. Nociones de econometría • Distribución condicionada • Modelos de regresión lineal: la recta de regresión • Estimación por mínimos cuadrados ordinarios (MCO) • Diagnosis de modelos econométricos • Problema de endogeneidad • Método de las variables instrumentales • Estimación por mínimos cuadrados en dos etapas: 2SLS 152
  • 153. Distribución condicionada • Sea un vector aleatorio n-dimensional  = (X1, X2, ..., Xn) :   Rn que sigue una distribución N(, ). Consideramos una partición del vector  en dos vectores: un vector p-dimensional 1, y un segundo vector (n-p)-dimensional 2. Podemos suponer, sin pérdida de generalidad, que 1 está compuesto por las p primeras componentes de , mientras que 2 está compuesto por las (n-p) últimas primeras componentes de . 153
  • 154. Distribución condicionada • Con esta división podemos escribir: • Si llamamos • La variable aleatoria 1  2 =x2 tiene una distribución N(1+ (x2- 2), 11.2). El punto hace referencia a que la variable indicada ha sido fijada.                2221 1211 ,       21 1 2212112.11 1 2212   y 154
  • 155. Recta de regresión • La ecuación • representa la línea general de regresión de 1 sobre 2. La matriz se denomina matriz de regresión. El elemento que ocupa el lugar (i,j) en la matriz de regresión lo denominamos ij.p+1,p+2,…,n . )(1 2212     21 xx 1 2212   155
  • 156. Recta de regresión • A los elementos de la matriz de covarianzas de la distribución condicionada 11.2 los denotamos por ij.p+1,p+2,…,n . • El coeficiente de correlación entre Xi y Xj calculado a partir de la matriz de covarianzas de la distribución condicionada se denomina coeficiente de correlación parcial entre Xi y Xj cuando 2 =(Xp+1 , Xp+2 , … , Xn) ha sido fijado. Lo representamos por ij.p+1,p+2,…,n y viene dado por: ij.p1,p2,...,n  ij.p1,p2,...,n ii.p1,p2,...,n jj.p1,p2,...,n 156
  • 157. Recta de regresión • En resumen, la variable aleatoria • denominada residual, representa las discrepancias entre los verdaderos valores de 1 y el valor esperado. 1.2 cumple las siguientes condiciones: )( 2 1 22121.     2x    0'E ),0( 22 1 221212. 21 1 221212.         N 157
  • 158. Recta de regresión • Podemos por tanto considerar el siguiente modelo de previsión para la variable 1: • Esta es la base matemática de la regresión lineal por mínimos cuadrados.     )(1 2212 2x 158
  • 159. Recta de regresión • Ahora, llamando i al vector fila i-ésimo de la matriz 12 , suponemos =0 y consideramos una combinación lineal cualquiera del vector 2, obtenida multiplicado 2 por un vector fila cualquiera . Entonces la combinación lineal de 2 que minimiza la varianza de Xi –  2 y maximiza la correlación entre Xi y  2 se obtiene para el vector  = i donde .1 22   ii  159
  • 160. Recta de regresión • Al coeficiente de correlación entre Xi y i 2 se le denomina coeficiente de correlación múltiple. Se representa por i.p+1,p+2,…,n y se calcula de la siguiente forma: ii nppi   ’ ii  1 22 ,...,2,1.     160
  • 161. Recta de regresión • Siendo ii.p+1,p+2,…,n la varianza de Xi  2 = x2 , se cumple que: • por lo que el coeficiente de correlación múltiple mide la proporción de varianza de Xi atribuible a la variación de 2 = (Xp+1 , Xp+2 , … , Xn)  2 ,...,2,1. ,...,2,1. 1 nppiiinppii    161
  • 162. Recta de regresión en dos dimensiones • Consideremos dos variables aleatorias X e Y cuyo coeficiente de correlación lineal   0. Queremos hallar la recta que mejor ajuste la relación lineal entre ambas variables a través de unas pocas observaciones obtenidas a través de una muestra aleatoria de tamaño n {(xi, yi)}i=1, 2, …, n . Dicha relación vendrá dada por la siguiente expresión: Y   X  u , u  N 0,  162
  • 163. Recta de regresión en dos dimensiones • El problema se reduce a determinar los coeficientes  y  de la ecuación que mejor se ajuste a los n pares (xi,yi) observados, en el sentido de que se minimice la distancia entre lo encontrado (yi) y lo pronosticado . Estas distancias o diferencias entre los valores se denominan residuos y se denotan como ui.  iyˆ 163
  • 164. Recta de regresión en dos dimensiones • Los estimadores de los parámetros vienen dados por: • El parámetro  representa la ordenada en el origen, esto es, el valor que toma la variable dependiente cuando la variable independiente toma el valor 0. El parámetro  es la pendiente de la recta de regresión. xy s s X XY  ˆˆ;ˆ 2  164
  • 165. Recta de regresión en dos dimensiones • Gráficamente: ˆXY  ˆˆ  iii xyu ˆ 165
  • 166. Recta de regresión en dos dimensiones • Geométricamente, la recta de regresión lineal de Y con respecto a X minimiza la suma de las distancias verticales de los puntos a la recta. La recta de regresión lineal de X con respecto a Y minimiza las distancias horizontales. Las dos rectas se cortan en el centro de gravedad de la nube de puntos. La separación entre las dos rectas es mayor cuando la correlación es más débil.  yx, 166
  • 167. Estimación por mínimos cuadrados ordinarios (MCO) • El modelo poblacional a estudiar es: • donde Y es una variable dependiente unidimensional y Xi , i=1,…k, son variables aleatorias unidimensionales con distribución conocida, llamadas regresores. • Estimar un modelo consiste en encontrar valores para i , que denotamos , a partir de una muestra aleatoria.   ,0,22110 NuuXXXY kk   kii ,,2,1,ˆ  167
  • 168. Estimación por mínimos cuadrados ordinarios (MCO) • De forma equivalente, podemos escribir el modelo poblacional en forma matricial: • donde  ,0, NuuY  X  k k XXX   212 1 0 1,                   X      168
  • 169. Estimación por mínimos cuadrados ordinarios (MCO) • Si se cumplen los dos siguientes supuestos: • el modelo está identificado, es decir: los parámetros i , i=0,…k, pueden escribirse en términos de momentos de las variables observables Xi . Operando, obtenemos:         krango uuu   XX XX ' 0E,0E0'E    Y'E'E -1 XXX 169
  • 170. Estimación por mínimos cuadrados ordinarios (MCO) • Tomando una muestra aleatoria de tamaño N de la población, {yi, xi=(1, xi1 , xi2 , …, xik)}i=1, 2, …, N , el estimador para los parámetros se obtiene sustituyendo los momentos poblaciones por los momentos muestrales: • donde   yxxxxxx -1 -1 ''''ˆ 1 1 1 1                   N i ii N i ii yNN                                   N i NkNjN kji kj y y y xxx xxx xxx 1 1 111 1111 e 1 1 1 yx      170
  • 171. Estimación por mínimos cuadrados ordinarios (MCO) • Si además se cumple el supuesto débil de homocedasticidad • que implica que el error cuadrático está incorrelado con cada xi , xi 2 o cualquier producto cruzado de la forma xi xj , 1  i < j  k, podemos asegurar que, asintóticamente, • donde A=  E u2 X'X 2 E X'X ,    12, A,0-ˆ    NN N   .'E XX 171
  • 172. Ejercicio 1: estimación por MCO • Tenemos una muestra aleatoria de los valores de antigüedad (en años) y de precio (en centenas de dólares) de 10 coches Corvettes. • Ajuste un modelo lineal por mínimos cuadrados ordinarios con los datos. • ¿Cree que el modelo lineal es suficiente para explicar la relación existente entre la antigüedad del vehículo y su precio de venta?  Fichero: Corvettes.dta  Tiempo: 5 minutos  Ejercicio individual 172
  • 173. Ejercicio 1: estimación por MCO • Esta es la salida de Stata. 173
  • 174. Ejercicio 2: estimación por MCO • Tenemos una muestra aleatoria de tamaño 100 con una variable dependiente Y y 5 variables independientes X1, ... X5. • Ajuste un modelo lineal por mínimos cuadrados ordinarios con los datos. • ¿Son todas las variables relevantes?  Fichero: MCO.dta  Tiempo: 5 minutos  Ejercicio individual 174
  • 175. Ejercicio 2: estimación por MCO • Esta es la salida de Stata con las variables X1, X2, X3, X4 y X5.
  • 176. Ejercicio 2: estimación por MCO • Esta es la salida de Stata con las variables X1, X2 y X3.
  • 177. Econometría • La econometría es la rama de la economía que hace un uso extensivo de modelos matemáticos y estadísticos así como de la programación lineal y la teoría de juegos para analizar, interpretar y hacer predicciones sobre sistemas económicos. • La econometría, en tanto que “medida de los procesos económicos”, provee modelos y técnicas útiles a la hora de evaluar el óptimo uso de los recursos. 177
  • 178. Diagnosis de modelos econométricos • En econometría la diagnosis de un modelo es el punto esencial. • Tras construir un modelo (por ejemplo, mediante mínimos cuadrados ordinarios) hay que realizar su correcta diagnosis. Para ello, existen contrastes de hipótesis matemáticos bien formulados. • Solo cuando un modelo pasa la diagnosis, se pueden hacer predicciones. 178
  • 179. Diagnosis de modelos econométricos • Para diagnosticar un modelo, realizamos en este orden los siguientes contrastes. Los marcados con asterisco (*) pueden obviarse para la diagnosis de un modelo provisional, pero deben incluirse en el modelo definitivo.  Significatividad individual de los parámetros estimados: los parámetros no pueden ser nulos.  Significatividad conjunta de los parámetros estimados: no todos pueden ser nulos.  R2: indica el buen ajuste del modelo. Es suficiente pero no necesario. 179
  • 180. Diagnosis de modelos econométricos R2: indica el buen ajuste del modelo. Es suficiente pero no necesario. Ausencia de autocorrelación. Si en el modelo hay varios términos de error ut , t = 1, ..., T, (por ejemplo cuando se trabaja con series temporales o con varias variable dependientes), se debe cumplir que Cov(ur, us)=0,  r  s. Ausencia de heterocedasticidad. V(uX1, X2, ... , Xk) = σ 2. *Ausencia de endogeneidad. Las variables X1, X2, ... , Xk no están correlacionadas con el término de error u: E(uX1, X2, ... , Xk) = 0. 180
  • 181. Diagnosis de modelos econométricos Ausencia de multicolinealidad. Las variables X1, X2, ... , Xk son linealmente independientes, es decir, no existe relación lineal exacta entre ellas. Esta hipótesis se denomina hipótesis de independencia, y cuando no se cumple, decimos que el modelo presenta multicolinealidad. *El modelo debe presentar linealidad. La variable Y es aleatoria, ya que depende de la variable aleatoria u. Además, la relación entre Y y X1, X2, ... , Xk es efectivamente lineal. 181
  • 182. Diagnosis de modelos econométricos *El modelo debe estar bien especificado: forma funcional, variables omitidas y redundantes. Ausencia de errores de especificación: suponemos que todas las variables Xi que son relevantes para la explicación de la variable Y están incluidas en la definición del modelo lineal. Ausencia de regresores estocásticos. En el modelo, las variables X1, X2, ... , Xk se consideran deterministas (no variables aleatorias), ya que su valor es constante al provenir de una muestra. Normalidad de los residuos. Todas las variables ut  N(0,t). 182
  • 183. Problema de endogeneidad • En los diseños cuasiexperimentales es habitual la presencia de sesgo de selección. Eso implica que no se verifica una de las condiciones para estimar el modelo lineal por MCO, a saber: • Es decir: una o varias de las Xi no son exógenas.     0E0'E  XX uu 183
  • 184. Problema de endogeneidad • Podemos suponer, sin pérdida de generalidad, que solo Xk podría ser endógena mientras que son exógenas el resto de las Xi , i=1, … , k – 1. Una posible razón es que u contiene una variable omitida (no observada) q incorrelada con todos los regresores menos con Xk. 184
  • 185. Método de las variables instrumentales • El método de las variables instrumentales resuelve el problema de variables exógenas entre los regresores. Requerimos contar con una variable observable, Z1, distinta a todas las Xi , i=1, … , k, que satisfaga las siguientes condiciones: • Entonces podemos decir que Z1 es una posible variable instrumental o un posible instrumento para Xk y la ecuación se llama forma reducida de Xk.         0),,,(E ,0,:0 0E0E 111 11122110 11      kk kkkkkk rZXX NrrZXXXX ZuuZ    185
  • 186. Método de las variables instrumentales • En el modelo a estimar, sustituimos Xk por la expresión de su forma reducida para obtener: • donde v es el error de la forma reducida y j y 1los parámetros de la forma reducida. En esta ecuación, gracias a nuestros supuestos, se cumple que: • y por ello dichos parámetros se pueden estimar por MCO.  E (X1, ,Xk1,Z 1)v  0   11 111122110 1,,1, ,0, 1    k jkjj Zkkkk kj NruvvZXXXY       186
  • 187. Mínimos cuadrados en dos etapas: 2SLS • Supongamos ahora que tenemos más de un instrumento para Xk, es decir tenemos m > 1 variables Zh, h=1,…,m, distintas todas ellas de las Xi , i=1,…k, que satisfacen las siguientes condiciones:         0),,,,,(E ,0 :0,,,1 ,,1,0E0E 111 111122110       kmk kk kmmkkkh hh rZZXX Nr rZZXXXXmh mhZuuZ      187
  • 188. Mínimos cuadrados en dos etapas: 2SLS • En este caso, hacemos la regresión de Xk sobre Xi y Zh, i=1,…k-1, h=1,…m, y obtenemos una estimación de Xk, que denotamos como Xk*. En la ecuación original utilizamos Xk* en lugar de la Xk y resolvemos por MCO. • De hecho, Xk* se interpreta a menudo como la parte de Xk incorrelada con u. Si Xk es endógena, es porque rk está correlado con u:   0E kur 188
  • 189. Mínimos cuadrados en dos etapas: 2SLS • Vamos a ver ahora el caso general. Supongamos el modelo: • donde • pero algunos elementos de X están correlados con u:  ,0, NuuY  +X                    k kXXX       2 1 0 21 ,1 X     0E0'E  XX uu 189
  • 190. Mínimos cuadrados en dos etapas: 2SLS • Supongamos que existe un vector Z de dimensiones 1 x L que incluye constante que cumple: • y satisface la condición de rango • y la condición de orden     0E0'E  ZZ uu     krango Lrango   XZ ZZ 'E 'E L > k 190
  • 191. Mínimos cuadrados en dos etapas: 2SLS • Tomando una muestra aleatoria de tamaño N de la población, {yi, xi=(1, xi1 , xi2 , …, xik), zi=(1, zi1 , zi2 , …, ziL)}i=1, 2, …, N , el estimador 2SLS para los parámetros se obtiene en función de los momentos muestrales: • donde:         yzzzzxxzzzzxzzzzxxzzzzx ’’’’’’’’’’’’ˆ 1 111 1 111                                                 N i ii N i ii N i ii N i ii N i ii N i ii y x  1 x11 x1 j x1k 1 xi1 x1 j x1k 1 xN1 xNj xNk                 , z 1 z11 z1h z1L 1 zi1 z1h z1L 1 zN1 zNh zNL               e y  y1 yi yN               191
  • 192. Mínimos cuadrados en dos etapas: 2SLS • Si además se cumple el supuesto débil de homocedasticidad • que implica que el error cuadrático está incorrelado con cada Zi , Zi 2 o cualquier producto cruzado de la forma Zi Zj , 1  i < j  L, podemos asegurar que, asintóticamente: • donde    ZZZZ 'E'E 22 u    12, A,0-ˆ    NN N       .'E'E'EA -1 XZZZZX 192
  • 193. Ejercicio: problema de endogeneidad • Considere su diseño del programa PIPE. ¿Cree que puede haber algún problema de endogeneidad? En caso afirmativo:  ¿Qué variable o variables pueden presentar dicho problema?  ¿Qué instrumento o instrumentos podría utilizar para subsanar el problema de endogeneidad?  Tiempo: 15 minutos  Ejercicio en grupo 193
  • 194. Bibliografía • Introductory Econometrics: A Modern Approach, fifth international edition • Autor: Jeffrey M. Wooldridge • South-Western CENGAGE Learning, 2013 • Econometric Analysis of Cross Section and Panel Data, second edition • Autor: Jeffrey M. Wooldridge • MIT Press, 2010 • Econometric Analysis (7th Edition) • Autor: William H. Greene • Prentice Hall, 2012 • 194
  • 195. ¡Gracias por su atención! Joaquín María Núñez Varo Analista del Departamento de Evaluación ICEX España Exportación e Inversiones joaquin.m.nunez@icex.es