2. Variables Dependientes
Limitadas
• El enfoque tradicional para la estimación de
modelos de variable dependiente limitada (LDV)
es “parametric maximum likelihood”.
• Se construye un modelo paramétrico, permitiendo
que la función de probabilidad de formas de
construcción.
• Un enfoque más moderno es semi parametrico,
eliminando la dependencia de una asunción de
distribución paramétrica.
3. Variables Dependientes
Limitadas
• Una "variable dependiente limitada" es
una que tiene un conjunto de valores
"limitado".
• Los casos más comunes son:
“Binary”: 𝑦 ∈ {0,1}
“Multinomial”: 𝑦 ∈
{0,1,2,3,….,k}
“Integer”: 𝑦 ∈ {0,1,2,….}
“Censored”: 𝑦 ∈ ℝ⁺
4. Variables Dependientes
Limitadas
• Esta vez solo les voy a hablar del
primer enfoque (paramétrico).
• Una cuestión práctica importante
es la construcción de la función de
probabilidad.
5. “Binary Choice”
• La variable dependiente 𝑦ᵢ ∈ {0,1}.
• Esto representa un Sí /No resultado.
• Dado algunos regresores 𝑥ᵢ, el objetivo es
describir 𝑃𝑟(𝑦ᵢ = 1| 𝑥ᵢ ), esta es la
distribución condicional completa.
• Las especificadas del modelo de
probabilidad lineal son: 𝑃𝑟 (𝑦ᵢ = 1| 𝑥ᵢ ) 𝑥ʹᵢβ
6. “Binary Choice”
• Como 𝑃𝑟 (𝑦 = 1| 𝑥ᵢ ) = E (𝑦ᵢ | 𝑥ᵢ), esto
produce la regresión: 𝑦ᵢ = 𝑥ʹᵢβ + eᵢ, que
puede ser estimada por la OLS.
• Sin embargo, el modelo de
probabilidad lineal impone la restricción
de que:
0 ≤ 𝑃𝑟 (𝑦ᵢ|𝑥ᵢ ) ≤ 1.
• Aun así la estimación de un modelo de
probabilidad lineal es un punto de
partida útil para análisis posteriores.
7. “Binary Choice”
• La alternativa estándar es utilizar una
función de la forma: 𝑃𝑟 (𝑦 = 1| 𝑥ᵢ ) = 𝐹
(𝑥ʹᵢβ)
• Donde 𝐹 (∙) es la nueva CDF,
normalmente se supone que es
simétrico sobre cero, por lo que 𝐹 (𝑢) =
1 – F (- 𝑢).
• Las dos opciones estándar para F son:
Logística: 𝐹 (u) = (1 + 𝑒−𝑢)−1
8. “Binary Choice”
• Si 𝐹 es logístico, llamamos a esto el modelo
logico, y si F es normal se le llama a esto
"probit model".
• Este modelo es idéntico al modelo variable
latente
𝑦∗
ᵢ = 𝑥ʹᵢβ + eᵢ
eᵢ ~ F(∙)
𝑦ᵢ = { 1 si 𝑦∗
ᵢ > 0
= { 0 “otherwise”
10. “Binary Choice”
• Para construir la probabilidad, necesitamos la
distribución condicional de una observación
individual.
• Recordar que si es Bernoulli, tal que 𝑃𝑟
(𝑦 =1) = 𝑝 y 𝑃𝑟 (𝑦=0) = 1 – 𝑝, entonces
podemos escribir la densidad como:
𝑓(𝑦) = 𝑝 𝑦 (1 −𝑝)
1 −𝑦
, 𝑦 = 0,1
11. “Binary Choice”
• En el “Binary choice model”, 𝑦ᵢ, es
condicionalmente Bernoulli con:
𝑃𝑟 (𝑦ᵢ = 1| 𝑥ᵢ ) = 𝑝ᵢ = 𝐹 (𝑥ʹᵢβ).
• Por lo tanto es la densidad condicional
𝑓(𝑦ᵢ| 𝑥ᵢ ) = 𝑝
𝑦ᵢ
ᵢ (1− 𝑝ᵢ )
1 −𝑦ᵢ
= 𝐹 (𝑥ʹᵢβ)
𝑦ᵢ
(1 − 𝐹(𝑥ʹᵢβ))
1 −𝑦ᵢ
12. “Binary Choice”
• Por lo tanto es la función de "log-likelihood“
𝑙𝑜𝑔 𝐿 (β) = ᵢ=0
𝑛
log 𝑓 (𝑦ᵢ| 𝑥ᵢ)
= ᵢ=0
𝑛
log ( 𝐹 (𝑥ʹᵢβ)
𝑦ᵢ
(1 − 𝐹(𝑥ʹᵢβ))
1 −𝑦ᵢ
= ᵢ=0
𝑛
[𝑦ᵢ 𝑙𝑜𝑔𝐹(𝑥ʹᵢβ)+(1- 𝑦ᵢ)𝑙𝑜𝑔(1-𝐹
(𝑥ʹᵢβ))]
= 𝑦ᵢ=1 𝑙𝑜𝑔𝐹(𝑥ʹᵢβ) +
𝑦ᵢ=0 𝑙𝑜𝑔(1−𝐹 (𝑥ʹᵢβ))
13. “Binary Choice”
• La MLE β^ es el valor de β que
maximiza el registro 𝑙𝑜𝑔 (β).
• Estadísticas de prueba y errores
estándares se calculan por
aproximaciones asintóticas.