2. Variables Dependientes
Limitadas
• El enfoque tradicional para la estimación de
modelos de variable dependiente limitada
(LDV) es “parametric maximum likelihood”.
• Se construye un modelo paramétrico,
permitiendo que la función de probabilidad
de formas de construcción.
• Un enfoque más moderno es semi
parametrico, eliminando la dependencia de
una asunción de distribución paramétrica.
3. Variables Dependientes
Limitadas
• Una "variable dependiente
limitada" es una que tiene un
conjunto de valores "limitado".
• Los casos más comunes son:
“Binary”: 𝑦 ∈ {0,1}
“Multinomial”: 𝑦 ∈
{0,1,2,3,….,k}
“Integer”: 𝑦 ∈ {0,1,2,….}
“Censored”: 𝑦 ∈ ℝ⁺
4. Variables Dependientes
Limitadas
• Esta vez solo les voy a hablar
del primer enfoque
(paramétrico).
• Una cuestión práctica
importante es la construcción
de la función de probabilidad.
5. “Binary Choice”
• La variable dependiente 𝑦ᵢ ∈ {0,1}.
• Esto representa un Sí /No resultado.
• Dado algunos regresores 𝑥ᵢ, el objetivo
es describir 𝑃𝑟(𝑦ᵢ = 1| 𝑥ᵢ ), esta es la
distribución condicional completa.
• Las especificadas del modelo de
probabilidad lineal son: 𝑃𝑟 (𝑦ᵢ = 1| 𝑥ᵢ )
𝑥ʹᵢβ
6. “Binary Choice”
• Como 𝑃𝑟 (𝑦 = 1| 𝑥ᵢ ) = E (𝑦ᵢ | 𝑥ᵢ),
esto produce la regresión: 𝑦ᵢ = 𝑥ʹᵢβ +
eᵢ, que puede ser estimada por la
OLS.
• Sin embargo, el modelo de
probabilidad lineal impone la
restricción de que:
0 ≤ 𝑃𝑟 (𝑦ᵢ|𝑥ᵢ ) ≤ 1.
• Aun así la estimación de un modelo
de probabilidad lineal es un punto
7. “Binary Choice”
• La alternativa estándar es utilizar
una función de la forma: 𝑃𝑟 (𝑦 = 1|
𝑥ᵢ ) = 𝐹 (𝑥ʹᵢβ)
• Donde 𝐹 (∙) es la nueva CDF,
normalmente se supone que es
simétrico sobre cero, por lo que 𝐹
(𝑢) = 1 – F (- 𝑢).
• Las dos opciones estándar para F
son:
Logística: 𝐹 (u) = (1 + 𝑒−𝑢)−1
8. “Binary Choice”
• Si 𝐹 es logístico, llamamos a esto el
modelo logico, y si F es normal se le llama
a esto "probit model".
• Este modelo es idéntico al modelo
variable latente
𝑦∗
ᵢ = 𝑥ʹᵢβ + eᵢ
eᵢ ~ F(∙)
𝑦ᵢ = { 1 si 𝑦∗
ᵢ > 0
= { 0 “otherwise”
10. “Binary Choice”
• Para construir la probabilidad,
necesitamos la distribución condicional
de una observación individual.
• Recordar que si es Bernoulli, tal que 𝑃𝑟
(𝑦 =1) = 𝑝 y 𝑃𝑟 (𝑦=0) = 1 – 𝑝, entonces
podemos escribir la densidad como:
𝑓(𝑦) = 𝑝 𝑦
(1 −𝑝)
1 −𝑦
, 𝑦 = 0,1
11. “Binary Choice”
• En el “Binary choice model”, 𝑦ᵢ, es
condicionalmente Bernoulli con:
𝑃𝑟 (𝑦ᵢ = 1| 𝑥ᵢ ) = 𝑝ᵢ = 𝐹 (𝑥ʹᵢβ).
• Por lo tanto es la densidad condicional
𝑓(𝑦ᵢ| 𝑥ᵢ ) = 𝑝
𝑦ᵢ
ᵢ (1− 𝑝ᵢ )
1 −𝑦ᵢ
= 𝐹 (𝑥ʹᵢβ)
𝑦ᵢ
(1 − 𝐹(𝑥ʹᵢβ))
1 −𝑦ᵢ
12. “Binary Choice”
• Por lo tanto es la función de "log-
likelihood“
𝑙𝑜𝑔 𝐿 (β) = ᵢ=0
𝑛
log 𝑓 (𝑦ᵢ| 𝑥ᵢ)
= ᵢ=0
𝑛
log ( 𝐹 (𝑥ʹᵢβ)
𝑦ᵢ
(1 − 𝐹(𝑥ʹᵢβ))
1 −𝑦ᵢ
= ᵢ=0
𝑛
[𝑦ᵢ 𝑙𝑜𝑔𝐹(𝑥ʹᵢβ)+(1- 𝑦ᵢ)𝑙𝑜𝑔(1-𝐹
(𝑥ʹᵢβ))]
= 𝑦ᵢ=1 𝑙𝑜𝑔𝐹(𝑥ʹᵢβ) +
𝑦ᵢ=0 𝑙𝑜𝑔(1−𝐹 (𝑥ʹᵢβ))
13. “Binary Choice”
• La MLE β^ es el valor de β que
maximiza el registro 𝑙𝑜𝑔 (β).
• Estadísticas de prueba y errores
estándares se calculan por
aproximaciones asintóticas.