SlideShare una empresa de Scribd logo
1 de 60
MODELOS DE ELECCIÓN DISCRETA II
Julio Cesar Lavado Yarasca
Ing. Civil (Universidad Nacional de Ingeniería)
Mg. Economía (Universidad del Pacifico)
TEORIA DEL CONSUMIDOR
• La Teoría del Consumidor parte del supuesto de
que los individuos tienen preferencias (gustos)
sobre los bienes
• Problema: las preferencias no son observables. No
obstante, podemos inferir los gustos a partir de lo
que los individuos eligen
• Si eliges A cuando B también era posible, debe ser
que te gusta más A que B
Estudiamos la elección óptima del consumidor en
tres etapas:
1) Las preferencias del consumidor.
2) La restricción presupuestaria.
3) La elección del consumidor.
La teoría del consumidor es una rama de
la microeconomía, que estudia el comportamiento de
un agente económico en su carácter
de consumidor de bienes y de servicios encaminada a
la obtención de la curva de demanda del consumidor
para los distintos bienes, llegando al concepto de
utilidad marginal. Esta teoría relaciona
las preferencias, las curvas de indiferencia y
las restricciones presupuestarias a las curvas
de demanda del consumidor.
El primer intento teórico encaminado a proporcionar una
explicación válida de la formación de la demanda del consumidor
es la teoría de la utilidad. Su fundamento básico se encuentra en el
concepto de utilidad, entendida como la capacidad de un bien para
satisfacer una necesidad humana.
Gran parte de la economía del comportamiento surge
del hecho de que las personas tienen un lado emocional
e irracional que los modelos económicos tradicionales
no logran incorporar.
Modelos de elección discreta
La probabilidad
Ejemplo - Elección considerando la probabilidad
3. The LOGIT Model
The Independece of Irrelevant Alternatives IIA
Elasticities of choice
4. Sequencing Stochastic Choice
5. Choice Functions and Demand Functions
6. Calibration of Choice Models
Introducción
Multinomial Disaggregate Models
Binomial Disaggregate Models
Multinomial Aggregate Models
Binomial Aggregate Models
ANEXOS
1. Demostración del desarrollo de las ecuaciones de probabilidad
2. Ejemplo distribución multinomial
𝑝𝑖=prob 𝑈𝑖 > 𝑈𝑗
𝑝𝑖=prob 𝑉𝑖 + 𝜀𝑖 > 𝑉
𝑗 + 𝜀𝑗
𝑝𝑖=prob 𝜀𝑗 < 𝑉𝑖 − 𝑉
𝑗 + 𝜀𝑖 ó 𝑝𝑖=prob 𝜀𝑗 < 𝜀 atribuimos en esta ecuación como si toda la información fuera NO observada
𝑝𝑖= 𝑓 𝜀 𝑑(𝜀) se conoce que la función f(𝜀) = 𝑓 𝜀1, 𝜀2, … , 𝜀𝑖−1, 𝜀𝑖, 𝜀𝑖+1, … , 𝜀𝐽−1, 𝜀𝐽
= 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1 𝑓 𝜀𝐽
= 𝐽 𝑓(𝜀𝐽)
MODELOS DE ELECCION DISCRETA
Probabilidad
Los errores 𝜀𝑖 y 𝜀𝑗 son los máximos de varios variables aleatorias, los cuales capturan los atributos no
observables como el estado de ánimo, experiencia, errores de medición y errores de especificación
The Extreme Value distribution EV(𝜂, 𝜇) [Gumbel = EV Tipo I]
𝑓 𝑡 = 𝜇𝑒−𝜇(𝑡−𝜂)𝑒−𝑒−𝜇(𝑡−𝜂)
𝑝 𝜀 ≤ 𝑐 = 𝐹 𝑐 =
−∞
𝑐
𝑓 𝑡 𝑑𝑡
= 𝑒−𝑒−𝜇(𝑐−𝜂)
Probability density
function (pdf)
Cumulative distribution
function (cdf)
𝑈𝑖 = 𝑉𝑖 + 𝜀𝑖
Credit: Getty
Images/iStockph
oto
Copyright:
chege011
𝑝𝑖=prob 𝑈𝑖 > 𝑈𝑗
𝑝𝑖=prob 𝑉𝑖 + 𝜀𝑖 > 𝑉
𝑗 + 𝜀𝑗
𝑝𝑖=prob 𝜀𝑗 < 𝑉𝑖 − 𝑉
𝑗 + 𝜀𝑖 ó 𝑝𝑖=prob 𝜀𝑗 < 𝜀 atribuimos en esta ecuación como si toda la información fuera NO observada
𝑝𝑖= 𝑓 𝜀 𝑑(𝜀) se conoce que la función f(𝜀) = 𝑓 𝜀1, 𝜀2, … , 𝜀𝑖−1, 𝜀𝑖, 𝜀𝑖+1, … , 𝜀𝐽−1, 𝜀𝐽
= 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1 𝑓 𝜀𝐽
= 𝐽 𝑓(𝜀𝐽)
MODELOS DE ELECCION DISCRETA
Probabilidad
Los errores 𝜀𝑖 y 𝜀𝑗 son los máximos de varios variables aleatorias, los cuales capturan los atributos no
observables como el estado de ánimo, experiencia, errores de medición y errores de especificación
The Extreme Value distribution EV(𝜂, 𝜇) [Gumbel = EV Tipo I]
𝑓 𝑡 = 𝜇𝑒−𝜇(𝑡−𝜂)𝑒−𝑒−𝜇(𝑡−𝜂)
𝑝 𝜀 ≤ 𝑐 = 𝐹 𝑐 =
−∞
𝑐
𝑓 𝑡 𝑑𝑡
= 𝑒−𝑒−𝜇(𝑐−𝜂)
Probability density
function (pdf)
Cumulative distribution
function (cdf)
𝑝𝑖=prob 𝑈𝑖 > 𝑈𝑗
𝑝𝑖=prob 𝑉𝑖 + 𝜀𝑖 > 𝑉
𝑗 + 𝜀𝑗
𝑝𝑖=prob 𝜀𝑗−𝜀𝑖< 𝑉𝑖 − 𝑉
𝑗
𝑝𝑖=prob 𝜀𝑛 < 𝑉𝑖 − 𝑉
𝑗 … … … . . (𝐴)
MODELOS DE ELECCION DISCRETA
Probabilidad - LOGIT
𝑆𝑒𝑎 ∶ 𝜀𝑛 = 𝜀𝑗 −𝜀𝑖
𝜀𝑖~ 𝐸𝑉 0, 𝜇
𝜀𝑗~ 𝐸𝑉 0, 𝜇
𝜀𝑛~ 𝐿𝑜𝑔𝑖𝑠𝑡𝑖𝑐𝑎(0, 𝜇)
𝑓 𝑡 =
𝜇𝑒−𝜇(𝑡−𝜂)
(1 − 𝑒−𝜇(𝑡−𝜂))2
𝑝 𝜀 ≤ 𝑐 = 𝐹 𝑐 =
−∞
𝑐
𝑓 𝑡 𝑑𝑡
=
1
1 + 𝑒−𝜇(𝑐−𝜂)
Probability density
function (pdf)
Cumulative distribution
function (cdf)
Si: 𝜀 ~𝐸𝑉 0, 𝜇
Entonces: E[𝜀] = 𝜂 +
𝛾
𝜇
y Var[𝜀] =
𝜋2
6𝜇2
Donde 𝛾 es la constante de EULER
𝛾 = - 0
∞
𝑒−𝑥 ln 𝑥 𝑑𝑥 ≈ 0.5772
𝑝𝑖=prob 𝜀𝑛 < 𝑉𝑖 − 𝑉
𝑗
𝑝𝑖=
1
1+𝑒
−𝜇(𝑉𝑖−𝑉𝑗)
𝑝𝑖=
𝑒𝜇𝑉𝑖
𝑒𝜇𝑉𝑖+𝑒
𝜇𝑉𝑗
𝑠𝑖 𝜇=1
𝑝𝑖=
𝑒𝑉𝑖
𝑒𝑉𝑖+𝑒
𝑉𝑗
Usando la distribución logística para el calculo de
𝑝𝑖 (A)
𝑝𝑖=prob 𝑈𝑖 > 𝑈𝑗
𝑝𝑖=prob 𝑉𝑖 + 𝜀𝑖 > 𝑉
𝑗 + 𝜀𝑗
𝑝𝑖=prob 𝜀𝑗−𝜀𝑖< 𝑉𝑖 − 𝑉
𝑗
𝑝𝑖=prob 𝜀𝑛 < 𝑉𝑖 − 𝑉
𝑗 … … … . . (𝐴)
MODELOS DE ELECCION DISCRETA
Probabilidad - PROBIT
𝑆𝑒𝑎 ∶ 𝜀𝑛 = 𝜀𝑗 −𝜀𝑖
Los términos de error representan todo lo que el analista
desconoce.
La suposición posible es que todos estos elementos se
suman para formar los términos de error. Luego, invocando
el teorema del límite central, siguen una distribución normal.
𝑝𝑖= 𝑝 𝜀 ≤ 𝑐 = 𝐹 𝑐 =
−∞
𝑐
𝑓 𝑡 𝑑𝑡
Cumulative distribution
function (cdf)
𝜀𝑖 ~ 𝑁 0, 𝜎𝑖
2
𝜀𝑗 ~ 𝑁 0, 𝜎𝑗
2
y 𝑒𝑥𝑖𝑠𝑡𝑒 𝑢𝑛𝑎 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖𝑜𝑛 𝜎𝑖𝑗
𝜀𝑛~ 𝑁(0, 𝜎) 𝜎 = 𝜎𝑖
2
+𝜎𝑗
2
-2 𝜎𝑖𝑗
𝑝𝑖= 𝑝 𝜀 ≤ 𝑐 =
𝜀=−∞
𝑉𝑖−𝑉𝑗 1
𝜎 2𝜋
𝑒−
1
2(
𝜀
𝜎)2
𝑑𝜀
𝑝𝑖= 𝑝 𝜀 ≤ 𝑐 = Φ
𝑉𝑖 − 𝑉
𝑗
𝜎
=
𝑢=−∞
𝑉𝑖−𝑉𝑗
𝜎
𝑒−
1
2
(𝑢)2
𝑑𝑢
𝑢 = 𝜀
𝜎
𝑑𝑢 = 𝑑𝜀
𝜎
Φ . 𝐶𝐷𝐹 𝑜𝑓 𝑎 𝑠𝑡𝑎𝑛𝑑𝑎𝑟𝑑𝑖𝑧𝑒𝑑 𝑛𝑜𝑟𝑚𝑎𝑙 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛
𝑝𝑖=prob 𝜀𝑛 < 𝑉𝑖 − 𝑉
𝑗 … … … . . (𝐴)
MODELOS DE ELECCION DISCRETA
Probabilidad – LOGIT VS PROBIT
𝑝𝑖= 𝑝 𝜀 ≤ 𝑐 = Φ
𝑉𝑖 − 𝑉
𝑗
𝜎
=
𝑢=−∞
𝑉𝑖−𝑉𝑗
𝜎
𝑒−
1
2(𝑢)2
𝑑𝑢
𝑝𝑖=
𝑒𝑉𝑖
𝑒𝑉𝑖+𝑒
𝑉𝑗
=
1
1+𝑒
(𝑉𝑗−𝑉𝑗)
Vi-Vj Logit Probit
-5 0.007 0.000
-4.6 0.010 0.000
-4.2 0.015 0.000
-3.8 0.022 0.000
-3.4 0.032 0.000
-3 0.047 0.001
-2.6 0.069 0.005
-2.2 0.100 0.014
-1.8 0.142 0.036
-1.4 0.198 0.081
-1 0.269 0.159
-0.6 0.354 0.274
-0.2 0.450 0.421
0.2 0.550 0.579
0.6 0.646 0.726
1 0.731 0.841
1.4 0.802 0.919
1.8 0.858 0.964
2.2 0.900 0.986
2.6 0.931 0.995
3 0.953 0.999
3.4 0.968 1.000
3.8 0.978 1.000
4.2 0.985 1.000
4.6 0.990 1.000
5 0.993 1.000
𝑝𝑖=prob 𝜀𝑛 < 𝑉𝑖 − 𝑉
𝑗 … … … . . (𝐴)
MODELOS DE ELECCION DISCRETA
Probabilidad – Normallizacion prob 𝜀𝑛 < 𝑉𝑖 − 𝑉
𝑗 ====== prob 𝜀𝑛 < (𝑉𝑖±𝐾) − (𝑉
𝑗±𝐾)
Normalizacion 𝑎𝑠𝑐𝑏𝑖𝑐𝑖=0
𝑉𝑏𝑖𝑐𝑖 = −0.8𝐷 = -8
𝑉𝑚𝑒𝑡𝑟𝑜 = 3 − 0.5𝑇 − 1𝐶 = -9.2
𝑝𝑏𝑖𝑐𝑖
1
=
𝑒−8
𝑒−8+𝑒−9.2 = 0.77
Normalizacion 𝑎𝑠𝑐𝑚𝑒𝑡𝑟𝑜=0
𝑝𝑏𝑖𝑐𝑖
2
=
𝑒−11
𝑒−11+𝑒−12.2 = 0.77
ASC: alternative specific
D=10 km
T= 20 min
C= 2.2 $
𝑈𝑏𝑖𝑐𝑖 = 𝑉𝑏𝑖𝑐𝑖+ 𝜀𝑏𝑖𝑐𝑖
𝑈𝑚𝑒𝑡𝑟𝑜 = 𝑉𝑚𝑒𝑡𝑟𝑜+𝜀𝑚𝑒𝑡𝑟𝑜
𝑉𝑏𝑖𝑐𝑖 = 𝑎𝑠𝑐𝑏𝑖𝑐𝑖+ 𝑏𝐷𝐷
𝑉𝑚𝑒𝑡𝑟𝑜 = 𝑎𝑠𝑐𝑚𝑒𝑡𝑟𝑜+𝑏𝑇𝑇+ 𝑏𝐶𝐶
𝑉𝑏𝑖𝑐𝑖 − 3 = −3 − 0.8𝐷 = -11
𝑉𝑚𝑒𝑡𝑟𝑜 − 3 = −0.5𝑇 − 1𝐶 = -12.2
𝑝𝑏𝑖𝑐𝑖
1
= Φ 𝑉𝑏𝑖𝑐𝑖 − 𝑉𝑚𝑒𝑡𝑟𝑜 = Φ 1.2 = 0.88 𝑝𝑏𝑖𝑐𝑖
2
= Φ 𝑉𝑏𝑖𝑐𝑖 − 𝑉𝑚𝑒𝑡𝑟𝑜 = Φ 1.2 = 0.88
𝑝𝑚𝑒𝑡𝑟𝑜
1
= Φ 𝑉𝑚𝑒𝑡𝑟𝑜 − 𝑉𝑏𝑖𝑐𝑖 = Φ −1.2 =
0.12
𝑝𝑚𝑒𝑡𝑟𝑜
2
= Φ 𝑉𝑚𝑒𝑡𝑟𝑜 − 𝑉𝑏𝑖𝑐𝑖 = Φ −1.2 =
0.12
𝑝𝑏𝑖𝑐𝑖
1
=
𝑒−9.2
𝑒−8+𝑒−9.2 = 0.23 𝑝𝑏𝑖𝑐𝑖
2
=
𝑒−12.2
𝑒−11+𝑒−12.2 = 0.23
𝑝𝑖=prob 𝜀𝑛 < 𝑉𝑖 − 𝑉
𝑗 … … … . . (𝐴)
MODELOS DE ELECCION DISCRETA
Probabilidad – Normallizacion prob 𝜀𝑛 < 𝑉𝑖 − 𝑉
𝑗 ====== prob 𝐾𝜀𝑛 < 𝐾𝑉𝑖 − 𝑘𝑉
𝑗
Escalamiento 𝜇= 0.1
𝜇𝑉𝑏𝑖𝑐𝑖 = −0.8𝐷𝜇 = -8 𝜇 = -0.8
𝜇𝑉𝑚𝑒𝑡𝑟𝑜 = 3𝜇 − 0.5𝑇𝜇 − 1𝐶𝜇 = -9.2 𝜇 = -
0.92
𝑝𝑏𝑖𝑐𝑖
1
=
𝑒−0.8
𝑒−0.8+𝑒−0.92 = 0.53
Escalamiento 𝜇= 10
𝑝𝑏𝑖𝑐𝑖
2
=
𝑒−80
𝑒−80+𝑒−92 = 0.99
D=10 km
T= 20 min
C= 2.2 $
𝑈𝑏𝑖𝑐𝑖 = 𝜇𝑉𝑏𝑖𝑐𝑖+ 𝜀𝑏𝑖𝑐𝑖
𝑈𝑚𝑒𝑡𝑟𝑜 = 𝜇𝑉𝑚𝑒𝑡𝑟𝑜+𝜀𝑚𝑒𝑡𝑟𝑜
𝜇𝑉𝑏𝑖𝑐𝑖 = 𝜇𝑎𝑠𝑐𝑏𝑖𝑐𝑖+ 𝜇𝑏𝐷𝐷
𝜇𝑉𝑚𝑒𝑡𝑟𝑜 = 𝜇𝑎𝑠𝑐𝑚𝑒𝑡𝑟𝑜+𝜇𝑏𝑇𝑇+ 𝜇𝑏𝐶𝐶
𝑝𝑏𝑖𝑐𝑖
1
= Φ 𝑉𝑏𝑖𝑐𝑖 − 𝑉𝑚𝑒𝑡𝑟𝑜 = Φ 0.12 = 0.55 𝑝𝑏𝑖𝑐𝑖
2
= Φ 𝑉𝑏𝑖𝑐𝑖 − 𝑉𝑚𝑒𝑡𝑟𝑜 = Φ 12 = 1
𝑝𝑚𝑒𝑡𝑟𝑜
1
= Φ 𝑉𝑚𝑒𝑡𝑟𝑜 − 𝑉𝑏𝑖𝑐𝑖 = Φ −0.12 = 0.45 𝑝𝑚𝑒𝑡𝑟𝑜
2
= Φ 𝑉𝑚𝑒𝑡𝑟𝑜 − 𝑉𝑏𝑖𝑐𝑖 = Φ −12 = 0
𝑝𝑚𝑒𝑡𝑟𝑜
1
=
𝑒−0.92
𝑒−0.8+𝑒−0.92 = 0.47 𝑝𝑏𝑖𝑐𝑖
2
=
𝑒−92
𝑒−80+𝑒−92 = 0.01
𝜇𝑉𝑏𝑖𝑐𝑖 = −0.8𝐷𝜇 = -8 𝜇 = -80
𝜇𝑉𝑚𝑒𝑡𝑟𝑜 = 3𝜇 − 0.5𝑇𝜇 − 1𝐶𝜇 = -9.2 𝜇 = -
92
MODELOS DE ELECCION DISCRETA
Probabilidad – Normallizacion prob 𝜀𝑛 < 𝑉𝑖 − 𝑉
𝑗 ====== prob 𝐾𝜀𝑛 < 𝐾𝑉𝑖 − 𝑘𝑉
𝑗
K 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
Vi-Vj Logit 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
-5 0.007 0.378 0.269 0.182 0.119 0.076 0.047 0.029 0.018 0.011
-4.6 0.010 0.387 0.285 0.201 0.137 0.091 0.060 0.038 0.025 0.016
-4.2 0.015 0.397 0.302 0.221 0.157 0.109 0.074 0.050 0.034 0.022
-3.8 0.022 0.406 0.319 0.242 0.179 0.130 0.093 0.065 0.046 0.032
-3.4 0.032 0.416 0.336 0.265 0.204 0.154 0.115 0.085 0.062 0.045
-3 0.047 0.426 0.354 0.289 0.231 0.182 0.142 0.109 0.083 0.063
-2.6 0.069 0.435 0.373 0.314 0.261 0.214 0.174 0.139 0.111 0.088
-2.2 0.100 0.445 0.392 0.341 0.293 0.250 0.211 0.177 0.147 0.121
-1.8 0.142 0.455 0.411 0.368 0.327 0.289 0.254 0.221 0.192 0.165
-1.4 0.198 0.465 0.430 0.397 0.364 0.332 0.302 0.273 0.246 0.221
-1 0.269 0.475 0.450 0.426 0.401 0.378 0.354 0.332 0.310 0.289
-0.6 0.354 0.485 0.470 0.455 0.440 0.426 0.411 0.397 0.382 0.368
-0.2 0.450 0.495 0.490 0.485 0.480 0.475 0.470 0.465 0.460 0.455
0.2 0.550 0.505 0.510 0.515 0.520 0.525 0.530 0.535 0.540 0.545
0.6 0.646 0.515 0.530 0.545 0.560 0.574 0.589 0.603 0.618 0.632
1 0.731 0.525 0.550 0.574 0.599 0.622 0.646 0.668 0.690 0.711
1.4 0.802 0.535 0.570 0.603 0.636 0.668 0.698 0.727 0.754 0.779
1.8 0.858 0.545 0.589 0.632 0.673 0.711 0.746 0.779 0.808 0.835
2.2 0.900 0.555 0.608 0.659 0.707 0.750 0.789 0.823 0.853 0.879
2.6 0.931 0.565 0.627 0.686 0.739 0.786 0.826 0.861 0.889 0.912
3 0.953 0.574 0.646 0.711 0.769 0.818 0.858 0.891 0.917 0.937
3.4 0.968 0.584 0.664 0.735 0.796 0.846 0.885 0.915 0.938 0.955
3.8 0.978 0.594 0.681 0.758 0.821 0.870 0.907 0.935 0.954 0.968
4.2 0.985 0.603 0.698 0.779 0.843 0.891 0.926 0.950 0.966 0.978
4.6 0.990 0.613 0.715 0.799 0.863 0.909 0.940 0.962 0.975 0.984
5 0.993 0.622 0.731 0.818 0.881 0.924 0.953 0.971 0.982 0.989
𝑝𝑖=prob 𝑈𝑖 > 𝑈𝑗
𝑝𝑖=prob 𝑉𝑖 + 𝜀𝑖 > 𝑉
𝑗 + 𝜀𝑗
𝑝𝑖=prob 𝜀𝑗 < 𝑉𝑖 − 𝑉
𝑗 + 𝜀𝑖 ó 𝑝𝑖=prob 𝜀𝑗 < 𝜀 atribuimos en esta ecuación como si toda la información fuera NO observada
𝑝𝑖= 𝑓 𝜀 𝑑(𝜀) se conoce que la función f(𝜀) = 𝑓 𝜀1, 𝜀2, … , 𝜀𝑖−1, 𝜀𝑖, 𝜀𝑖+1, … , 𝜀𝐽−1, 𝜀𝐽
= 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1 𝑓 𝜀𝐽
= 𝐽 𝑓(𝜀𝐽)
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝑓 𝜀𝑖
𝑖≠𝑗
𝐹𝜀𝑗
𝑑 𝜀𝑖
ó
𝑝𝑖= 𝜀=−∞
+∞ 𝜕𝐹𝜀1,𝜀2,…,𝜀𝐽
𝜕𝜀𝑖
𝑉𝑖 − 𝑉1 + 𝜀𝑖, … , 𝑉𝑖 − 𝑉𝑖−1 + 𝜀𝑖, 𝜀𝑖, 𝑉𝑖 − 𝑉𝑖+1 + 𝜀𝑖, … , 𝑉𝑖 − 𝑉1 + 𝜀𝑖, 𝑑(𝜀)
Ecuación (a)
MODELOS DE ELECCION DISCRETA
Probabilidad
Ecuación (b)
Anexo 1 : Demostración del desarrollo de las
ecuaciones (a) y (b)
𝑝𝑖= 𝜀𝑖=−∞
+∞
𝑓 𝜀𝑖 𝑖≠𝑗 𝐹𝜀𝑗
𝑑 𝜀𝑖
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖𝑒−𝜃𝑒−𝜀𝑖
𝑖≠𝑗
𝑒−𝜃𝑒
−(𝑉𝑖−𝑉𝑗+𝜀𝑖)
𝑑 𝜀𝑖
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖
∀𝑗
𝑒−𝜃𝑒
−(𝑉𝑖−𝑉𝑗+𝜀𝑖)
𝑑 𝜀𝑖
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖 (𝑒−𝜃𝑒
−(𝑉𝑖−𝑉𝑗+𝜀𝑖)
)(𝑒−𝜃𝑒−(𝑉𝑖−𝑉𝑖+𝜀𝑖)
) 𝑑 𝜀𝑖
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖 (𝑒−𝜃𝑒
−(𝑉𝑖−𝑉𝑗+𝜀𝑖)+
−𝜃𝑒−(𝑉𝑖−𝑉𝑖+𝜀𝑖)
𝑑 𝜀𝑖
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖 𝑒−𝜃𝑒−𝜀𝑖(𝑒
−(𝑉𝑖−𝑉𝑗)
+1)
𝑑 𝜀𝑖
𝑡 = −𝜃𝑒−𝜀𝑖
𝑑𝑡 = 𝜃𝑒−𝜀𝑖𝑑𝜀𝑖
𝑝𝑖=
1
𝐾+1 −∞
0
(𝐾 + 1)𝑒𝑡(𝐾+1)
𝑑𝑡=
1
𝐾
[𝑒𝑝
]𝑝=−∞
𝑝=0
𝑝𝑖=
1
𝐾+1
[𝑒0
−𝑒−∞
]
𝑝𝑖=
1
𝐾 + 1
𝑝𝑖=
−∞
0
𝑒𝑡(𝐾+1) 𝑑𝑡
𝑝𝑖=
1
𝑒
−(𝑉𝑖−𝑉𝑗)
+1
=
1
𝑒
−𝑉𝑖+𝑉𝑗+1
=
1
𝑒−𝑉𝑖𝑒
𝑉𝑗+1
=
1
𝑒
𝑉𝑗
𝑒−𝑉𝑖
+1
𝑝𝑖=
𝑒𝑉𝑖
𝑒𝑉𝑖 + 𝑒𝑉𝑗
𝐾 = 𝑒−(𝑉𝑖−𝑉𝑗)
MODELOS DE ELECCION DISCRETA
LOGIT BINOMIAL
El desarrollo del modelo logit binomial se realizara a partir de la ecuación (a)
𝑝𝑖= 𝜀=−∞
+∞ 𝜕𝐹𝜀1,𝜀2,…,𝜀𝐽
𝜕𝜀𝑖
𝑉𝑖 − 𝑉1 + 𝜀𝑖, … , 𝑉𝑖 − 𝑉𝑖−1 + 𝜀𝑖, 𝜀𝑖, 𝑉𝑖 − 𝑉𝑖+1 + 𝜀𝑖, … , 𝑉𝑖 − 𝑉1 + 𝜀𝑖, 𝑑(𝜀)
𝐹(𝑥) = 𝑒−𝜃𝑒−𝑥
(distribución Gumbel) x=(𝜀𝑖, 𝜀𝑗)
𝐹𝜀(𝜀𝑖, 𝜀𝑗) = 𝑒−𝜃𝑒−𝜀𝑖
. 𝑒−𝜃𝑒
−𝜀𝑗
𝜕𝐹(𝜀𝑖,𝜀𝑗)
𝜕𝜀𝑖
= 𝑒−𝜃𝑒−𝜀𝑖
. 𝑒−𝜃𝑒
−𝜀𝑗
. 𝜃𝑒−𝜀𝑖
𝜕𝐹(𝜀𝑖,𝑉𝑖−𝑉𝑗+𝜀𝑖)
𝜕𝜀𝑖
= 𝑒−𝜃𝑒−𝜀𝑖
. 𝑒−𝜃𝑒
−(𝑉𝑖−𝑉𝑗+𝜀𝑖)
. 𝜃𝑒−𝜀𝑖
𝜕𝐹(𝜀𝑖,𝑉𝑖−𝑉𝑗+𝜀𝑖)
𝜕𝜀𝑖
= 𝑒−𝜃𝑒−𝜀𝑖
. 𝑒−𝜃𝑒
−(𝑉𝑖−𝑉𝑗+𝜀𝑖)
. 𝜃𝑒−𝜀𝑖
𝜕𝐹(𝜀𝑖,𝑉𝑖−𝑉𝑗+𝜀𝑖)
𝜕𝜀𝑖
= 𝑒−𝜃𝑒−𝜀𝑖(𝑒
−(𝑉𝑖−𝑉𝑗)
+1). 𝜃𝑒−𝜀𝑖
𝑡 = −𝜃𝑒−𝜀𝑖
𝑑𝑡 = 𝜃𝑒−𝜀𝑖𝑑𝜀𝑖
El desarrollo del modelo logit binomial se realizara a partir de la ecuación (b)
𝑝𝑖=
−∞
0
𝑒𝑡(𝐾+1)
𝑑𝑡
𝑝𝑖=
1
𝐾+1 −∞
0
(𝐾 + 1)𝑒𝑡(𝐾+1)
𝑑𝑡=
1
𝐾
[𝑒𝑝
]𝑝=−∞
𝑝=0
𝑝𝑖=
1
𝐾+1
[𝑒0−𝑒−∞]
𝑝𝑖=
1
𝐾 + 1
𝑝𝑖=
1
𝑒
−(𝑉𝑖−𝑉𝑗)
+1
=
1
𝑒
−𝑉𝑖+𝑉𝑗+1
=
1
𝑒−𝑉𝑖𝑒
𝑉𝑗+1
=
1
𝑒
𝑉𝑗
𝑒−𝑉𝑖
+1
𝑝𝑖=
𝑒𝑉𝑖
𝑒𝑉𝑖 + 𝑒𝑉𝑗
𝐾 = 𝑒−(𝑉𝑖−𝑉𝑗)
MODELOS DE ELECCION DISCRETA
LOGIT BINOMIAL
𝑝𝑖 =
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖𝑒−𝜃𝑒
−(𝑉𝑖−𝑉𝑖+𝜀𝑖)
𝑖≠𝑗
𝑒−𝜃𝑒
−(𝑉𝑖−𝑉𝑗+𝜀𝑖)
𝑑 𝜀𝑖
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖
∀𝑗
𝑒−𝜃𝑒
−(𝑉𝑖−𝑉𝑗+𝜀𝑖)
𝑑 𝜀𝑖
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖
∀𝑗
𝑒−𝜃𝑒
−(𝑉𝑖−𝑉𝑗+𝜀𝑖)
𝑑 𝜀𝑖
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖 𝑒−𝜃𝑒−(𝑉𝑖−𝑉1+𝜀𝑖)
𝑒−𝜃𝑒−(𝑉𝑖−𝑉2+𝜀𝑖)
… (𝑒−𝜃𝑒
−(𝑉𝑖−𝑉𝑗+𝜀𝑖)
) 𝑑 𝜀𝑖
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖 𝑒 −𝜃𝑒−(𝑉𝑖−𝑉1+𝜀𝑖) + −𝜃𝑒−(𝑉𝑖−𝑉2+𝜀𝑖) +⋯+[−𝜃𝑒
−(𝑉𝑖−𝑉𝑗+𝜀𝑖)
]
𝑑 𝜀𝑖
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖 𝑒 −𝜃𝑒−(𝑉𝑖−𝑉1+𝜀𝑖) + −𝜃𝑒−(𝑉𝑖−𝑉2+𝜀𝑖) +⋯+[−𝜃𝑒
−(𝑉𝑖−𝑉𝑗+𝜀𝑖)
]
𝑑 𝜀𝑖
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖 𝑒
−𝜃 𝑒−(𝑉𝑖−𝑉1)𝑒−𝜀𝑖 + 𝑒−(𝑉𝑖−𝑉2)𝑒−𝜀𝑖 +⋯+[𝑒
−(𝑉𝑖−𝑉𝑗)
𝑒−𝜀𝑖]
𝑑 𝜀𝑖
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖 𝑒
−𝜃𝑒−𝜀𝑖 𝑒−(𝑉𝑖−𝑉1) + 𝑒−(𝑉𝑖−𝑉2) +⋯+[𝑒
−(𝑉𝑖−𝑉𝑗)
]
𝑑 𝜀𝑖
𝐾 =
∀𝑗
𝑒−(𝑉𝑖−𝑉𝑗)
𝑡 = −𝜃𝑒−𝜀𝑖
𝑑𝑡 = 𝜃𝑒−𝜀𝑖𝑑𝜀𝑖
𝑝𝑖=
1
𝐾 −∞
0
𝐾𝑒𝑡𝐾 𝑑𝑡=
1
𝐾
[𝑒𝑝]𝑝=−∞
𝑝=0
𝑝𝑖=
1
𝐾
[𝑒0−𝑒−∞]
𝑝𝑖=
1
𝐾
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖 𝑒−𝜃𝑒−𝜀𝑖
∀𝑗 𝑒
−(𝑉𝑖−𝑉𝑗)
𝑑 𝜀𝑖
𝑝𝑖=
−∞
0
𝑒𝑡𝐾
𝑑𝑡
𝑝𝑖=
1
∀𝑗 𝑒
−(𝑉𝑖−𝑉𝑗) =
1
∀𝑗 𝑒
−𝑉𝑖+𝑉𝑗
=
1
∀𝑗 𝑒−𝑉𝑖𝑒
𝑉𝑗
=
1
𝑒−𝑉𝑖
∀𝑗 𝑒
𝑉𝑗
𝑝𝑖=
𝑒𝑉𝑖
∀𝑗 𝑒𝑉𝑗
MODELOS DE ELECCION DISCRETA
LOGIT MULTINOMIAL ECUACION (a)
𝐹(𝑥) = 𝑒−𝜃𝑒−𝑥
(cumulative function)
𝑓(𝑥) = 𝜃𝑒−𝑥
𝑒−𝜃𝑒−𝑥
(density function)
𝑝𝑖= 𝜀𝑖=−∞
+∞
𝑓 𝜀𝑖 𝑖≠𝑗 𝐹𝜀𝑗
𝑑 𝜀𝑖
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜃𝑒−𝜀𝑖𝑒−𝜃𝑒−𝜀𝑖
𝑖≠𝑗
𝑒−𝜃𝑒
−(𝑉𝑖−𝑉𝑗+𝜀𝑖)
𝑑 𝜀𝑖
MODELOS DE ELECCION DISCRETA - LOGIT
Este modelo se deriva asumiendo una distribución Gumbel (ó doble exponencial ó extreme value type
1 (EV1) distribution) de 𝜀𝑗 además de ser IID (Independiente e idénticamente distribuido)
𝑓(𝑥) =
𝜕𝐹(𝑥)
𝜕𝑥
𝑝𝑖=
𝑒𝑉𝑖
∀𝑗 𝑒𝑉𝑗
LOGIT
𝑝𝑖=
𝑒𝑉𝑖
𝑒𝑉𝑖 + 𝑒𝑉𝑗
LOGIT BINOMIAL
LOGIT MULTINOMIAL
Utilidad aleatoria:
Este concepto es fundamental para la modelación de la demanda de viajes, el siguiente ejemplo
ilustra una caso especifico.
La clave en las estimaciones de las probabilidades es asumir asunciones respecto a la función
distribución de la probabilidad del termino aleatorio 𝜀𝑖𝑗
Asumiendo para el ejemplo dos opciones j=1 y 2
Ejemplo - Elección considerando la probabilidad
𝑉1 = 𝑈1 + 𝜀1
𝑉2 = 𝑈2 + 𝜀2
𝑉1 = 3 + 𝜀1
𝑉2 = 2.75 + 𝜀2
𝜀𝑖𝑗 : Se encuentra distribuido de acuerdo a la probabilidad de Bernoulli y se cumple su
independencia
𝑃(𝜀1=0.5) = 0.6
𝑃(𝜀2=0.5) = 0.6
𝑃(𝜀1=−0.5) = 0.4
𝑃(𝜀2=−0.5) = 0.4
𝑃 : Es la probabilidad de elección de un individuo, por lo qu ela elección de la primera alternativa será
𝑃(𝑉1 > 𝑉2)
𝑃(𝑉1 > 𝑉2) =𝑃 3 + 𝜀1 > 2.75 + 𝜀2
𝑃(𝑉1 > 𝑉2) =𝑃 𝜀2 − 𝜀1 < 0.25
𝑉1 = 3 + 𝜀1
𝑉2 = 2.75 + 𝜀2
𝑃(𝜀1=0.5) = 0.6
𝑃(𝜀2=0.5) = 0.6
𝑃(𝜀1=−0.5) =
0.4
𝑃(𝜀2=−0.5) =
0.4
𝑃(𝑉1 > 𝑉2) =𝑃 𝜀2 − 𝜀1 < 0.25
• Esta probabilidad es posible determinarla
analíticamente para este caso, existiendo 4
combinaciones para los valores posibles de de
𝜀2 𝑦 𝜀1, de forma grafica se presenta dichas
posibilidades en el siguiente gráfico:
𝜀1
𝜀2
𝜀2 = 0.25 + 𝜀1
𝐵
𝐷
𝐴
𝐶
-0.5
-0.5
0.5
0.5
𝑃 𝐴 = 𝑃 𝜀1 = 0.5 𝑃 𝜀2 = 0.5 = 0.6 0.6 =0.36
𝑃 𝐵 = 𝑃 𝜀1 = −0.5 𝑃 𝜀2 = 0.5 = 0.4 0.6 =0.24
𝑃 𝐶 = 𝑃 𝜀1 = 0.5 𝑃 𝜀2 = −0.5 = 0.6 0.4 =0.24
𝑃 𝐷 = 𝑃 𝜀1 = −0.5 𝑃 𝜀2 = −0.5 = 0.4 0.4 =0.16
• Donde la condición 𝜀2 − 𝜀1 < 0.25, se cumple solo para los puntos A, C y D. Por lo tanto se cumple
que:
𝑃1 = 𝑃(𝑉1 > 𝑉2) =𝑃 𝜀2 − 𝜀1 < 0.25 = 𝑃 𝐴 + 𝑃 𝐷 + 𝑃 𝐶 = 0.36 + 0.16 + 0.24 = 0.76
𝑃2 = 1 − 0.76 = 0.24
• Lográndose así una atracción de la alternativa 1, superior a la alternativa 2, pero no en su totalidad
como si sucede en el caso de una asignación “todo o nada”.
Ejemplo - Elección considerando la probabilidad
𝑉1 = 3 + 𝜀1
𝑉2 = 2.75 + 𝜀2
𝑃(𝑉1 > 𝑉2) =𝑃 𝜀2 − 𝜀1 < 0.25
𝑃2
(𝑈2 − 𝑈1)
𝑈2 > 𝑈1
𝑈1 > 𝑈2 𝑈1 = 𝑈2
Sin embargo, a medida que 𝑈2- 𝑈1 se vuelve
infinitamente grande, la alternativa 2
debería atraer una fracción cada vez mayor
de la demanda total.
Además, dado que se supone que 𝜀 se
distribuyen de forma idéntica e
independiente, cuando 𝑈2 = 𝑈1 las
respectivas probabilidades de que se elijan
las dos alternativas deben ser iguales. y por
lo tanto igual a 0,5 cada uno.
Deterministic all-or-
nothing
Stochatic Logit
(𝑈2 − 𝑈1)
𝑃𝑖
Ejemplo - Elección considerando la probabilidad
𝑉1 = 𝑈1 + 𝜀1
𝑉2 = 𝑈2 + 𝜀2
𝑉3 = 𝑈3 + 𝜀3
𝜀
Distribución
normal
Distribución Doble
exponencial
Probit
Logit
𝑃1 = 0.15
𝑃2 = 0.81
𝑃3 = 0.05
𝑆𝑖: 𝑉𝑖 = [−12, −10, −15]
𝑝𝑖=
𝑒𝑉𝑖
∀𝑗 𝑒𝑉𝑗
𝑝1=
𝑒−10
𝑒−12 + 𝑒−10 + 𝑒−15
= 0.12
𝑝2=
𝑒−10
𝑒−12 + 𝑒−10 + 𝑒−15
= 0.875
𝑝3=
𝑒−15
𝑒−12 + 𝑒−10 + 𝑒−15
= 0.005
Estos números son aproximadamente similares a los obtenidos del modelo PROBIT. Las diferencias
entre ellos ilustran una característica común al comparar los resultados de estos modelos.
El modelo logit resultante tiene la tendencia a reducir la elección del V (·) relativamente bajo como
con p (3) y aumentarlo con el V (·) relativamente alto como con p (2), en comparación con el modelo
PROBIT.
En numerosas aplicaciones, se encuentra que cuando se asume la independencia de las utilidades,
- Specify i.i.d. Gumbel distribution for f(ε) => Logit
Model.
3. The LOGIT Model
 La elección entre estos dos
modelos debe hacerse
siempre sobre la base de si
el supuesto de
independencia puede
hacerse o no.
 Esto, en general, está
relacionado con la
naturaleza del proceso de
elección en cuestión. Si hay
alternativas con atributos
similares, o con
componentes superpuestos,
como cuando las rutas
alternativas se superponen
en algunos enlaces,
entonces no se puede
asumir la independencia y el
PROBIT podría ser un mejor
modelo de elección.
 En contraposición puede
considerarse una mejor
Para ilustrar la importancia de la superposición entre las
alternativas y los efectos del supuesto de independencia, se da el
siguiente ejemplo común.
I
II
III
I: Transporte privado usando una
vía de alta velocidad
II: Transporte público + Caminata
III: Transporte público + Car
(colectivo)
Si los viajeros perciben los atributos de estas tres
opciones de forma aleatoria de modo que e (i)
representa las diferencias entre los atributos reales y
percibidos de cada alternativa, entonces es poco
probable que las diferencias entre los valores
percibidos y reales de las alternativas II y III sería
independiente.
Esto se debe a que estas dos alternativas se
superponen en su mayor parte
3. The LOGIT Model
Si x= 0 entonces existe una superposición total entre II y III, generándose así solo dos alternativas
I y III
I
II
II
I
I: Transporte privado usando una
vía de alta velocidad
II: Transporte público + Caminata
III: Transporte público + Car
(colectivo)
A B
C
x
Si x= 1 entonces existe tres alternativas I, II y III mutuamente independientes
Si consideramos los valores de V(.) iguales para todos los casos se observa que:
Si x= 0
Si x=1
𝑝𝑖=
𝑒𝑉𝑖
∀𝑗 𝑒𝑉𝑗
𝑝𝐼 = 𝑝𝐼𝐼𝐼=
𝑒𝑉
𝑒𝑉 + 𝑒𝑉
= 0.5
𝑝𝐼 = 𝑝𝐼𝐼= 𝑝𝐼𝐼𝐼 =
𝑒𝑉
𝑒𝑉 + 𝑒𝑉 + 𝑒𝑉 = 0.33
Si consideramos como “x” una medición de la superposición entre II y III, se puede calcular las
probabilidades de cada opción para un caso de independencia (X=1) y una carencia de la misma
(x=0), por lo que es sencillo notar que se tendría un valor diferente a 0.33 al tener una perdida
de independencia, es decir aplicar un modelo con dependencia nos podría dar un resultado mas
realista que 0.33 (x=1), Daganzo y sheffi (1977) demostró esta variación de las probabilidad el
3. The LOGIT Model
Esto no significa que no pueda aplicarse un modelo de elección simplificado por el supuesto de
independencia, como el modelo Logit.
Cuando x es bajo, por ejemplo, se puede considerar no especificar II y III como alternativas distintas.
Cuando x es grande, una buena aproximación sería anidar las opciones y considerar primero la
elección entre alternativas cercanas como II y III y luego proceder a considerar la elección entre I por
un lado y II o III por el otro. (Opcion I: Transporte publico, Opción II: Transporte privado )
El enfoque da como resultado modelos que se
denominan de diversas formas modelo de elección
anidada (Nested choice models) o modelo de elección
en cascada (Cascading choice model).
En las aplicaciones de elección de ruta, es probable
que la superposición sea extensa y sustancial, ya que
es probable que muchos puntos de conexión
silenciosos en una red de transporte urbano
compartan enlaces. En tales aplicaciones, un modelo
de elección probit multinomial con dependencia
entre las funciones de elección es un modelo de
elección más adecuado.
3. The LOGIT Model
Esto indica que las probabilidades relativas entre dos alternativas
son solo una función de los atributos de estas dos y son
independientes de cualquier otra alternativa que pueda estar
disponible.
Esta propiedad de los modelos de elección se conoce como la
independencia de las alternativas irrelevantes y se considera una
debilidad de los modelos que la tienen, como el modelo logit
Por ejemplo, si se trata de opciones de modo urbano, esta
propiedad podría implicar que las probabilidades relativas de
tomar un automóvil en lugar de tomar un autobús son
independientes de si hay servicio de tren al mismo destino. Esto
no es probable, ya que es probable que la presencia de un tren
como tercera alternativa afecte la probabilidad de elegir el
autobús más que la de elegir el automóvil y, por lo tanto,
probablemente cambie sus probabilidades relativas.
𝑝𝑖=
𝑒𝑉𝑖
∀𝑗 𝑒𝑉𝑗
𝑝𝑗=
𝑒𝑉𝑗
∀𝑗 𝑒𝑉𝑗
𝑝𝑖
𝑝𝑗
=
𝑒𝑉𝑖
𝑒𝑉𝑗
3. The LOGIT Model
The Independece of Irrelevant Alternatives IIA
También es interesante notar que esta propiedad conduce a una
simplificación que hace que el modelo logit sea bastante sencillo
e intrínsecamente lineal.
Dado que la mayoría de las funciones V (·) se especifican como
función lineal, está claro que la ecuación. (5.22) representa una
gran simplificación. Por ejemplo, los parámetros del modelo logit
cuando se transforman en Eq. (5. 22) puede estimarse mediante
regresión lineal, aunque las estimaciones así obtenidas pueden
no ser eficientes.
Es posible realizar modificaciones en la formulación del modelo
logit para
superar esta debilidad. Pero, siempre que existan alternativas
similares de modo que la independencia de la alternativa
irrelevante sea limitante, entonces se debe utilizar el modelo
probit, que no tiene esta propiedad. De hecho, en tales casos, la
independencia entre las funciones de elección no puede asumirse
de todos modos.
ln
𝑝𝑖
𝑝𝑗
= ln
𝑒𝑉𝑖
𝑒𝑉𝑗
ln
𝑝𝑖
𝑝𝑗
=𝑉𝑖 − 𝑉
𝑗
𝑝𝑖
𝑝𝑗
=
𝑒𝑉𝑖
𝑒𝑉𝑗
3. The LOGIT Model
The Independece of Irrelevant Alternatives IIA
En algunos análisis de políticas que utilizan modelos de elección, uno
podría estar interesado en evaluar la sensibilidad de la elección de una
alternativa particular a los cambios en algunos de los atributos en la función
V (·) de la alternativa misma o de algunas de las otras alternativas.
𝑒𝑐 𝑆𝑖𝑘 = 𝑆𝑖𝑘 𝜃𝑖𝑘[1- 𝑝(𝑖)]
𝑒𝑐 𝑆𝑖𝑘 =
𝑆𝑖𝑘
𝑝(𝑖)
.
𝜕𝑝(𝑖)
𝜕𝑆𝑖𝑘
𝑉(𝑚,𝑗) = −0.2𝑡(𝑚,𝑗) − 0.1𝑐(𝑚,𝑗) 𝑝(𝑚,𝑗)=
𝑒𝑉(𝑚,𝑗)
∀𝑚 𝑒𝑉(𝑚,𝑗)
𝑒𝑐 𝑡𝑚 = 𝑡𝑚 𝜃𝑖𝑘[1- 𝑝(𝑖)]
𝜃𝑖𝑘=
𝜕𝑉(𝑖)
𝜕𝑆𝑖𝑘
𝜃𝑡=
𝜕𝑉(𝑖)
𝜕𝑡𝑚
Estas elasticidades indican la alta sensibilidad de cambio
modal cuando la elección probabilidad es pequeña como el
caso de p(2|3) y p(1|2)
3. The LOGIT Model
Elasticities of choice
En muchas aplicaciones, es necesario considerar el rango de elección de acuerdo con alguna secuencia.
Esto ocurre en el transporte urbano cuando se postula una secuencia en la que se asegura que las
opciones de modo, destino y ruta seguirán alguna secuencia.
También ocurre cuando se hace una elección entre grupos de alternativas y luego se sigue una elección
dentro del grupo elegido. Por ejemplo, se puede postular una jerarquía de opciones de nodo donde un
viajero puede decidir entre transporte público y privado y, en el caso de que se elija el primero, se
puede elegir entre los modos públicos que pueden estar disponibles.
En tal caso, la elección del transporte público dependería del valor esperado de la utilidad de sus
modos, tal como lo percibe el viajero. Asimismo, si la elección de un nodo se produce después de la
elección del destino en un proceso secuenciado, entonces la elección de cada destino se basará
básicamente en los atributos de suministro esperados de todos los nodos que sirven al destino, de
nuevo según la percepción del usuario.
Puede recordarse del capítulo anterior que la elección secuenciada en el caso determinista se basó en el
promedio ponderado de los atributos de oferta en cada nivel de la jerarquía de elección.
Este promedio ponderado es análogo al valor esperado de los atributos reales representados por las
funciones V (·) en una función de elección estocástica.
4. Sequencing Stochastic Choice
El valor esperado de la función de elección
𝑈𝑖 = 𝑉𝑖 + 𝜀𝑖
𝑝𝑖 𝑖 = 1,2,3 … 𝑛
𝑉 = 𝑖 𝑝𝑖 𝑉𝑖
Sin embargo, estrictamente, esta no es la
medida correcta de las utilidades
esperadas que se utilizarán para predecir
la elección en la siguiente jerarquía de
elección. Sólo es correcto en el caso de la
elección determinista, y sólo una
aproximación en el caso de la elección
estocástica. En este último caso, es el
valor esperado de los atributos
percibidos lo que es relevante.
Esto se puede calcular encontrando el
valor esperado 𝑉 de la utilidad U de la
alternativa elegida.
4. Sequencing Stochastic Choice
𝑉 = 𝐸[max
𝑖
𝑈𝑖]
Donde f(.) es la función de densidad conjunta dado por el componente aleatorio. Daganzo y Sheffi
(1977), demostraron que al considerar que no hay relación entre “V” y el termino “e”, se deduce que:
𝑉 = 1 2
… 𝑛
[max
𝑖
𝑈𝑖]𝑓 𝑈1, 𝑈2, … , 𝑈𝑛 𝑑𝑈1.d 𝑈2, … , 𝑑𝑈𝑛
𝑈𝑖 = 𝑉𝑖 + 𝜀𝑖
𝑉 = 1 2
… 𝑛
[max
𝑖
𝑉𝑖 + 𝜀𝑖]𝑓 𝜀1, 𝜀2, … , 𝜀𝑛 𝑑𝜀1.d𝜀2, … , 𝑑𝜀𝑛
𝜕𝑉
𝜕𝑉𝑖
= 𝑝𝑖
𝑝𝑖=
𝑒𝑉𝑖
∀𝑗 𝑒𝑉𝑗
𝜕𝑉
𝜕𝑉𝑖
=
𝑒𝑉𝑖
∀𝑗 𝑒𝑉𝑗
𝑉 =
𝑉𝑖
𝑒𝑉𝑖
∀𝑗 𝑒𝑉𝑗
𝑉 = ln
∀𝑗
𝑒𝑉𝑗
c
v
c
v
De manera similar, el valor esperado percibido de cualquier atributo en una
función lineal V(.), digamos Xk, se puede obtener como:
𝜃𝑘=
𝜕𝑉(𝑖)
𝜕𝑋𝑘
𝑋𝑘 =
1
𝜃𝑘
ln
∀𝑗
𝑒𝑉𝑗
4. Sequencing Stochastic Choice
La diferencia entre 𝑉 y 𝑉 es que el primero es el valor esperado del máximo de un conjunto de
variables aleatorias, mientras que el segundo es un valor ponderado promedio de los valores
esperados de estas variables aleatorias.
Incluso usar Vmax como una medida de la utilidad de una elección no es correcto, ya que reflejará el
máximo de los valores esperados, que no es el mismo que el valor esperado de la máximo. El uso de
𝑉 o Vmax para la elección de secuenciación debe reconocerse como una aproximación que no debe
hacerse cuando se usa el modelo logit ya que la ecuación, es bastante fácil de usar.
Ejemplo
𝑉(𝑚,𝑗) = −0.2𝑡(𝑚,𝑗)
𝑡𝑚𝑗 =
𝑟
𝑡𝑚𝑗𝑟.𝑝 𝑟 𝑚, 𝑗
𝑝(𝑚|𝑗)=
𝑒𝑉(𝑚,𝑗)
∀𝑚 𝑒𝑉(𝑚,𝑗)
4. Sequencing Stochastic Choice
Podemos calcular los valores reales esperados 𝑉
𝑗 o 𝑡𝑗 para cada destino utilizando los promedios
ponderados por las probabilidades de elección condicionales. Dado que 𝑉 = −0.2𝑡, podemos limitar
nuestras comparaciones a 𝑡𝑗 y compararlo con 𝑡𝑗
𝑡𝑗 = 𝑡1𝑗 𝑝(1|𝑗) + 𝑡2𝑗 𝑝(2|𝑗)
𝑡𝑗 = 20 x 0.73 + 25 x 0.27 ; 30 x 0.88 + 40 x 0.12
𝑡𝑗 = 21.34 ; 31.19
𝑉 = 𝑖 𝑝𝑖 𝑉𝑖
𝑋𝑘 =
1
𝜃𝑘
ln
∀𝑗
𝑒𝑉𝑗 𝑡𝑗 =
1
−0.2
[ln( 𝑒−0.2𝑡𝑗11 + 𝑒−0.2𝑡𝑗12); ln( 𝑒−0.2𝑡𝑗21 + 𝑒−0.2𝑡𝑗22)]
𝑡𝑗 = [18.43 ; 29.37]
𝑡𝑗 =
1
−0.2
[ln( 𝑒−0.2(20)
+ 𝑒−0.2(25)
); ln( 𝑒−0.2(30)
+ 𝑒−0.2(40)
)]
Los valores de 𝑡𝑗 son más
apropiados para su inclusión
en el modelo de elección de
destino que 𝑡𝑗 ya que
representan los valores
percibidos sobre la base de
los cuales presumiblemente
se hacen las elecciones. No
debe sorprendernos que los
valores de 𝑡𝑗 sean inferiores
a los valores mínimos de 𝑡𝑚𝑗
para cada 𝑗, ya que
representan el resultado de
un proceso de percepción
estocástica.
Cuando se postula un proceso de elección secuenciado y se utiliza un enfoque
de elección estocástica, es aconsejable · utilizar un modelo logit y calcular 𝑉
para la secuenciación.
Al postular un modelo determinista de elección, entonces 𝑉 es válido para la
secuenciación.
Cuando la secuenciación es necesaria por alternativas agrupadas debido a la
superposición de atributos, entonces es mejor utilizar un modelo probit con una
4. Sequencing Stochastic Choice
En la mayoría de los casos, no es suficiente conocer las probabilidades de elección; es necesario estimar
el volumen de usuarios en cualquier sistema de transporte. Para ello, se debe explorar la relación entre
los modelos de elección y los modelos de demanda.
en general, si se sabe que N personas están haciendo un viaje y que cierta proporción de ellas está
eligiendo ciertos modos, rutas o destinos, entonces es posible estimar los volúmenes de tráfico
específicos involucrados. En el caso determinista, esto se hace simplemente multiplicando N con las
proporciones de elección,
𝑝(𝑚,𝑗,𝑟) = [0.12 , 0.875 , 0.005]
1,000 viajes distribuidos en los tres modos
𝑋𝑚𝑗𝑟 = 𝑁 𝑝(𝑚,𝑗,𝑟)
𝑋𝑚𝑗𝑟 = 1,000 [0.12 , 0.875 , 0.005]
Varianza
𝑉𝐴𝑅(𝑋𝑚𝑗𝑟) = 1,000 [0.12*0.88; 0.875*0.125;
0.005*0.995]
= [105.6 ; 109.4 ; 4.975]
Cuando el modelo de elección utilizado es estocástico, entonces el número de viajes será una variable
aleatoria con una distribución multinomial y con un valor esperado
𝐸(𝑋𝑚𝑗𝑟) = 𝑁 𝑝(𝑚,𝑗,𝑟)
𝑉𝐴𝑅(𝑋𝑚𝑗𝑟) = 𝑁 𝑝(𝑚,𝑗,𝑟)[1 − 𝑝(𝑚,𝑗,𝑟)]
𝑋𝑚𝑗𝑟 = 𝑁 𝑝(𝑚,𝑗,𝑟)
5. Choice Functions and Demand Functions
5. Choice Functions and Demand Functions
6. Calibration of Choice Models
Multinomial Disaggregate Models
Binomial Disaggregate Models
Multinomial Aggregate Models
Binomial Aggregate Models
Introducción
El proceso de calibración de los modelos de elección consiste en estimar los valores de los parámetros,
evaluar la significancia estadística de las estimaciones y luego validar el modelo comparando su
predicción con el comportamiento observado.
Los dos primeros pasos generalmente se llevan a cabo simultáneamente como un proceso estadístico de
estimación. El tercero requiere que las predicciones del modelo se comparen con datos reales,
preferiblemente distintos de los utilizados para estimar los parámetros. (70 – 30%)
Dado que la mayoría de los modelos de elección son no lineales, su estimación suele ser más complejo
que el de los modelos de demanda simples que se pueden linealizar. Las técnicas de regresión y los
métodos de estimación de mínimos cuadrados tienen aquí aplicaciones bastante limitadas, ya que estas
técnicas no son adecuadas para modelos no lineales. La única excepción es cuando se utiliza un modelo
logit binario, con datos de elección de mercado agregados. En tal caso, se puede obtener una forma
lineal simple, como en la Ecuacion , siempre que las funciones de elección V (·) sean
lineales, que casi siempre es el caso. Esta función lineal se puede estimar con análisis de regresión.
Ejemplo
10
Encuestados
4
6
𝑡𝑏𝑢𝑠 = 47 𝑚𝑖𝑛
𝑡𝑐𝑎𝑟 = 38 𝑚𝑖𝑛
𝑈𝑖 = 𝛼𝑇𝑖 + 𝜀𝑖
𝑈𝑏𝑢𝑠 = 𝛼𝑇𝑏𝑢𝑠 + 𝜀𝑏𝑢𝑠
𝑈𝑐𝑎𝑟 = 𝛼𝑇𝑐𝑎𝑟 + 𝜀𝑐𝑎𝑟
6. Calibration of Choice Models
Introducción
Ejemplo
10
Encuestados
4
6
𝑡𝑏𝑢𝑠 = 47 𝑚𝑖𝑛
𝑡𝑐𝑎𝑟 = 38 𝑚𝑖𝑛
𝑈𝑖 = 𝛼𝑇𝑖 + 𝜀𝑖
𝑈𝑏𝑢𝑠 = 𝛼𝑇𝑏𝑢𝑠 + 𝜀𝑏𝑢𝑠
𝑈𝑐𝑎𝑟 = 𝛼𝑇𝑐𝑎𝑟 + 𝜀𝑐𝑎𝑟
𝑝𝑖=
𝑒𝑉𝑖
∀𝑗 𝑒𝑉𝑗
𝑝𝑏𝑢𝑠=
𝑒𝛼𝑇𝑏𝑢𝑠
𝑒𝛼𝑇𝑏𝑢𝑠 + 𝑒𝛼𝑇𝑐𝑎𝑟
𝑝𝑐𝑎𝑟=
𝑒𝛼𝑇𝑐𝑎𝑟
𝑒𝛼𝑇𝑏𝑢𝑠 + 𝑒𝛼𝑇𝑐𝑎𝑟
𝑝𝑐𝑎𝑟
𝑝𝑏𝑢𝑠
=
𝑒𝛼𝑇𝑐𝑎𝑟
𝑒𝛼𝑇𝑏𝑢𝑠
𝑝𝑐𝑎𝑟
𝑝𝑏𝑢𝑠
=𝑒𝛼(𝑇𝑐𝑎𝑟−𝑇𝑏𝑢𝑠)
6
10
4
10
=𝑒𝛼(38−47)
3
2
=𝑒𝛼(−9)
ln
3
2
−9
= 𝛼
𝛼=-0.045
Si la función V (·) hubiera contenido más variables que en
este caso, entonces podría usarse una regresión simple para
estimar los parámetros.
Tenga en cuenta que en este caso simple, solo se podría
estimar un parámetro, ya que efectivamente hay una pieza
de información, a saber, 𝑝𝑐𝑎𝑟 = 0.6 y 𝑝𝑏𝑢𝑠 = 1 − 0.6 , Para
estimar un mayor número de parámetros se requeriría un
mayor número de observaciones en forma de probabilidades
de elección para otros grupos que enfrentan diferentes
valores de 𝑇𝑐𝑎𝑟 y 𝑇𝑏𝑢𝑠.
En general, los parámetros de un modelo de elección modal
6. Calibration of Choice Models
Introducción
𝑛 = 1, 2, … 𝑁 (𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑜𝑠)
𝑘 = 1, 2, … 𝐾 (𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑎𝑠)
𝑉(𝑛,𝑘) 𝑝(𝑛,𝑘)
Luego se postula un modelo de
elección para dar la probabilidad
de elección.
𝑘 = 𝑐𝑎𝑟, 𝑏𝑢𝑠, 𝑡𝑟𝑎𝑖𝑛
𝑛 = 1,2, …,20
𝑉(𝑛,𝑘) = 𝐴𝑋𝑛𝑘
Parámetr
os
Variables
𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘
𝑉(1,𝑐𝑎𝑟) = 𝑎1,𝑐𝑎𝑟𝑥1,1,𝑐𝑎𝑟+ 𝑎2,𝑐𝑎𝑟𝑥2,1,𝑐𝑎𝑟 + 𝑎3,𝑐𝑎𝑟𝑥3,1,𝑐𝑎𝑟 + ⋯
𝑉(2,𝑐𝑎𝑟) = 𝑎1,𝑐𝑎𝑟𝑥1,2,𝑐𝑎𝑟+ 𝑎2,𝑐𝑎𝑟𝑥2,2,𝑐𝑎𝑟 + 𝑎3,𝑐𝑎𝑟𝑥3,2,𝑐𝑎𝑟 + ⋯
…….
𝑉(20,𝑐𝑎𝑟) = 𝑎1,𝑐𝑎𝑟𝑥1,20,𝑐𝑎𝑟+ 𝑎2,𝑐𝑎𝑟𝑥2,20,𝑐𝑎𝑟 + 𝑎3,𝑐𝑎𝑟𝑥3,20,𝑐𝑎𝑟 + ⋯
𝑉(1,𝑏𝑢𝑠) = 𝑎1,𝑏𝑢𝑠𝑥1,1,𝑏𝑢𝑠+ 𝑎2,𝑏𝑢𝑠𝑥2,1,𝑏𝑢𝑠 + 𝑎3,𝑏𝑢𝑠𝑥3,1,𝑏𝑢𝑠 + ⋯
𝑉(2,𝑏𝑢𝑠) = 𝑎1,𝑏𝑢𝑠𝑥1,2,𝑏𝑢𝑠+ 𝑎2,𝑏𝑢𝑠𝑥2,2,𝑏𝑢𝑠 + 𝑎3,𝑏𝑢𝑠𝑥3,2,𝑏𝑢𝑠 + ⋯
……..
𝑉(20,𝑏𝑢𝑠) = 𝑎1,𝑏𝑢𝑠𝑥1,20,𝑏𝑢𝑠+ 𝑎2,𝑏𝑢𝑠𝑥2,20,𝑏𝑢𝑠 + 𝑎3,𝑏𝑢𝑠𝑥3,20,𝑏𝑢𝑠 + ⋯
𝑉(1,𝑡𝑟𝑎𝑖𝑛) = 𝑎1,𝑡𝑟𝑎𝑖𝑛𝑥1,1,𝑡𝑟𝑎𝑖𝑛+ 𝑎2,𝑡𝑟𝑎𝑖𝑛𝑥2,1,𝑡𝑟𝑎𝑖𝑛 + 𝑎3,𝑡𝑟𝑎𝑖𝑛𝑥3,1,𝑡𝑟𝑎𝑖𝑛 + ⋯
𝑉(2,𝑡𝑟𝑎𝑖𝑛) = 𝑎1,𝑡𝑟𝑎𝑖𝑛𝑥1,2,𝑡𝑟𝑎𝑖𝑛+ 𝑎2,𝑡𝑟𝑎𝑖𝑛𝑥2,2,𝑡𝑟𝑎𝑖𝑛 + 𝑎3,𝑡𝑟𝑎𝑖𝑛𝑥3,2,𝑡𝑟𝑎𝑖𝑛 + ⋯
………
𝑉(20,𝑡𝑟𝑎𝑖𝑛) = 𝑎1,𝑡𝑟𝑎𝑖𝑛𝑥1,20,𝑡𝑟𝑎𝑖𝑛+ 𝑎2,𝑡𝑟𝑎𝑖𝑛𝑥2,20,𝑡𝑟𝑎𝑖𝑛 + 𝑎3,𝑡𝑟𝑎𝑖𝑛𝑥3,20,𝑡𝑟𝑎𝑖𝑛 + ⋯
Calibration of Choice Models
Multinomial Disaggregate Models
𝑥𝑖1
1
𝑥𝑖1
2
𝑥𝑖1
3
𝑥𝑗1
1
𝑥𝑗1
2
𝑥𝑗1
3
𝑥𝑖1
4
𝑥𝑖1
5
𝑥𝑖1
6
𝑥𝑗1
4
𝑥𝑗1
5
𝑥𝑗1
6
𝑥𝑖1
7
𝑥𝑖1
8
𝑥𝑖1
9
𝑥𝑗1
7
𝑥𝑗1
8
𝑥𝑗1
9
𝑥𝑖2
1
𝑥𝑖2
2
𝑥𝑖2
3
𝑥𝑗2
1
𝑥𝑗2
2
𝑥𝑗2
3
𝑥𝑖2
4
𝑥𝑖2
5
𝑥𝑖2
6
𝑥𝑗2
4
𝑥𝑗2
5
𝑥𝑗2
6
𝑥𝑖2
7
𝑥𝑖2
8
𝑥𝑖2
9
𝑥𝑗2
7
𝑥𝑗2
8
𝑥𝑗2
9
𝑥𝑖3
1
𝑥𝑖3
2
𝑥𝑖3
3
𝑥𝑗3
1
𝑥𝑗3
2
𝑥𝑗3
3
𝑥𝑖3
4
𝑥𝑖3
5
𝑥𝑖3
6
𝑥𝑗3
4
𝑥𝑗3
5
𝑥𝑗3
6
𝑥𝑖3
7
𝑥𝑖3
8
𝑥𝑖3
9
𝑥𝑗3
7
𝑥𝑗3
8
𝑥𝑗3
9
𝛽1
𝛽2
𝛽3
𝛽4
𝛽5
𝛽6
𝛽7
𝛽8
𝛽9
6x9 9x1
6x1
𝛽1𝑥𝑖1
1
+ 𝛽2𝑥𝑖1
2
+ 𝛽3𝑥𝑖1
3
+ 𝛽4𝑥𝑖1
4
+ 𝛽5𝑥𝑖1
5
+ 𝛽6𝑥𝑖1
6
+ 𝛽7𝑥𝑖1
7
+ 𝛽8𝑥𝑖1
8
+ 𝛽9𝑥𝑖1
9
𝛽1𝑥𝑗1
1
+ 𝛽2𝑥𝑗1
2
+ 𝛽3𝑥𝑗1
3
+ 𝛽4𝑥𝑗1
4
+ 𝛽5𝑥𝑗1
5
+ 𝛽6𝑥𝑗1
6
+ 𝛽7𝑥𝑗1
7
+ 𝛽8𝑥𝑗1
8
+ 𝛽9𝑥𝑗1
9
𝛽1𝑥𝑖2
1
+ 𝛽2𝑥𝑖2
2
+ 𝛽3𝑥𝑖2
3
+ 𝛽4𝑥𝑖2
4
+ 𝛽5𝑥𝑖2
5
+ 𝛽6𝑥𝑖2
6
+ 𝛽7𝑥𝑖2
7
+ 𝛽8𝑥𝑖2
8
+ 𝛽9𝑥𝑖2
9
𝛽1𝑥𝑗2
1
+ 𝛽2𝑥𝑗2
2
+ 𝛽3𝑥𝑗2
3
+ 𝛽4𝑥𝑗2
4
+ 𝛽5𝑥𝑗2
5
+ 𝛽6𝑥𝑗2
6
+ 𝛽7𝑥𝑗2
7
+ 𝛽8𝑥𝑗2
8
+ 𝛽9𝑥𝑗2
9
𝛽1𝑥𝑖3
1
+ 𝛽2𝑥𝑖3
2
+ 𝛽3𝑥𝑖3
3
+ 𝛽4𝑥𝑖3
4
+ 𝛽5𝑥𝑖3
5
+ 𝛽6𝑥𝑖3
6
+ 𝛽7𝑥𝑖3
7
+ 𝛽8𝑥𝑖3
8
+ 𝛽9𝑥𝑖3
9
𝛽1𝑥𝑗3
1
+ 𝛽2𝑥𝑗3
2
+ 𝛽3𝑥𝑗3
3
+ 𝛽4𝑥𝑗3
4
+ 𝛽5𝑥𝑗3
5
+ 𝛽6𝑥𝑗3
6
+ 𝛽7𝑥𝑗3
7
+ 𝛽8𝑥𝑗3
8
+ 𝛽9𝑥𝑗3
9
=
V=XB
𝑉𝑖𝑛 = 𝛽1𝑥𝑖𝑛
1
+ 𝛽2𝑥𝑖𝑛
2
+ 𝛽3𝑥𝑖𝑛
3
+ 𝛽4𝑥𝑖𝑛
4
+ 𝛽5𝑥𝑖𝑛
5
+ 𝛽6𝑥𝑖𝑛
6
+ 𝛽7𝑥𝑖𝑛
7
+ 𝛽8𝑥𝑖𝑛
8
+ 𝛽9𝑥𝑖𝑛
9
𝑉
𝑗𝑛 = 𝛽1𝑥𝑗𝑛
1
+ 𝛽2𝑥𝑗𝑛
2
+ 𝛽3𝑥𝑗𝑛
3
+ 𝛽4𝑥𝑗𝑛
4
+ 𝛽5𝑥𝑗𝑛
5
+ 𝛽6𝑥𝑗𝑛
6
+ 𝛽7𝑥𝑗𝑛
7
+ 𝛽8𝑥𝑗𝑛
8
+ 𝛽9𝑥𝑗𝑛
9
𝑉𝑖𝑛𝑘 = 𝛽1𝑥𝑖𝑛
1
+ 𝛽2𝑥𝑖𝑛
2
+ ⋯ + 𝛽𝑘𝑥𝑖𝑛
𝑘 𝑉𝑖𝑛 =
𝑘
𝛽𝑘𝑥𝑖𝑛
𝑘
𝑉
𝑗𝑛 =
𝑘
𝛽𝑘𝑥𝑗𝑛
𝑘
𝑉𝑧𝑛𝑘 =
𝑘
𝛽𝑘𝑥𝑧𝑛
𝑘
𝑉
𝑗𝑛𝑘 = 𝛽1𝑥𝑗𝑛
1
+ 𝛽2𝑥𝑗𝑛
2
+ ⋯ + 𝛽𝑘𝑥𝑗𝑛
𝑘
Para “n” individuos
Para “k” parámetros y
variables
Para “z” elecciones
𝑉𝑧𝑛𝑘 = 𝛽1𝑥𝑧𝑛
1 + 𝛽2𝑥𝑧𝑛
2 + ⋯ + 𝛽𝑘𝑥𝑧𝑛
𝑘
[V] = [X] [B]
zn x k K x1
zn x 1
𝑉 = 𝛽1𝑥1 + 𝛽2𝑥2 + 𝛽3𝑥3 + 𝛽4𝑥4 + 𝛽5𝑥5 + 𝛽6𝑥6 + 𝛽7𝑥7 + 𝛽8𝑥8 + 𝛽9𝑥9
𝑥1 = 1
𝑥2 = 𝐶𝑜𝑠𝑡𝑜 𝑑𝑒𝑙 𝑣𝑖𝑎𝑗𝑒 (𝐶)
𝑥3 = 𝑇𝑖𝑒𝑚𝑝𝑜 𝑐𝑎𝑟𝑟𝑜 𝑝𝑜𝑟 𝑡𝑟𝑎𝑏𝑎𝑗𝑜 𝑇𝑊
𝑥4 = 𝑇𝑖𝑒𝑚𝑝𝑜 𝑐𝑎𝑟𝑟𝑜 𝑜𝑡𝑟𝑜𝑠 𝑚𝑜𝑡𝑖𝑣𝑜𝑠 (𝑇𝑁𝑊)
𝑥5 = 𝑇𝑖𝑒𝑚𝑝𝑜 𝑡𝑟𝑒𝑛 (𝑇)
𝑥6 = Clase (“1” para class1 “0” en otros casos)(CL)
𝑥7 = 𝑆𝑒𝑥𝑜 "1" 𝑣𝑎𝑟𝑜𝑛 "0" 𝑚𝑢𝑗𝑒𝑟 (𝑆)
𝑥8 = 𝐽𝑒𝑓𝑒 𝑑𝑒 ℎ𝑜𝑔𝑎𝑟 ("1" 𝑠𝑖 "0" 𝑒𝑛 𝑜𝑡𝑟𝑜𝑠 𝑐𝑎𝑠𝑜𝑠) (𝐶𝑀)
𝑥9 = 𝐿𝑙𝑒𝑔𝑎𝑑𝑎 ("1" 𝑙𝑙𝑒𝑔𝑎𝑑𝑎 𝑓𝑖𝑗𝑎 "0" 𝑒𝑛 𝑜𝑡𝑟𝑜𝑠 𝑐𝑎𝑠𝑜𝑠)(𝐴)
𝑉𝑡𝑟𝑒𝑛 = 𝛽2𝐶 + 𝛽5𝑇 + 𝛽6𝐶𝑙
𝑉
𝑐𝑎𝑟𝑟𝑜 = 𝛽1 + 𝛽2𝐶 + 𝛽3𝑇𝑊 + 𝛽4𝑇𝑁𝑊 + 𝛽7𝑆 + 𝛽8𝐶𝑀 + 𝛽9𝐴
El modelo de elección se puede escribir
como:
𝑝𝑛𝑘 = 𝑓𝑘(𝑉(𝑛,𝑘)) 𝑑𝑜𝑛𝑑𝑒:
Para estimar los parámetros del modelo 𝑎𝑖𝑘, observamos un número
de individuos N y tomamos nota de la elección de cada individuo, al
mismo tiempo, observamos los valores de 𝑥𝑖𝑛𝑘.
Para construir la función de verosimilitud de las elecciones
observadas, definimos la siguiente variable aleatoria:
𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘
𝑌𝑛𝑘=
1 𝑠𝑖 𝑒𝑙 𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑜 𝑛 𝑒𝑙𝑖𝑔𝑒 𝑙𝑎 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑎 𝑘
0 𝑒𝑛 𝑙𝑜𝑠 𝑜𝑡𝑟𝑜𝑠 𝑐𝑎𝑠𝑜𝑠
𝑁𝑘= 𝑛=1
𝑁
𝑌𝑛𝑘
 𝑁𝑘 se convierte en el número de individuos que eligen la
alternativa k en la muestra observada.
 Ahora dividimos la muestra N en K subconjuntos 𝑆𝑘, cada uno de
los cuales contiene los 𝑁𝑘 individuos que seleccionan la
alternativa k.
𝑌_𝑛𝑘 Bus Car Train
1 0 1 0
2 1 0 0
3 0 1 0
4 1 0 0
5 0 0 1
6 0 0 1
7 1 0 0
8 1 0 0
9 0 0 1
10 1 0 0
11 1 0 0
12 0 0 1
13 1 0 0
14 0 1 0
15 0 0 1
16 0 1 0
17 0 1 0
18 0 0 1
19 0 0 1
20 0 0 1
N_k 7 5 8 20
Calibration of Choice Models
Multinomial Disaggregate Models
El modelo de elección se puede
escribir como:
𝑝𝑛𝑘 = 𝑓𝑘(𝑉(𝑛,𝑘)) 𝑑𝑜𝑛𝑑𝑒: 𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘
Suponiendo que los valores de Ynk representan los resultados de
los ensayos independientes de Bemoulli, es decir, asumiendo que
las elecciones de diferentes individuos son independientes,
entonces la probabilidad de 𝑁𝑘 individuales en cada subconjunto
𝑆𝑘 viene dada por la distribución multinomial.
Por tanto, la probabilidad de la muestra observada viene dada por:
𝑌_𝑛𝑘 Bus Car Train
1 0 1 0
2 1 0 0
3 0 1 0
4 1 0 0
5 0 0 1
6 0 0 1
7 1 0 0
8 1 0 0
9 0 0 1
10 1 0 0
11 1 0 0
12 0 0 1
13 1 0 0
14 0 1 0
15 0 0 1
16 0 1 0
17 0 1 0
18 0 0 1
19 0 0 1
20 0 0 1
N_k 7 5 8 20
𝑆𝑐𝑎𝑟 = 1,3,14,16,17 𝑁𝑐𝑎𝑟 = 5
𝑆𝑏𝑢𝑠 = 2,4,7,8,10,11,13 𝑁𝑏𝑢𝑠 = 7
𝑆𝑡𝑟𝑎𝑖𝑛 = 5,6,9,12,15,18,19,20 𝑁𝑡𝑟𝑎𝑖𝑛 = 8
Λ = 𝑝 𝑁1, 𝑁2, … , 𝑁𝑘 𝐴
Λ =
𝑁!
𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑛∈𝑆𝑘
𝑝𝑛𝑘
Calibration of Choice Models
Multinomial Disaggregate Models
𝑝𝑛𝑘 = 𝑓𝑘(𝑉(𝑛,𝑘)) 𝑑𝑜𝑛𝑑𝑒: 𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘
𝑌_𝑛𝑘 Bus Car Train
1 0 1 0
2 1 0 0
3 0 1 0
4 1 0 0
5 0 0 1
6 0 0 1
7 1 0 0
8 1 0 0
9 0 0 1
10 1 0 0
11 1 0 0
12 0 0 1
13 1 0 0
14 0 1 0
15 0 0 1
16 0 1 0
17 0 1 0
18 0 0 1
19 0 0 1
20 0 0 1
N_k 7 5 8 20
Λ = 𝑝 𝑁1, 𝑁2, … , 𝑁𝑘 𝐴
Λ =
𝑁!
𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑛∈𝑆𝑘
𝑝𝑛𝑘
Tomando logaritmos y
eliminando el factor
constante para la
maximización de la
verosimilitud
Λ∗
=
𝑘 𝑛∈𝑆𝑘
𝑝𝑛𝑘
𝜕Λ∗
𝜕𝑎𝑖𝑘
= 0 ∀𝑖
Asintóticamente eficiente,
consistente y
normalmente distribuido
Para estimar y evaluar los valores de los parámetros de una
elección depende de la forma del modelo en sí. El modelo
Logit, por ejemplo, se presta a una estimación relativamente
sencilla. El modelo Probit, por otro lado, requiere
procedimientos computacionales que son bastante complejos
Calibration of Choice Models
Multinomial Disaggregate Models
𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘
Cabe señalar que la especificación del modelo implica a través de los
parámetros 𝑎𝑖𝑘 que la elección es especificada por alternativa más que
específica del atributo. Esto se debe a que los parámetros 𝑎𝑖𝑘 pueden diferir
para cualquier variable i de una alternativa k.
Un caso especial de esto es cuando 𝑎𝑖𝑘 = 𝑎𝑖 lo que significa que los atributos
tienen el mismo efecto en la elección independientemente de la alternativa que
describieron.
El modelo entonces presentado contiene un mayor número de parámetros y
requiere más datos para su calibración. Tiene la ventaja potencial de capturar
los efectos de factores que son específicos de las alternativas. Su desventaja es
que no es tan susceptible de análisis de políticas como la opción de atributo
específico porque no puede predecir las probabilidades de elección de
alternativas nuevas, ya que no existirán valores de parámetro para ellas.
Λ = 𝑝 𝑁1, 𝑁2, … , 𝑁𝑘 𝐴
Λ =
𝑁!
𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑛∈𝑆𝑘
𝑒
𝑉(𝑛,𝑘)
𝑘 𝑒
𝑉(𝑛,𝑘)
Calibration of Choice Models
Multinomial Disaggregate Models
Λ =
𝑁!
𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑛∈𝑆𝑘
𝑝𝑛𝑘
Multinomial Disaggregate Models
Λ =
𝑁!
𝑁1!. 𝑁2!. … . 𝑁𝑘!
𝑘 𝑛∈𝑆𝑘
𝑒𝑉(𝑛,𝑘)
𝑘 𝑒𝑉(𝑛,𝑘)
Tomando logaritmos y
eliminando el factor
constante para la
maximización de la
verosimilitud (𝑉(𝑛,𝑘) =
𝑎𝑖𝑘𝑥𝑖𝑛𝑘)
Λ∗ =
𝑘 𝑛∈𝑆𝑘
[𝑉(𝑛,𝑘) − ln
𝑘
𝑒𝑉 𝑛,𝑘 ]
𝜕Λ∗
𝜕𝑎𝑖𝑘
= 𝑘 𝑛∈𝑆𝑘
𝑥𝑖𝑛𝑘 − 𝑘 𝑛∈𝑆𝑘
𝑥𝑖𝑛𝑘
𝑒
𝑉(𝑛,𝑘)
𝑘 𝑒
𝑉(𝑛,𝑘)
=0
Λ =
𝑁!
𝑁1!.𝑁2! 𝑛∈𝑆1
𝑝𝑛1 𝑛∈𝑆2
𝑝𝑛2
Binomiall Disaggregate Models
Calibration of Choice Models
Λ =
𝑁!
𝑁1!. 𝑁2!
𝑛∈𝑆1
𝑒𝑉(𝑛,1)
𝑒𝑉(𝑛,1) + 𝑒𝑉(𝑛,2)
𝑛∈𝑆2
𝑒𝑉(𝑛,2)
𝑒𝑉(𝑛,1) + 𝑒𝑉(𝑛,2)
Λ = ln
𝑛∈𝑆1
𝑒𝑉(𝑛,1)
𝑒𝑉(𝑛,1) + 𝑒𝑉(𝑛,2)
+ ln
𝑛∈𝑆1
𝑒𝑉(𝑛,2)
𝑒𝑉(𝑛,1) + 𝑒𝑉(𝑛,2)
Λ =
𝑛∈𝑆1
ln
𝑒𝑉(𝑛,1)
𝑒𝑉(𝑛,1) + 𝑒𝑉(𝑛,2)
+
𝑛∈𝑆1
ln
𝑒𝑉(𝑛,2)
𝑒𝑉(𝑛,1) + 𝑒𝑉(𝑛,2)
Λ =
𝑛∈𝑆1
ln 𝑒𝑉(𝑛,1) − ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2)) +
𝑛∈𝑆1
ln 𝑒𝑉(𝑛,2) − ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2))
Λ =
𝑛∈𝑆1
ln 𝑒𝑉(𝑛,1) −
𝑛∈𝑆1
ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2)) +
𝑛∈𝑆2
ln 𝑒𝑉(𝑛,2) −
𝑛∈𝑆2
ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2))
Λ =
𝑛∈𝑆1
ln 𝑒𝑉(𝑛,1) +
𝑛∈𝑆2
ln 𝑒𝑉(𝑛,2) −
𝑛
ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2))
Λ =
𝑛∈𝑆1
𝑉(𝑛,1) +
𝑛∈𝑆1
𝑉(𝑛,2) −
𝑛
ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2))
𝜕Λ∗
𝜕𝑎𝑖𝑘
= 𝑘 𝑛∈𝑆𝑘
𝑥𝑖𝑛𝑘 − 𝑘 𝑛∈𝑆𝑘
𝑥𝑖𝑛𝑘
𝑒
𝑉(𝑛,𝑘)
𝑘 𝑒
𝑉(𝑛,𝑘)
=0
Λ =
𝑛∈𝑆1
𝑉(𝑛,1) +
𝑛∈𝑆1
𝑉(𝑛,2) −
𝑛
ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2))
El lado derecho es específico de cada individuo y, por lo
tanto, no es posible obtener diferentes observaciones
para p (1) / p (2) para calibrar sus parámetros. La
linealización de la ecuación. (5.52) y el uso de regresión
para la estimación de los parámetros solo se puede
hacer en el caso agregado.
Es bastante engorroso ilustrar la estimación del modelo
desagregado con un ejemplo numérico, ya que el
número de probabilidades que se necesita calcular es
bastante grande e igual al producto del número de
individuos de la muestra por el número de alternativas.
Sin embargo, podemos ilustrar la construcción de la
función de verosimilitud, por ejemplo, con un tamaño de
muestra pequeño y un modelo de elección muy simple.
Calibration of Choice Models
Multinomial Disaggregate Models
𝑛 = 1, 2,3,4,5 (𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑜𝑠)
𝑘 = 1, 2, (𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑎𝑠 𝑏𝑢𝑠 𝑎𝑛𝑑 𝑡𝑟𝑎𝑖𝑛)
𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘
𝑉(1,𝑐𝑎𝑟) = 𝑎1,𝑐𝑎𝑟𝑥1,1,𝑐𝑎𝑟
𝑉(2,𝑐𝑎𝑟) = 𝑎1,𝑐𝑎𝑟𝑥1,2,𝑐𝑎𝑟
…….
𝑉(5,𝑐𝑎𝑟) = 𝑎1,𝑐𝑎𝑟𝑥1,5,𝑐𝑎𝑟
𝑉(1,𝑏𝑢𝑠) = 𝑎1,𝑏𝑢𝑠𝑥1,1,𝑏𝑢𝑠
𝑉(2,𝑏𝑢𝑠) = 𝑎1,𝑏𝑢𝑠𝑥1,2,𝑏𝑢𝑠
……..
𝑉(5,𝑏𝑢𝑠) = 𝑎1,𝑏𝑢𝑠𝑥1,5,𝑏𝑢𝑠
𝑥𝑖𝑛𝑘= 𝑡1,𝑛,𝑐𝑎𝑟, 𝑡1,𝑛,𝑡𝑟𝑎𝑖𝑛 = {𝑡𝑛,𝑐𝑎𝑟, 𝑡𝑛,𝑡𝑟𝑎𝑖𝑛}
𝑎𝑖𝑘= {𝑎1,𝑐𝑎𝑟, 𝑎1,𝑡𝑟𝑎𝑖𝑛} = {𝑎𝑐𝑎𝑟, 𝑎𝑡𝑟𝑎𝑖𝑛}
𝑉(1,𝑐𝑎𝑟) = 𝑎𝑐𝑎𝑟𝑡1,𝑐𝑎𝑟
𝑉(2,𝑐𝑎𝑟) = 𝑎𝑐𝑎𝑟𝑡2,𝑐𝑎𝑟
…….
𝑉(5,𝑐𝑎𝑟) = 𝑎𝑐𝑎𝑟𝑡5,𝑐𝑎𝑟
𝑉(1,𝑡𝑟𝑎𝑖𝑛) = 𝑎𝑡𝑟𝑎𝑖𝑛𝑡1,𝑡𝑟𝑎𝑖𝑛
𝑉(2,𝑡𝑟𝑎𝑖𝑛) = 𝑎𝑡𝑟𝑎𝑖𝑛𝑡2,𝑡𝑟𝑎𝑖𝑛
…….
𝑉(5,𝑡𝑟𝑎𝑖𝑛) = 𝑎𝑡𝑟𝑎𝑖𝑛𝑡5,𝑡𝑟𝑎𝑖𝑛
x_ink Elección (k)
n t_car t_train car train
1 5 7 1 0
2 4 6 1 0
3 6 4 0 1
4 6 4 0 1
5 4 5 0 1
𝑝(𝑛,𝑘) =
𝑒𝑉(𝑛,𝑘)
𝑘 𝑒𝑉(𝑛,𝑘)
𝑝(1,𝑐𝑎𝑟) =
𝑒𝑉(1,𝑐𝑎𝑟)
𝑒𝑉(1,𝑐𝑎𝑟) + 𝑒𝑉(1,𝑡𝑟𝑎𝑖𝑛)
𝑝(3,𝑡𝑟𝑎𝑖𝑛) =
𝑒𝑉(3,𝑡𝑟𝑎𝑖𝑛)
𝑒𝑉(3,𝑐𝑎𝑟) + 𝑒𝑉(3,𝑡𝑟𝑎𝑖𝑛)
𝑝(2,𝑐𝑎𝑟) =
𝑒𝑉(2,𝑐𝑎𝑟)
𝑒𝑉(2,𝑐𝑎𝑟) + 𝑒𝑉(2,𝑡𝑟𝑎𝑖𝑛)
𝑝(4,𝑡𝑟𝑎𝑖𝑛) =
𝑒𝑉(4,𝑡𝑟𝑎𝑖𝑛)
𝑒𝑉(4,𝑐𝑎𝑟) + 𝑒𝑉(4,𝑡𝑟𝑎𝑖𝑛)
𝑝(5,𝑡𝑟𝑎𝑖𝑛) =
𝑒𝑉(5,𝑡𝑟𝑎𝑖𝑛)
𝑒𝑉(5,𝑐𝑎𝑟) + 𝑒𝑉(5,𝑡𝑟𝑎𝑖𝑛)
Calibration of Choice Models
Binomial Disaggregate Models
𝑉(𝑛,𝑘) = 𝑎𝑘𝑥𝑛𝑘
x_ink Elección (k)
n t_car t_train car train
1 5 7 1 0
2 4 6 1 0
3 6 4 0 1
4 6 4 0 1
5 4 5 0 1
𝑉
𝑐𝑎𝑟 = 𝑎𝑐𝑎𝑟𝑡𝑐𝑎𝑟 = 𝑎𝑡𝑐𝑎𝑟
𝑉𝑡𝑟𝑎𝑖𝑛 = 𝑎𝑡𝑟𝑎𝑖𝑛𝑡𝑡𝑟𝑎𝑖𝑛 = 𝑏𝑡𝑡𝑟𝑎𝑖𝑛
Λ∗
= 𝑝(1,𝑐𝑎𝑟) 𝑝(2,𝑐𝑎𝑟) 𝑝(3,𝑡𝑟𝑎𝑖𝑛) 𝑝(4,𝑡𝑟𝑎𝑖𝑛) 𝑝(5,𝑡𝑟𝑎𝑖𝑛)
Λ∗
= (
𝑒5𝑎
𝑒5𝑎+𝑒7𝑏)(
𝑒4𝑎
𝑒4𝑎+𝑒6𝑏)(
𝑒4𝑏
𝑒4𝑏+𝑒6𝑎)(
𝑒4𝑏
𝑒4𝑏+𝑒6𝑎)(
𝑒5𝑏
𝑒5𝑏+𝑒4𝑎)
Log-
likelihood:
Likelihood
function:
Λ∗
= ln
𝑒5𝑎
𝑒5𝑎 + 𝑒7𝑏
+ ln
𝑒4𝑎
𝑒4𝑎 + 𝑒6𝑏
+ ln
𝑒4𝑏
𝑒4𝑏 + 𝑒6𝑎
+ ln
𝑒4𝑏
𝑒4𝑏 + 𝑒6𝑎
+ ln
𝑒5𝑏
𝑒5𝑏 + 𝑒4𝑎
Λ∗
= 5a − ln(𝑒5𝑎
+𝑒7𝑏
) + 4𝑎 − ln(𝑒4𝑎
+𝑒6𝑏
) + 4𝑏 − ln(𝑒4𝑏
+𝑒6𝑎
) + 4b − ln(𝑒4𝑏
+𝑒6𝑎
) + 5𝑏 − ln(𝑒5𝑏
+𝑒4𝑎
)
Λ∗
= 9a + 13b − ln(𝑒5𝑎
+𝑒7𝑏
) − ln(𝑒4𝑎
+ 𝑒6𝑏
) − ln(𝑒4𝑏
+𝑒6𝑎
) −ln(𝑒4𝑏
+𝑒6𝑎
) − ln(𝑒5𝑏
+𝑒4𝑎
)
𝑎 ~
𝜕Λ∗
𝜕𝑎
= 0 𝑏 ~
𝜕Λ∗
𝜕𝑏
= 0
Calibration of Choice Models
Binomial Disaggregate Models
𝑉(𝑛,𝑘) = 𝑎𝑘𝑥𝑛𝑘
x_ink Elección (k)
n t_car t_train car train
1 5 7 1 0
2 4 6 1 0
3 6 4 0 1
4 6 4 0 1
5 4 5 0 1
𝑉
𝑐𝑎𝑟 = 𝑎𝑐𝑎𝑟𝑡𝑐𝑎𝑟 = 𝑎𝑡𝑐𝑎𝑟
𝑉𝑡𝑟𝑎𝑖𝑛 = 𝑎𝑡𝑟𝑎𝑖𝑛𝑡𝑡𝑟𝑎𝑖𝑛 = 𝑏𝑡𝑡𝑟𝑎𝑖𝑛
Calibration of Choice Models
Binomial Disaggregate Models
Λ =
𝑁!
𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑝𝑛𝑘
𝑁𝑘
Tomando logaritmos y
eliminando el factor
constante para la
maximización de la
verosimilitud (𝑉(𝑘) = 𝑎𝑖𝑥𝑖𝑘)
Λ∗
=
𝑘
𝑁𝑘𝑝𝑘
En el modelo de elección agregada, se supone
que las variables de la función de elección son
las mismas para todos los individuos de una
muestra, es decir, 𝑥𝑖𝑘𝑛 = 𝑥𝑖𝑘.
Esto significa que hay un valor único de la
función de elección medida para cada
alternativa y que las probabilidades de
elección también son las mismas para los
individuos de cada subconjunto Si. es decir,
𝑘 = 1, 2, 3 (𝑐𝑎𝑟, 𝑏𝑢𝑠, 𝑡𝑟𝑎𝑖𝑛)
𝑉(𝑘) = 𝑎𝑖𝑥𝑖𝑘
𝑉(𝑐𝑎𝑟) = 𝑎1,𝑡𝑐𝑎𝑟 + 𝑎2,𝑐𝑐𝑎𝑟
𝑉(𝑏𝑢𝑠) = 𝑎1,𝑡𝑏𝑢𝑠 + 𝑎2,𝑐𝑏𝑢𝑠
𝑉(𝑡𝑟𝑎𝑖𝑛) = 𝑎1,𝑡𝑡𝑟𝑎𝑖𝑛 + 𝑎2,𝑐𝑡𝑟𝑎𝑖𝑛
𝑥𝑖𝑘= 𝑡1,𝑐𝑎𝑟, 𝑡1,𝑏𝑢𝑠, 𝑡1,𝑡𝑟𝑎𝑖𝑛, 𝑐2,𝑐𝑎𝑟, 𝑐2,𝑏𝑢𝑠, 𝑐2,𝑡𝑟𝑎𝑖𝑛
𝑎𝑖= {𝑎1,, 𝑎2}
K t_k c_k
car 15 3
bus 10 4
train 20 7
Suponga que de 100 personas encuestadas, se
encontró que 50 usaron el primer modo auto, 40 el
modo bus y el resto el modo ferroviario
En otras palabras, Pk = (0.5, 0.4, 0.10).
Se postula un modelo logit de la siguiente forma
para este problema:
Calibration of Choice Models
Binomial Disaggregate Models
Λ =
𝑁!
𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑝𝑘
𝑁𝑘
Λ =
100!
50! .40! .10!
(𝑝1
50
)(𝑝2
40
)(𝑝3
10
)
Λ = (
𝑒15𝑎1+3𝑎2
𝑌
)50(
𝑒10𝑎1+4𝑎2
𝑌
)40(
𝑒20𝑎1+7𝑎2
𝑌
)10
𝐷𝑜𝑛𝑑𝑒: 𝑌 = 𝑒15 𝑎1 +3 𝑎2 + 𝑒10 𝑎1 +4 𝑎2+ 𝑒20 𝑎1 +7 𝑎2
Λ∗
= ln(
𝑒15𝑎1+3𝑎2
𝑌
)50
(
𝑒10𝑎1+4𝑎2
𝑌
)40
(
𝑒20𝑎1+7𝑎2
𝑌
)10
Λ∗ = 50 ln
𝑒15𝑎1+3𝑎2
𝑌
+ 40 ln
𝑒10𝑎1+4𝑎2
𝑌
+ 10 ln
𝑒20+7𝑎2
𝑌
Λ∗ = 50 (ln 𝑒15𝑎1+3𝑎2 − ln 𝑌)+ 40 (ln 𝑒10𝑎1+4𝑎2 − ln 𝑌)+ 10 (ln 𝑒20𝑎1+7𝑎2 − ln 𝑌)
Λ∗
= 50 ln 𝑒15𝑎1+3𝑎2 − 50ln 𝑌+ 40 ln 𝑒10𝑎1+4𝑎2 − 40ln 𝑌+ 10 ln 𝑒20𝑎1+7𝑎2 − 10ln 𝑌
Λ∗
= 50 ln 𝑒15𝑎1+3𝑎2+ 40 ln 𝑒10𝑎1+4𝑎2+ 10 ln 𝑒20𝑎1+7𝑎2 − 100ln 𝑌
Calibration of Choice Models
Multinomial Disaggregate Models
𝑉(𝑐𝑎𝑟) = -0.028 𝑡𝑐𝑎𝑟− 0.366𝑐𝑐𝑎𝑟
𝑉(𝑏𝑢𝑠) = -0.028 𝑡𝑏𝑢𝑠 −0.366𝑐𝑏𝑢𝑠
𝑉(𝑡𝑟𝑎𝑖𝑛) = -0.028 𝑡𝑡𝑟𝑎𝑖𝑛−0.366𝑐𝑡𝑟𝑎𝑖𝑛
Λ∗
=50(15 𝑎1 +3 𝑎2)+40(10 𝑎1 +4 𝑎2) 10(20 𝑎1 +7 𝑎2)-100ln 𝑌
𝑌 = 𝑒15 𝑎1 +3 𝑎2 + 𝑒10 𝑎1 +4 𝑎2+ 𝑒20 𝑎1 +7 𝑎2
𝑎 ~
𝜕Λ∗
𝜕𝑎1
= 0 𝑏 ~
𝜕Λ∗
𝜕𝑎2
= 0
50%
40%
10%
Car
Bus
Train
k Tiempo Costo
Car 15 3
Bus 10 4
Train 20 7
𝑉(𝑐𝑎𝑟) = -0.028 𝑡𝑐𝑎𝑟− 0.366𝑐𝑐𝑎𝑟
𝑉(𝑏𝑢𝑠) = -0.028 𝑡𝑏𝑢𝑠 −0.366𝑐𝑏𝑢𝑠
𝑉(𝑡𝑟𝑎𝑖𝑛) = -0.028 𝑡𝑡𝑟𝑎𝑖𝑛−0.366𝑐𝑡𝑟𝑎𝑖𝑛
𝑉(𝑚𝑒𝑡𝑟𝑜) = -0.028 𝑡𝑚𝑒𝑡𝑟𝑜−0.366𝑐𝑚𝑒𝑡𝑟𝑜
k Tiempo Costo
Car 15 3
Bus 10 4
Train 20 7
Metro 5 12
49%
39%
10% 2%
Car
Bus
Train
Metro
k Tiempo Costo
Car 15 3
Bus 10 4
Train 20 7
Metro 5 5
38%
30%
8%
24% Car
Bus
Train
Metro
Calibration of Choice Models
Multinomial Disaggregate Models
Observe que si el modelo hubiera incluido parámetros específicos por cada modo de elección 𝑎𝑖𝑘 ,
entonces este tipo de predicción al introducir un nuevo modo no sería posible, ya que los valores
𝑎𝑖𝑚𝑒𝑡𝑟𝑜 noestarían disponibles.
También serían necesarios datos de elección adicionales para estimar el modelo con parámetros
específicos de elección.
El ejemplo discutido aquí representa una situación extrema donde toda la población encuestada
se agrega en un grupo. El otro extremo es el modelo totalmente desagregado en el que cada
individuo se considera por separado con una probabilidad individual sobre la base de valores de
tiempo y costo medidos individualmente.
Es prácticamente seguro que en realidad el modelo totalmente agregado no es exacto, ya que es
poco probable que todos los individuos de la población de la encuesta experimenten exactamente
los mismos valores de tk y ci. Dada la disponibilidad de datos, siempre es preferible utilizar un
modelo desagregado al estimar los parámetros.
Cuando no se dispone de datos desagregados, el analista debe tener cuidado al agregar los datos
para evitar sesgos en la estimación de los parámetros. El efecto de los diferentes niveles de
agregación sobre los resultados dependerá, por supuesto, de cómo varían las variables del
Calibration of Choice Models
Multinomial Disaggregate Models
n fare_1 fare_2
traffic_
1
traffic_
2
1 90 60 33 100
2 110 70 33 110
3 130 80 35 120
4 140 80 35 140
5 160 90 34 180
ln
𝑝𝑖
𝑝𝑗
=𝑉𝑖 − 𝑉
𝑗
𝑉𝑖 = 𝑎 + 𝑏𝐹1
𝑉
𝑗 = 𝑏𝐹2
ln
𝑝𝑖
𝑝𝑗
=𝑎 + 𝑏(𝐹1−𝐹2)
𝑦=𝑎 + 𝑏x
n
Ln(t1/t
2)
F1-F2
1
-
1.1087
30
2 -1.204 40
3
-
1.2321
50
4
-
1.3863
60
5
-
1.6666
70
Coeficientes
Error
típico
Estadístico
t
Probabilid
ad
Inferior
95% Superior 95%
Inferior
95.0%
Superior
95.0%
Intercepció
n -0.6704 0.1402 -4.7823 0.0174 -1.1166 -0.22428199 -1.117 -0.224
F1-F2 -0.013 0.0027 -4.8116 0.0171 -0.0216 -0.00439558 -0.022 -0.004
Coeficientes
a1 -0.66
b -0.01
Mode Split Model
Estimation
Utilidad 1 Utilidad 2
Prob_
1
Prob_2 Log Likelihood
-1.85 -0.79 0.26 0.74 0.00 0.00 -44.70 -29.85
-2.11 -0.92 0.23 0.77 0.00 0.00 -47.99 -29.26
-2.38 -1.06 0.21 0.79 0.00 0.00 -54.49 -28.40
-2.51 -1.06 0.19 0.81 0.00 0.00 -58.19 -29.44
-2.77 -1.19 0.17 0.83 0.00 0.00 -60.21 -33.58
Log
Likelihood
-416.12
Λ =
𝑁!
𝑁1!. 𝑁2!
𝑝1
𝑁1
𝑝2
𝑁2
Calibration of Choice Models
Multinomial Aggregate Models
ANEXOS
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝜀2=−∞
(𝑉𝑖−𝑉2+𝜀𝑖)
… 𝜀𝑖−1=−∞
(𝑉𝑖−𝑉𝑖−1+𝜀𝑖)
𝜀𝑖+1=−∞
(𝑉𝑖−𝑉𝑖+1+𝜀𝑖)
… 𝜀𝐽−1=−∞
(𝑉𝑖−𝑉𝐽−1+𝜀𝑖)
𝜀𝐽=−∞
(𝑉𝑖−𝑉𝐽+𝜀𝑖)
𝑓 𝜀1, 𝜀2, … , 𝜀𝑖−1, 𝜀𝑖, 𝜀𝑖+1, … , 𝜀𝐽−1, 𝜀𝐽 𝑑(𝜀𝑖)
𝑝𝑖= 𝑓 𝜀 𝑑(𝜀)
𝑝𝑖= 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1 𝑓 𝜀𝐽 𝑑(𝜀)
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝜀2=−∞
(𝑉𝑖−𝑉2+𝜀𝑖)
…
𝜀𝑖−1=−∞
(𝑉𝑖−𝑉𝑖−1+𝜀𝑖)
𝜀𝑖+1=−∞
(𝑉𝑖−𝑉𝑖+1+𝜀𝑖)
…
𝜀𝐽−1=−∞
(𝑉𝑖−𝑉𝐽−1+𝜀𝑖)
𝜀𝐽=−∞
(𝑉𝑖−𝑉𝐽+𝜀𝑖)
𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1 𝑓 𝜀𝐽 𝑑(𝜀𝑖)
Si integramos sobre todas las dimensiones excepto en la primera, se obtiene:
𝑝𝑖= 𝜀=−∞
+∞ 𝜕𝐹𝜀1,𝜀2,…,𝜀𝐽
𝜕𝜀𝑖
𝑉𝑖 − 𝑉1 + 𝜀𝑖, … , 𝑉𝑖 − 𝑉𝑖−1 + 𝜀𝑖, 𝜀𝑖, 𝑉𝑖 − 𝑉𝑖+1 + 𝜀𝑖, … , 𝑉𝑖 − 𝑉1 + 𝜀𝑖, 𝑑(𝜀)
Si se integra en cada una de sus dimensiones se obtiene:
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝜀2=−∞
(𝑉𝑖−𝑉2+𝜀𝑖)
…
𝜀𝑖−1=−∞
(𝑉𝑖−𝑉𝑖−1+𝜀𝑖)
𝜀𝑖+1=−∞
(𝑉𝑖−𝑉𝑖+1+𝜀𝑖)
…
𝜀𝐽−1=−∞
(𝑉𝑖−𝑉𝐽−1+𝜀𝑖)
𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1
𝜀𝐽=−∞
(𝑉𝑖−𝑉𝐽+𝜀𝑖)
𝑓 𝜀𝐽 𝑑(𝜀𝑖)
ANEXO 01 / 03 : DEMOSTRACION
𝑝𝑖= 𝜀𝑖=−∞
+∞
𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝜀2=−∞
(𝑉𝑖−𝑉2+𝜀𝑖)
… 𝜀𝑖−1=−∞
(𝑉𝑖−𝑉𝑖−1+𝜀𝑖)
𝜀𝑖+1=−∞
(𝑉𝑖−𝑉𝑖+1+𝜀𝑖)
… 𝜀𝐽−1=−∞
(𝑉𝑖−𝑉𝐽−1+𝜀𝑖)
𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1 𝐹(𝜀𝐽) 𝑑(𝜀𝑖)
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝜀2=−∞
(𝑉𝑖−𝑉2+𝜀𝑖)
…
𝜀𝑖−1=−∞
(𝑉𝑖−𝑉𝑖−1+𝜀𝑖)
𝜀𝑖+1=−∞
(𝑉𝑖−𝑉𝑖+1+𝜀𝑖)
… 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 …
𝜀𝐽−1=−∞
(𝑉𝑖−𝑉𝐽−1+𝜀𝑖)
𝑓 𝜀𝐽−1 𝐹(𝜀𝐽) 𝑑(𝜀𝑖)
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝜀2=−∞
(𝑉𝑖−𝑉2+𝜀𝑖)
…
𝜀𝑖−1=−∞
(𝑉𝑖−𝑉𝑖−1+𝜀𝑖)
𝜀𝑖+1=−∞
(𝑉𝑖−𝑉𝑖+1+𝜀𝑖)
… 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖)
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝜀2=−∞
(𝑉𝑖−𝑉2+𝜀𝑖)
…
𝜀𝑖−1=−∞
(𝑉𝑖−𝑉𝑖−1+𝜀𝑖)
… 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖
𝜀𝑖+1=−∞
(𝑉𝑖−𝑉𝑖+1+𝜀𝑖)
𝑓 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖)
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝜀2=−∞
(𝑉𝑖−𝑉2+𝜀𝑖)
…
𝜀𝑖−1=−∞
(𝑉𝑖−𝑉𝑖−1+𝜀𝑖)
… 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝐹(𝜀𝑖+1) … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖)
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝑓 𝜀𝑖
𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝜀2=−∞
(𝑉𝑖−𝑉2+𝜀𝑖)
…
𝜀𝑖−1=−∞
(𝑉𝑖−𝑉𝑖−1+𝜀𝑖)
… 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝐹(𝜀𝑖+1) … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖)
𝑝𝑖=
𝜀𝑖=−∞
+∞
𝑓 𝜀𝑖
𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝜀2=−∞
(𝑉𝑖−𝑉2+𝜀𝑖)
𝑓 𝜀1 . 𝑓 𝜀2 …
𝜀𝑖−1=−∞
(𝑉𝑖−𝑉𝑖−1+𝜀𝑖)
𝑓 𝜀𝑖−1 𝐹(𝜀𝑖+1) … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖)
𝑝𝑖= 𝜀𝑖=−∞
+∞
𝑓 𝜀𝑖 𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝜀2=−∞
(𝑉𝑖−𝑉2+𝜀𝑖)
𝑓 𝜀1 . 𝑓 𝜀2 … 𝐹 𝜀𝑖−1 𝐹 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖)
ANEXO 02 / 03 : DEMOSTRACION
𝑝𝑖= 𝜀𝑖=−∞
+∞
𝑓 𝜀𝑖 𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝑓 𝜀1 𝜀2=−∞
(𝑉𝑖−𝑉2+𝜀𝑖)
𝑓 𝜀2 … 𝐹 𝜀𝑖−1 𝐹 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖)
𝑝𝑖= 𝜀𝑖=−∞
+∞
𝑓 𝜀𝑖 𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝑓 𝜀1 𝜀2=−∞
(𝑉𝑖−𝑉2+𝜀𝑖)
𝑓 𝜀2 … 𝐹 𝜀𝑖−1 𝐹 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖)
𝑝𝑖= 𝜀𝑖=−∞
+∞
𝑓 𝜀𝑖 𝜀1=−∞
(𝑉𝑖−𝑉1+𝜀𝑖)
𝑓 𝜀1 𝐹 𝜀2 … 𝐹 𝜀𝑖−1 𝐹 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖)
𝑝𝑖= 𝜀𝑖=−∞
+∞
𝑓 𝜀𝑖 𝐹 𝜀1 𝐹 𝜀2 … 𝐹 𝜀𝑖−1 𝐹 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖)
𝑝𝑖= 𝜀𝑖=−∞
+∞
𝑓 𝜀𝑖 𝑖≠𝑗 𝐹𝜀𝑗
𝑑(𝜀𝑖)
ANEXO 03 / 03 : DEMOSTRACION
ANEXO 03 : EJEMPLO COMPLETO
1
1
2
3
Urban Passenger travel demand 101 falta desarrollar el ejercicio
The direct approach ,
The sequence choice approach
EJEMPLO DISTRIBUCION MULTINOMIAL
En una ciudad los viajes de las personas son
distribuidos de la siguiente manera 50% en
Transporte publico, 30% en vehículo privado y
20% en bicicleta (caminata y bicicleta). En una
muestra de 10 personas, calcular la
probabilidad de que sean 4 personas que
usan transporte publico, 4 personas que usan
vehículos privado y 2 que usen bicicleta.
Λ =
10!
4!.4!.2!
(.54
) (.34
) (.22
)
Λ = 6.4%
n° N n1 n2 n3 p1 p2 p3 P
43 10 5 3 2 0.5 0.3 0.2 8.505%
52 10 6 2 2 0.5 0.3 0.2 7.088%
53 10 6 3 1 0.5 0.3 0.2 7.088%
34 10 4 4 2 0.5 0.3 0.2 6.379%
44 10 5 4 1 0.5 0.3 0.2 6.379%
33 10 4 3 3 0.5 0.3 0.2 5.670%
42 10 5 2 3 0.5 0.3 0.2 5.670%
62 10 7 2 1 0.5 0.3 0.2 5.063%
35 10 4 5 1 0.5 0.3 0.2 3.827%
24 10 3 4 3 0.5 0.3 0.2 3.402%
Λ =
𝑁!
𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑛∈𝑆𝑘
𝑝𝑛𝑘
Ejemplo 02: Comparación LOGIT - PROBIT
Multinomial Disaggregate Models
Λ =
𝑁!
𝑁1!. 𝑁2!. … . 𝑁𝑘!
𝑘 𝑛∈𝑆𝑘
𝑒𝑉(𝑛,𝑘)
𝑘 𝑒𝑉(𝑛,𝑘)
Tomando logaritmos y
eliminando el factor
constante para la
maximización de la
verosimilitud (𝑉(𝑛,𝑘) =
𝑎𝑖𝑘𝑥𝑖𝑛𝑘)
Λ =
𝑘 𝑛∈𝑆𝑘
[𝑉(𝑛,𝑘) − ln
𝑘
𝑒𝑉 𝑛,𝑘 ]
Λ =
𝑘 𝑛∈𝑆𝑘
[ 𝑎𝑖𝑘𝑥𝑖𝑛𝑘 − ln
𝑘
𝑒 𝑎𝑖𝑘𝑥𝑖𝑛𝑘]
𝜕Λ∗
𝜕𝑎𝑖𝑘
=
𝑘 𝑛∈𝑆𝑘
[ 𝑎𝑖𝑘𝑥𝑖𝑛𝑘 − ln
𝑘
𝑒 𝑎𝑖𝑘𝑥𝑖𝑛𝑘]
𝜕Λ∗
𝜕𝑎𝑖𝑘
= 𝑘 𝑛∈𝑆𝑘
𝑥𝑖𝑛𝑘 − 𝑘 𝑛∈𝑆𝑘
𝑥𝑖𝑛𝑘
𝑒
𝑉(𝑛,𝑘)
𝑘 𝑒
𝑉(𝑛,𝑘)
=0

Más contenido relacionado

Similar a Modelos de elección discreta II

3.2 propagacion de_errores
3.2 propagacion de_errores3.2 propagacion de_errores
3.2 propagacion de_erroresJolaus Calero
 
guia de ejercicios de algebra del cbc
guia de ejercicios de algebra del cbcguia de ejercicios de algebra del cbc
guia de ejercicios de algebra del cbcapuntescbc
 
guia de ejercicios de algebra del cbc
guia de ejercicios de algebra del cbcguia de ejercicios de algebra del cbc
guia de ejercicios de algebra del cbcclasesdequimica
 
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptxS16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptxYeferQuion
 
Extraordinarios de Quinto Semestre 2014-B
Extraordinarios de Quinto Semestre 2014-BExtraordinarios de Quinto Semestre 2014-B
Extraordinarios de Quinto Semestre 2014-BYaz Cahuantzi
 
Clase 1 fundamentos de los numeros reales - cepre 2014 - copia
Clase 1   fundamentos de los numeros reales - cepre 2014 - copiaClase 1   fundamentos de los numeros reales - cepre 2014 - copia
Clase 1 fundamentos de los numeros reales - cepre 2014 - copiaLucho Plaza
 
Clase 1 fundamentos de los numeros reales - cepre 2015 - copia
Clase 1   fundamentos de los numeros reales - cepre 2015 - copiaClase 1   fundamentos de los numeros reales - cepre 2015 - copia
Clase 1 fundamentos de los numeros reales - cepre 2015 - copiaLucho Plaza
 
Parametros de la Cola de una Distribucion
Parametros de la Cola de una DistribucionParametros de la Cola de una Distribucion
Parametros de la Cola de una DistribucionAlejandro Ortega
 
Tabla de distribucion de frecuencias
Tabla de distribucion de frecuenciasTabla de distribucion de frecuencias
Tabla de distribucion de frecuencias... ...
 
Monte Carlo simulation
Monte Carlo simulationMonte Carlo simulation
Monte Carlo simulationFer_casas
 
Plan de negocios sobre la distribucion
Plan de negocios sobre la distribucionPlan de negocios sobre la distribucion
Plan de negocios sobre la distribucionGuillermo Gallardo
 
Diseños y cornstrucción deuna maquina de golberg
Diseños y cornstrucción deuna maquina de golberg Diseños y cornstrucción deuna maquina de golberg
Diseños y cornstrucción deuna maquina de golberg ANGIEBEATRIZBRAVOMON
 
Repaso de estadistica e inferencia
Repaso de estadistica e inferenciaRepaso de estadistica e inferencia
Repaso de estadistica e inferenciaRodrigo Paniagua
 

Similar a Modelos de elección discreta II (20)

3.2 propagacion de_errores
3.2 propagacion de_errores3.2 propagacion de_errores
3.2 propagacion de_errores
 
guia de ejercicios de algebra del cbc
guia de ejercicios de algebra del cbcguia de ejercicios de algebra del cbc
guia de ejercicios de algebra del cbc
 
guia de ejercicios de algebra del cbc
guia de ejercicios de algebra del cbcguia de ejercicios de algebra del cbc
guia de ejercicios de algebra del cbc
 
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptxS16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
 
Extraordinarios de Quinto Semestre 2014-B
Extraordinarios de Quinto Semestre 2014-BExtraordinarios de Quinto Semestre 2014-B
Extraordinarios de Quinto Semestre 2014-B
 
LIMITE DE UNA FUNCION
LIMITE DE UNA FUNCIONLIMITE DE UNA FUNCION
LIMITE DE UNA FUNCION
 
Math 555, presentación del programa decision analyst stats 2.0
Math 555, presentación del programa decision analyst stats 2.0Math 555, presentación del programa decision analyst stats 2.0
Math 555, presentación del programa decision analyst stats 2.0
 
Clase 1 fundamentos de los numeros reales - cepre 2014 - copia
Clase 1   fundamentos de los numeros reales - cepre 2014 - copiaClase 1   fundamentos de los numeros reales - cepre 2014 - copia
Clase 1 fundamentos de los numeros reales - cepre 2014 - copia
 
Clase 1 fundamentos de los numeros reales - cepre 2015 - copia
Clase 1   fundamentos de los numeros reales - cepre 2015 - copiaClase 1   fundamentos de los numeros reales - cepre 2015 - copia
Clase 1 fundamentos de los numeros reales - cepre 2015 - copia
 
3.2_Propagacion_de_errores.pdf
3.2_Propagacion_de_errores.pdf3.2_Propagacion_de_errores.pdf
3.2_Propagacion_de_errores.pdf
 
Parametros de la Cola de una Distribucion
Parametros de la Cola de una DistribucionParametros de la Cola de una Distribucion
Parametros de la Cola de una Distribucion
 
Tabla de distribucion de frecuencias
Tabla de distribucion de frecuenciasTabla de distribucion de frecuencias
Tabla de distribucion de frecuencias
 
Monte Carlo simulation
Monte Carlo simulationMonte Carlo simulation
Monte Carlo simulation
 
Plan de negocios sobre la distribucion
Plan de negocios sobre la distribucionPlan de negocios sobre la distribucion
Plan de negocios sobre la distribucion
 
Unidad 2
Unidad 2Unidad 2
Unidad 2
 
u2
u2u2
u2
 
Unidad 2
Unidad 2Unidad 2
Unidad 2
 
Diseños y cornstrucción deuna maquina de golberg
Diseños y cornstrucción deuna maquina de golberg Diseños y cornstrucción deuna maquina de golberg
Diseños y cornstrucción deuna maquina de golberg
 
Calculo 4 apuntes de clase
Calculo 4 apuntes de claseCalculo 4 apuntes de clase
Calculo 4 apuntes de clase
 
Repaso de estadistica e inferencia
Repaso de estadistica e inferenciaRepaso de estadistica e inferencia
Repaso de estadistica e inferencia
 

Más de Julio Cesar Lavado Yarasca (15)

Modelos de Elección Discreta
Modelos de Elección DiscretaModelos de Elección Discreta
Modelos de Elección Discreta
 
Transp privado
Transp privadoTransp privado
Transp privado
 
Tasas de Generacion De Viajes
Tasas de Generacion De ViajesTasas de Generacion De Viajes
Tasas de Generacion De Viajes
 
Propuesta metro
Propuesta metroPropuesta metro
Propuesta metro
 
Paper julio lavado xiii
Paper julio lavado xiiiPaper julio lavado xiii
Paper julio lavado xiii
 
Planificacion de transporte trans CAD
Planificacion de transporte trans CADPlanificacion de transporte trans CAD
Planificacion de transporte trans CAD
 
Articulo Juan de Dios Ortuzar
Articulo Juan de Dios OrtuzarArticulo Juan de Dios Ortuzar
Articulo Juan de Dios Ortuzar
 
Evaluacion BRT - LRT
Evaluacion BRT - LRTEvaluacion BRT - LRT
Evaluacion BRT - LRT
 
Link calculator
Link calculatorLink calculator
Link calculator
 
TransCAD Module I
TransCAD Module ITransCAD Module I
TransCAD Module I
 
Demanda de Centros Comerciales
Demanda de Centros ComercialesDemanda de Centros Comerciales
Demanda de Centros Comerciales
 
Ahp
AhpAhp
Ahp
 
TransCAD Modulo IV
TransCAD Modulo IVTransCAD Modulo IV
TransCAD Modulo IV
 
TransCAD Module III
TransCAD Module IIITransCAD Module III
TransCAD Module III
 
TransCAD Modulo II
TransCAD Modulo IITransCAD Modulo II
TransCAD Modulo II
 

Último

Introducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.pptIntroducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.pptEduardoCorado
 
Manual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdfManual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdfedsonzav8
 
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.pptARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.pptMarianoSanchez70
 
Flujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxFlujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxEduardoSnchezHernnde5
 
Seleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusiblesSeleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusiblesSaulSantiago25
 
nom-028-stps-2012-nom-028-stps-2012-.pdf
nom-028-stps-2012-nom-028-stps-2012-.pdfnom-028-stps-2012-nom-028-stps-2012-.pdf
nom-028-stps-2012-nom-028-stps-2012-.pdfDiegoMadrigal21
 
PPT ELABORARACION DE ADOBES 2023 (1).pdf
PPT ELABORARACION DE ADOBES 2023 (1).pdfPPT ELABORARACION DE ADOBES 2023 (1).pdf
PPT ELABORARACION DE ADOBES 2023 (1).pdfalexquispenieto2
 
aCARGA y FUERZA UNI 19 marzo 2024-22.ppt
aCARGA y FUERZA UNI 19 marzo 2024-22.pptaCARGA y FUERZA UNI 19 marzo 2024-22.ppt
aCARGA y FUERZA UNI 19 marzo 2024-22.pptCRISTOFERSERGIOCANAL
 
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONALCHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONALKATHIAMILAGRITOSSANC
 
Presentación electricidad y magnetismo.pptx
Presentación electricidad y magnetismo.pptxPresentación electricidad y magnetismo.pptx
Presentación electricidad y magnetismo.pptxYajairaMartinez30
 
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdfTAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdfAntonioGonzalezIzqui
 
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIASTEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIASfranzEmersonMAMANIOC
 
presentacion medidas de seguridad riesgo eléctrico
presentacion medidas de seguridad riesgo eléctricopresentacion medidas de seguridad riesgo eléctrico
presentacion medidas de seguridad riesgo eléctricoalexcala5
 
Falla de san andres y el gran cañon : enfoque integral
Falla de san andres y el gran cañon : enfoque integralFalla de san andres y el gran cañon : enfoque integral
Falla de san andres y el gran cañon : enfoque integralsantirangelcor
 
CLASE - 01 de construcción 1 ingeniería civil
CLASE - 01 de construcción 1 ingeniería civilCLASE - 01 de construcción 1 ingeniería civil
CLASE - 01 de construcción 1 ingeniería civilDissneredwinPaivahua
 
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESAIPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESAJAMESDIAZ55
 
Proyecto de iluminación "guia" para proyectos de ingeniería eléctrica
Proyecto de iluminación "guia" para proyectos de ingeniería eléctricaProyecto de iluminación "guia" para proyectos de ingeniería eléctrica
Proyecto de iluminación "guia" para proyectos de ingeniería eléctricaXjoseantonio01jossed
 
Reporte de Exportaciones de Fibra de alpaca
Reporte de Exportaciones de Fibra de alpacaReporte de Exportaciones de Fibra de alpaca
Reporte de Exportaciones de Fibra de alpacajeremiasnifla
 
Obras paralizadas en el sector construcción
Obras paralizadas en el sector construcciónObras paralizadas en el sector construcción
Obras paralizadas en el sector construcciónXimenaFallaLecca1
 
tema05 estabilidad en barras mecanicas.pdf
tema05 estabilidad en barras mecanicas.pdftema05 estabilidad en barras mecanicas.pdf
tema05 estabilidad en barras mecanicas.pdfvictoralejandroayala2
 

Último (20)

Introducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.pptIntroducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.ppt
 
Manual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdfManual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdf
 
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.pptARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
 
Flujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxFlujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptx
 
Seleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusiblesSeleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusibles
 
nom-028-stps-2012-nom-028-stps-2012-.pdf
nom-028-stps-2012-nom-028-stps-2012-.pdfnom-028-stps-2012-nom-028-stps-2012-.pdf
nom-028-stps-2012-nom-028-stps-2012-.pdf
 
PPT ELABORARACION DE ADOBES 2023 (1).pdf
PPT ELABORARACION DE ADOBES 2023 (1).pdfPPT ELABORARACION DE ADOBES 2023 (1).pdf
PPT ELABORARACION DE ADOBES 2023 (1).pdf
 
aCARGA y FUERZA UNI 19 marzo 2024-22.ppt
aCARGA y FUERZA UNI 19 marzo 2024-22.pptaCARGA y FUERZA UNI 19 marzo 2024-22.ppt
aCARGA y FUERZA UNI 19 marzo 2024-22.ppt
 
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONALCHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
 
Presentación electricidad y magnetismo.pptx
Presentación electricidad y magnetismo.pptxPresentación electricidad y magnetismo.pptx
Presentación electricidad y magnetismo.pptx
 
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdfTAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
 
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIASTEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
 
presentacion medidas de seguridad riesgo eléctrico
presentacion medidas de seguridad riesgo eléctricopresentacion medidas de seguridad riesgo eléctrico
presentacion medidas de seguridad riesgo eléctrico
 
Falla de san andres y el gran cañon : enfoque integral
Falla de san andres y el gran cañon : enfoque integralFalla de san andres y el gran cañon : enfoque integral
Falla de san andres y el gran cañon : enfoque integral
 
CLASE - 01 de construcción 1 ingeniería civil
CLASE - 01 de construcción 1 ingeniería civilCLASE - 01 de construcción 1 ingeniería civil
CLASE - 01 de construcción 1 ingeniería civil
 
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESAIPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
 
Proyecto de iluminación "guia" para proyectos de ingeniería eléctrica
Proyecto de iluminación "guia" para proyectos de ingeniería eléctricaProyecto de iluminación "guia" para proyectos de ingeniería eléctrica
Proyecto de iluminación "guia" para proyectos de ingeniería eléctrica
 
Reporte de Exportaciones de Fibra de alpaca
Reporte de Exportaciones de Fibra de alpacaReporte de Exportaciones de Fibra de alpaca
Reporte de Exportaciones de Fibra de alpaca
 
Obras paralizadas en el sector construcción
Obras paralizadas en el sector construcciónObras paralizadas en el sector construcción
Obras paralizadas en el sector construcción
 
tema05 estabilidad en barras mecanicas.pdf
tema05 estabilidad en barras mecanicas.pdftema05 estabilidad en barras mecanicas.pdf
tema05 estabilidad en barras mecanicas.pdf
 

Modelos de elección discreta II

  • 1. MODELOS DE ELECCIÓN DISCRETA II Julio Cesar Lavado Yarasca Ing. Civil (Universidad Nacional de Ingeniería) Mg. Economía (Universidad del Pacifico)
  • 2. TEORIA DEL CONSUMIDOR • La Teoría del Consumidor parte del supuesto de que los individuos tienen preferencias (gustos) sobre los bienes • Problema: las preferencias no son observables. No obstante, podemos inferir los gustos a partir de lo que los individuos eligen • Si eliges A cuando B también era posible, debe ser que te gusta más A que B Estudiamos la elección óptima del consumidor en tres etapas: 1) Las preferencias del consumidor. 2) La restricción presupuestaria. 3) La elección del consumidor. La teoría del consumidor es una rama de la microeconomía, que estudia el comportamiento de un agente económico en su carácter de consumidor de bienes y de servicios encaminada a la obtención de la curva de demanda del consumidor para los distintos bienes, llegando al concepto de utilidad marginal. Esta teoría relaciona las preferencias, las curvas de indiferencia y las restricciones presupuestarias a las curvas de demanda del consumidor. El primer intento teórico encaminado a proporcionar una explicación válida de la formación de la demanda del consumidor es la teoría de la utilidad. Su fundamento básico se encuentra en el concepto de utilidad, entendida como la capacidad de un bien para satisfacer una necesidad humana. Gran parte de la economía del comportamiento surge del hecho de que las personas tienen un lado emocional e irracional que los modelos económicos tradicionales no logran incorporar.
  • 3. Modelos de elección discreta La probabilidad Ejemplo - Elección considerando la probabilidad 3. The LOGIT Model The Independece of Irrelevant Alternatives IIA Elasticities of choice 4. Sequencing Stochastic Choice 5. Choice Functions and Demand Functions 6. Calibration of Choice Models Introducción Multinomial Disaggregate Models Binomial Disaggregate Models Multinomial Aggregate Models Binomial Aggregate Models ANEXOS 1. Demostración del desarrollo de las ecuaciones de probabilidad 2. Ejemplo distribución multinomial
  • 4. 𝑝𝑖=prob 𝑈𝑖 > 𝑈𝑗 𝑝𝑖=prob 𝑉𝑖 + 𝜀𝑖 > 𝑉 𝑗 + 𝜀𝑗 𝑝𝑖=prob 𝜀𝑗 < 𝑉𝑖 − 𝑉 𝑗 + 𝜀𝑖 ó 𝑝𝑖=prob 𝜀𝑗 < 𝜀 atribuimos en esta ecuación como si toda la información fuera NO observada 𝑝𝑖= 𝑓 𝜀 𝑑(𝜀) se conoce que la función f(𝜀) = 𝑓 𝜀1, 𝜀2, … , 𝜀𝑖−1, 𝜀𝑖, 𝜀𝑖+1, … , 𝜀𝐽−1, 𝜀𝐽 = 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1 𝑓 𝜀𝐽 = 𝐽 𝑓(𝜀𝐽) MODELOS DE ELECCION DISCRETA Probabilidad Los errores 𝜀𝑖 y 𝜀𝑗 son los máximos de varios variables aleatorias, los cuales capturan los atributos no observables como el estado de ánimo, experiencia, errores de medición y errores de especificación The Extreme Value distribution EV(𝜂, 𝜇) [Gumbel = EV Tipo I] 𝑓 𝑡 = 𝜇𝑒−𝜇(𝑡−𝜂)𝑒−𝑒−𝜇(𝑡−𝜂) 𝑝 𝜀 ≤ 𝑐 = 𝐹 𝑐 = −∞ 𝑐 𝑓 𝑡 𝑑𝑡 = 𝑒−𝑒−𝜇(𝑐−𝜂) Probability density function (pdf) Cumulative distribution function (cdf) 𝑈𝑖 = 𝑉𝑖 + 𝜀𝑖 Credit: Getty Images/iStockph oto Copyright: chege011
  • 5. 𝑝𝑖=prob 𝑈𝑖 > 𝑈𝑗 𝑝𝑖=prob 𝑉𝑖 + 𝜀𝑖 > 𝑉 𝑗 + 𝜀𝑗 𝑝𝑖=prob 𝜀𝑗 < 𝑉𝑖 − 𝑉 𝑗 + 𝜀𝑖 ó 𝑝𝑖=prob 𝜀𝑗 < 𝜀 atribuimos en esta ecuación como si toda la información fuera NO observada 𝑝𝑖= 𝑓 𝜀 𝑑(𝜀) se conoce que la función f(𝜀) = 𝑓 𝜀1, 𝜀2, … , 𝜀𝑖−1, 𝜀𝑖, 𝜀𝑖+1, … , 𝜀𝐽−1, 𝜀𝐽 = 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1 𝑓 𝜀𝐽 = 𝐽 𝑓(𝜀𝐽) MODELOS DE ELECCION DISCRETA Probabilidad Los errores 𝜀𝑖 y 𝜀𝑗 son los máximos de varios variables aleatorias, los cuales capturan los atributos no observables como el estado de ánimo, experiencia, errores de medición y errores de especificación The Extreme Value distribution EV(𝜂, 𝜇) [Gumbel = EV Tipo I] 𝑓 𝑡 = 𝜇𝑒−𝜇(𝑡−𝜂)𝑒−𝑒−𝜇(𝑡−𝜂) 𝑝 𝜀 ≤ 𝑐 = 𝐹 𝑐 = −∞ 𝑐 𝑓 𝑡 𝑑𝑡 = 𝑒−𝑒−𝜇(𝑐−𝜂) Probability density function (pdf) Cumulative distribution function (cdf)
  • 6. 𝑝𝑖=prob 𝑈𝑖 > 𝑈𝑗 𝑝𝑖=prob 𝑉𝑖 + 𝜀𝑖 > 𝑉 𝑗 + 𝜀𝑗 𝑝𝑖=prob 𝜀𝑗−𝜀𝑖< 𝑉𝑖 − 𝑉 𝑗 𝑝𝑖=prob 𝜀𝑛 < 𝑉𝑖 − 𝑉 𝑗 … … … . . (𝐴) MODELOS DE ELECCION DISCRETA Probabilidad - LOGIT 𝑆𝑒𝑎 ∶ 𝜀𝑛 = 𝜀𝑗 −𝜀𝑖 𝜀𝑖~ 𝐸𝑉 0, 𝜇 𝜀𝑗~ 𝐸𝑉 0, 𝜇 𝜀𝑛~ 𝐿𝑜𝑔𝑖𝑠𝑡𝑖𝑐𝑎(0, 𝜇) 𝑓 𝑡 = 𝜇𝑒−𝜇(𝑡−𝜂) (1 − 𝑒−𝜇(𝑡−𝜂))2 𝑝 𝜀 ≤ 𝑐 = 𝐹 𝑐 = −∞ 𝑐 𝑓 𝑡 𝑑𝑡 = 1 1 + 𝑒−𝜇(𝑐−𝜂) Probability density function (pdf) Cumulative distribution function (cdf) Si: 𝜀 ~𝐸𝑉 0, 𝜇 Entonces: E[𝜀] = 𝜂 + 𝛾 𝜇 y Var[𝜀] = 𝜋2 6𝜇2 Donde 𝛾 es la constante de EULER 𝛾 = - 0 ∞ 𝑒−𝑥 ln 𝑥 𝑑𝑥 ≈ 0.5772 𝑝𝑖=prob 𝜀𝑛 < 𝑉𝑖 − 𝑉 𝑗 𝑝𝑖= 1 1+𝑒 −𝜇(𝑉𝑖−𝑉𝑗) 𝑝𝑖= 𝑒𝜇𝑉𝑖 𝑒𝜇𝑉𝑖+𝑒 𝜇𝑉𝑗 𝑠𝑖 𝜇=1 𝑝𝑖= 𝑒𝑉𝑖 𝑒𝑉𝑖+𝑒 𝑉𝑗 Usando la distribución logística para el calculo de 𝑝𝑖 (A)
  • 7. 𝑝𝑖=prob 𝑈𝑖 > 𝑈𝑗 𝑝𝑖=prob 𝑉𝑖 + 𝜀𝑖 > 𝑉 𝑗 + 𝜀𝑗 𝑝𝑖=prob 𝜀𝑗−𝜀𝑖< 𝑉𝑖 − 𝑉 𝑗 𝑝𝑖=prob 𝜀𝑛 < 𝑉𝑖 − 𝑉 𝑗 … … … . . (𝐴) MODELOS DE ELECCION DISCRETA Probabilidad - PROBIT 𝑆𝑒𝑎 ∶ 𝜀𝑛 = 𝜀𝑗 −𝜀𝑖 Los términos de error representan todo lo que el analista desconoce. La suposición posible es que todos estos elementos se suman para formar los términos de error. Luego, invocando el teorema del límite central, siguen una distribución normal. 𝑝𝑖= 𝑝 𝜀 ≤ 𝑐 = 𝐹 𝑐 = −∞ 𝑐 𝑓 𝑡 𝑑𝑡 Cumulative distribution function (cdf) 𝜀𝑖 ~ 𝑁 0, 𝜎𝑖 2 𝜀𝑗 ~ 𝑁 0, 𝜎𝑗 2 y 𝑒𝑥𝑖𝑠𝑡𝑒 𝑢𝑛𝑎 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖𝑜𝑛 𝜎𝑖𝑗 𝜀𝑛~ 𝑁(0, 𝜎) 𝜎 = 𝜎𝑖 2 +𝜎𝑗 2 -2 𝜎𝑖𝑗 𝑝𝑖= 𝑝 𝜀 ≤ 𝑐 = 𝜀=−∞ 𝑉𝑖−𝑉𝑗 1 𝜎 2𝜋 𝑒− 1 2( 𝜀 𝜎)2 𝑑𝜀 𝑝𝑖= 𝑝 𝜀 ≤ 𝑐 = Φ 𝑉𝑖 − 𝑉 𝑗 𝜎 = 𝑢=−∞ 𝑉𝑖−𝑉𝑗 𝜎 𝑒− 1 2 (𝑢)2 𝑑𝑢 𝑢 = 𝜀 𝜎 𝑑𝑢 = 𝑑𝜀 𝜎 Φ . 𝐶𝐷𝐹 𝑜𝑓 𝑎 𝑠𝑡𝑎𝑛𝑑𝑎𝑟𝑑𝑖𝑧𝑒𝑑 𝑛𝑜𝑟𝑚𝑎𝑙 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛
  • 8. 𝑝𝑖=prob 𝜀𝑛 < 𝑉𝑖 − 𝑉 𝑗 … … … . . (𝐴) MODELOS DE ELECCION DISCRETA Probabilidad – LOGIT VS PROBIT 𝑝𝑖= 𝑝 𝜀 ≤ 𝑐 = Φ 𝑉𝑖 − 𝑉 𝑗 𝜎 = 𝑢=−∞ 𝑉𝑖−𝑉𝑗 𝜎 𝑒− 1 2(𝑢)2 𝑑𝑢 𝑝𝑖= 𝑒𝑉𝑖 𝑒𝑉𝑖+𝑒 𝑉𝑗 = 1 1+𝑒 (𝑉𝑗−𝑉𝑗) Vi-Vj Logit Probit -5 0.007 0.000 -4.6 0.010 0.000 -4.2 0.015 0.000 -3.8 0.022 0.000 -3.4 0.032 0.000 -3 0.047 0.001 -2.6 0.069 0.005 -2.2 0.100 0.014 -1.8 0.142 0.036 -1.4 0.198 0.081 -1 0.269 0.159 -0.6 0.354 0.274 -0.2 0.450 0.421 0.2 0.550 0.579 0.6 0.646 0.726 1 0.731 0.841 1.4 0.802 0.919 1.8 0.858 0.964 2.2 0.900 0.986 2.6 0.931 0.995 3 0.953 0.999 3.4 0.968 1.000 3.8 0.978 1.000 4.2 0.985 1.000 4.6 0.990 1.000 5 0.993 1.000
  • 9. 𝑝𝑖=prob 𝜀𝑛 < 𝑉𝑖 − 𝑉 𝑗 … … … . . (𝐴) MODELOS DE ELECCION DISCRETA Probabilidad – Normallizacion prob 𝜀𝑛 < 𝑉𝑖 − 𝑉 𝑗 ====== prob 𝜀𝑛 < (𝑉𝑖±𝐾) − (𝑉 𝑗±𝐾) Normalizacion 𝑎𝑠𝑐𝑏𝑖𝑐𝑖=0 𝑉𝑏𝑖𝑐𝑖 = −0.8𝐷 = -8 𝑉𝑚𝑒𝑡𝑟𝑜 = 3 − 0.5𝑇 − 1𝐶 = -9.2 𝑝𝑏𝑖𝑐𝑖 1 = 𝑒−8 𝑒−8+𝑒−9.2 = 0.77 Normalizacion 𝑎𝑠𝑐𝑚𝑒𝑡𝑟𝑜=0 𝑝𝑏𝑖𝑐𝑖 2 = 𝑒−11 𝑒−11+𝑒−12.2 = 0.77 ASC: alternative specific D=10 km T= 20 min C= 2.2 $ 𝑈𝑏𝑖𝑐𝑖 = 𝑉𝑏𝑖𝑐𝑖+ 𝜀𝑏𝑖𝑐𝑖 𝑈𝑚𝑒𝑡𝑟𝑜 = 𝑉𝑚𝑒𝑡𝑟𝑜+𝜀𝑚𝑒𝑡𝑟𝑜 𝑉𝑏𝑖𝑐𝑖 = 𝑎𝑠𝑐𝑏𝑖𝑐𝑖+ 𝑏𝐷𝐷 𝑉𝑚𝑒𝑡𝑟𝑜 = 𝑎𝑠𝑐𝑚𝑒𝑡𝑟𝑜+𝑏𝑇𝑇+ 𝑏𝐶𝐶 𝑉𝑏𝑖𝑐𝑖 − 3 = −3 − 0.8𝐷 = -11 𝑉𝑚𝑒𝑡𝑟𝑜 − 3 = −0.5𝑇 − 1𝐶 = -12.2 𝑝𝑏𝑖𝑐𝑖 1 = Φ 𝑉𝑏𝑖𝑐𝑖 − 𝑉𝑚𝑒𝑡𝑟𝑜 = Φ 1.2 = 0.88 𝑝𝑏𝑖𝑐𝑖 2 = Φ 𝑉𝑏𝑖𝑐𝑖 − 𝑉𝑚𝑒𝑡𝑟𝑜 = Φ 1.2 = 0.88 𝑝𝑚𝑒𝑡𝑟𝑜 1 = Φ 𝑉𝑚𝑒𝑡𝑟𝑜 − 𝑉𝑏𝑖𝑐𝑖 = Φ −1.2 = 0.12 𝑝𝑚𝑒𝑡𝑟𝑜 2 = Φ 𝑉𝑚𝑒𝑡𝑟𝑜 − 𝑉𝑏𝑖𝑐𝑖 = Φ −1.2 = 0.12 𝑝𝑏𝑖𝑐𝑖 1 = 𝑒−9.2 𝑒−8+𝑒−9.2 = 0.23 𝑝𝑏𝑖𝑐𝑖 2 = 𝑒−12.2 𝑒−11+𝑒−12.2 = 0.23
  • 10. 𝑝𝑖=prob 𝜀𝑛 < 𝑉𝑖 − 𝑉 𝑗 … … … . . (𝐴) MODELOS DE ELECCION DISCRETA Probabilidad – Normallizacion prob 𝜀𝑛 < 𝑉𝑖 − 𝑉 𝑗 ====== prob 𝐾𝜀𝑛 < 𝐾𝑉𝑖 − 𝑘𝑉 𝑗 Escalamiento 𝜇= 0.1 𝜇𝑉𝑏𝑖𝑐𝑖 = −0.8𝐷𝜇 = -8 𝜇 = -0.8 𝜇𝑉𝑚𝑒𝑡𝑟𝑜 = 3𝜇 − 0.5𝑇𝜇 − 1𝐶𝜇 = -9.2 𝜇 = - 0.92 𝑝𝑏𝑖𝑐𝑖 1 = 𝑒−0.8 𝑒−0.8+𝑒−0.92 = 0.53 Escalamiento 𝜇= 10 𝑝𝑏𝑖𝑐𝑖 2 = 𝑒−80 𝑒−80+𝑒−92 = 0.99 D=10 km T= 20 min C= 2.2 $ 𝑈𝑏𝑖𝑐𝑖 = 𝜇𝑉𝑏𝑖𝑐𝑖+ 𝜀𝑏𝑖𝑐𝑖 𝑈𝑚𝑒𝑡𝑟𝑜 = 𝜇𝑉𝑚𝑒𝑡𝑟𝑜+𝜀𝑚𝑒𝑡𝑟𝑜 𝜇𝑉𝑏𝑖𝑐𝑖 = 𝜇𝑎𝑠𝑐𝑏𝑖𝑐𝑖+ 𝜇𝑏𝐷𝐷 𝜇𝑉𝑚𝑒𝑡𝑟𝑜 = 𝜇𝑎𝑠𝑐𝑚𝑒𝑡𝑟𝑜+𝜇𝑏𝑇𝑇+ 𝜇𝑏𝐶𝐶 𝑝𝑏𝑖𝑐𝑖 1 = Φ 𝑉𝑏𝑖𝑐𝑖 − 𝑉𝑚𝑒𝑡𝑟𝑜 = Φ 0.12 = 0.55 𝑝𝑏𝑖𝑐𝑖 2 = Φ 𝑉𝑏𝑖𝑐𝑖 − 𝑉𝑚𝑒𝑡𝑟𝑜 = Φ 12 = 1 𝑝𝑚𝑒𝑡𝑟𝑜 1 = Φ 𝑉𝑚𝑒𝑡𝑟𝑜 − 𝑉𝑏𝑖𝑐𝑖 = Φ −0.12 = 0.45 𝑝𝑚𝑒𝑡𝑟𝑜 2 = Φ 𝑉𝑚𝑒𝑡𝑟𝑜 − 𝑉𝑏𝑖𝑐𝑖 = Φ −12 = 0 𝑝𝑚𝑒𝑡𝑟𝑜 1 = 𝑒−0.92 𝑒−0.8+𝑒−0.92 = 0.47 𝑝𝑏𝑖𝑐𝑖 2 = 𝑒−92 𝑒−80+𝑒−92 = 0.01 𝜇𝑉𝑏𝑖𝑐𝑖 = −0.8𝐷𝜇 = -8 𝜇 = -80 𝜇𝑉𝑚𝑒𝑡𝑟𝑜 = 3𝜇 − 0.5𝑇𝜇 − 1𝐶𝜇 = -9.2 𝜇 = - 92
  • 11. MODELOS DE ELECCION DISCRETA Probabilidad – Normallizacion prob 𝜀𝑛 < 𝑉𝑖 − 𝑉 𝑗 ====== prob 𝐾𝜀𝑛 < 𝐾𝑉𝑖 − 𝑘𝑉 𝑗 K 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Vi-Vj Logit 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 -5 0.007 0.378 0.269 0.182 0.119 0.076 0.047 0.029 0.018 0.011 -4.6 0.010 0.387 0.285 0.201 0.137 0.091 0.060 0.038 0.025 0.016 -4.2 0.015 0.397 0.302 0.221 0.157 0.109 0.074 0.050 0.034 0.022 -3.8 0.022 0.406 0.319 0.242 0.179 0.130 0.093 0.065 0.046 0.032 -3.4 0.032 0.416 0.336 0.265 0.204 0.154 0.115 0.085 0.062 0.045 -3 0.047 0.426 0.354 0.289 0.231 0.182 0.142 0.109 0.083 0.063 -2.6 0.069 0.435 0.373 0.314 0.261 0.214 0.174 0.139 0.111 0.088 -2.2 0.100 0.445 0.392 0.341 0.293 0.250 0.211 0.177 0.147 0.121 -1.8 0.142 0.455 0.411 0.368 0.327 0.289 0.254 0.221 0.192 0.165 -1.4 0.198 0.465 0.430 0.397 0.364 0.332 0.302 0.273 0.246 0.221 -1 0.269 0.475 0.450 0.426 0.401 0.378 0.354 0.332 0.310 0.289 -0.6 0.354 0.485 0.470 0.455 0.440 0.426 0.411 0.397 0.382 0.368 -0.2 0.450 0.495 0.490 0.485 0.480 0.475 0.470 0.465 0.460 0.455 0.2 0.550 0.505 0.510 0.515 0.520 0.525 0.530 0.535 0.540 0.545 0.6 0.646 0.515 0.530 0.545 0.560 0.574 0.589 0.603 0.618 0.632 1 0.731 0.525 0.550 0.574 0.599 0.622 0.646 0.668 0.690 0.711 1.4 0.802 0.535 0.570 0.603 0.636 0.668 0.698 0.727 0.754 0.779 1.8 0.858 0.545 0.589 0.632 0.673 0.711 0.746 0.779 0.808 0.835 2.2 0.900 0.555 0.608 0.659 0.707 0.750 0.789 0.823 0.853 0.879 2.6 0.931 0.565 0.627 0.686 0.739 0.786 0.826 0.861 0.889 0.912 3 0.953 0.574 0.646 0.711 0.769 0.818 0.858 0.891 0.917 0.937 3.4 0.968 0.584 0.664 0.735 0.796 0.846 0.885 0.915 0.938 0.955 3.8 0.978 0.594 0.681 0.758 0.821 0.870 0.907 0.935 0.954 0.968 4.2 0.985 0.603 0.698 0.779 0.843 0.891 0.926 0.950 0.966 0.978 4.6 0.990 0.613 0.715 0.799 0.863 0.909 0.940 0.962 0.975 0.984 5 0.993 0.622 0.731 0.818 0.881 0.924 0.953 0.971 0.982 0.989
  • 12. 𝑝𝑖=prob 𝑈𝑖 > 𝑈𝑗 𝑝𝑖=prob 𝑉𝑖 + 𝜀𝑖 > 𝑉 𝑗 + 𝜀𝑗 𝑝𝑖=prob 𝜀𝑗 < 𝑉𝑖 − 𝑉 𝑗 + 𝜀𝑖 ó 𝑝𝑖=prob 𝜀𝑗 < 𝜀 atribuimos en esta ecuación como si toda la información fuera NO observada 𝑝𝑖= 𝑓 𝜀 𝑑(𝜀) se conoce que la función f(𝜀) = 𝑓 𝜀1, 𝜀2, … , 𝜀𝑖−1, 𝜀𝑖, 𝜀𝑖+1, … , 𝜀𝐽−1, 𝜀𝐽 = 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1 𝑓 𝜀𝐽 = 𝐽 𝑓(𝜀𝐽) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝑓 𝜀𝑖 𝑖≠𝑗 𝐹𝜀𝑗 𝑑 𝜀𝑖 ó 𝑝𝑖= 𝜀=−∞ +∞ 𝜕𝐹𝜀1,𝜀2,…,𝜀𝐽 𝜕𝜀𝑖 𝑉𝑖 − 𝑉1 + 𝜀𝑖, … , 𝑉𝑖 − 𝑉𝑖−1 + 𝜀𝑖, 𝜀𝑖, 𝑉𝑖 − 𝑉𝑖+1 + 𝜀𝑖, … , 𝑉𝑖 − 𝑉1 + 𝜀𝑖, 𝑑(𝜀) Ecuación (a) MODELOS DE ELECCION DISCRETA Probabilidad Ecuación (b) Anexo 1 : Demostración del desarrollo de las ecuaciones (a) y (b)
  • 13. 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝑓 𝜀𝑖 𝑖≠𝑗 𝐹𝜀𝑗 𝑑 𝜀𝑖 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖𝑒−𝜃𝑒−𝜀𝑖 𝑖≠𝑗 𝑒−𝜃𝑒 −(𝑉𝑖−𝑉𝑗+𝜀𝑖) 𝑑 𝜀𝑖 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖 ∀𝑗 𝑒−𝜃𝑒 −(𝑉𝑖−𝑉𝑗+𝜀𝑖) 𝑑 𝜀𝑖 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖 (𝑒−𝜃𝑒 −(𝑉𝑖−𝑉𝑗+𝜀𝑖) )(𝑒−𝜃𝑒−(𝑉𝑖−𝑉𝑖+𝜀𝑖) ) 𝑑 𝜀𝑖 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖 (𝑒−𝜃𝑒 −(𝑉𝑖−𝑉𝑗+𝜀𝑖)+ −𝜃𝑒−(𝑉𝑖−𝑉𝑖+𝜀𝑖) 𝑑 𝜀𝑖 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖 𝑒−𝜃𝑒−𝜀𝑖(𝑒 −(𝑉𝑖−𝑉𝑗) +1) 𝑑 𝜀𝑖 𝑡 = −𝜃𝑒−𝜀𝑖 𝑑𝑡 = 𝜃𝑒−𝜀𝑖𝑑𝜀𝑖 𝑝𝑖= 1 𝐾+1 −∞ 0 (𝐾 + 1)𝑒𝑡(𝐾+1) 𝑑𝑡= 1 𝐾 [𝑒𝑝 ]𝑝=−∞ 𝑝=0 𝑝𝑖= 1 𝐾+1 [𝑒0 −𝑒−∞ ] 𝑝𝑖= 1 𝐾 + 1 𝑝𝑖= −∞ 0 𝑒𝑡(𝐾+1) 𝑑𝑡 𝑝𝑖= 1 𝑒 −(𝑉𝑖−𝑉𝑗) +1 = 1 𝑒 −𝑉𝑖+𝑉𝑗+1 = 1 𝑒−𝑉𝑖𝑒 𝑉𝑗+1 = 1 𝑒 𝑉𝑗 𝑒−𝑉𝑖 +1 𝑝𝑖= 𝑒𝑉𝑖 𝑒𝑉𝑖 + 𝑒𝑉𝑗 𝐾 = 𝑒−(𝑉𝑖−𝑉𝑗) MODELOS DE ELECCION DISCRETA LOGIT BINOMIAL El desarrollo del modelo logit binomial se realizara a partir de la ecuación (a)
  • 14. 𝑝𝑖= 𝜀=−∞ +∞ 𝜕𝐹𝜀1,𝜀2,…,𝜀𝐽 𝜕𝜀𝑖 𝑉𝑖 − 𝑉1 + 𝜀𝑖, … , 𝑉𝑖 − 𝑉𝑖−1 + 𝜀𝑖, 𝜀𝑖, 𝑉𝑖 − 𝑉𝑖+1 + 𝜀𝑖, … , 𝑉𝑖 − 𝑉1 + 𝜀𝑖, 𝑑(𝜀) 𝐹(𝑥) = 𝑒−𝜃𝑒−𝑥 (distribución Gumbel) x=(𝜀𝑖, 𝜀𝑗) 𝐹𝜀(𝜀𝑖, 𝜀𝑗) = 𝑒−𝜃𝑒−𝜀𝑖 . 𝑒−𝜃𝑒 −𝜀𝑗 𝜕𝐹(𝜀𝑖,𝜀𝑗) 𝜕𝜀𝑖 = 𝑒−𝜃𝑒−𝜀𝑖 . 𝑒−𝜃𝑒 −𝜀𝑗 . 𝜃𝑒−𝜀𝑖 𝜕𝐹(𝜀𝑖,𝑉𝑖−𝑉𝑗+𝜀𝑖) 𝜕𝜀𝑖 = 𝑒−𝜃𝑒−𝜀𝑖 . 𝑒−𝜃𝑒 −(𝑉𝑖−𝑉𝑗+𝜀𝑖) . 𝜃𝑒−𝜀𝑖 𝜕𝐹(𝜀𝑖,𝑉𝑖−𝑉𝑗+𝜀𝑖) 𝜕𝜀𝑖 = 𝑒−𝜃𝑒−𝜀𝑖 . 𝑒−𝜃𝑒 −(𝑉𝑖−𝑉𝑗+𝜀𝑖) . 𝜃𝑒−𝜀𝑖 𝜕𝐹(𝜀𝑖,𝑉𝑖−𝑉𝑗+𝜀𝑖) 𝜕𝜀𝑖 = 𝑒−𝜃𝑒−𝜀𝑖(𝑒 −(𝑉𝑖−𝑉𝑗) +1). 𝜃𝑒−𝜀𝑖 𝑡 = −𝜃𝑒−𝜀𝑖 𝑑𝑡 = 𝜃𝑒−𝜀𝑖𝑑𝜀𝑖 El desarrollo del modelo logit binomial se realizara a partir de la ecuación (b) 𝑝𝑖= −∞ 0 𝑒𝑡(𝐾+1) 𝑑𝑡 𝑝𝑖= 1 𝐾+1 −∞ 0 (𝐾 + 1)𝑒𝑡(𝐾+1) 𝑑𝑡= 1 𝐾 [𝑒𝑝 ]𝑝=−∞ 𝑝=0 𝑝𝑖= 1 𝐾+1 [𝑒0−𝑒−∞] 𝑝𝑖= 1 𝐾 + 1 𝑝𝑖= 1 𝑒 −(𝑉𝑖−𝑉𝑗) +1 = 1 𝑒 −𝑉𝑖+𝑉𝑗+1 = 1 𝑒−𝑉𝑖𝑒 𝑉𝑗+1 = 1 𝑒 𝑉𝑗 𝑒−𝑉𝑖 +1 𝑝𝑖= 𝑒𝑉𝑖 𝑒𝑉𝑖 + 𝑒𝑉𝑗 𝐾 = 𝑒−(𝑉𝑖−𝑉𝑗) MODELOS DE ELECCION DISCRETA LOGIT BINOMIAL
  • 15. 𝑝𝑖 = 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖𝑒−𝜃𝑒 −(𝑉𝑖−𝑉𝑖+𝜀𝑖) 𝑖≠𝑗 𝑒−𝜃𝑒 −(𝑉𝑖−𝑉𝑗+𝜀𝑖) 𝑑 𝜀𝑖 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖 ∀𝑗 𝑒−𝜃𝑒 −(𝑉𝑖−𝑉𝑗+𝜀𝑖) 𝑑 𝜀𝑖 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖 ∀𝑗 𝑒−𝜃𝑒 −(𝑉𝑖−𝑉𝑗+𝜀𝑖) 𝑑 𝜀𝑖 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖 𝑒−𝜃𝑒−(𝑉𝑖−𝑉1+𝜀𝑖) 𝑒−𝜃𝑒−(𝑉𝑖−𝑉2+𝜀𝑖) … (𝑒−𝜃𝑒 −(𝑉𝑖−𝑉𝑗+𝜀𝑖) ) 𝑑 𝜀𝑖 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖 𝑒 −𝜃𝑒−(𝑉𝑖−𝑉1+𝜀𝑖) + −𝜃𝑒−(𝑉𝑖−𝑉2+𝜀𝑖) +⋯+[−𝜃𝑒 −(𝑉𝑖−𝑉𝑗+𝜀𝑖) ] 𝑑 𝜀𝑖 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖 𝑒 −𝜃𝑒−(𝑉𝑖−𝑉1+𝜀𝑖) + −𝜃𝑒−(𝑉𝑖−𝑉2+𝜀𝑖) +⋯+[−𝜃𝑒 −(𝑉𝑖−𝑉𝑗+𝜀𝑖) ] 𝑑 𝜀𝑖 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖 𝑒 −𝜃 𝑒−(𝑉𝑖−𝑉1)𝑒−𝜀𝑖 + 𝑒−(𝑉𝑖−𝑉2)𝑒−𝜀𝑖 +⋯+[𝑒 −(𝑉𝑖−𝑉𝑗) 𝑒−𝜀𝑖] 𝑑 𝜀𝑖 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖 𝑒 −𝜃𝑒−𝜀𝑖 𝑒−(𝑉𝑖−𝑉1) + 𝑒−(𝑉𝑖−𝑉2) +⋯+[𝑒 −(𝑉𝑖−𝑉𝑗) ] 𝑑 𝜀𝑖 𝐾 = ∀𝑗 𝑒−(𝑉𝑖−𝑉𝑗) 𝑡 = −𝜃𝑒−𝜀𝑖 𝑑𝑡 = 𝜃𝑒−𝜀𝑖𝑑𝜀𝑖 𝑝𝑖= 1 𝐾 −∞ 0 𝐾𝑒𝑡𝐾 𝑑𝑡= 1 𝐾 [𝑒𝑝]𝑝=−∞ 𝑝=0 𝑝𝑖= 1 𝐾 [𝑒0−𝑒−∞] 𝑝𝑖= 1 𝐾 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖 𝑒−𝜃𝑒−𝜀𝑖 ∀𝑗 𝑒 −(𝑉𝑖−𝑉𝑗) 𝑑 𝜀𝑖 𝑝𝑖= −∞ 0 𝑒𝑡𝐾 𝑑𝑡 𝑝𝑖= 1 ∀𝑗 𝑒 −(𝑉𝑖−𝑉𝑗) = 1 ∀𝑗 𝑒 −𝑉𝑖+𝑉𝑗 = 1 ∀𝑗 𝑒−𝑉𝑖𝑒 𝑉𝑗 = 1 𝑒−𝑉𝑖 ∀𝑗 𝑒 𝑉𝑗 𝑝𝑖= 𝑒𝑉𝑖 ∀𝑗 𝑒𝑉𝑗 MODELOS DE ELECCION DISCRETA LOGIT MULTINOMIAL ECUACION (a)
  • 16. 𝐹(𝑥) = 𝑒−𝜃𝑒−𝑥 (cumulative function) 𝑓(𝑥) = 𝜃𝑒−𝑥 𝑒−𝜃𝑒−𝑥 (density function) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝑓 𝜀𝑖 𝑖≠𝑗 𝐹𝜀𝑗 𝑑 𝜀𝑖 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜃𝑒−𝜀𝑖𝑒−𝜃𝑒−𝜀𝑖 𝑖≠𝑗 𝑒−𝜃𝑒 −(𝑉𝑖−𝑉𝑗+𝜀𝑖) 𝑑 𝜀𝑖 MODELOS DE ELECCION DISCRETA - LOGIT Este modelo se deriva asumiendo una distribución Gumbel (ó doble exponencial ó extreme value type 1 (EV1) distribution) de 𝜀𝑗 además de ser IID (Independiente e idénticamente distribuido) 𝑓(𝑥) = 𝜕𝐹(𝑥) 𝜕𝑥 𝑝𝑖= 𝑒𝑉𝑖 ∀𝑗 𝑒𝑉𝑗 LOGIT 𝑝𝑖= 𝑒𝑉𝑖 𝑒𝑉𝑖 + 𝑒𝑉𝑗 LOGIT BINOMIAL LOGIT MULTINOMIAL
  • 17. Utilidad aleatoria: Este concepto es fundamental para la modelación de la demanda de viajes, el siguiente ejemplo ilustra una caso especifico. La clave en las estimaciones de las probabilidades es asumir asunciones respecto a la función distribución de la probabilidad del termino aleatorio 𝜀𝑖𝑗 Asumiendo para el ejemplo dos opciones j=1 y 2 Ejemplo - Elección considerando la probabilidad 𝑉1 = 𝑈1 + 𝜀1 𝑉2 = 𝑈2 + 𝜀2 𝑉1 = 3 + 𝜀1 𝑉2 = 2.75 + 𝜀2 𝜀𝑖𝑗 : Se encuentra distribuido de acuerdo a la probabilidad de Bernoulli y se cumple su independencia 𝑃(𝜀1=0.5) = 0.6 𝑃(𝜀2=0.5) = 0.6 𝑃(𝜀1=−0.5) = 0.4 𝑃(𝜀2=−0.5) = 0.4 𝑃 : Es la probabilidad de elección de un individuo, por lo qu ela elección de la primera alternativa será 𝑃(𝑉1 > 𝑉2) 𝑃(𝑉1 > 𝑉2) =𝑃 3 + 𝜀1 > 2.75 + 𝜀2 𝑃(𝑉1 > 𝑉2) =𝑃 𝜀2 − 𝜀1 < 0.25
  • 18. 𝑉1 = 3 + 𝜀1 𝑉2 = 2.75 + 𝜀2 𝑃(𝜀1=0.5) = 0.6 𝑃(𝜀2=0.5) = 0.6 𝑃(𝜀1=−0.5) = 0.4 𝑃(𝜀2=−0.5) = 0.4 𝑃(𝑉1 > 𝑉2) =𝑃 𝜀2 − 𝜀1 < 0.25 • Esta probabilidad es posible determinarla analíticamente para este caso, existiendo 4 combinaciones para los valores posibles de de 𝜀2 𝑦 𝜀1, de forma grafica se presenta dichas posibilidades en el siguiente gráfico: 𝜀1 𝜀2 𝜀2 = 0.25 + 𝜀1 𝐵 𝐷 𝐴 𝐶 -0.5 -0.5 0.5 0.5 𝑃 𝐴 = 𝑃 𝜀1 = 0.5 𝑃 𝜀2 = 0.5 = 0.6 0.6 =0.36 𝑃 𝐵 = 𝑃 𝜀1 = −0.5 𝑃 𝜀2 = 0.5 = 0.4 0.6 =0.24 𝑃 𝐶 = 𝑃 𝜀1 = 0.5 𝑃 𝜀2 = −0.5 = 0.6 0.4 =0.24 𝑃 𝐷 = 𝑃 𝜀1 = −0.5 𝑃 𝜀2 = −0.5 = 0.4 0.4 =0.16 • Donde la condición 𝜀2 − 𝜀1 < 0.25, se cumple solo para los puntos A, C y D. Por lo tanto se cumple que: 𝑃1 = 𝑃(𝑉1 > 𝑉2) =𝑃 𝜀2 − 𝜀1 < 0.25 = 𝑃 𝐴 + 𝑃 𝐷 + 𝑃 𝐶 = 0.36 + 0.16 + 0.24 = 0.76 𝑃2 = 1 − 0.76 = 0.24 • Lográndose así una atracción de la alternativa 1, superior a la alternativa 2, pero no en su totalidad como si sucede en el caso de una asignación “todo o nada”. Ejemplo - Elección considerando la probabilidad
  • 19. 𝑉1 = 3 + 𝜀1 𝑉2 = 2.75 + 𝜀2 𝑃(𝑉1 > 𝑉2) =𝑃 𝜀2 − 𝜀1 < 0.25 𝑃2 (𝑈2 − 𝑈1) 𝑈2 > 𝑈1 𝑈1 > 𝑈2 𝑈1 = 𝑈2 Sin embargo, a medida que 𝑈2- 𝑈1 se vuelve infinitamente grande, la alternativa 2 debería atraer una fracción cada vez mayor de la demanda total. Además, dado que se supone que 𝜀 se distribuyen de forma idéntica e independiente, cuando 𝑈2 = 𝑈1 las respectivas probabilidades de que se elijan las dos alternativas deben ser iguales. y por lo tanto igual a 0,5 cada uno. Deterministic all-or- nothing Stochatic Logit (𝑈2 − 𝑈1) 𝑃𝑖 Ejemplo - Elección considerando la probabilidad
  • 20. 𝑉1 = 𝑈1 + 𝜀1 𝑉2 = 𝑈2 + 𝜀2 𝑉3 = 𝑈3 + 𝜀3 𝜀 Distribución normal Distribución Doble exponencial Probit Logit 𝑃1 = 0.15 𝑃2 = 0.81 𝑃3 = 0.05 𝑆𝑖: 𝑉𝑖 = [−12, −10, −15] 𝑝𝑖= 𝑒𝑉𝑖 ∀𝑗 𝑒𝑉𝑗 𝑝1= 𝑒−10 𝑒−12 + 𝑒−10 + 𝑒−15 = 0.12 𝑝2= 𝑒−10 𝑒−12 + 𝑒−10 + 𝑒−15 = 0.875 𝑝3= 𝑒−15 𝑒−12 + 𝑒−10 + 𝑒−15 = 0.005 Estos números son aproximadamente similares a los obtenidos del modelo PROBIT. Las diferencias entre ellos ilustran una característica común al comparar los resultados de estos modelos. El modelo logit resultante tiene la tendencia a reducir la elección del V (·) relativamente bajo como con p (3) y aumentarlo con el V (·) relativamente alto como con p (2), en comparación con el modelo PROBIT. En numerosas aplicaciones, se encuentra que cuando se asume la independencia de las utilidades, - Specify i.i.d. Gumbel distribution for f(ε) => Logit Model. 3. The LOGIT Model
  • 21.  La elección entre estos dos modelos debe hacerse siempre sobre la base de si el supuesto de independencia puede hacerse o no.  Esto, en general, está relacionado con la naturaleza del proceso de elección en cuestión. Si hay alternativas con atributos similares, o con componentes superpuestos, como cuando las rutas alternativas se superponen en algunos enlaces, entonces no se puede asumir la independencia y el PROBIT podría ser un mejor modelo de elección.  En contraposición puede considerarse una mejor Para ilustrar la importancia de la superposición entre las alternativas y los efectos del supuesto de independencia, se da el siguiente ejemplo común. I II III I: Transporte privado usando una vía de alta velocidad II: Transporte público + Caminata III: Transporte público + Car (colectivo) Si los viajeros perciben los atributos de estas tres opciones de forma aleatoria de modo que e (i) representa las diferencias entre los atributos reales y percibidos de cada alternativa, entonces es poco probable que las diferencias entre los valores percibidos y reales de las alternativas II y III sería independiente. Esto se debe a que estas dos alternativas se superponen en su mayor parte 3. The LOGIT Model
  • 22. Si x= 0 entonces existe una superposición total entre II y III, generándose así solo dos alternativas I y III I II II I I: Transporte privado usando una vía de alta velocidad II: Transporte público + Caminata III: Transporte público + Car (colectivo) A B C x Si x= 1 entonces existe tres alternativas I, II y III mutuamente independientes Si consideramos los valores de V(.) iguales para todos los casos se observa que: Si x= 0 Si x=1 𝑝𝑖= 𝑒𝑉𝑖 ∀𝑗 𝑒𝑉𝑗 𝑝𝐼 = 𝑝𝐼𝐼𝐼= 𝑒𝑉 𝑒𝑉 + 𝑒𝑉 = 0.5 𝑝𝐼 = 𝑝𝐼𝐼= 𝑝𝐼𝐼𝐼 = 𝑒𝑉 𝑒𝑉 + 𝑒𝑉 + 𝑒𝑉 = 0.33 Si consideramos como “x” una medición de la superposición entre II y III, se puede calcular las probabilidades de cada opción para un caso de independencia (X=1) y una carencia de la misma (x=0), por lo que es sencillo notar que se tendría un valor diferente a 0.33 al tener una perdida de independencia, es decir aplicar un modelo con dependencia nos podría dar un resultado mas realista que 0.33 (x=1), Daganzo y sheffi (1977) demostró esta variación de las probabilidad el 3. The LOGIT Model
  • 23. Esto no significa que no pueda aplicarse un modelo de elección simplificado por el supuesto de independencia, como el modelo Logit. Cuando x es bajo, por ejemplo, se puede considerar no especificar II y III como alternativas distintas. Cuando x es grande, una buena aproximación sería anidar las opciones y considerar primero la elección entre alternativas cercanas como II y III y luego proceder a considerar la elección entre I por un lado y II o III por el otro. (Opcion I: Transporte publico, Opción II: Transporte privado ) El enfoque da como resultado modelos que se denominan de diversas formas modelo de elección anidada (Nested choice models) o modelo de elección en cascada (Cascading choice model). En las aplicaciones de elección de ruta, es probable que la superposición sea extensa y sustancial, ya que es probable que muchos puntos de conexión silenciosos en una red de transporte urbano compartan enlaces. En tales aplicaciones, un modelo de elección probit multinomial con dependencia entre las funciones de elección es un modelo de elección más adecuado. 3. The LOGIT Model
  • 24. Esto indica que las probabilidades relativas entre dos alternativas son solo una función de los atributos de estas dos y son independientes de cualquier otra alternativa que pueda estar disponible. Esta propiedad de los modelos de elección se conoce como la independencia de las alternativas irrelevantes y se considera una debilidad de los modelos que la tienen, como el modelo logit Por ejemplo, si se trata de opciones de modo urbano, esta propiedad podría implicar que las probabilidades relativas de tomar un automóvil en lugar de tomar un autobús son independientes de si hay servicio de tren al mismo destino. Esto no es probable, ya que es probable que la presencia de un tren como tercera alternativa afecte la probabilidad de elegir el autobús más que la de elegir el automóvil y, por lo tanto, probablemente cambie sus probabilidades relativas. 𝑝𝑖= 𝑒𝑉𝑖 ∀𝑗 𝑒𝑉𝑗 𝑝𝑗= 𝑒𝑉𝑗 ∀𝑗 𝑒𝑉𝑗 𝑝𝑖 𝑝𝑗 = 𝑒𝑉𝑖 𝑒𝑉𝑗 3. The LOGIT Model The Independece of Irrelevant Alternatives IIA
  • 25. También es interesante notar que esta propiedad conduce a una simplificación que hace que el modelo logit sea bastante sencillo e intrínsecamente lineal. Dado que la mayoría de las funciones V (·) se especifican como función lineal, está claro que la ecuación. (5.22) representa una gran simplificación. Por ejemplo, los parámetros del modelo logit cuando se transforman en Eq. (5. 22) puede estimarse mediante regresión lineal, aunque las estimaciones así obtenidas pueden no ser eficientes. Es posible realizar modificaciones en la formulación del modelo logit para superar esta debilidad. Pero, siempre que existan alternativas similares de modo que la independencia de la alternativa irrelevante sea limitante, entonces se debe utilizar el modelo probit, que no tiene esta propiedad. De hecho, en tales casos, la independencia entre las funciones de elección no puede asumirse de todos modos. ln 𝑝𝑖 𝑝𝑗 = ln 𝑒𝑉𝑖 𝑒𝑉𝑗 ln 𝑝𝑖 𝑝𝑗 =𝑉𝑖 − 𝑉 𝑗 𝑝𝑖 𝑝𝑗 = 𝑒𝑉𝑖 𝑒𝑉𝑗 3. The LOGIT Model The Independece of Irrelevant Alternatives IIA
  • 26. En algunos análisis de políticas que utilizan modelos de elección, uno podría estar interesado en evaluar la sensibilidad de la elección de una alternativa particular a los cambios en algunos de los atributos en la función V (·) de la alternativa misma o de algunas de las otras alternativas. 𝑒𝑐 𝑆𝑖𝑘 = 𝑆𝑖𝑘 𝜃𝑖𝑘[1- 𝑝(𝑖)] 𝑒𝑐 𝑆𝑖𝑘 = 𝑆𝑖𝑘 𝑝(𝑖) . 𝜕𝑝(𝑖) 𝜕𝑆𝑖𝑘 𝑉(𝑚,𝑗) = −0.2𝑡(𝑚,𝑗) − 0.1𝑐(𝑚,𝑗) 𝑝(𝑚,𝑗)= 𝑒𝑉(𝑚,𝑗) ∀𝑚 𝑒𝑉(𝑚,𝑗) 𝑒𝑐 𝑡𝑚 = 𝑡𝑚 𝜃𝑖𝑘[1- 𝑝(𝑖)] 𝜃𝑖𝑘= 𝜕𝑉(𝑖) 𝜕𝑆𝑖𝑘 𝜃𝑡= 𝜕𝑉(𝑖) 𝜕𝑡𝑚 Estas elasticidades indican la alta sensibilidad de cambio modal cuando la elección probabilidad es pequeña como el caso de p(2|3) y p(1|2) 3. The LOGIT Model Elasticities of choice
  • 27. En muchas aplicaciones, es necesario considerar el rango de elección de acuerdo con alguna secuencia. Esto ocurre en el transporte urbano cuando se postula una secuencia en la que se asegura que las opciones de modo, destino y ruta seguirán alguna secuencia. También ocurre cuando se hace una elección entre grupos de alternativas y luego se sigue una elección dentro del grupo elegido. Por ejemplo, se puede postular una jerarquía de opciones de nodo donde un viajero puede decidir entre transporte público y privado y, en el caso de que se elija el primero, se puede elegir entre los modos públicos que pueden estar disponibles. En tal caso, la elección del transporte público dependería del valor esperado de la utilidad de sus modos, tal como lo percibe el viajero. Asimismo, si la elección de un nodo se produce después de la elección del destino en un proceso secuenciado, entonces la elección de cada destino se basará básicamente en los atributos de suministro esperados de todos los nodos que sirven al destino, de nuevo según la percepción del usuario. Puede recordarse del capítulo anterior que la elección secuenciada en el caso determinista se basó en el promedio ponderado de los atributos de oferta en cada nivel de la jerarquía de elección. Este promedio ponderado es análogo al valor esperado de los atributos reales representados por las funciones V (·) en una función de elección estocástica. 4. Sequencing Stochastic Choice
  • 28. El valor esperado de la función de elección 𝑈𝑖 = 𝑉𝑖 + 𝜀𝑖 𝑝𝑖 𝑖 = 1,2,3 … 𝑛 𝑉 = 𝑖 𝑝𝑖 𝑉𝑖 Sin embargo, estrictamente, esta no es la medida correcta de las utilidades esperadas que se utilizarán para predecir la elección en la siguiente jerarquía de elección. Sólo es correcto en el caso de la elección determinista, y sólo una aproximación en el caso de la elección estocástica. En este último caso, es el valor esperado de los atributos percibidos lo que es relevante. Esto se puede calcular encontrando el valor esperado 𝑉 de la utilidad U de la alternativa elegida. 4. Sequencing Stochastic Choice
  • 29. 𝑉 = 𝐸[max 𝑖 𝑈𝑖] Donde f(.) es la función de densidad conjunta dado por el componente aleatorio. Daganzo y Sheffi (1977), demostraron que al considerar que no hay relación entre “V” y el termino “e”, se deduce que: 𝑉 = 1 2 … 𝑛 [max 𝑖 𝑈𝑖]𝑓 𝑈1, 𝑈2, … , 𝑈𝑛 𝑑𝑈1.d 𝑈2, … , 𝑑𝑈𝑛 𝑈𝑖 = 𝑉𝑖 + 𝜀𝑖 𝑉 = 1 2 … 𝑛 [max 𝑖 𝑉𝑖 + 𝜀𝑖]𝑓 𝜀1, 𝜀2, … , 𝜀𝑛 𝑑𝜀1.d𝜀2, … , 𝑑𝜀𝑛 𝜕𝑉 𝜕𝑉𝑖 = 𝑝𝑖 𝑝𝑖= 𝑒𝑉𝑖 ∀𝑗 𝑒𝑉𝑗 𝜕𝑉 𝜕𝑉𝑖 = 𝑒𝑉𝑖 ∀𝑗 𝑒𝑉𝑗 𝑉 = 𝑉𝑖 𝑒𝑉𝑖 ∀𝑗 𝑒𝑉𝑗 𝑉 = ln ∀𝑗 𝑒𝑉𝑗 c v c v De manera similar, el valor esperado percibido de cualquier atributo en una función lineal V(.), digamos Xk, se puede obtener como: 𝜃𝑘= 𝜕𝑉(𝑖) 𝜕𝑋𝑘 𝑋𝑘 = 1 𝜃𝑘 ln ∀𝑗 𝑒𝑉𝑗 4. Sequencing Stochastic Choice
  • 30. La diferencia entre 𝑉 y 𝑉 es que el primero es el valor esperado del máximo de un conjunto de variables aleatorias, mientras que el segundo es un valor ponderado promedio de los valores esperados de estas variables aleatorias. Incluso usar Vmax como una medida de la utilidad de una elección no es correcto, ya que reflejará el máximo de los valores esperados, que no es el mismo que el valor esperado de la máximo. El uso de 𝑉 o Vmax para la elección de secuenciación debe reconocerse como una aproximación que no debe hacerse cuando se usa el modelo logit ya que la ecuación, es bastante fácil de usar. Ejemplo 𝑉(𝑚,𝑗) = −0.2𝑡(𝑚,𝑗) 𝑡𝑚𝑗 = 𝑟 𝑡𝑚𝑗𝑟.𝑝 𝑟 𝑚, 𝑗 𝑝(𝑚|𝑗)= 𝑒𝑉(𝑚,𝑗) ∀𝑚 𝑒𝑉(𝑚,𝑗) 4. Sequencing Stochastic Choice
  • 31. Podemos calcular los valores reales esperados 𝑉 𝑗 o 𝑡𝑗 para cada destino utilizando los promedios ponderados por las probabilidades de elección condicionales. Dado que 𝑉 = −0.2𝑡, podemos limitar nuestras comparaciones a 𝑡𝑗 y compararlo con 𝑡𝑗 𝑡𝑗 = 𝑡1𝑗 𝑝(1|𝑗) + 𝑡2𝑗 𝑝(2|𝑗) 𝑡𝑗 = 20 x 0.73 + 25 x 0.27 ; 30 x 0.88 + 40 x 0.12 𝑡𝑗 = 21.34 ; 31.19 𝑉 = 𝑖 𝑝𝑖 𝑉𝑖 𝑋𝑘 = 1 𝜃𝑘 ln ∀𝑗 𝑒𝑉𝑗 𝑡𝑗 = 1 −0.2 [ln( 𝑒−0.2𝑡𝑗11 + 𝑒−0.2𝑡𝑗12); ln( 𝑒−0.2𝑡𝑗21 + 𝑒−0.2𝑡𝑗22)] 𝑡𝑗 = [18.43 ; 29.37] 𝑡𝑗 = 1 −0.2 [ln( 𝑒−0.2(20) + 𝑒−0.2(25) ); ln( 𝑒−0.2(30) + 𝑒−0.2(40) )] Los valores de 𝑡𝑗 son más apropiados para su inclusión en el modelo de elección de destino que 𝑡𝑗 ya que representan los valores percibidos sobre la base de los cuales presumiblemente se hacen las elecciones. No debe sorprendernos que los valores de 𝑡𝑗 sean inferiores a los valores mínimos de 𝑡𝑚𝑗 para cada 𝑗, ya que representan el resultado de un proceso de percepción estocástica. Cuando se postula un proceso de elección secuenciado y se utiliza un enfoque de elección estocástica, es aconsejable · utilizar un modelo logit y calcular 𝑉 para la secuenciación. Al postular un modelo determinista de elección, entonces 𝑉 es válido para la secuenciación. Cuando la secuenciación es necesaria por alternativas agrupadas debido a la superposición de atributos, entonces es mejor utilizar un modelo probit con una 4. Sequencing Stochastic Choice
  • 32. En la mayoría de los casos, no es suficiente conocer las probabilidades de elección; es necesario estimar el volumen de usuarios en cualquier sistema de transporte. Para ello, se debe explorar la relación entre los modelos de elección y los modelos de demanda. en general, si se sabe que N personas están haciendo un viaje y que cierta proporción de ellas está eligiendo ciertos modos, rutas o destinos, entonces es posible estimar los volúmenes de tráfico específicos involucrados. En el caso determinista, esto se hace simplemente multiplicando N con las proporciones de elección, 𝑝(𝑚,𝑗,𝑟) = [0.12 , 0.875 , 0.005] 1,000 viajes distribuidos en los tres modos 𝑋𝑚𝑗𝑟 = 𝑁 𝑝(𝑚,𝑗,𝑟) 𝑋𝑚𝑗𝑟 = 1,000 [0.12 , 0.875 , 0.005] Varianza 𝑉𝐴𝑅(𝑋𝑚𝑗𝑟) = 1,000 [0.12*0.88; 0.875*0.125; 0.005*0.995] = [105.6 ; 109.4 ; 4.975] Cuando el modelo de elección utilizado es estocástico, entonces el número de viajes será una variable aleatoria con una distribución multinomial y con un valor esperado 𝐸(𝑋𝑚𝑗𝑟) = 𝑁 𝑝(𝑚,𝑗,𝑟) 𝑉𝐴𝑅(𝑋𝑚𝑗𝑟) = 𝑁 𝑝(𝑚,𝑗,𝑟)[1 − 𝑝(𝑚,𝑗,𝑟)] 𝑋𝑚𝑗𝑟 = 𝑁 𝑝(𝑚,𝑗,𝑟) 5. Choice Functions and Demand Functions
  • 33. 5. Choice Functions and Demand Functions
  • 34. 6. Calibration of Choice Models Multinomial Disaggregate Models Binomial Disaggregate Models Multinomial Aggregate Models Binomial Aggregate Models Introducción
  • 35. El proceso de calibración de los modelos de elección consiste en estimar los valores de los parámetros, evaluar la significancia estadística de las estimaciones y luego validar el modelo comparando su predicción con el comportamiento observado. Los dos primeros pasos generalmente se llevan a cabo simultáneamente como un proceso estadístico de estimación. El tercero requiere que las predicciones del modelo se comparen con datos reales, preferiblemente distintos de los utilizados para estimar los parámetros. (70 – 30%) Dado que la mayoría de los modelos de elección son no lineales, su estimación suele ser más complejo que el de los modelos de demanda simples que se pueden linealizar. Las técnicas de regresión y los métodos de estimación de mínimos cuadrados tienen aquí aplicaciones bastante limitadas, ya que estas técnicas no son adecuadas para modelos no lineales. La única excepción es cuando se utiliza un modelo logit binario, con datos de elección de mercado agregados. En tal caso, se puede obtener una forma lineal simple, como en la Ecuacion , siempre que las funciones de elección V (·) sean lineales, que casi siempre es el caso. Esta función lineal se puede estimar con análisis de regresión. Ejemplo 10 Encuestados 4 6 𝑡𝑏𝑢𝑠 = 47 𝑚𝑖𝑛 𝑡𝑐𝑎𝑟 = 38 𝑚𝑖𝑛 𝑈𝑖 = 𝛼𝑇𝑖 + 𝜀𝑖 𝑈𝑏𝑢𝑠 = 𝛼𝑇𝑏𝑢𝑠 + 𝜀𝑏𝑢𝑠 𝑈𝑐𝑎𝑟 = 𝛼𝑇𝑐𝑎𝑟 + 𝜀𝑐𝑎𝑟 6. Calibration of Choice Models Introducción
  • 36. Ejemplo 10 Encuestados 4 6 𝑡𝑏𝑢𝑠 = 47 𝑚𝑖𝑛 𝑡𝑐𝑎𝑟 = 38 𝑚𝑖𝑛 𝑈𝑖 = 𝛼𝑇𝑖 + 𝜀𝑖 𝑈𝑏𝑢𝑠 = 𝛼𝑇𝑏𝑢𝑠 + 𝜀𝑏𝑢𝑠 𝑈𝑐𝑎𝑟 = 𝛼𝑇𝑐𝑎𝑟 + 𝜀𝑐𝑎𝑟 𝑝𝑖= 𝑒𝑉𝑖 ∀𝑗 𝑒𝑉𝑗 𝑝𝑏𝑢𝑠= 𝑒𝛼𝑇𝑏𝑢𝑠 𝑒𝛼𝑇𝑏𝑢𝑠 + 𝑒𝛼𝑇𝑐𝑎𝑟 𝑝𝑐𝑎𝑟= 𝑒𝛼𝑇𝑐𝑎𝑟 𝑒𝛼𝑇𝑏𝑢𝑠 + 𝑒𝛼𝑇𝑐𝑎𝑟 𝑝𝑐𝑎𝑟 𝑝𝑏𝑢𝑠 = 𝑒𝛼𝑇𝑐𝑎𝑟 𝑒𝛼𝑇𝑏𝑢𝑠 𝑝𝑐𝑎𝑟 𝑝𝑏𝑢𝑠 =𝑒𝛼(𝑇𝑐𝑎𝑟−𝑇𝑏𝑢𝑠) 6 10 4 10 =𝑒𝛼(38−47) 3 2 =𝑒𝛼(−9) ln 3 2 −9 = 𝛼 𝛼=-0.045 Si la función V (·) hubiera contenido más variables que en este caso, entonces podría usarse una regresión simple para estimar los parámetros. Tenga en cuenta que en este caso simple, solo se podría estimar un parámetro, ya que efectivamente hay una pieza de información, a saber, 𝑝𝑐𝑎𝑟 = 0.6 y 𝑝𝑏𝑢𝑠 = 1 − 0.6 , Para estimar un mayor número de parámetros se requeriría un mayor número de observaciones en forma de probabilidades de elección para otros grupos que enfrentan diferentes valores de 𝑇𝑐𝑎𝑟 y 𝑇𝑏𝑢𝑠. En general, los parámetros de un modelo de elección modal 6. Calibration of Choice Models Introducción
  • 37. 𝑛 = 1, 2, … 𝑁 (𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑜𝑠) 𝑘 = 1, 2, … 𝐾 (𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑎𝑠) 𝑉(𝑛,𝑘) 𝑝(𝑛,𝑘) Luego se postula un modelo de elección para dar la probabilidad de elección. 𝑘 = 𝑐𝑎𝑟, 𝑏𝑢𝑠, 𝑡𝑟𝑎𝑖𝑛 𝑛 = 1,2, …,20 𝑉(𝑛,𝑘) = 𝐴𝑋𝑛𝑘 Parámetr os Variables 𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘 𝑉(1,𝑐𝑎𝑟) = 𝑎1,𝑐𝑎𝑟𝑥1,1,𝑐𝑎𝑟+ 𝑎2,𝑐𝑎𝑟𝑥2,1,𝑐𝑎𝑟 + 𝑎3,𝑐𝑎𝑟𝑥3,1,𝑐𝑎𝑟 + ⋯ 𝑉(2,𝑐𝑎𝑟) = 𝑎1,𝑐𝑎𝑟𝑥1,2,𝑐𝑎𝑟+ 𝑎2,𝑐𝑎𝑟𝑥2,2,𝑐𝑎𝑟 + 𝑎3,𝑐𝑎𝑟𝑥3,2,𝑐𝑎𝑟 + ⋯ ……. 𝑉(20,𝑐𝑎𝑟) = 𝑎1,𝑐𝑎𝑟𝑥1,20,𝑐𝑎𝑟+ 𝑎2,𝑐𝑎𝑟𝑥2,20,𝑐𝑎𝑟 + 𝑎3,𝑐𝑎𝑟𝑥3,20,𝑐𝑎𝑟 + ⋯ 𝑉(1,𝑏𝑢𝑠) = 𝑎1,𝑏𝑢𝑠𝑥1,1,𝑏𝑢𝑠+ 𝑎2,𝑏𝑢𝑠𝑥2,1,𝑏𝑢𝑠 + 𝑎3,𝑏𝑢𝑠𝑥3,1,𝑏𝑢𝑠 + ⋯ 𝑉(2,𝑏𝑢𝑠) = 𝑎1,𝑏𝑢𝑠𝑥1,2,𝑏𝑢𝑠+ 𝑎2,𝑏𝑢𝑠𝑥2,2,𝑏𝑢𝑠 + 𝑎3,𝑏𝑢𝑠𝑥3,2,𝑏𝑢𝑠 + ⋯ …….. 𝑉(20,𝑏𝑢𝑠) = 𝑎1,𝑏𝑢𝑠𝑥1,20,𝑏𝑢𝑠+ 𝑎2,𝑏𝑢𝑠𝑥2,20,𝑏𝑢𝑠 + 𝑎3,𝑏𝑢𝑠𝑥3,20,𝑏𝑢𝑠 + ⋯ 𝑉(1,𝑡𝑟𝑎𝑖𝑛) = 𝑎1,𝑡𝑟𝑎𝑖𝑛𝑥1,1,𝑡𝑟𝑎𝑖𝑛+ 𝑎2,𝑡𝑟𝑎𝑖𝑛𝑥2,1,𝑡𝑟𝑎𝑖𝑛 + 𝑎3,𝑡𝑟𝑎𝑖𝑛𝑥3,1,𝑡𝑟𝑎𝑖𝑛 + ⋯ 𝑉(2,𝑡𝑟𝑎𝑖𝑛) = 𝑎1,𝑡𝑟𝑎𝑖𝑛𝑥1,2,𝑡𝑟𝑎𝑖𝑛+ 𝑎2,𝑡𝑟𝑎𝑖𝑛𝑥2,2,𝑡𝑟𝑎𝑖𝑛 + 𝑎3,𝑡𝑟𝑎𝑖𝑛𝑥3,2,𝑡𝑟𝑎𝑖𝑛 + ⋯ ……… 𝑉(20,𝑡𝑟𝑎𝑖𝑛) = 𝑎1,𝑡𝑟𝑎𝑖𝑛𝑥1,20,𝑡𝑟𝑎𝑖𝑛+ 𝑎2,𝑡𝑟𝑎𝑖𝑛𝑥2,20,𝑡𝑟𝑎𝑖𝑛 + 𝑎3,𝑡𝑟𝑎𝑖𝑛𝑥3,20,𝑡𝑟𝑎𝑖𝑛 + ⋯ Calibration of Choice Models Multinomial Disaggregate Models
  • 38. 𝑥𝑖1 1 𝑥𝑖1 2 𝑥𝑖1 3 𝑥𝑗1 1 𝑥𝑗1 2 𝑥𝑗1 3 𝑥𝑖1 4 𝑥𝑖1 5 𝑥𝑖1 6 𝑥𝑗1 4 𝑥𝑗1 5 𝑥𝑗1 6 𝑥𝑖1 7 𝑥𝑖1 8 𝑥𝑖1 9 𝑥𝑗1 7 𝑥𝑗1 8 𝑥𝑗1 9 𝑥𝑖2 1 𝑥𝑖2 2 𝑥𝑖2 3 𝑥𝑗2 1 𝑥𝑗2 2 𝑥𝑗2 3 𝑥𝑖2 4 𝑥𝑖2 5 𝑥𝑖2 6 𝑥𝑗2 4 𝑥𝑗2 5 𝑥𝑗2 6 𝑥𝑖2 7 𝑥𝑖2 8 𝑥𝑖2 9 𝑥𝑗2 7 𝑥𝑗2 8 𝑥𝑗2 9 𝑥𝑖3 1 𝑥𝑖3 2 𝑥𝑖3 3 𝑥𝑗3 1 𝑥𝑗3 2 𝑥𝑗3 3 𝑥𝑖3 4 𝑥𝑖3 5 𝑥𝑖3 6 𝑥𝑗3 4 𝑥𝑗3 5 𝑥𝑗3 6 𝑥𝑖3 7 𝑥𝑖3 8 𝑥𝑖3 9 𝑥𝑗3 7 𝑥𝑗3 8 𝑥𝑗3 9 𝛽1 𝛽2 𝛽3 𝛽4 𝛽5 𝛽6 𝛽7 𝛽8 𝛽9 6x9 9x1 6x1 𝛽1𝑥𝑖1 1 + 𝛽2𝑥𝑖1 2 + 𝛽3𝑥𝑖1 3 + 𝛽4𝑥𝑖1 4 + 𝛽5𝑥𝑖1 5 + 𝛽6𝑥𝑖1 6 + 𝛽7𝑥𝑖1 7 + 𝛽8𝑥𝑖1 8 + 𝛽9𝑥𝑖1 9 𝛽1𝑥𝑗1 1 + 𝛽2𝑥𝑗1 2 + 𝛽3𝑥𝑗1 3 + 𝛽4𝑥𝑗1 4 + 𝛽5𝑥𝑗1 5 + 𝛽6𝑥𝑗1 6 + 𝛽7𝑥𝑗1 7 + 𝛽8𝑥𝑗1 8 + 𝛽9𝑥𝑗1 9 𝛽1𝑥𝑖2 1 + 𝛽2𝑥𝑖2 2 + 𝛽3𝑥𝑖2 3 + 𝛽4𝑥𝑖2 4 + 𝛽5𝑥𝑖2 5 + 𝛽6𝑥𝑖2 6 + 𝛽7𝑥𝑖2 7 + 𝛽8𝑥𝑖2 8 + 𝛽9𝑥𝑖2 9 𝛽1𝑥𝑗2 1 + 𝛽2𝑥𝑗2 2 + 𝛽3𝑥𝑗2 3 + 𝛽4𝑥𝑗2 4 + 𝛽5𝑥𝑗2 5 + 𝛽6𝑥𝑗2 6 + 𝛽7𝑥𝑗2 7 + 𝛽8𝑥𝑗2 8 + 𝛽9𝑥𝑗2 9 𝛽1𝑥𝑖3 1 + 𝛽2𝑥𝑖3 2 + 𝛽3𝑥𝑖3 3 + 𝛽4𝑥𝑖3 4 + 𝛽5𝑥𝑖3 5 + 𝛽6𝑥𝑖3 6 + 𝛽7𝑥𝑖3 7 + 𝛽8𝑥𝑖3 8 + 𝛽9𝑥𝑖3 9 𝛽1𝑥𝑗3 1 + 𝛽2𝑥𝑗3 2 + 𝛽3𝑥𝑗3 3 + 𝛽4𝑥𝑗3 4 + 𝛽5𝑥𝑗3 5 + 𝛽6𝑥𝑗3 6 + 𝛽7𝑥𝑗3 7 + 𝛽8𝑥𝑗3 8 + 𝛽9𝑥𝑗3 9 = V=XB 𝑉𝑖𝑛 = 𝛽1𝑥𝑖𝑛 1 + 𝛽2𝑥𝑖𝑛 2 + 𝛽3𝑥𝑖𝑛 3 + 𝛽4𝑥𝑖𝑛 4 + 𝛽5𝑥𝑖𝑛 5 + 𝛽6𝑥𝑖𝑛 6 + 𝛽7𝑥𝑖𝑛 7 + 𝛽8𝑥𝑖𝑛 8 + 𝛽9𝑥𝑖𝑛 9 𝑉 𝑗𝑛 = 𝛽1𝑥𝑗𝑛 1 + 𝛽2𝑥𝑗𝑛 2 + 𝛽3𝑥𝑗𝑛 3 + 𝛽4𝑥𝑗𝑛 4 + 𝛽5𝑥𝑗𝑛 5 + 𝛽6𝑥𝑗𝑛 6 + 𝛽7𝑥𝑗𝑛 7 + 𝛽8𝑥𝑗𝑛 8 + 𝛽9𝑥𝑗𝑛 9 𝑉𝑖𝑛𝑘 = 𝛽1𝑥𝑖𝑛 1 + 𝛽2𝑥𝑖𝑛 2 + ⋯ + 𝛽𝑘𝑥𝑖𝑛 𝑘 𝑉𝑖𝑛 = 𝑘 𝛽𝑘𝑥𝑖𝑛 𝑘 𝑉 𝑗𝑛 = 𝑘 𝛽𝑘𝑥𝑗𝑛 𝑘 𝑉𝑧𝑛𝑘 = 𝑘 𝛽𝑘𝑥𝑧𝑛 𝑘 𝑉 𝑗𝑛𝑘 = 𝛽1𝑥𝑗𝑛 1 + 𝛽2𝑥𝑗𝑛 2 + ⋯ + 𝛽𝑘𝑥𝑗𝑛 𝑘 Para “n” individuos Para “k” parámetros y variables Para “z” elecciones 𝑉𝑧𝑛𝑘 = 𝛽1𝑥𝑧𝑛 1 + 𝛽2𝑥𝑧𝑛 2 + ⋯ + 𝛽𝑘𝑥𝑧𝑛 𝑘 [V] = [X] [B] zn x k K x1 zn x 1
  • 39. 𝑉 = 𝛽1𝑥1 + 𝛽2𝑥2 + 𝛽3𝑥3 + 𝛽4𝑥4 + 𝛽5𝑥5 + 𝛽6𝑥6 + 𝛽7𝑥7 + 𝛽8𝑥8 + 𝛽9𝑥9 𝑥1 = 1 𝑥2 = 𝐶𝑜𝑠𝑡𝑜 𝑑𝑒𝑙 𝑣𝑖𝑎𝑗𝑒 (𝐶) 𝑥3 = 𝑇𝑖𝑒𝑚𝑝𝑜 𝑐𝑎𝑟𝑟𝑜 𝑝𝑜𝑟 𝑡𝑟𝑎𝑏𝑎𝑗𝑜 𝑇𝑊 𝑥4 = 𝑇𝑖𝑒𝑚𝑝𝑜 𝑐𝑎𝑟𝑟𝑜 𝑜𝑡𝑟𝑜𝑠 𝑚𝑜𝑡𝑖𝑣𝑜𝑠 (𝑇𝑁𝑊) 𝑥5 = 𝑇𝑖𝑒𝑚𝑝𝑜 𝑡𝑟𝑒𝑛 (𝑇) 𝑥6 = Clase (“1” para class1 “0” en otros casos)(CL) 𝑥7 = 𝑆𝑒𝑥𝑜 "1" 𝑣𝑎𝑟𝑜𝑛 "0" 𝑚𝑢𝑗𝑒𝑟 (𝑆) 𝑥8 = 𝐽𝑒𝑓𝑒 𝑑𝑒 ℎ𝑜𝑔𝑎𝑟 ("1" 𝑠𝑖 "0" 𝑒𝑛 𝑜𝑡𝑟𝑜𝑠 𝑐𝑎𝑠𝑜𝑠) (𝐶𝑀) 𝑥9 = 𝐿𝑙𝑒𝑔𝑎𝑑𝑎 ("1" 𝑙𝑙𝑒𝑔𝑎𝑑𝑎 𝑓𝑖𝑗𝑎 "0" 𝑒𝑛 𝑜𝑡𝑟𝑜𝑠 𝑐𝑎𝑠𝑜𝑠)(𝐴) 𝑉𝑡𝑟𝑒𝑛 = 𝛽2𝐶 + 𝛽5𝑇 + 𝛽6𝐶𝑙 𝑉 𝑐𝑎𝑟𝑟𝑜 = 𝛽1 + 𝛽2𝐶 + 𝛽3𝑇𝑊 + 𝛽4𝑇𝑁𝑊 + 𝛽7𝑆 + 𝛽8𝐶𝑀 + 𝛽9𝐴
  • 40. El modelo de elección se puede escribir como: 𝑝𝑛𝑘 = 𝑓𝑘(𝑉(𝑛,𝑘)) 𝑑𝑜𝑛𝑑𝑒: Para estimar los parámetros del modelo 𝑎𝑖𝑘, observamos un número de individuos N y tomamos nota de la elección de cada individuo, al mismo tiempo, observamos los valores de 𝑥𝑖𝑛𝑘. Para construir la función de verosimilitud de las elecciones observadas, definimos la siguiente variable aleatoria: 𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘 𝑌𝑛𝑘= 1 𝑠𝑖 𝑒𝑙 𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑜 𝑛 𝑒𝑙𝑖𝑔𝑒 𝑙𝑎 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑎 𝑘 0 𝑒𝑛 𝑙𝑜𝑠 𝑜𝑡𝑟𝑜𝑠 𝑐𝑎𝑠𝑜𝑠 𝑁𝑘= 𝑛=1 𝑁 𝑌𝑛𝑘  𝑁𝑘 se convierte en el número de individuos que eligen la alternativa k en la muestra observada.  Ahora dividimos la muestra N en K subconjuntos 𝑆𝑘, cada uno de los cuales contiene los 𝑁𝑘 individuos que seleccionan la alternativa k. 𝑌_𝑛𝑘 Bus Car Train 1 0 1 0 2 1 0 0 3 0 1 0 4 1 0 0 5 0 0 1 6 0 0 1 7 1 0 0 8 1 0 0 9 0 0 1 10 1 0 0 11 1 0 0 12 0 0 1 13 1 0 0 14 0 1 0 15 0 0 1 16 0 1 0 17 0 1 0 18 0 0 1 19 0 0 1 20 0 0 1 N_k 7 5 8 20 Calibration of Choice Models Multinomial Disaggregate Models
  • 41. El modelo de elección se puede escribir como: 𝑝𝑛𝑘 = 𝑓𝑘(𝑉(𝑛,𝑘)) 𝑑𝑜𝑛𝑑𝑒: 𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘 Suponiendo que los valores de Ynk representan los resultados de los ensayos independientes de Bemoulli, es decir, asumiendo que las elecciones de diferentes individuos son independientes, entonces la probabilidad de 𝑁𝑘 individuales en cada subconjunto 𝑆𝑘 viene dada por la distribución multinomial. Por tanto, la probabilidad de la muestra observada viene dada por: 𝑌_𝑛𝑘 Bus Car Train 1 0 1 0 2 1 0 0 3 0 1 0 4 1 0 0 5 0 0 1 6 0 0 1 7 1 0 0 8 1 0 0 9 0 0 1 10 1 0 0 11 1 0 0 12 0 0 1 13 1 0 0 14 0 1 0 15 0 0 1 16 0 1 0 17 0 1 0 18 0 0 1 19 0 0 1 20 0 0 1 N_k 7 5 8 20 𝑆𝑐𝑎𝑟 = 1,3,14,16,17 𝑁𝑐𝑎𝑟 = 5 𝑆𝑏𝑢𝑠 = 2,4,7,8,10,11,13 𝑁𝑏𝑢𝑠 = 7 𝑆𝑡𝑟𝑎𝑖𝑛 = 5,6,9,12,15,18,19,20 𝑁𝑡𝑟𝑎𝑖𝑛 = 8 Λ = 𝑝 𝑁1, 𝑁2, … , 𝑁𝑘 𝐴 Λ = 𝑁! 𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑛∈𝑆𝑘 𝑝𝑛𝑘 Calibration of Choice Models Multinomial Disaggregate Models
  • 42. 𝑝𝑛𝑘 = 𝑓𝑘(𝑉(𝑛,𝑘)) 𝑑𝑜𝑛𝑑𝑒: 𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘 𝑌_𝑛𝑘 Bus Car Train 1 0 1 0 2 1 0 0 3 0 1 0 4 1 0 0 5 0 0 1 6 0 0 1 7 1 0 0 8 1 0 0 9 0 0 1 10 1 0 0 11 1 0 0 12 0 0 1 13 1 0 0 14 0 1 0 15 0 0 1 16 0 1 0 17 0 1 0 18 0 0 1 19 0 0 1 20 0 0 1 N_k 7 5 8 20 Λ = 𝑝 𝑁1, 𝑁2, … , 𝑁𝑘 𝐴 Λ = 𝑁! 𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑛∈𝑆𝑘 𝑝𝑛𝑘 Tomando logaritmos y eliminando el factor constante para la maximización de la verosimilitud Λ∗ = 𝑘 𝑛∈𝑆𝑘 𝑝𝑛𝑘 𝜕Λ∗ 𝜕𝑎𝑖𝑘 = 0 ∀𝑖 Asintóticamente eficiente, consistente y normalmente distribuido Para estimar y evaluar los valores de los parámetros de una elección depende de la forma del modelo en sí. El modelo Logit, por ejemplo, se presta a una estimación relativamente sencilla. El modelo Probit, por otro lado, requiere procedimientos computacionales que son bastante complejos Calibration of Choice Models Multinomial Disaggregate Models
  • 43. 𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘 Cabe señalar que la especificación del modelo implica a través de los parámetros 𝑎𝑖𝑘 que la elección es especificada por alternativa más que específica del atributo. Esto se debe a que los parámetros 𝑎𝑖𝑘 pueden diferir para cualquier variable i de una alternativa k. Un caso especial de esto es cuando 𝑎𝑖𝑘 = 𝑎𝑖 lo que significa que los atributos tienen el mismo efecto en la elección independientemente de la alternativa que describieron. El modelo entonces presentado contiene un mayor número de parámetros y requiere más datos para su calibración. Tiene la ventaja potencial de capturar los efectos de factores que son específicos de las alternativas. Su desventaja es que no es tan susceptible de análisis de políticas como la opción de atributo específico porque no puede predecir las probabilidades de elección de alternativas nuevas, ya que no existirán valores de parámetro para ellas. Λ = 𝑝 𝑁1, 𝑁2, … , 𝑁𝑘 𝐴 Λ = 𝑁! 𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑛∈𝑆𝑘 𝑒 𝑉(𝑛,𝑘) 𝑘 𝑒 𝑉(𝑛,𝑘) Calibration of Choice Models Multinomial Disaggregate Models
  • 44. Λ = 𝑁! 𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑛∈𝑆𝑘 𝑝𝑛𝑘 Multinomial Disaggregate Models Λ = 𝑁! 𝑁1!. 𝑁2!. … . 𝑁𝑘! 𝑘 𝑛∈𝑆𝑘 𝑒𝑉(𝑛,𝑘) 𝑘 𝑒𝑉(𝑛,𝑘) Tomando logaritmos y eliminando el factor constante para la maximización de la verosimilitud (𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘) Λ∗ = 𝑘 𝑛∈𝑆𝑘 [𝑉(𝑛,𝑘) − ln 𝑘 𝑒𝑉 𝑛,𝑘 ] 𝜕Λ∗ 𝜕𝑎𝑖𝑘 = 𝑘 𝑛∈𝑆𝑘 𝑥𝑖𝑛𝑘 − 𝑘 𝑛∈𝑆𝑘 𝑥𝑖𝑛𝑘 𝑒 𝑉(𝑛,𝑘) 𝑘 𝑒 𝑉(𝑛,𝑘) =0 Λ = 𝑁! 𝑁1!.𝑁2! 𝑛∈𝑆1 𝑝𝑛1 𝑛∈𝑆2 𝑝𝑛2 Binomiall Disaggregate Models Calibration of Choice Models Λ = 𝑁! 𝑁1!. 𝑁2! 𝑛∈𝑆1 𝑒𝑉(𝑛,1) 𝑒𝑉(𝑛,1) + 𝑒𝑉(𝑛,2) 𝑛∈𝑆2 𝑒𝑉(𝑛,2) 𝑒𝑉(𝑛,1) + 𝑒𝑉(𝑛,2) Λ = ln 𝑛∈𝑆1 𝑒𝑉(𝑛,1) 𝑒𝑉(𝑛,1) + 𝑒𝑉(𝑛,2) + ln 𝑛∈𝑆1 𝑒𝑉(𝑛,2) 𝑒𝑉(𝑛,1) + 𝑒𝑉(𝑛,2) Λ = 𝑛∈𝑆1 ln 𝑒𝑉(𝑛,1) 𝑒𝑉(𝑛,1) + 𝑒𝑉(𝑛,2) + 𝑛∈𝑆1 ln 𝑒𝑉(𝑛,2) 𝑒𝑉(𝑛,1) + 𝑒𝑉(𝑛,2) Λ = 𝑛∈𝑆1 ln 𝑒𝑉(𝑛,1) − ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2)) + 𝑛∈𝑆1 ln 𝑒𝑉(𝑛,2) − ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2)) Λ = 𝑛∈𝑆1 ln 𝑒𝑉(𝑛,1) − 𝑛∈𝑆1 ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2)) + 𝑛∈𝑆2 ln 𝑒𝑉(𝑛,2) − 𝑛∈𝑆2 ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2)) Λ = 𝑛∈𝑆1 ln 𝑒𝑉(𝑛,1) + 𝑛∈𝑆2 ln 𝑒𝑉(𝑛,2) − 𝑛 ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2)) Λ = 𝑛∈𝑆1 𝑉(𝑛,1) + 𝑛∈𝑆1 𝑉(𝑛,2) − 𝑛 ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2))
  • 45. 𝜕Λ∗ 𝜕𝑎𝑖𝑘 = 𝑘 𝑛∈𝑆𝑘 𝑥𝑖𝑛𝑘 − 𝑘 𝑛∈𝑆𝑘 𝑥𝑖𝑛𝑘 𝑒 𝑉(𝑛,𝑘) 𝑘 𝑒 𝑉(𝑛,𝑘) =0 Λ = 𝑛∈𝑆1 𝑉(𝑛,1) + 𝑛∈𝑆1 𝑉(𝑛,2) − 𝑛 ln(𝑒𝑉 𝑛,1 + 𝑒𝑉(𝑛,2)) El lado derecho es específico de cada individuo y, por lo tanto, no es posible obtener diferentes observaciones para p (1) / p (2) para calibrar sus parámetros. La linealización de la ecuación. (5.52) y el uso de regresión para la estimación de los parámetros solo se puede hacer en el caso agregado. Es bastante engorroso ilustrar la estimación del modelo desagregado con un ejemplo numérico, ya que el número de probabilidades que se necesita calcular es bastante grande e igual al producto del número de individuos de la muestra por el número de alternativas. Sin embargo, podemos ilustrar la construcción de la función de verosimilitud, por ejemplo, con un tamaño de muestra pequeño y un modelo de elección muy simple. Calibration of Choice Models Multinomial Disaggregate Models
  • 46. 𝑛 = 1, 2,3,4,5 (𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑜𝑠) 𝑘 = 1, 2, (𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑎𝑠 𝑏𝑢𝑠 𝑎𝑛𝑑 𝑡𝑟𝑎𝑖𝑛) 𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘 𝑉(1,𝑐𝑎𝑟) = 𝑎1,𝑐𝑎𝑟𝑥1,1,𝑐𝑎𝑟 𝑉(2,𝑐𝑎𝑟) = 𝑎1,𝑐𝑎𝑟𝑥1,2,𝑐𝑎𝑟 ……. 𝑉(5,𝑐𝑎𝑟) = 𝑎1,𝑐𝑎𝑟𝑥1,5,𝑐𝑎𝑟 𝑉(1,𝑏𝑢𝑠) = 𝑎1,𝑏𝑢𝑠𝑥1,1,𝑏𝑢𝑠 𝑉(2,𝑏𝑢𝑠) = 𝑎1,𝑏𝑢𝑠𝑥1,2,𝑏𝑢𝑠 …….. 𝑉(5,𝑏𝑢𝑠) = 𝑎1,𝑏𝑢𝑠𝑥1,5,𝑏𝑢𝑠 𝑥𝑖𝑛𝑘= 𝑡1,𝑛,𝑐𝑎𝑟, 𝑡1,𝑛,𝑡𝑟𝑎𝑖𝑛 = {𝑡𝑛,𝑐𝑎𝑟, 𝑡𝑛,𝑡𝑟𝑎𝑖𝑛} 𝑎𝑖𝑘= {𝑎1,𝑐𝑎𝑟, 𝑎1,𝑡𝑟𝑎𝑖𝑛} = {𝑎𝑐𝑎𝑟, 𝑎𝑡𝑟𝑎𝑖𝑛} 𝑉(1,𝑐𝑎𝑟) = 𝑎𝑐𝑎𝑟𝑡1,𝑐𝑎𝑟 𝑉(2,𝑐𝑎𝑟) = 𝑎𝑐𝑎𝑟𝑡2,𝑐𝑎𝑟 ……. 𝑉(5,𝑐𝑎𝑟) = 𝑎𝑐𝑎𝑟𝑡5,𝑐𝑎𝑟 𝑉(1,𝑡𝑟𝑎𝑖𝑛) = 𝑎𝑡𝑟𝑎𝑖𝑛𝑡1,𝑡𝑟𝑎𝑖𝑛 𝑉(2,𝑡𝑟𝑎𝑖𝑛) = 𝑎𝑡𝑟𝑎𝑖𝑛𝑡2,𝑡𝑟𝑎𝑖𝑛 ……. 𝑉(5,𝑡𝑟𝑎𝑖𝑛) = 𝑎𝑡𝑟𝑎𝑖𝑛𝑡5,𝑡𝑟𝑎𝑖𝑛 x_ink Elección (k) n t_car t_train car train 1 5 7 1 0 2 4 6 1 0 3 6 4 0 1 4 6 4 0 1 5 4 5 0 1 𝑝(𝑛,𝑘) = 𝑒𝑉(𝑛,𝑘) 𝑘 𝑒𝑉(𝑛,𝑘) 𝑝(1,𝑐𝑎𝑟) = 𝑒𝑉(1,𝑐𝑎𝑟) 𝑒𝑉(1,𝑐𝑎𝑟) + 𝑒𝑉(1,𝑡𝑟𝑎𝑖𝑛) 𝑝(3,𝑡𝑟𝑎𝑖𝑛) = 𝑒𝑉(3,𝑡𝑟𝑎𝑖𝑛) 𝑒𝑉(3,𝑐𝑎𝑟) + 𝑒𝑉(3,𝑡𝑟𝑎𝑖𝑛) 𝑝(2,𝑐𝑎𝑟) = 𝑒𝑉(2,𝑐𝑎𝑟) 𝑒𝑉(2,𝑐𝑎𝑟) + 𝑒𝑉(2,𝑡𝑟𝑎𝑖𝑛) 𝑝(4,𝑡𝑟𝑎𝑖𝑛) = 𝑒𝑉(4,𝑡𝑟𝑎𝑖𝑛) 𝑒𝑉(4,𝑐𝑎𝑟) + 𝑒𝑉(4,𝑡𝑟𝑎𝑖𝑛) 𝑝(5,𝑡𝑟𝑎𝑖𝑛) = 𝑒𝑉(5,𝑡𝑟𝑎𝑖𝑛) 𝑒𝑉(5,𝑐𝑎𝑟) + 𝑒𝑉(5,𝑡𝑟𝑎𝑖𝑛) Calibration of Choice Models Binomial Disaggregate Models
  • 47. 𝑉(𝑛,𝑘) = 𝑎𝑘𝑥𝑛𝑘 x_ink Elección (k) n t_car t_train car train 1 5 7 1 0 2 4 6 1 0 3 6 4 0 1 4 6 4 0 1 5 4 5 0 1 𝑉 𝑐𝑎𝑟 = 𝑎𝑐𝑎𝑟𝑡𝑐𝑎𝑟 = 𝑎𝑡𝑐𝑎𝑟 𝑉𝑡𝑟𝑎𝑖𝑛 = 𝑎𝑡𝑟𝑎𝑖𝑛𝑡𝑡𝑟𝑎𝑖𝑛 = 𝑏𝑡𝑡𝑟𝑎𝑖𝑛 Λ∗ = 𝑝(1,𝑐𝑎𝑟) 𝑝(2,𝑐𝑎𝑟) 𝑝(3,𝑡𝑟𝑎𝑖𝑛) 𝑝(4,𝑡𝑟𝑎𝑖𝑛) 𝑝(5,𝑡𝑟𝑎𝑖𝑛) Λ∗ = ( 𝑒5𝑎 𝑒5𝑎+𝑒7𝑏)( 𝑒4𝑎 𝑒4𝑎+𝑒6𝑏)( 𝑒4𝑏 𝑒4𝑏+𝑒6𝑎)( 𝑒4𝑏 𝑒4𝑏+𝑒6𝑎)( 𝑒5𝑏 𝑒5𝑏+𝑒4𝑎) Log- likelihood: Likelihood function: Λ∗ = ln 𝑒5𝑎 𝑒5𝑎 + 𝑒7𝑏 + ln 𝑒4𝑎 𝑒4𝑎 + 𝑒6𝑏 + ln 𝑒4𝑏 𝑒4𝑏 + 𝑒6𝑎 + ln 𝑒4𝑏 𝑒4𝑏 + 𝑒6𝑎 + ln 𝑒5𝑏 𝑒5𝑏 + 𝑒4𝑎 Λ∗ = 5a − ln(𝑒5𝑎 +𝑒7𝑏 ) + 4𝑎 − ln(𝑒4𝑎 +𝑒6𝑏 ) + 4𝑏 − ln(𝑒4𝑏 +𝑒6𝑎 ) + 4b − ln(𝑒4𝑏 +𝑒6𝑎 ) + 5𝑏 − ln(𝑒5𝑏 +𝑒4𝑎 ) Λ∗ = 9a + 13b − ln(𝑒5𝑎 +𝑒7𝑏 ) − ln(𝑒4𝑎 + 𝑒6𝑏 ) − ln(𝑒4𝑏 +𝑒6𝑎 ) −ln(𝑒4𝑏 +𝑒6𝑎 ) − ln(𝑒5𝑏 +𝑒4𝑎 ) 𝑎 ~ 𝜕Λ∗ 𝜕𝑎 = 0 𝑏 ~ 𝜕Λ∗ 𝜕𝑏 = 0 Calibration of Choice Models Binomial Disaggregate Models
  • 48. 𝑉(𝑛,𝑘) = 𝑎𝑘𝑥𝑛𝑘 x_ink Elección (k) n t_car t_train car train 1 5 7 1 0 2 4 6 1 0 3 6 4 0 1 4 6 4 0 1 5 4 5 0 1 𝑉 𝑐𝑎𝑟 = 𝑎𝑐𝑎𝑟𝑡𝑐𝑎𝑟 = 𝑎𝑡𝑐𝑎𝑟 𝑉𝑡𝑟𝑎𝑖𝑛 = 𝑎𝑡𝑟𝑎𝑖𝑛𝑡𝑡𝑟𝑎𝑖𝑛 = 𝑏𝑡𝑡𝑟𝑎𝑖𝑛 Calibration of Choice Models Binomial Disaggregate Models
  • 49. Λ = 𝑁! 𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑝𝑛𝑘 𝑁𝑘 Tomando logaritmos y eliminando el factor constante para la maximización de la verosimilitud (𝑉(𝑘) = 𝑎𝑖𝑥𝑖𝑘) Λ∗ = 𝑘 𝑁𝑘𝑝𝑘 En el modelo de elección agregada, se supone que las variables de la función de elección son las mismas para todos los individuos de una muestra, es decir, 𝑥𝑖𝑘𝑛 = 𝑥𝑖𝑘. Esto significa que hay un valor único de la función de elección medida para cada alternativa y que las probabilidades de elección también son las mismas para los individuos de cada subconjunto Si. es decir, 𝑘 = 1, 2, 3 (𝑐𝑎𝑟, 𝑏𝑢𝑠, 𝑡𝑟𝑎𝑖𝑛) 𝑉(𝑘) = 𝑎𝑖𝑥𝑖𝑘 𝑉(𝑐𝑎𝑟) = 𝑎1,𝑡𝑐𝑎𝑟 + 𝑎2,𝑐𝑐𝑎𝑟 𝑉(𝑏𝑢𝑠) = 𝑎1,𝑡𝑏𝑢𝑠 + 𝑎2,𝑐𝑏𝑢𝑠 𝑉(𝑡𝑟𝑎𝑖𝑛) = 𝑎1,𝑡𝑡𝑟𝑎𝑖𝑛 + 𝑎2,𝑐𝑡𝑟𝑎𝑖𝑛 𝑥𝑖𝑘= 𝑡1,𝑐𝑎𝑟, 𝑡1,𝑏𝑢𝑠, 𝑡1,𝑡𝑟𝑎𝑖𝑛, 𝑐2,𝑐𝑎𝑟, 𝑐2,𝑏𝑢𝑠, 𝑐2,𝑡𝑟𝑎𝑖𝑛 𝑎𝑖= {𝑎1,, 𝑎2} K t_k c_k car 15 3 bus 10 4 train 20 7 Suponga que de 100 personas encuestadas, se encontró que 50 usaron el primer modo auto, 40 el modo bus y el resto el modo ferroviario En otras palabras, Pk = (0.5, 0.4, 0.10). Se postula un modelo logit de la siguiente forma para este problema: Calibration of Choice Models Binomial Disaggregate Models
  • 50. Λ = 𝑁! 𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑝𝑘 𝑁𝑘 Λ = 100! 50! .40! .10! (𝑝1 50 )(𝑝2 40 )(𝑝3 10 ) Λ = ( 𝑒15𝑎1+3𝑎2 𝑌 )50( 𝑒10𝑎1+4𝑎2 𝑌 )40( 𝑒20𝑎1+7𝑎2 𝑌 )10 𝐷𝑜𝑛𝑑𝑒: 𝑌 = 𝑒15 𝑎1 +3 𝑎2 + 𝑒10 𝑎1 +4 𝑎2+ 𝑒20 𝑎1 +7 𝑎2 Λ∗ = ln( 𝑒15𝑎1+3𝑎2 𝑌 )50 ( 𝑒10𝑎1+4𝑎2 𝑌 )40 ( 𝑒20𝑎1+7𝑎2 𝑌 )10 Λ∗ = 50 ln 𝑒15𝑎1+3𝑎2 𝑌 + 40 ln 𝑒10𝑎1+4𝑎2 𝑌 + 10 ln 𝑒20+7𝑎2 𝑌 Λ∗ = 50 (ln 𝑒15𝑎1+3𝑎2 − ln 𝑌)+ 40 (ln 𝑒10𝑎1+4𝑎2 − ln 𝑌)+ 10 (ln 𝑒20𝑎1+7𝑎2 − ln 𝑌) Λ∗ = 50 ln 𝑒15𝑎1+3𝑎2 − 50ln 𝑌+ 40 ln 𝑒10𝑎1+4𝑎2 − 40ln 𝑌+ 10 ln 𝑒20𝑎1+7𝑎2 − 10ln 𝑌 Λ∗ = 50 ln 𝑒15𝑎1+3𝑎2+ 40 ln 𝑒10𝑎1+4𝑎2+ 10 ln 𝑒20𝑎1+7𝑎2 − 100ln 𝑌 Calibration of Choice Models Multinomial Disaggregate Models
  • 51. 𝑉(𝑐𝑎𝑟) = -0.028 𝑡𝑐𝑎𝑟− 0.366𝑐𝑐𝑎𝑟 𝑉(𝑏𝑢𝑠) = -0.028 𝑡𝑏𝑢𝑠 −0.366𝑐𝑏𝑢𝑠 𝑉(𝑡𝑟𝑎𝑖𝑛) = -0.028 𝑡𝑡𝑟𝑎𝑖𝑛−0.366𝑐𝑡𝑟𝑎𝑖𝑛 Λ∗ =50(15 𝑎1 +3 𝑎2)+40(10 𝑎1 +4 𝑎2) 10(20 𝑎1 +7 𝑎2)-100ln 𝑌 𝑌 = 𝑒15 𝑎1 +3 𝑎2 + 𝑒10 𝑎1 +4 𝑎2+ 𝑒20 𝑎1 +7 𝑎2 𝑎 ~ 𝜕Λ∗ 𝜕𝑎1 = 0 𝑏 ~ 𝜕Λ∗ 𝜕𝑎2 = 0 50% 40% 10% Car Bus Train k Tiempo Costo Car 15 3 Bus 10 4 Train 20 7 𝑉(𝑐𝑎𝑟) = -0.028 𝑡𝑐𝑎𝑟− 0.366𝑐𝑐𝑎𝑟 𝑉(𝑏𝑢𝑠) = -0.028 𝑡𝑏𝑢𝑠 −0.366𝑐𝑏𝑢𝑠 𝑉(𝑡𝑟𝑎𝑖𝑛) = -0.028 𝑡𝑡𝑟𝑎𝑖𝑛−0.366𝑐𝑡𝑟𝑎𝑖𝑛 𝑉(𝑚𝑒𝑡𝑟𝑜) = -0.028 𝑡𝑚𝑒𝑡𝑟𝑜−0.366𝑐𝑚𝑒𝑡𝑟𝑜 k Tiempo Costo Car 15 3 Bus 10 4 Train 20 7 Metro 5 12 49% 39% 10% 2% Car Bus Train Metro k Tiempo Costo Car 15 3 Bus 10 4 Train 20 7 Metro 5 5 38% 30% 8% 24% Car Bus Train Metro Calibration of Choice Models Multinomial Disaggregate Models
  • 52. Observe que si el modelo hubiera incluido parámetros específicos por cada modo de elección 𝑎𝑖𝑘 , entonces este tipo de predicción al introducir un nuevo modo no sería posible, ya que los valores 𝑎𝑖𝑚𝑒𝑡𝑟𝑜 noestarían disponibles. También serían necesarios datos de elección adicionales para estimar el modelo con parámetros específicos de elección. El ejemplo discutido aquí representa una situación extrema donde toda la población encuestada se agrega en un grupo. El otro extremo es el modelo totalmente desagregado en el que cada individuo se considera por separado con una probabilidad individual sobre la base de valores de tiempo y costo medidos individualmente. Es prácticamente seguro que en realidad el modelo totalmente agregado no es exacto, ya que es poco probable que todos los individuos de la población de la encuesta experimenten exactamente los mismos valores de tk y ci. Dada la disponibilidad de datos, siempre es preferible utilizar un modelo desagregado al estimar los parámetros. Cuando no se dispone de datos desagregados, el analista debe tener cuidado al agregar los datos para evitar sesgos en la estimación de los parámetros. El efecto de los diferentes niveles de agregación sobre los resultados dependerá, por supuesto, de cómo varían las variables del Calibration of Choice Models Multinomial Disaggregate Models
  • 53. n fare_1 fare_2 traffic_ 1 traffic_ 2 1 90 60 33 100 2 110 70 33 110 3 130 80 35 120 4 140 80 35 140 5 160 90 34 180 ln 𝑝𝑖 𝑝𝑗 =𝑉𝑖 − 𝑉 𝑗 𝑉𝑖 = 𝑎 + 𝑏𝐹1 𝑉 𝑗 = 𝑏𝐹2 ln 𝑝𝑖 𝑝𝑗 =𝑎 + 𝑏(𝐹1−𝐹2) 𝑦=𝑎 + 𝑏x n Ln(t1/t 2) F1-F2 1 - 1.1087 30 2 -1.204 40 3 - 1.2321 50 4 - 1.3863 60 5 - 1.6666 70 Coeficientes Error típico Estadístico t Probabilid ad Inferior 95% Superior 95% Inferior 95.0% Superior 95.0% Intercepció n -0.6704 0.1402 -4.7823 0.0174 -1.1166 -0.22428199 -1.117 -0.224 F1-F2 -0.013 0.0027 -4.8116 0.0171 -0.0216 -0.00439558 -0.022 -0.004 Coeficientes a1 -0.66 b -0.01 Mode Split Model Estimation Utilidad 1 Utilidad 2 Prob_ 1 Prob_2 Log Likelihood -1.85 -0.79 0.26 0.74 0.00 0.00 -44.70 -29.85 -2.11 -0.92 0.23 0.77 0.00 0.00 -47.99 -29.26 -2.38 -1.06 0.21 0.79 0.00 0.00 -54.49 -28.40 -2.51 -1.06 0.19 0.81 0.00 0.00 -58.19 -29.44 -2.77 -1.19 0.17 0.83 0.00 0.00 -60.21 -33.58 Log Likelihood -416.12 Λ = 𝑁! 𝑁1!. 𝑁2! 𝑝1 𝑁1 𝑝2 𝑁2 Calibration of Choice Models Multinomial Aggregate Models
  • 55. 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝜀2=−∞ (𝑉𝑖−𝑉2+𝜀𝑖) … 𝜀𝑖−1=−∞ (𝑉𝑖−𝑉𝑖−1+𝜀𝑖) 𝜀𝑖+1=−∞ (𝑉𝑖−𝑉𝑖+1+𝜀𝑖) … 𝜀𝐽−1=−∞ (𝑉𝑖−𝑉𝐽−1+𝜀𝑖) 𝜀𝐽=−∞ (𝑉𝑖−𝑉𝐽+𝜀𝑖) 𝑓 𝜀1, 𝜀2, … , 𝜀𝑖−1, 𝜀𝑖, 𝜀𝑖+1, … , 𝜀𝐽−1, 𝜀𝐽 𝑑(𝜀𝑖) 𝑝𝑖= 𝑓 𝜀 𝑑(𝜀) 𝑝𝑖= 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1 𝑓 𝜀𝐽 𝑑(𝜀) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝜀2=−∞ (𝑉𝑖−𝑉2+𝜀𝑖) … 𝜀𝑖−1=−∞ (𝑉𝑖−𝑉𝑖−1+𝜀𝑖) 𝜀𝑖+1=−∞ (𝑉𝑖−𝑉𝑖+1+𝜀𝑖) … 𝜀𝐽−1=−∞ (𝑉𝑖−𝑉𝐽−1+𝜀𝑖) 𝜀𝐽=−∞ (𝑉𝑖−𝑉𝐽+𝜀𝑖) 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1 𝑓 𝜀𝐽 𝑑(𝜀𝑖) Si integramos sobre todas las dimensiones excepto en la primera, se obtiene: 𝑝𝑖= 𝜀=−∞ +∞ 𝜕𝐹𝜀1,𝜀2,…,𝜀𝐽 𝜕𝜀𝑖 𝑉𝑖 − 𝑉1 + 𝜀𝑖, … , 𝑉𝑖 − 𝑉𝑖−1 + 𝜀𝑖, 𝜀𝑖, 𝑉𝑖 − 𝑉𝑖+1 + 𝜀𝑖, … , 𝑉𝑖 − 𝑉1 + 𝜀𝑖, 𝑑(𝜀) Si se integra en cada una de sus dimensiones se obtiene: 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝜀2=−∞ (𝑉𝑖−𝑉2+𝜀𝑖) … 𝜀𝑖−1=−∞ (𝑉𝑖−𝑉𝑖−1+𝜀𝑖) 𝜀𝑖+1=−∞ (𝑉𝑖−𝑉𝑖+1+𝜀𝑖) … 𝜀𝐽−1=−∞ (𝑉𝑖−𝑉𝐽−1+𝜀𝑖) 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1 𝜀𝐽=−∞ (𝑉𝑖−𝑉𝐽+𝜀𝑖) 𝑓 𝜀𝐽 𝑑(𝜀𝑖) ANEXO 01 / 03 : DEMOSTRACION
  • 56. 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝜀2=−∞ (𝑉𝑖−𝑉2+𝜀𝑖) … 𝜀𝑖−1=−∞ (𝑉𝑖−𝑉𝑖−1+𝜀𝑖) 𝜀𝑖+1=−∞ (𝑉𝑖−𝑉𝑖+1+𝜀𝑖) … 𝜀𝐽−1=−∞ (𝑉𝑖−𝑉𝐽−1+𝜀𝑖) 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝑓 𝜀𝐽−1 𝐹(𝜀𝐽) 𝑑(𝜀𝑖) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝜀2=−∞ (𝑉𝑖−𝑉2+𝜀𝑖) … 𝜀𝑖−1=−∞ (𝑉𝑖−𝑉𝑖−1+𝜀𝑖) 𝜀𝑖+1=−∞ (𝑉𝑖−𝑉𝑖+1+𝜀𝑖) … 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝜀𝐽−1=−∞ (𝑉𝑖−𝑉𝐽−1+𝜀𝑖) 𝑓 𝜀𝐽−1 𝐹(𝜀𝐽) 𝑑(𝜀𝑖) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝜀2=−∞ (𝑉𝑖−𝑉2+𝜀𝑖) … 𝜀𝑖−1=−∞ (𝑉𝑖−𝑉𝑖−1+𝜀𝑖) 𝜀𝑖+1=−∞ (𝑉𝑖−𝑉𝑖+1+𝜀𝑖) … 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝑓 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝜀2=−∞ (𝑉𝑖−𝑉2+𝜀𝑖) … 𝜀𝑖−1=−∞ (𝑉𝑖−𝑉𝑖−1+𝜀𝑖) … 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝜀𝑖+1=−∞ (𝑉𝑖−𝑉𝑖+1+𝜀𝑖) 𝑓 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝜀2=−∞ (𝑉𝑖−𝑉2+𝜀𝑖) … 𝜀𝑖−1=−∞ (𝑉𝑖−𝑉𝑖−1+𝜀𝑖) … 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝑓 𝜀𝑖 𝐹(𝜀𝑖+1) … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝑓 𝜀𝑖 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝜀2=−∞ (𝑉𝑖−𝑉2+𝜀𝑖) … 𝜀𝑖−1=−∞ (𝑉𝑖−𝑉𝑖−1+𝜀𝑖) … 𝑓 𝜀1 . 𝑓 𝜀2 … 𝑓 𝜀𝑖−1 𝐹(𝜀𝑖+1) … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝑓 𝜀𝑖 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝜀2=−∞ (𝑉𝑖−𝑉2+𝜀𝑖) 𝑓 𝜀1 . 𝑓 𝜀2 … 𝜀𝑖−1=−∞ (𝑉𝑖−𝑉𝑖−1+𝜀𝑖) 𝑓 𝜀𝑖−1 𝐹(𝜀𝑖+1) … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝑓 𝜀𝑖 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝜀2=−∞ (𝑉𝑖−𝑉2+𝜀𝑖) 𝑓 𝜀1 . 𝑓 𝜀2 … 𝐹 𝜀𝑖−1 𝐹 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖) ANEXO 02 / 03 : DEMOSTRACION
  • 57. 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝑓 𝜀𝑖 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝑓 𝜀1 𝜀2=−∞ (𝑉𝑖−𝑉2+𝜀𝑖) 𝑓 𝜀2 … 𝐹 𝜀𝑖−1 𝐹 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝑓 𝜀𝑖 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝑓 𝜀1 𝜀2=−∞ (𝑉𝑖−𝑉2+𝜀𝑖) 𝑓 𝜀2 … 𝐹 𝜀𝑖−1 𝐹 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝑓 𝜀𝑖 𝜀1=−∞ (𝑉𝑖−𝑉1+𝜀𝑖) 𝑓 𝜀1 𝐹 𝜀2 … 𝐹 𝜀𝑖−1 𝐹 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝑓 𝜀𝑖 𝐹 𝜀1 𝐹 𝜀2 … 𝐹 𝜀𝑖−1 𝐹 𝜀𝑖+1 … 𝐹(𝜀𝐽−1) 𝐹(𝜀𝐽) 𝑑(𝜀𝑖) 𝑝𝑖= 𝜀𝑖=−∞ +∞ 𝑓 𝜀𝑖 𝑖≠𝑗 𝐹𝜀𝑗 𝑑(𝜀𝑖) ANEXO 03 / 03 : DEMOSTRACION
  • 58. ANEXO 03 : EJEMPLO COMPLETO 1 1 2 3 Urban Passenger travel demand 101 falta desarrollar el ejercicio The direct approach , The sequence choice approach
  • 59. EJEMPLO DISTRIBUCION MULTINOMIAL En una ciudad los viajes de las personas son distribuidos de la siguiente manera 50% en Transporte publico, 30% en vehículo privado y 20% en bicicleta (caminata y bicicleta). En una muestra de 10 personas, calcular la probabilidad de que sean 4 personas que usan transporte publico, 4 personas que usan vehículos privado y 2 que usen bicicleta. Λ = 10! 4!.4!.2! (.54 ) (.34 ) (.22 ) Λ = 6.4% n° N n1 n2 n3 p1 p2 p3 P 43 10 5 3 2 0.5 0.3 0.2 8.505% 52 10 6 2 2 0.5 0.3 0.2 7.088% 53 10 6 3 1 0.5 0.3 0.2 7.088% 34 10 4 4 2 0.5 0.3 0.2 6.379% 44 10 5 4 1 0.5 0.3 0.2 6.379% 33 10 4 3 3 0.5 0.3 0.2 5.670% 42 10 5 2 3 0.5 0.3 0.2 5.670% 62 10 7 2 1 0.5 0.3 0.2 5.063% 35 10 4 5 1 0.5 0.3 0.2 3.827% 24 10 3 4 3 0.5 0.3 0.2 3.402%
  • 60. Λ = 𝑁! 𝑁1!.𝑁2!. … .𝑁𝑘! 𝑘 𝑛∈𝑆𝑘 𝑝𝑛𝑘 Ejemplo 02: Comparación LOGIT - PROBIT Multinomial Disaggregate Models Λ = 𝑁! 𝑁1!. 𝑁2!. … . 𝑁𝑘! 𝑘 𝑛∈𝑆𝑘 𝑒𝑉(𝑛,𝑘) 𝑘 𝑒𝑉(𝑛,𝑘) Tomando logaritmos y eliminando el factor constante para la maximización de la verosimilitud (𝑉(𝑛,𝑘) = 𝑎𝑖𝑘𝑥𝑖𝑛𝑘) Λ = 𝑘 𝑛∈𝑆𝑘 [𝑉(𝑛,𝑘) − ln 𝑘 𝑒𝑉 𝑛,𝑘 ] Λ = 𝑘 𝑛∈𝑆𝑘 [ 𝑎𝑖𝑘𝑥𝑖𝑛𝑘 − ln 𝑘 𝑒 𝑎𝑖𝑘𝑥𝑖𝑛𝑘] 𝜕Λ∗ 𝜕𝑎𝑖𝑘 = 𝑘 𝑛∈𝑆𝑘 [ 𝑎𝑖𝑘𝑥𝑖𝑛𝑘 − ln 𝑘 𝑒 𝑎𝑖𝑘𝑥𝑖𝑛𝑘] 𝜕Λ∗ 𝜕𝑎𝑖𝑘 = 𝑘 𝑛∈𝑆𝑘 𝑥𝑖𝑛𝑘 − 𝑘 𝑛∈𝑆𝑘 𝑥𝑖𝑛𝑘 𝑒 𝑉(𝑛,𝑘) 𝑘 𝑒 𝑉(𝑛,𝑘) =0