8. Introducción
al análisis
econométrico Análisis de
regresión lineal
simple
Análisis de
regresión
lineal
múltiple
Supuestos
del método
de mínimo
cuadrado
ordinario
• TODOS LOS TEMAS DE LAS 4 UNIDADES FUERON ANALIZADOS DURANTE LAS 14 SEMANAS DE CLASE
9.
10. El término econometría fue acuñado por Ragnar Frisch
economista y estadístico de origen noruego en el año
1926
Tema 1. Generalidades de los métodos
econométricos
La econometría es el uso de técnicas estadísticas para comprender
problemas económicos y probar teorías. Sin evidencia, las teorías
económicas son abstractas y pueden no tener relación con la realidad
(incluso si son completamente rigurosas).
El objetivo de la econometría es convertir declaraciones
cualitativas como: la relación entre dos o más variables es
positiva, en declaraciones cuantitativas como: el gasto de
consumo aumenta en 95 centavos por cada dólar de aumento
de la renta disponible.
11. Los tres grandes pilares la teoría económica, las técnicas
estadísticas y los datos de la realidad, estos últimos deben
cumplir características que los hagan válidos para la estimación
econométrica.
Clasificación de los datos en función de sus características
• Datos de series temporales, son los que proporcionan información de
un individuo en periodos sucesivos.
• Datos de corte transversal, son los que ofrecen información acerca de
un conjunto de individuos en determinado momento del tiempo.
• Datos de panel, combinan ambas dimensiones y ofrecen información
sobre varios sujetos en diferentes momentos del tiempo.
12. Etapas en la construcción de un elemento econométrico
1. Especificación de un modelo inicial, consiste en identificar las variables
potencialmente relevantes (dependientes e independientes) y establecer la relación
que puede existir
entre estas variables a través de una forma funcional explícita.
2. Búsqueda y depuración de datos para que sean adecuados para la estimación.
3. Estimación del modelo
4. Validación del modelo y depurarlo de ser necesario.
Propiedades deseables de un modelo econométrico
Plausibilidad teórica, Simplicidad, Precisión de las estimaciones
de los parámetros, Habilidad explicativa, Habilidad predictiva
Estadística inferencial. Realiza el estudio descriptivo sobre un subconjunto
de la población llamado muestra y, posteriormente, extiende los resultados
obtenidos a toda la población.
13. VARIABLE:
Variable cualitativa.
Variable cuantitativa.
UNIDADES DE OBSERVACIÓN
Unidades de observación de corte transversal o de espacio,
Unidades de observación de tiempo, Unidades de observación
de panel
Tema 2: La investigación econométrica
Etapas de la
investigación
econométrica
Etapa 1.- Especificación del modelo
Etapa 2.- Estimación del Modelo
Etapa 3.- Evaluación de los Estimadores
Etapa 4.- Evaluación de la capacidad predictiva del Modelo
14. Las exigencias de las normas aplicables a la misma; dentro de las que se destacan:
1. Cuál es la variable explicada (variable dependiente) y cual o cuales son las variables
explicativas del modelo (variables independientes).
2. Que es lo que espera acerca del tamaño y signo de los parámetros de la relación; y
finalmente
3. Cuál es la forma matemática o más específicamente, cual es el tipo de reacción que
existe entre la variable dependiente y las explicativas, si es que el modelo es uniecuacional
15.
16.
17. El análisis de regresión, no es otra cosa que el estudio que
relaciona dos variables cuantitativas, la misma que nos permite
establecer y determinar la variable más idónea.
Análisis de Regresión
Es un modelo estadístico que nos permite examinar o determinar
la relación entre dos o más variables con la finalidad de poder
identificar cuál de ellas es a que tiene mayor impacto en un
tema de nuestro interés.
Criterios para poder identificar una relación entre dos variables:
Investigar si existe o no, una asociación entre las dos variables, donde existe una hipótesis de
independencia estadística.
Estudiar la fuerza de asociación, a través de la medida del coeficiente de correlación.
Estudiar la forma de la relación, donde se propone un modelo para la relación y a partir de ella
predecir el valor de una variable, con dependencia de la otra.
18. Modelo Matemático
La función matemática que proponemos como forma de relación
entre la variable dependiente (Y) y la o las variables
independientes.
Se utiliza la siguiente fórmula matemática para el cálculo de
la ecuación de regresión simple, la cual se representa así:
Y = β0 + β1 X
Modelo Determinístico.
Es decir, en condiciones ideales el modelo permite predecir sin
error el valor de la variable dependiente.
Conocido el valor de X, el valor de Y queda perfectamente
establecido. Son del tipo:
y = f (x)
En tema de Regresión Lineal. Haremos
énfasis en este tipo de modelos porque:
♦ Son de amplia aplicación,
♦ Son más simples de implementar.
♦ Otros procedimientos estadísticos más
complejos pueden ser mejor comprendidos
luego de estudiar regresión lineal.(Orellana,
19. Modelo de Regresión lineal y su especificación
La finalidad de este modelo es establecer la relación que existe
entre la variable dependiente (Y) y la variable independiente (X)
DONDE:
Si β1 > 0 hay relación lineal positiva.
Si β1 < 0 hay relación lineal negativa.
Para asociar estas dos variables se propone una línea recta que
describe la tendencia de los datos, de ahí el nombre de
regresión lineal.
Prueba de estimación y simplificación de parámetros
En el caso de las ecuaciones no lineales, determinar el efecto
que tiene cada predictor sobre la respuesta puede ser menos
intuitivo que para las ecuaciones lineales.
La convergencia en una solución no
necesariamente garantiza que el ajuste
del modelo sea óptimo o que la suma
de cuadrados de error (SSE) sea
minimizada.
Prueba de bondad de ajuste y de la
correlación
La estadística para dar respuesta a
estas problemáticas cuenta con dos
técnicas: el Análisis de Regresión y el
Análisis de Correlación.
20. El Análisis de Regresión estudia la relación funcional que existe
entre dos o más variables. Identifica el modelo o función que
liga a las variables, estima sus parámetros y, generalmente
prueba hipótesis acerca de ellos.
Se llama diagrama de dispersión o diagrama de puntos al
gráfico bidimensional que se forma con todos los puntos que
representan a los pares de valores (xi ;yi) correspondientes a
las variables independientes y dependientes respectivamente.
El Análisis de Correlación estudia la intensidad y el sentido de
la asociación que hay entre un conjunto de variables, tomadas
dos a dos y, a diferencia del análisis de regresión, no se
identifica ni se estima un modelo funcional para las variables
21.
22.
23. La heterocedasticidad
Se presentan cuando los errores nos son constantes a lo largo de
toda la muestra, pues de esta manera la podemos encontrar en
los modelos de regresión lineal, cuando la varianza de los
errores, no es igual en todas las observaciones realizadas
La multicolinealidad
Se determina as a la relación de dependencia lineal que existe
entre más de dos variables explicativas en una regresión
múltiple
La misma que incumple el supuesto de Gauss-Markov, cuando
esta es exacta.
Pues ellos establecieron que este es un conjunto de supuestos que
deben cumplir un estimador de MCO (Mínimos cuadrados
ordinarios)
La Especificación.
Los errores de especificación,
se refieren a cualquier error
que se cometa en el conjunto
de hipótesis en que se apoya
el modelo de regresión tanto
si son lo que afectan a los
regresores, como si son los que
afectan al término de
perturbación.
24. El Modelo de regresión lineal múltiple
El modelo de regresión lineal múltiple es idéntico al modelo de
regresión lineal simple, con la única diferencia de que aparecen
más variables explicativas o Independientes.
Los modelo de regresión múltiple estudian la relación entre
una variable de interés Y (variable respuesta o dependiente) y
un conjunto de variables explicativas o regresoras X1, X2,. . .,
Xp
En la práctica deberemos de elegir cuidadosamente qué
variables vamos a considerar como explicativas o
independientes (x), puesto que se cumplan algunos criterios,
entre los que mencionamos los siguientes:
✓ Tener sentido numérico.
✓ No deberá de haber variables repetidas o redundantes
✓ Las variables introducidas en el modelo deberán de tener una
cierta justificación teórica.
Para poder encontrar el valor el
valor de las b0 y b1, b2 y b3, lo que
hacemos es multiplicar cada uno de
los productos de la Matriz inversa por
la matriz XT* Y
Se lo conoce además como el
coeficiente de determinación o
coeficiente de regresión múltiple como
es nuestro caso: R2
25. 0% indica que el modelo no explica ninguna porción
de la variabilidad de los datos de respuesta en torno
a su media.
Limitaciones Claves del R Cuadrado
No indica si un modelo de regresión es adecuado. Se puede
tener un valor bajo del R-cuadrado para un modelo adecuado o
un valor alto del R-cuadrado para un modelo que no se ajusta a
los datos
Al contrario que el coeficiente de determinación que varía entre 0 y 1
el coeficiente de determinación ajustado podría ser negativo por 2
motivos:
• Cuanto más se aproxime k a n. • Cuanto menor sea el coeficiente de
determinación.
R cuadrado ajustado: Es la medida que define el porcentaje
explicado por la varianza de la regresión en relación con la
varianza de la variable explicada.
26. ¿Qué es un Estimador?
En estadística, un estimador es un estadístico (esto es, una función
de la muestra) usado para estimar un parámetro desconocido
de la población.
Las pruebas de significación estadística sirven para
comparar variables entre distintas muestras. Se obtiene
mucha mayor información cuando se puede rechazar la
hipótesis nula, lo que quiere decir que los estadísticos de
las muestras que se comparan son diferentes entre sí con
una probabilidad mayor del 95%
Propiedades que debe ter un estimador
Suficiente- Insesgado – Consistente – Eficiente - Robusto
¿Qué es la correlación?
La correlación es una medida estadística que
expresa hasta qué punto dos variables están
relacionadas linealmente (esto es, cambian
conjuntamente a una tasa constante).
Interpretación del valor del índice de
correlación
• Si 0 < r < 1: Refleja que se da una correlación
positiva.
• Si -1 < r < 0: Indica que existe una correlación
negativa.
27.
28.
29. La creación del método de mínimos cuadrados, se le
acredita al matemático alemán Carl Friedrich Gauss, quien
lo planteó en 1794 pero no lo publicó sino hasta 1809.
Las funciones regresivas principalmente pueden ser de cuatro
tipos:
Lineales - De segundo grado – Exponenciales - De potencia
Las funciones regresivas: su expresión Regresiva Yi = β1+ β2Xi
+ β3Xi2+ υi
De segundo grado
Incumplimiento de los supuestos del modelo MCO
Es importante poder destacar que el cumplimiento de los
supuestos del modelo clásico de regresión, garantiza que los β k ˆ
obtenidos a través del método de mínimos cuadrados ordinarios
sean los mejores estimadores Insesgados.
Cabe destacar que, existen tres supuestos
que deben cumplirse para llevar a cabo
una regresión lineal, estos son:
1. La varianza de los errores debe ser
homoscedásticas.
2. Las variables explicativas deben ser
ortogonales a los residuos, es decir, no
comparten información.
3. Los errores no deben estar
correlacionados entre sí.
30. Cuando se presenta multicolinealidad de una cierta gravedad, es
decir cuando uno o más de los R cuadrado se aproximan a 1, se
presentan los siguientes problemas al realizar inferencias con el
modelo:
Las varianzas de los estimadores son muy grandes.
Se puede aceptar con frecuencia la hipótesis nula de que un
parámetro es cero, aun cuando la correspondiente variable sea
relevante.
Los coeficientes estimados serán muy sensibles ante pequeños
cambios en los datos
Número de condición
Fue planteado inicialmente por
Rachudel (1971) y desarrollado
posteriormente por Belsley et al.
(1980), y Belsley (1982).
Soluciones propuestas para resolver el
problema de la multicolinealidad:
Eliminación de variables
Aumento del tamaño de la muestra
Utilización de información extramuestral
Utilización de ratios
El error cuadrático medio (ECM) recoge ambos tipos de factores.
Así para el estimador ˆ βj,
El investigador está interesado en que un estimador sea
preciso (es decir, que no tenga sesgo o que este sea muy
pequeño) y con una varianza reducida.
31. El número de condición mide la sensibilidad de las
estimaciones mínimo cuadráticas ante pequeños cambios en los
datos.
Aumento del tamaño de la muestra
Teniendo en cuenta que un cierto grado de multicolinealidad
acarrea problemas cuando aumenta ostensiblemente la varianza
muestral de los estimadores, las soluciones deben ir encaminadas
a reducir esta varianza.
La heterocedasticidad puede surgir en numerosas aplicaciones
económicas, siendo más común en el análisis de datos de corte
transversal.
Heterocedasticidad
Entre las causas que originan
heterocedasticidad se encuentran:
Especificación errónea del
modelo
Cambio estructural
Alta dispersión, absoluta y
relativa, a medida que crece el
tamaño de la muestra
Los pasos que se siguen para realizar el
contraste, son:
1. Ordenar las observaciones de la tabla de
datos, siguiendo el orden creciente de la
variable Zi
32. Contraste de Breusch y Pagan
Breusch y Pagan derivan un contraste de heterocedasticidad
donde la hipótesis alternativa es bastante general
Autocorrelación o correlación serial, en el caso de datos de
series temporales, y de correlación espacial en el caso de datos
de corte transversal.
Si tenemos Autocorrelación de la perturbación aleatoria:
Los estimadores MCO siguen siendo Insesgados (su valor
medio esperado sigue siendo el verdadero valor del
parámetro).
Causas de la Autocorrelación:
b) Cuando se comete un error de especificación
inicial del modelo por omisión de variables
relevantes. La omisión de variables relevantes, en
principio, no debería suponer Autocorrelación en
el término de error salvo que dichas variables
omitidas estén correlacionadas entre sí.