Esquema Flashcards
Modelo económetrico
Describir y evaluar una relación entre variables a través de métodos estadísticos
Relación lineal
Estimar la mejor línea recta que relacione Y y X que minimice las distancias verticales de las observaciones
Tipos de datos
Series de tiempo t
Corte transversal i
Panel ti
ANOVA
Análisis de varianza
Modelo dinámico
Análisis de comportamientos pasados de variables dependientes e independientes
Medidas de tendencia central
Media
Mediana
Moda
Dispersion
Varianza
Desviación estándar
Sesgo
Asimetría
Kurtosis
Intervalos de confianza
Rango dentro del que se encuentra un parámetro desconocido
Distribución normal
La función de densidad es simétrica respectó a la media
MELI
Mejor estimador linealmente insesgado
Propiedades de los estimadores
Insesgados
Consistentes
Lineal
Eficiente
Forma matriz
B=X’Y (X’X)^-1
1 y 2 Supuesto MCO
relación lineal en los parámetros
la variable independiente X no es estocastica sus variables son independientes al error
3 y 4 supuesto de MCO
el término del error tiene una media o valor esperado de 0
Termino de error tiene una varianza constante
5 y 6 supuesto de MCO
Las variables aleatorias ut son estadísticamente independientes
Termino de error esta distribuido en forma normal
7 8 y 9 supuesto de MCO
grados de libertad, la cantidad de observaciones no debe ser mayor al número de variables independientes
No multicolinealidad
No hay cambio estructural
Niveles
Cuando X cambia en una unidad, permaneciendo el resto de las variables constantes, Y varía en promedio beta unidades
Lineal log
Cuando X varia en 1%, Y varia en promedio beta/100 unidades
Log lineal
Cuando X varia en una unidad, Y varia en promedio 100 * beta %
Log log
Cuando X varia en 1%, Y varia en promedio beta%
Cuadrático
Cuando x varia en una unidad, Y varia en promedio beta1 + 2 beta X
R2 coeficiente de determinación
Porcentaje de variación en Y que es explicada en promedio por las variaciones de las variables independientes en su conjunto
R2 ajustada
Indica porcentaje de variación explicado sólo por aquellas variables independientes que en realidad afectan a la variable explicada
t student
Prueba de significancia individual
P-value<0.1 el estimador es significativo
Prueba F
Prueba de significancia global
P-value < 0.1 los estimadores en su conjunto son significativos
Normalidad
La media mediana y moda son iguales
También sirven las medidas de asimetría
Causas de no normalidad
Las variables dependientes e independientes no tienen distribución normal -> los residuales no tendrían una distribución normal
La serie de datos posee valores atípicos
Insuficiente tamaño de la muestra
Consecuencia de no normalidad
Estimadores insesgados, pierden eficiencia
No se pueden hacer pruebas de hipótesis
Detección de normalidad
Informales: histograma
gráfico probabilidad probabilidad
Gráfico cuantil cuantil
Formales:
Jarque Bera. P-value > 0.05 Ho acepta se distribuye normal
Shapiro Francia
Shapiro wilk
Anderson
Solución de no normalidad
Aumentar el tamaño de la muestra
Re especificar el modelo
Variable dummy
Autocorrelacion
Se refiere a la correlación entre ut y sus valores pasados
Causas de autocorrelacion
Se omitieron variables
Especificación incorrecta
Consecuencia de autocorrelacion
Los estimadores son ineficientes
F y t no son confiables
R2 sobreestimada
Detección de auto correlación
Informal: gráfico de residuales
Formal: durbin Watson p>0.05 no hay auto
Breusch Godfrey
Heterocedasticidad
La varianza no es constante
Causas heterocedasticidad
Problemas en especificación
Los datos tienden a agruparse
Forma funcional incorrecta
Consecuencia heterocedasticidad
No son eficientes por que no tienen varianza minima
Los intervalos y y f no son válidos
Las pruebas no son confiables
Detección heterocedasticidad
Prueba breusch pagan
P > 0.05 varianza constante
Prueba white
Koenker basset
Solución de heterocedasticidad
Respecificar el modelo: forma funcional, modelo dinámico, reescalar log o índice