Tema 2: Hipótesis Estadísticas Básicas Flashcards
Dos características deseables de cualquier estimador son:
- Insesgadez
2. - Eficiencias relativa
Insesgadez
Que el parámetro estimado sea, en promedio igual al “verdadero” parámetro poblacional.
Eficiencia relativa
Que del conjunto de estimadores insesgados tenga la menor varianza.
¿Con cuales propiedades cuenta el estimador MCO?
Cuenta con ambas propiedades (Insesgadez y eficiencia relativa) bajo ciertas condiciones: los supuesto Gauss-Markov
Supuesto que tendremos en el hipótesis en el contexto de datos de corte transversal (4)
- Linealidad en los parámetros
- Muestreo aleatorio
- Media condicional nula
- No hay multiconealidad (colinealidad) perfecta
Supuesto 1.- Linealidad en los parámetros
El modelo poblacional es lineal en los parámetros (desconocidos) y viene dada por:
Y=B0+B1X1+b2x2+…+BkXk+u
Supuesto 2.- Muestreo aleatoria
Disponemos de una muestra aleatorio de tamaño n, {(yi, xij)i=1,2,3…k} del modelo poblacional.
Por tanto podemos escribir el modelo en términos de la muestra como: yi=B0+B1xi1+B2xi2+…+Bkxik+ui i=1,2,3…n
Supuesto 3.- Media condicional nula
E(u|x1…xk)=E(u)=0
Para una muestra aleatoria, ¿que implica el supuesto 3?
Partiendo del supuesto que la muestra es aleatoria (S2), nos permite concluir que las variables explicativas son exógenas.
Exógenas según Green
Las variables independientes no llevan información relevante para predecir u
¿Porque puede incumplirse el supuesto 3?
Debido a errores de especificación como la omisión de variables relevantes correlacionada con cualquiera de las variables xj.
Supuesto 4.- No hay multicolinealidad (colinealidad) perfecta
En la muestra (y, por tanto, en la población), ninguna de las variables explicativas es constante (estamos suponiendo que el modelo tiene término constantes), y no existen relaciones lineales exactas entre las variables independientes.
Multiconealidad perfecta
Si un variable es independiente es una combinación Lionela exacta de las otras variables independientes
Sabiendo el S4, ¿entonces no podrá hacer correlación entre variables?
Puede existir correlación entre variables, pero no perfecta pues en ese caso no podrían obtenerse los estimadores MCO
¿De que forma fue el condición del S4 más sencillo en el modelo lineal simple?
Ya que únicamente había una x, exigíamos que los valores de xi para Vi=1,2…n no fuesen iguales a la misma constantes en la muestra (mismo valor para todos los individuos).
Dentro del marco del S4, ¿qué exigiremos de n (tamaño muéstral)? ¿Por qué?
Que no sea menor que k+1 (número de parámetros del modelo).
Intuitivamente, esto tiene sentido para estimar k+1 parámetros, necesitamos al menos k+1 observación.
Si el modelo se especifica de forma cuidadosa y n>=k+1, es my raro que el S4 no se cumpla, lo que podrás suceder solo debido a la mala suerte al recoger la muestra.
¿Cuantas observaciones como mínimo necesitamos para construir una recta?
2 observaciones, 2 parámetros.
Si n>2 la recta ya no pasaría necesariamente por eso 2 puntos
¿Que pasara al Insesgadez si falla el S1 a 4?
Generalmente si alguno de los supuesto 1 a 4 falla, falla la Insesgadez pero esto es evidente si no se cumple S3
LA distribución muestral de nuestros estimadores Bj(^), ¿alrededor de que estará centrada?
Alrededor del parámetro Bj (es insesgado)
¿Por que nos importa saber cuánto podemos esperar que se desvíe en promedio el valor de Bj (^) de su valor esperado (medida de la incertidumbre)?
Sábelo nos permitirá escoger el mejor estimador posible de la gama de estimadores insesgados.
¿Cual sera el supuesto 5 adicional que estableceremos?
Homoscedasticidad (o varianza constante): Var(u|x1….xk)=Var(u|x)=. Donde x=(x1…xk)
Supuesto 5.- Homscedasticidad (o varianza constante)
Este supuesto significa que la varianza del término de error u, condicionada a las variables explicativas del modelo es la misma para todas las combinaciones de valores de las variables explicativas. No depende de las x’s y es constante para todas las observaciones
¿Cuando se dirá que el término de error presente hereroscedasticidad?
Cuando Var(u|x) depende de x, no siendo constante para las distintas observaciones
¿Que diremos del término de error cuando Var(u|x) depende de x, no siendo constaten para las distintas observaciones?
Que presenta Heretoscedacidad
¿Que papel juega el S5 a la hora de calcular los estimadores y si éstos son insesgados?
Ninguna
¿Por que impone el Supuesto 5?
Para facilitar el cálculo de la varianza y para obtener buenas propiedades de los estimadores (Eficiencia).
Dada la hipótesis de E(u|x)=E(u)=0
Var(u|x)=Var(u)=. (Que es también la varianza incondicional de u)
¿Como denominamos. ?
Varianza del error o de la peturbación
¿Como denominamos. ?
Desviación típica del error
¿Cuanto mayor sea la desviación típica del error () como sera la disperción de las variables inobservables que afectan a y?
Mayor
Una forma equivalente de enunciar el supuesto homoscedasticidad es:
Var(y|x1…xk) = Var(y|x) = varianza de error o pertubación donde x=(x1…xk)