Tema 2: Hipótesis Estadísticas Básicas Flashcards
Dos características deseables de cualquier estimador son:
- Insesgadez
2. - Eficiencias relativa
Insesgadez
Que el parámetro estimado sea, en promedio igual al “verdadero” parámetro poblacional.
Eficiencia relativa
Que del conjunto de estimadores insesgados tenga la menor varianza.
¿Con cuales propiedades cuenta el estimador MCO?
Cuenta con ambas propiedades (Insesgadez y eficiencia relativa) bajo ciertas condiciones: los supuesto Gauss-Markov
Supuesto que tendremos en el hipótesis en el contexto de datos de corte transversal (4)
- Linealidad en los parámetros
- Muestreo aleatorio
- Media condicional nula
- No hay multiconealidad (colinealidad) perfecta
Supuesto 1.- Linealidad en los parámetros
El modelo poblacional es lineal en los parámetros (desconocidos) y viene dada por:
Y=B0+B1X1+b2x2+…+BkXk+u
Supuesto 2.- Muestreo aleatoria
Disponemos de una muestra aleatorio de tamaño n, {(yi, xij)i=1,2,3…k} del modelo poblacional.
Por tanto podemos escribir el modelo en términos de la muestra como: yi=B0+B1xi1+B2xi2+…+Bkxik+ui i=1,2,3…n
Supuesto 3.- Media condicional nula
E(u|x1…xk)=E(u)=0
Para una muestra aleatoria, ¿que implica el supuesto 3?
Partiendo del supuesto que la muestra es aleatoria (S2), nos permite concluir que las variables explicativas son exógenas.
Exógenas según Green
Las variables independientes no llevan información relevante para predecir u
¿Porque puede incumplirse el supuesto 3?
Debido a errores de especificación como la omisión de variables relevantes correlacionada con cualquiera de las variables xj.
Supuesto 4.- No hay multicolinealidad (colinealidad) perfecta
En la muestra (y, por tanto, en la población), ninguna de las variables explicativas es constante (estamos suponiendo que el modelo tiene término constantes), y no existen relaciones lineales exactas entre las variables independientes.
Multiconealidad perfecta
Si un variable es independiente es una combinación Lionela exacta de las otras variables independientes
Sabiendo el S4, ¿entonces no podrá hacer correlación entre variables?
Puede existir correlación entre variables, pero no perfecta pues en ese caso no podrían obtenerse los estimadores MCO
¿De que forma fue el condición del S4 más sencillo en el modelo lineal simple?
Ya que únicamente había una x, exigíamos que los valores de xi para Vi=1,2…n no fuesen iguales a la misma constantes en la muestra (mismo valor para todos los individuos).
Dentro del marco del S4, ¿qué exigiremos de n (tamaño muéstral)? ¿Por qué?
Que no sea menor que k+1 (número de parámetros del modelo).
Intuitivamente, esto tiene sentido para estimar k+1 parámetros, necesitamos al menos k+1 observación.
Si el modelo se especifica de forma cuidadosa y n>=k+1, es my raro que el S4 no se cumpla, lo que podrás suceder solo debido a la mala suerte al recoger la muestra.
¿Cuantas observaciones como mínimo necesitamos para construir una recta?
2 observaciones, 2 parámetros.
Si n>2 la recta ya no pasaría necesariamente por eso 2 puntos
¿Que pasara al Insesgadez si falla el S1 a 4?
Generalmente si alguno de los supuesto 1 a 4 falla, falla la Insesgadez pero esto es evidente si no se cumple S3
LA distribución muestral de nuestros estimadores Bj(^), ¿alrededor de que estará centrada?
Alrededor del parámetro Bj (es insesgado)
¿Por que nos importa saber cuánto podemos esperar que se desvíe en promedio el valor de Bj (^) de su valor esperado (medida de la incertidumbre)?
Sábelo nos permitirá escoger el mejor estimador posible de la gama de estimadores insesgados.
¿Cual sera el supuesto 5 adicional que estableceremos?
Homoscedasticidad (o varianza constante): Var(u|x1….xk)=Var(u|x)=. Donde x=(x1…xk)
Supuesto 5.- Homscedasticidad (o varianza constante)
Este supuesto significa que la varianza del término de error u, condicionada a las variables explicativas del modelo es la misma para todas las combinaciones de valores de las variables explicativas. No depende de las x’s y es constante para todas las observaciones
¿Cuando se dirá que el término de error presente hereroscedasticidad?
Cuando Var(u|x) depende de x, no siendo constante para las distintas observaciones
¿Que diremos del término de error cuando Var(u|x) depende de x, no siendo constaten para las distintas observaciones?
Que presenta Heretoscedacidad
¿Que papel juega el S5 a la hora de calcular los estimadores y si éstos son insesgados?
Ninguna
¿Por que impone el Supuesto 5?
Para facilitar el cálculo de la varianza y para obtener buenas propiedades de los estimadores (Eficiencia).
Dada la hipótesis de E(u|x)=E(u)=0
Var(u|x)=Var(u)=. (Que es también la varianza incondicional de u)
¿Como denominamos. ?
Varianza del error o de la peturbación
¿Como denominamos. ?
Desviación típica del error
¿Cuanto mayor sea la desviación típica del error () como sera la disperción de las variables inobservables que afectan a y?
Mayor
Una forma equivalente de enunciar el supuesto homoscedasticidad es:
Var(y|x1…xk) = Var(y|x) = varianza de error o pertubación donde x=(x1…xk)
Si hay homoscedasticidad, ¿como sera la varianza de y?
Dado x=x1,x2…xk es constante
La heteroscedasticidad implica…
Var(u|x) y por tanto Var(y|x) depende de x.
Supuesto Gauss-Markov
En el análisis de corte transversal el conjunto de los supuesto 1-5
¿Que pasara con los supuesto en serie-temporal?
Que consideramos el supuesto de no autocorelación y eliminaremos el de muestreo aleatorio
Con una sola x en la Homoscedasticidad
La varianza de las perturbaciones es constante para todos las observaciones
Con una sola x en la HEteroscedasticidad
La varianza de las perturbaciones no es constante para todas las observaciones
Y=B0+B1x^2+u ¿es lineal en los parámetros? ¿Y en los variables?
Sí en los parámetros
No en los variables
¿Que importa que sea lineal en los parámetros o en los variables?
En los parámetros
Y=B0+B1ln(x)+u ¿es lineal en los parámetros? ¿Y en los variables?
Si en los parámetros
No en los variables
Y= 1/ (B0+B1x) + u ¿es lineal en los parámetros?
No
Y= B0e^(B1x) + u ¿es lineal en los parámetros?
No
¿Que significa que una muestra es aleatoria?
Que todos los individuos tiene la misma probabilidad de ser extraída y son independiente entre si
¿Que pasara si una muestra no es aleatoria?
Puede haber sesgos
Según S3, ¿como es covarianza de x, u?
Covarianza (x,u)=0
Y=Bo+B1x+B2(2x)+u ¿se puede estimar?
No, porque existe relación lineal exacta
Y=B0+B1x+B2x^2+u ¿se puede estimar?
Sí, existe relación, pero no es lineal exacta
Se hace un experimente con este modelo: Rendimiento Académico = B0+B1^x %de participación programa de almuerzo + u Esperamos B1(^)>0 porque alumno bien alimentado rinde más, pero nos sale B1<0, ¿porque?
Por que hemos dejado índice de pobreza de las familias dentro de la u, esto es variable relevant que esta positivamente afectada por B1
Si volvemos a for el modelo con B2 x IP de familia B1(^) > 0
¿Que pasaría si tuviera más parámetros que observaciones?
No se podría estimar
Deber ser n>= k+1
En caso de Insesgadez, si podemos hacer infinitos nuestras, ¿como sera el promedio?
El promedio sera el verdadero valor poblacional
Si tengo herosceesidad, ¿puedo decir que mi modelo es igual de fiable en todos los puntos?
No
Si tengo homoscesidad, ¿puedo decir que mi modelo es igual de fa el en todos los puntos?
Sí
Homoscesidad implica…
Mayor precisión
Heteroscesidad implica…
Menor precisión
¿Que es básicamente E(B(^)-t[B(^)])^2=E[B(^)-B]^2?
La varianza de los estimadora
¿Que nos viene major homoscedasticidad o heteroscedasticidad?
Homoscedasticidad
¿Que nos garantiza la homoscedasticidad?
Solo tener que calcular un varianza
¿Que pasa si no cumple los supuesto?
No sera fiable
Si es mayor sera la fiabilidad de nuestra estimación, ¿mayor o menor?
Menor
Cuota mayor es la información que tenemos ¿como sera la precisión del modelo?
Mayor
¿Como es la relación entre ?
Positivo
¿Como es la relación entre ?
Negativa
¿Como es la relación entre ?
Positivo
¿Por qué es replante fijarnos en la varianza del estimador?
La Insesgadez es importante pero solamente nos dice que la media de la distribución muestral del estimador coincide con el parámetro que queremos estimar pero no es cuantó nos dispersamos de éste. Si dicha varianza es pequeña esto nos indicará que es menos probable que, a partir de una muestra aleatoria obtengamos una estimación del parámetro de interés que sea muy distante del verdad o parámetro.
¿Por qué el tamaño de la Var (BJ(^)) es importante?
Una varianza grande significa un estimador poco preciso, y esto se traduce en intervalos de confianza grandes y contrastes de hipótesis menor precisos
¿Mayor varianza de los de los estimadores a que equivale?
A menor precisión
¿De que 3 factores depende la varianza?
…
¿Que es ?
Varianza de la peturbación aleatoria del error
¿Como afecta. A la varianza?
Cuanto mayor es mayor será la varían de los 2 estimadores. Es decir cuanto mayor sea la variación de los variables inobservables que afectan a y, más difícil será estimar con precisión el efecto parcial de cualquier x’s sobre la y, lo que traduce en varianza mayores para los estimadores de pendiente. Puesto que es una caracteristica de la población, no tiene nada que ver con el tamaño muestra. No se conocer, habrá que estimarlas.
Solución de la dependencia de la varianza de
“Sacar” de u si es oportuno más variables para añadirla al modelo
¿Que es STCj?
…
¿Como afecta STCj a la varianza?
Cuanto mayor se la variabilidad total en xj, menor séra Var(Bj (^)). Un valor pequeño se refleja en estimadores más imprecisos. Este es el componente de la varianza del estimador que sistemáticamente depende del tamaño de la muestra si:
Aumenta n entonces disminuye var (Bj (^)))
Solución de la dependencia de la varianza de STCj:
Aumenta el tamaño muestral
¿Que es Rj^2?
Relaciones lineales entre variables independientes. Es la proporción de la variación muestral total en xj que puede ser explicada por las otra variables independientes que aparecen en la ecuación.
¿Como afecta Rj^2 a la varinza?
Dados. Y STCj, cuando mayor sea Rj^2 (más cercano a 1), mayor será la proporción de la variación muestral de la variable xj que es explicada por las restantes variables explicativas del modelo, lo que indicará que est´estrechamente relacionada con ellas, traduciéndose esto en una mayor varianza del estimador asociada a dicha variable (Var(Bj(^) aumenta). Obviamente, el caso de multicolinealdiad perfecta Rj^2=1 no se contempla pues suponemos se cumple el supuesto 4.
Problema de la multicolinealidad (no perfecta)
Si la corelacción entre las variables explicativa es muy elevada (R^2=1) los estimadores, dado y STCj, pueden ser tan imprecisos que esto puede dar lugar a problemas.
Es por esto que es preferible siempre una menor correlación entre las VEs si persigues conseguir estimadores más precisos.
Solución de la dependienta de la varianza de Rj^2:
Un Rj^2 elevado puede ser compensado por una muy pequeña o una SCTj también muy elevado.
¿Problema del multicolinealidad? (2)
- Pequeñas variaciones en la muestra puede variar sensiblemente las estimaciones de los parámetro y de sus errores estándares.
- Alguna estimaciones pueden perder significativamente estadística.
¿Soluciones del Multicolinealidad? (4)
- Eliminar represores al ata mente colineales (poco recomendable: sesgo de variable omitida).
- Aumenta el tamaño muestral para compensar vía STCj
- Ignorar el problema si nos interesa un parámetro asociada a una variable poco correlacionada con el resto de variables explicativas
- Redefinir el modelo para evitar el uso de represores muy correlacionados