s i e 2 Flashcards
- Para describir la asociación de dos variables cuantitativas en un estudio de casos y controles se usa:
a) El coeficiente de correlación de Pearson.
b) El coeficiente de correlación de Spearman.
c) La distancia Chi-cuadrado o el riesgo relativo.
d) La distancia Chi-cuadrado o la Odds ratio.
a) El coeficiente de correlación de Pearson.
- El riesgo relativo y la Odds ratio de una tabla de contingencia son casi idénticos:
a) Siempre.
b) Nunca.
c) Cuando el suceso que se analiza es muy poco frecuente.
d) Cuando el suceso que se analiza es muy frecuente.
c) Cuando el suceso que se analiza es muy poco frecuente.
- En los modelos de regresión lineal simple el efecto de la variable independiente sobre la variable respuesta se estima calculando:
a) El riesgo relativo
b) La Odds ratio
c) La distancia Chi-cuadrado
d) La pendiente
d) La pendiente
- Los modelos de regresión lineal múltiple:
a) Estiman el efecto de cada una de las variables explicativas de forma independiente.
b) Analizan solo variables explicativas cualitativas.
c) Analizan solo variables explicativas cuantitativas.
d) Identifican las variables explicativas estadísticamente significativas, pero no cuantifican su efecto real.
a) Estiman el efecto de cada una de las variables explicativas de forma independiente.
- El valor p (nivel de significación) se puede interpretar como:
a) La probabilidad a posteriori de que la hipótesis nula sea cierta.
b) La probabilidad a posteriori de que la hipótesis nula no sea cierta.
c) La probabilidad a posteriori de equivocarte si aceptamos la hipótesis nula es cierta.
d) El error alfa.
a) La probabilidad a posteriori de que la hipótesis nula sea cierta.
- En los modelos de regresión múltiple, la intensidad, la relación entre la variable respuesta y el factor explicativo es:
a) Siempre idéntica que la estimada en el análisis bivariante.
b) Siempre es diferente a la estimada en el análisis bivariante.
c) Es diferente a la estimada en análisis bivariante si existe interacción o confusión con otros factores de riesgo.
d) Solo es idéntica a la estimada en el análisis bivariante si existe interacción o confusión con otros.
c) Es diferente a la estimada en análisis bivariante si existe interacción o confusión con otros factores de riesgo.
- Las condiciones de aplicación de una prueba estadística para decidir en un contraste de hipótesis:
a) Se deben cumplir para poder calcular correctamente el valor p.
b) Solo se deben cumplir si aceptamos la hipótesis nula.
c) Solo se deben cumplir si aceptamos la hipótesis alternativa.
d) Se deben cumplir para poder calcular el error beta.
a) Se deben cumplir para poder calcular correctamente el valor p.
- La interferencia estadística nos permite:
a) Crear sin error leyes universales a partir de resultados obtenidos con muestras finitas.
b) Crear, con un error muy pequeño, leyes universales a partir de resultados obtenidos con leyes finitas.
c) Analizar censos y describir poblaciones.
d) Representar gráficamente los resultados de los análisis estadísticos.
b) Crear, con un error muy pequeño, leyes universales a partir de resultados obtenidos con leyes finitas.
- En los modelos de análisis de la varianza con un error del 5%, la comparación múltiple de k medias se realiza aplicando la corrección de Bonferroni y con error alfa de cada comparación es:
a) 0,05/k
b) 0,05*k
c) 0,05
d) Desconocido y próximo a 0
a) 0,05/k
- En los modelos estadísticos, el error que asumimos cuando estimamos los valores de la variable respuesta para cada individuo ha de ser una variable aleatoria con distribución:
a) Normal
b) Binomial
c) Desconocida
d) De la misma familia que la variable dependiente
a) Normal
- Existe interacción entre dos variables explicativas de un modelo si:
a) Las dos presentan efectos fijos únicos.
b) Una de ellas presenta efectos diferentes para cada nivel (o valor) de la otra variable.
c) Una es estadísticamente significativa y la otra no.
d) Ninguna de las dos presenta efectos fijos.
b) Una de ellas presenta efectos diferentes para cada nivel (o valor) de la otra variable.
- Para evaluar si una variable sigue un modelo de distribución de probabilidad normal se usa:
a) Prueba Chi-cuadrado
b) Prueba t de Student
c) Prueba F razón de varianzas
d) QQ-plot
d) QQ-plot
- Un modelo de regresión lineal presenta una R cuadrado corregida de 0,72. Esto se interpreta como:
a) El error recoge el 72% de la variabilidad de la variable dependiente.
b) El modelo explica el 28% de la variabilidad de la variable dependiente.
c) El error recoge el 28% de la variabilidad de la variable dependiente.
d) La variable dependiente se explica con el 72% de los factores estudiados.
d) La variable dependiente se explica con el 72% de los factores estudiados.
- La homocedasticidad de los errores de un modelo lineal implica que la varianza de los residuos:
a) Sigue un modelo de distribución normal.
b) Que su varianza es constante y no varía en los diferentes niveles de factor.
c) Que su varianza es 0.
d) Que su media es 0 y su varianza muy pequeña.
b) Que su varianza es constante y no varía en los diferentes niveles de factor.
- En los diseños no experimentales y no randomizados se entiende por efecto bruto de los factores explicativos a las estimaciones realizadas usando:
a) Modelos estadísticos que incluyen todos los factores y variables explicativas.
b) Modelos estadísticos que incluyan solo un factor estudiado o variable.
c) Riesgos relativos estratificados por una tercera variable.
d) Todas las propuestas.
a) Modelos estadísticos que incluyen todos los factores y variables explicativas.