Estadística Flashcards
Variable cuantitativa discreta vs. contínua
- Contínua: glucemia
- Discreta: nº de episodios de asma
Variable cualitativa dicotómica, no dicotómica, ordinal
- Nominal-Dicotómica: sexo
- Nominal-No dicotómica: raza
- Ordinal: nivel socioeconómico, escala de glasgow
Uso de mediana en
Muestra no-homogénea, asimétrica, atípica
Medidas de centralización
Media, mediana, moda
Desviación media
suma de diferencias respecto a la media y división entre nº de individuos (valores absolutos, no negativos)
Varianza
suma de cuadrados de diferencias respecto a la media y división entre nº de individuos (no hace falta en valores absolutos, el cuadrado lo elimina)
Desviación típica o estandar
Raiz cuadrado de la varianza (±)
Rango o recorrido
Medida de dispersión que utiliza el 1º y último datos (los menos representativos)
Medida de centralización y dispersión: en distribución homogénea
- Medida de centralización: media
- Dispersión: desviación estandar
Medida de centralización y dispersión: en distribución asimétrica
- Medida de centralización: mediana
- Dispersión: rango intercuartílico
Coeficiente de variación
Relaciona la desviación típica con la muestra de la que procede (dividiendose con la media) para así poder compararla con otras variabilidades de otras muestras. Es adimensional
Dispersión concentrada vs. dispersión excesiva
En muestras biológicas:
- D. cocentrada: si la desviación típica no excede el 1/3 de la media
- D. excesiva: si la desviación típica es mayor que la mitad de la media
Distribución normal: entre ±1 desviación estandar %?, entre ±2 %?, entre 1 y 2 %?
- 1: 68%
- 2: 95%
- 1 y 2: 27% (95-68)
En una distribución normal, qué % es mayor que la moda?
50%
Percentil
Parámetro de posición que divide la muestra en 100 partes iguales. Ejemplo: percentil 80, 80kg
- El 80% de las observaciones tendrá 80kg o menos (incluye)
- El 20% tendrá más de 80 kg
Equivalencia a percentil 50
Mediana
Por qué se usa la mediana en muestras heterogéneas/sesgada/asimétrica
Por que elimina los valores extremos
Parámetros que definen una muestra
Tamaño, medida de tendencia central y dispersión
La probabilidad de error se expresa cuando
Hablamos de población y no de muestra (conocemos a todos los individuos de la muestra)
Calcular intervalo de confianza (IC)
A partir de la media, desviación típica y nº individuos de la muestra:
- IC 95% (p<0,01) = X ±3 (DS/√n-1)
- en realidad es 2,57
Calcular intervalo muestral del 95% partiendo de media muestral e IC poblacional
Intervalo muestral 95% (cuánta gente de la muestra está en el 95% central): X ±2 (xDS)
- X lo tenemos de la muestra; **DS se saca a partir de la fórmula de IC poblacional:
- IC 95% (p<0,05) = X ±2 (DS/√n-1)
ej: 196-204 = 200 ± (DS/√n-1); para seguir elegiremos los límites superiores [204=200+2 (DS/√n-1)] o inferiores [196=200-2(DS/√n-1)]
=DS=20
Intervalo 95% muestra: X±2(xDS), 200±40
La precisión de la inferencia estadística depende de
El tamaño muestral
Error estandar de la media; fórmula y qué pasa si aumentamos muestra 4 veces?
EEM=DS/√n
-EEM se reduce a la mitad (sólo se puede inferir con nº, el DS depende de la variable)
Si un intervalo de confianza es demasiado amplio y queremos ganar precisión (reducirlo)
Ampliaremos tamaño muestral
Hipotesis nula (H0)
Los dos grupos son iguales y las pequeñas diferencias se deben al alzar (muestreo)
*variabilidad por trabajar con una muestra y no con toda la población
Contraste de hipótesis
Si las diferencias entre grupos se deben al azar (no se rechaza H0) o si la probabilidad que se deba al azar es muy pequeño (se rechaza H0, aceptamos H1 ≈son grupos distintos)
*nunca estaremos completamente seguros de que las diferencias NO se deban al azar
Grado de significación (“p”)
Probabilidad que la diferencia obtenia se deba al azar
-cuánto estamos dispuestos a aceptar (cuanto más pequeño, más significativo, mejor) =error tipo 1 o alfa
Error tipo 1 o alfa
Probabilidad de que la diferencia encontrada se deba al azar =p (que rechacemos H0, pero en realidad las diferencias encontradas se debían al muestreo)
Error tipo 2 o beta
Probabilidad de que la diferencia encontrada NO se deba al azar (probabilidad de aceptar la hipotesis nula cuando es falsa)
NIvel mínimo exigido del grado de significación en estadística
5%
Rechazo H0 (muestra) + existen diferencias (población)
√ (1-beta) =PODER ESTADÍSTICO O POTENCIA DEL TEST
No rechazo H0 (muestra) + existen diferencias (población)
Error tipo 2 o beta (posible reducción, aumentando tamaño muestral)
Rechazo H0 (muestra) + no existen diferencias (población)
Error tipo 1 o alfa
=Grado de significación (probabilidad de que la diferencia obtenida sea debida al azar)
No rechazo H0 (muestra) + no existen diferencias (población)
√ (1-alfa)
Potencia o poder estadístico
Capacidad de demostrar diferencias
-Complementario a Error tipo II (1-Beta): si al hacer un estudio aceptamos un error 2 del 10%, la prob. de demostrar diferencias si las hubiera: 90%
Si en un estudio, sale p=0,4
- No es significativo
- No se puede rechazar H0
- Es posible que se haya cometido error tipo 2; quizá aumentando tamaño muestral los resultados sería significativos
Poder estadístico mínimo con el que se debe afrontar un ensayo
80% (probabilidad de que haya diferencias y que no se deban al azar, rechazar H0) 1-Beta, complementario de error II, (prob, no rechazar H0, habiendo diferencias)
Alfa (Azar =H0 cierta)
No diferencias (Azar =Alfa =H0 cierta)
- No rechazar H0: (1-alfa)
- Rechazar H0: error I o alfa
Beta (Diferencias =H0 no cierta)
Difeferencias (H0 falsa)
- Rechazar H0: Potencia o poder estadístico (1-Beta)
- No rechazar H0: error II o beta
Que no sea estadísicamente significativo no significa que
No haya diferencias. Pero sería atribuíbles al azar. Quizá aumentando el tamaño muestral podría llegar a ser estadísticamente significativo
Nivel crítico
“p” a partir de la cual vamos a considerar nuestros resultados significativos
Cuando se quiere ser muy preciso a la hora de aceptar o no un nuevo tratamiento: muchos efectos 2ºs
Estableceremos error alfa/tipo 1, nivel crítico, muy pequeño (que la diferencia debida al azar fuera casi no se pudiera dar)
2 ensayos con p distinta (p=0,001 y p=0,04)
- Los dos son significativos
- La diferencia en p no indica mayor o menor eficacia: la eficacia la dan los resultados del ensayo
Fármaco A ictus 10%, placebo 40% (p<0,04)
-Cuál es más eficaz?
-La p no indica mayor/menor eficacia: los resultados del ensayo sí:
-RAR: Reducción absoluta de riesgo:
·A vs Placebo: RAR 40-10=30% (reduce en 30% el riesgo)
·B vs Placebo: RAR 50-2=48% (reduce en 48% el riesgo)
RAR (reducción absoluta de riesgo): fórmula
RAR =Riesgo A-Riesgo B
*A mayor RAR, más eficaz
Cuali x Cuali
Chi cuadrado [ap: Mc Nemar]
Cuanti Dicotómica x Cuali
T student [ap: T student para apareados]
Cuanti No-dicotómica x Cuali
Anova, análisis de varianza [ap: anova para medidas repetidas]
Cuanti x cuanti
1-Coeficiente de correlación de Pearson si hay correlación entre una variable y la otra (-1 a 1; 0 no hay correlación)
1-Análisis de regresión (ecuación lineal y=A+Bx); se hará si hay una correlación fuerte (-0,7 o +0,7)
Coeficiente de correlación de Pearson (r)
-1: cuando aumenta una la otra disminuye (-0,7 fuerte)
+1: cuando una aumenta, la otra también (+0,7 fuerte)
0: no hay relación lineal
*cuanto más se acerque a -1 o 1, más correlación
**Cuando la correlación sea fuerte, podrá hacerse un test de regresión lineal y=a+bx
Datos apareados
Medición de variable en la misma muestra pero en tiempos distintos
Pruebas no-paramétricas
- Cuando el tamaño muestral es pequeño (n<30)
- Cuando V1 y/o V2 sea variable ordinal
- Menos potente que las paramétricas (normales); y pueden usarse independientemente que sigan distribución normal (indispensable en paramétricas), binomial…
No paramétricos
-Cuali x cuali
- Test exacto de Fisher
* chi-cuadrado [ap: Mc Nemar]
No paramétricos
-Cuali dicotómica x cuantitativa
- Wilckonxon o U mann-Withney [ap: Wilckonxon]
* t student [t student apareados]
No paramétricos
-Cuali No-dicotómica xcuantitativa
- Kruskal-Wallis [Friedman]
* Anova análisis varianzas [ap: Anova pra medidas repetidas]
No paramétricos
-Cuanti x cuanti
- Rho Spearman
- Tau Kendall
Variable cualitativa ordinal (escala de Glasgow)
Equivale a una CUANTITATIVA <30: no paramétrico
- si no-dicotómica: Kruskal-Wallis
- si dicotómica: Wilckonxon
TTT: Un estudiante usa Wilconson cuando se hace hombre
T student/T student apareados: Wilckonxon o U mann-Withney
Calidad x2: Chi cuadrado: mac donals, mejor comer pescado
Chi cuadrado/Mc nemar: Test exacto de Fishcher
No-dico: a donde vas, adonde vas? donde esta, walli
Anova, anova, Kruskal-Wallis