Cuanti Flashcards
¿Para qué se usa la T-student?
Está diseñada para comparar si el promedio de dos grupos es diferente. La ocupamos cuando necesitamos realizar la estimación de un parámetro o un contraste de hipótesis cuando se desconoce la desviación estándar de la población (desconocemos la varianza
¿Qué entrega la T-student?
Entrega un valor observado (de la muestra), que se compara con el teórico (la tabla, que indica el comportamiento de la población) para ver las diferencias [Obtenemos dos muestras y evaluamos qué tan diferentes son los promedios.
¿Cómo es la distribución T-student?
Es una distribución teórica continua y simétrica, con una media igual a cero (0). Su varianza en cambio es mayor que 1. El área total bajo la curva o distribución es igual a 1. Al igual que la distribución normal estandarizada, tiene una forma de campana.
¿Qué son los grados de libertad para t-student?
El único parámetro de la distribución t-Student es el número de grados de libertad. (Hay una distribución t diferente para cada valor de grados de libertad. La distribución t se aproxima a la distribución normal a medida que aumentan los grados de libertad. Más “n”, más grados de libertad, mayor inferencia y, por ende, aumenta la posibilidad de encontrar el parámetro, puedo decir con “libertad” que es una aproximación acertada).
¿Para qué muestras se puede usar la t-student?
- Para una muestra: Evaluar si el promedio es distinto a un valor específico.
- Para muestras dependientes: Dos mediciones en la misma muestra. Evaluar si el promedio de una variable es diferente del promedio de otra variable. Calculamos la diferencia en el puntaje para cada caso, el promedio de las diferencias y la desviación estándar de las diferencias. Ocupamos la fórmula y vemos la probabilidad de obtener ese valor t (o uno mayor).
Para muestras independientes: La misma medición en dos muestras distintas. La varianza de la diferencia entre dos variables independientes es igual a la suma de sus varianzas Por lo tanto, podemos simplemente sumar el error estándar de cada muestra. Esta fórmula sólo es correcta cuando los N son iguales para ambos grupos. En caso contrario, simplemente hacemos
una suma ponderada por n, o más exactamente, en base a los grados de libertad (n - 1).
¿Qué es el coeficiente de correlación (r)?
Es un estimador de la correlación que existe en la población r (rho). Al igual que con la media, podemos encontrar la probabilidad de obtener una correlación determinada si la hipótesis nula fuera correcta (hipótesis nula > no hay relación > r = 0). Si en la población existe una relación determinada entre dos variables, la mayoría de las muestras van a mostrar dicha relación. Es decir, la distribución muestral de r tiende a ser una distribución normal (entre -1 y 1) a medida que el “n” de la muestra aumenta. Por lo tanto, podemos usar la distribución t.
¿Que es la prueba ANOVA?
- Evalúa la relación entre una variable categórica y una variable numérica, por ejemplo, “comparar el promedio de varias poblaciones”.
- Se analiza la varianza, en vez de los promedios. → se compara la variabilidad entre los grupos con la variabilidad intragrupal.
- Solo entrega información respecto a si hay diferencias entre los grupos, en general.
¿Qué se diferencia la prueba t de ANOVA?
Prueba t vs. ANOVA → Anova sirve para cuando queremos comparar más de dos condiciones experimentales, la prueba t se limita a 2. Además, muchas variables categóricas simplemente tienen más de dos grupos (ej. carrera, comuna)
¿Qué indica la homecedasticidad?
indica que las varianzas de los grupos comparados (los niveles del factor) son estadísticamente equivalentes. Para comprobarla se hace una prueba Levene que es básicamente un ANOVA de los residuales intra-grupo. Si se cumple el supuesto NO debería haber diferencias entre los grupos, en otras palabras, si el supuesto se cumple, esta prueba debe ACEPTAR la H0. En caso de haber heterocedasticidad (no cumplir con la homocedasticidad), se puede analizar los datos usando la razón de Welch, que ajusta los cálculos del ANOVA en relación a las diferencias de varianza y tamaño muestral detectadas, afectando el valor final de F y los grados de libertad del cálculo.
¿Qué puede hacer ANOVA en cuanto a la varianza?
ANOVA permite descomponer y analizar la razón entre variabilidad inter-grupo y variabilidad intra-grupo.
- Variabilidad intra-grupo: Distancia de los puntajes de cada sujeto respecto del promedio de su grupo.
- Variabilidad inter-grupo: Distancia de los promedios de cada grupo respecto del gran promedio total.
- Variabilidad Total: Corresponde a la distancia que existe entre su puntaje y el gran promedio total. La variabilidad total se descompone en: La distancia entre el promedio del grupo del sujeto y el promedio total. La distancia entre el puntaje del sujeto y su respectivo promedio grupal. *k=grupos; i=casos (personas). *La diferencia intra-grupal=error (esto porque debería ser homogénea).
- Varianza explicada (variación entre los grupos) + Varianza no explicada (variación dentro de los grupos) = Varianza total.
¿Qué es la distribución F?
Se desprende desde ANOVA)
- Al comparar la media de cuadrados (MC) que puede ser atribuida al modelo con la media residual de cuadrados, se obtiene una proporción que sigue una distribución F.
- Prueba F es la distribución, que permite contrastar la variabilidad atribuible a los individuos vs la variabilidad atribuible a condiciones experimentales.
F es cercano a 0 → variabilidad entre grupos pequeña y una variabilidad intragrupo grande. Si F es muy grande es al revés.
- F < 1 → el error es más grande que lo explicado, la varianza del error > que la varianza intergrupal
- F = 1 → error y lo explicado miden lo mismo
- F > 1→ lo explicado es más grande que el error.
(Debemos evaluar la probabilidad que ese valor f ocurra cuando se cumple la H nula del ANOVA)
- Aumenta F → las diferencias son significativas (se debe comprobar con el P value) es muy probable que haya diferencias en los grupos. Va a significar que hay menos error, la varianza explicada es grande.
¿Qué son los grados de libertad?
Número de observaciones independientes que se requieren o necesarias para estimar un parámetro. (Gl = [número de observaciones independientes] – [número de parámetros estimados])
- Mientras más grande sea el valor de F, menor será el área bajo la curva → La probabilidad de encontrar la razón de variabilidades cuando vienen de la misma población es extremadamente pequeña.
¿Qué es el tamaño del efecto?
Podemos dividir la suma de cuadrados entre grupos por la suma de cuadrados total, y obtenemos el porcentaje de varianza explicada por la pertenencia a los grupos (r2).
r = 0.1 > Relación pequeña > r2 = 0.01 > 1% r = 0.3 > Relación mediana > r2 = 0.09 > 9% r = 0.5 > Relación fuerte > r2 = 0.25 > 25%
¿Qué es el prueba de Tukey?
es una comparación múltiple de promedios. No considera los intervalos de confianza que contienen el 0.
- Tukey compara los pares de niveles de la variable independiente para detectar cuales de ellos muestran diferencias estadísticamente significativas. Toma la varianza de la ANOVA y a partir de ello hace las comparaciones. En cada comparación la hipótesis nula es que los niveles que están siendo comparados no son estadísticamente distintos. Hace todas las posibles comparaciones posibles. *Recordar: Si contiene cero en el intervalo, no es significativo, si no si lo es.
¿Que es el Chi cuadrado (x2)?
- Evalúa la relación entre dos o más variables categóricas (nominales u ordinales).
- Evalúa qué tanto se alejan los datos observados en una muestra de una distribución teórica, es decir, si los datos observados se ajustan a lo esperado teóricamente. Se puede evaluar las hipótesis acerca de proporciones poblacionales considerando las distancias (o diferencia o ajuste) entre las frecuencias observadas y las frecuencias esperadas o supuestas para cada categoría (acorde a la hipótesis nula). Entre más grande, más probabilidad de asociación de variables.
- Las frecuencias esperadas al azar se pueden calcular multiplicando la frecuencia total de la columna y de la fila, dividiendo por el N total. Básicamente consiste en evaluar cuánto se alejan las frecuencias observadas de las esperadas. Si aceptamos la hipótesis nula decimos que las frecuencias observadas se ajustan a las esperadas (esto es, no hay diferencias entre lo observado y lo esperado acorde a la hipótesis nula).
- La fórmula para el estadístico x2 es básicamente sumar las diferencias (al cuadrado) y dividir por la frecuencia esperada.
- Las diferencias corresponden a la distribución aleatoria x2 que se basa
en la distribución normal. Para evaluar la significación estadística de x2 observado debemos comparar dicho valor con el que se obtiene de la distribución (tabla) de x2, que indica la probabilidad de ocurrencia de dicho valor con ciertos grados de libertad.
¿Cuales son los supuestos de chi cuadrado?
La muestra es aleatoria. Las observaciones son independientes. El N es suficiente: las frecuencias esperadas deben ser mayores a 5 (aunque hay correcciones cuando esto no se cumple).
¿Cual es una limitación importante de chicuadrado?
Una limitación importante es que no indica dónde están las diferencias. A diferencia del coeficiente de r de Pearson, x2 no indica la magnitud de la relación, solo indica si están o no asociadas las variables (por ser variables nominales u ordinales).
¿Qué es el cruce de variables?
El cruce de variables o tabla de contingencia permite determinar el comportamiento simultáneo de dos variables. Para ello se hace una tabla donde una variable está en las filas y la otra en las columnas. La combinación de ambas variables se produce en las celdas de la tabla. La H0 postula que las celdas son iguales.
¿Qué es la asociación de variables?
Es evaluar si la variabilidad en una está asociada con la variabilidad en otra. Podemos ver cómo se “combinan” los puntajes de cada una de mis variables independientes con la variable dependiente, por medio de dispersogramas. En un dispersiograma cada punto refleja la combinación de ambos puntajes para cada sujeto.
¿Qué es la covarianza?
Mide la variación conjunta de dos variables, pero es afectada por los cambios de unidades de medida. La co-variación significa que un cambio en x (Vi), co-varía con un cambio en y (Vd).
¿Qué es la correlación?
Estandariza la covarianza. Se estandariza para que no haya problema de interpretación. [r = Coeficiente de Pearson]. Una correlación entre dos variables tiene n – 2 grados de libertad. Sólo sirve para distribuciones lineales.
¿Qué es el tamaño de la relación?
Dado que es una medida estandarizada, el signo indica la dirección de la relación (positiva/directa o negativa/inversa). El valor indica el monto o magnitud de la relación (desde ausencia de relación, débil o fuerte). Para ver la significancia, t es el estimador/ el error estándar del estimador.
Los valores posibles para una correlación van entre -1 (correlación perfecta negativa) y +1 (correlación perfecta positiva). Si la relación es más fuerte, x es mejor predictor de y.
- Ausencia de relación lineal = 0
- Relación pequeña ≥ 0.1
- Relación mediana ≥ 0.3
- Relación fuerte ≥ 0.5
¿Qué es la varianza explicada?
Si las variables están relacionadas, quiere decir que tienen varianza en común. Cuántos cambios en “x” (Vi) influye en “y” (Vd). A mayor r, más varianza explicada (en común) hay.
- r = 0.1 > Relación pequeña > r2 = 0.01 > 1%
- r = 0.3 > Relación mediana > r2 = 0.09 > 9%
- r = 0.5 > Relación fuerte > r2 = 0.25 à 25%
¿Para qué sirve el análisis de regresión lineal simple?
Sirve para predecir una variable, sabiendo cómo se comporta la otra. Esto lo hace a partir de la recta de regresión, en torno a la cual, se ajustan los datos con las distancias cuadráticas mínimas. Esta recta (línea) de regresión representa la mejor solución estimada para predecir los datos (variable dependiente) a partir de la variable independiente.*El hacer predicción no significa hacer una relación causal entre dos variables.
¿Que es la Línea/recta de mejor ajuste?
se define como aquella que hace mínima la suma de los cuadrados de las desviaciones de las observaciones reales con respecto a ella misma. Puede ser considerada la recta promedio considerando todos los pares de observaciones
¿Qué nos puede decir el análisis de correlación, en cuanto a si una variable es dependiente o no?
El análisis de correlación, si bien dice si las variables son o no independientes, no dice nada más acerca de eso o en qué sentido son o no independientes/dependientes.
- El chi cuadrado detecta una tendencia de si hay o no una dependencia.
¿Cual es la ecuación de regresión simple?
y = α + βx + error (error de estimación de predicción).
Y → variable de respuesta (variable que se quiere predecir). Variable dependiente. X → Variable explicativa (variable predictora). Variable independiente
β → Pendiente de la recta.
α → Constante (punto en que la recta corta al eje y).
¿Como puede estar el valor de B en la ecuación de la recta?
- Estandarizado: Se interpreta igual que una correlación (representa cuántas desviaciones estándar cambia y cuando x aumenta una desviación estándar). En una regresión simple (con un predictor) b estandarizado es igual a la correlación entre las variables (más correlación, mayor precisión en la predicción). B estandarizado = valor estimado / error típico.
- No estandarizado: Se interpreta en las unidades originales de las variables: Puede tener cualquier valor, y representa cuántos puntos cambia y cuando x aumenta en un punto (en variables dicotómicas, como el género, tiene más sentido usar el b no estandarizado).
¿Qué es el coeficiente de determinación R2 ?
En la regresión simple es igual al cuadrado del coeficiente de correlación de Pearson y expresa la proporción de la varianza de la variable dependiente que se encuentra explicada por la variable independiente. R2 = 1- (Suma cuadrado de los residuos / Suma cuadrado total).
¿Qué es el R2 Corregido?
Corrección realizada a R2 teniendo en cuenta el número de casos (un bajo número de casos en la muestra podría generar un R2 «inflado» no representativo de la muestra población) y de variables independientes (para el caso de la regresión simple siempre es una sola). Este es el coeficiente que concretamente se considera dado que ya viene con la corrección del tamaño muestral.
¿Qué es el error típico de estimación?
Representa la variabilidad del ajuste no explicada por la recta de regresión, entre menor es su valor mejor es el ajuste realizado por ésta.
¿Cuales son los coeficientes de regresión no estandarizados?
- Constante: Constituye el valor inicial de la recta de regresión ó B0 a partir desde puntuaciones directas. Es el intercepto de la recta.
- Coeficiente correspondiente a B1 «nombre de la variable independiente»: Corresponde a la pendiente de la línea de regresión o B1 , lo que en concreto indica cuánto cambia en promedio la VD por cada unidad que cambia la VI
¿Cuales son los coeficientes de regresión estandarizados?
- Beta o coeficientes de regresión lineal estandarizados: Definen la ecuación de regresión una vez que los puntajes directos u observados de ambas variables son transformados en puntuaciones típicas o estandarizadas. Corresponde a cuántas desviaciones estándar cambia la VD cuando la VI cambia en 1 desviación etándar. β1= B1 (Sx/ Sy). Igualdad solo válida para la regresión simple= Coeficiente β1= R (Coeficiente de correlación de Pearson entre las variables). También mantiene el signo que informa acerca de la dirección de la relación.
¿Qué es la regresión múltiple?
Las bases son las mismas que para la regresión simple, pero existen k (n° variables) variables independientes para predecir la variable dependiente. Se puede observar que existen varias variables independientes que afectan la variable dependiente. [cómo afecta el deporte (vi) e ingesta calórica (vi) en el peso corporal (vd)]
¿Qué es la multicolinealidad?
● Cuando dos variables son independientes entre sí, r=0.
● Este supuesto hace referencia en que no existe una relación lineal entre ninguna de las variables independientes consideradas para llevar a cabo la regresión múltiple. Entonces puede existir multicolinealidad parcial o perfecta cuando existen altas correlaciones entre una o más variables independientes.
¿Qué es la validez?
El grado en que evidencia y teoría respaldan las interpretaciones de puntajes de pruebas para sus usos propuestos. Apunta al grado de evidencia que tenemos para respaldar las inferencias que queremos hacer en base a un instrumento de medición. En los estándares, uno no válida una prueba, sino que valida la interpretación de los resultados. La validez no es una propiedad del instrumento, sino de las inferencias que se hacen.
¿Qué es la ecuanimidad?
- Una prueba que es ecuánime refleja el mismo constructo para todos quienes respondan la prueba y sus puntajes tienen el mismo significado para toda la población de interés. Una prueba ecuánime no da ventajas o desventajas a algunos individuos debido a características irrelevantes al constructo de interés
- Ecuanimidad como ausencia de sesgo: el sesgo ocurre cuando una prueba favorece o perjudica a grupos examinados. Existe sesgo cuando para un mismo nivel del atributo que se está midiendo, dos grupos o personas obtienen puntuaciones distintas. Controla los sesgos intencionados.
- Una evaluación o prueba ecuánime mide para todos los grupos de evaluados un atributo de interés, permitiendo interpretar los resultados con igual validez para todos ellos.
¿Qué es la precisión/confiabilidad?
- Apunta al nivel de incertidumbre que está asociado con las mediciones que son generadas por un instrumento de medición
- Toda medición tiene un cierto nivel de error asociado. Una medición está incompleta sin su nivel de error asociado. El error de medición reduce la confianza que se puede tener en los resultados de una medición y, por ende, en la confiabilidad/precisión de los puntajes.
- Asociado a la consistencia de los puntajes en mediciones repetidas y refiere a una forma particular de cuantificar esta consistencia de los puntajes, es decir, al coeficiente de confiabilidad en la teoría de puntaje verdadero.
- Se puede expresar en términos de la razón entre la variabilidad de nuestras mediciones y la variabilidad total (variabilidad observada entre las mediciones + variabilidad asociada al error).
¿Qué es la variabilidad de una medición?
- Idealmente queremos que la variabilidad en las mediciones sea mucho más grande que la variabilidad
asociada al error de medición. En otras palabras, queremos que la variabilidad atribuible a nuestras mediciones de cuenta de la mayor parte de la variabilidad total.
- Variabilidad total = variabilidad observada entre las mediciones + variabilidad asociada al error.
- Si la variabilidad entre mediciones es mayor que la de error: la división de estos componentes se acerca a 1.
- Si la variabilidad entre mediciones es menor que la de error: la división de estos componentes se acerca a 0.
¿Qué es la alfa de cronbach?
- Es un indicador de confiabilidad que se basa en la proporción de variabilidad que se puede atribuir a las mediciones (en oposición a la variabilidad de error). En base a este indicador es posible calcular el error de medición promedio de un instrumento.Es un indicador indirecto de la precisión de un instrumento. No dice nada sobre la validez, sólo de confiabilidad/precisión. Este indicador varía entre 0 y 1. En psicología se suele usar un margen de bajo 0.75. Es muy importante ver que los ítems midan lo mismo, es decir, revisar si hay algo invertido.
▪ 0 = toda la variabilidad está asociada al error.
▪ 1 = no hay nada de variabilidad asociada al error.
- El cálculo de la proporción de variabilidad entre mediciones, o en términos más técnicos la variabilidad asociada al modelo: 1 - proporción asociada al error.
- Una “corrección” asociada al número total de preguntas. Noten que si N es muy grande esta parte de la fórmula es prácticamente 1.
- Aumenta cuando la inter-correlación entre los ítems aumenta. Por lo tanto aumenta cuando todos los ítems miden el mismo constructo.
▪ ≥ .90: Excelente
▪ 0.7 a 0.9: Bueno
▪ 0.6 a 0.7: Aceptable
▪ 0.5 a 0.6: Pobre
▪ < 0.5 Muy Pobre
¿Qué es la correlación interclase?
Medida de consistencia para datos continuos. Se aplica para ver el grado de asociación entre distintas observaciones de un mismo fenómeno. Esto es, tratamos de evaluar un mismo objeto o sujeto, desde distintas perspectivas, de modo que necesitamos evaluar la consistencia entre estas observaciones.
La consistencia surge entonces como alternativa a la concordancia que puedan tener los datos respecto a algún “estándar de oro”, y ambas estrategias se usan para determinar concordancia entre dos mediciones.
¿Cuales son los modelos de Correlación interclase?
- Modelo de efectos aleatorios de una vía: Cada caso es evaluado por un conjunto de evaluadores que fueron seleccionados al azar de una población más grande de posibles evaluadores.
- Modelo de efectos aleatorios de dos vías: Cada caso es evaluado por el mismo conjunto de evaluadores seleccionados al azar.
- Modelo de efectos mixtos de dos vías: Cada caso es evaluado por un conjunto de evaluadores considerados expertos o elegidos intencionalmente.
¿Cuales son los criterios de correlación interclase?
- Número de evaluaciones, o “tipo”:
- Simple: se considera solo la medida de un evaluador.
- Promedio de medidas: se promedian las medidas de k evaluadores para cada sujeto.
- Selección de “Definición”: ¿Consistencia o Acuerdo Absoluto?
- Acuerdo absoluto: Determina si distintos evaluadores dan al mismo caso la misma evaluación, implica modelar errores sistemáticos y errores residuales aleatorios (en R: absolute agreement)
- Consistencia: Evalúa si se puede igualar la medida de un evaluador a la evaluación de otro evaluador más un error sistemático. Intenta cancelar el error sistemático y solo dejar el residual (en R: consistency).
▪ ICC < .5.: Confiabilidad pobre
▪ .5 ≤ ICC < .75: Confiabilidad Moderada
▪ .75 ≤ ICC ≤ .9: Buena Confiabilidad
▪ .9 ≤ ICC : Confiabilidad excelente
¿Qué es la estadística?
Modelos para “modelar” el mundo usando distribución de datos. Ciencia que se ocupa de la recolección, análisis, presentación e interpretación de datos. Una herramienta o tecnología que nos permitirá usar datos para responder preguntas en psicología. La estadística es un lenguaje que comunica información basada en datos cuantitativos. Se necesita rigurosidad para llegar a buenas conclusiones.
¿Qué significa “medición” en cuanti?
Proceso mediante el cual los científicos representan propiedades por medio de números.