Tema3 Flashcards
¿Cuál es la función principal del algoritmo de regresión lineal OLS?
Encontrar una combinación lineal de atributos que minimice el error cuadrático medio (MSE).
¿Cómo se interpreta el coeficiente w_1 en un modelo de regresión lineal simple?
Representa la pendiente de la recta, indicando el cambio en y por cada unidad de cambio en x.
¿Qué representa el coeficiente de determinación R^2 en regresión lineal?
Indica qué porcentaje de la variabilidad de la variable dependiente es explicado por el modelo.
¿Por qué es importante la tasa de aprendizaje en el descenso de gradiente?
Controla la magnitud de los cambios en los coeficientes para minimizar la función de costo.
¿Qué problemas pueden surgir si los atributos en regresión lineal no son independientes?
Puede producirse multicolinealidad, afectando la interpretabilidad y estabilidad del modelo.
¿Cómo afecta la normalización de los datos a KNN?
Mejora la precisión evitando que atributos con escalas mayores dominen el cálculo de distancias.
¿Cómo se seleccionan los vecinos más cercanos en KNN?
Se eligen en función de la menor distancia según una métrica definida, como Minkowski o Euclídea.
¿Por qué la selección de atributos es crucial en KNN?
Reduce la dimensionalidad del problema y mejora la eficiencia y precisión del modelo.
¿El algoritmo OLS minimiza la suma de errores absolutos? (Sí/No)
No, minimiza la suma de los errores al cuadrado.
¿El valor de R^2 puede ser negativo? (Sí/No)
Sí, indica que el modelo es peor que la predicción por media.
¿El descenso de gradiente garantiza encontrar el óptimo global en todos los casos? (Sí/No)
No, en problemas no convexos puede quedar atrapado en mínimos locales.
¿El modelo KNN requiere un proceso de entrenamiento complejo? (Sí/No)
No, solo almacena los datos de entrenamiento.
¿Un mayor valor de k en KNN siempre mejora la precisión? (Sí/No)
No, puede suavizar demasiado la predicción y perder precisión.
¿Qué función de distancia se usa más comúnmente en KNN?
La distancia Euclídea.
¿El modelo de regresión lineal es adecuado para datos con relaciones no lineales? (Sí/No)
No, suposiciones de linealidad limitan su eficacia en esos casos.
¿El algoritmo KNN puede utilizar pesos en la distancia para mejorar la precisión? (Sí/No)
Sí, los pesos pueden ajustar la influencia de cada vecino.
La función objetivo en OLS es minimizar el ____ de los errores.
cuadrado.
La tasa de aprendizaje en descenso de gradiente controla el ____ de los pasos en cada iteración.
tamaño.
En regresión lineal, el término w_0 representa la ____ de la recta.
intersección.
Si R^2=1, significa que el modelo tiene una ____ perfecta.
predicción.
KNN determina la clase o valor de una instancia basándose en sus ____ más cercanos.
vecinos.
La distancia de Minkowski se convierte en distancia Euclídea cuando p es ____.
2
La selección de atributos en regresión lineal evita el problema de la ____.
multicolinealidad.
En KNN, la normalización de los datos es crucial para evitar ____ de ciertos atributos.
dominancia.
¿Qué métrica de evaluación NO es usada en regresión lineal?
A) MSE
B) MAE
C) Precisión
C) Precisión
¿Cuál de las siguientes es una desventaja de KNN?
A) No requiere entrenamiento
B) Puede ser lento en predicción
C) No utiliza funciones de distancia
B) Puede ser lento en predicción
¿Cuál es la principal suposición de la regresión lineal?
A) No hay correlación entre atributos
B) La distribución de datos es binaria
C) No existen valores atípicos
A) No hay correlación entre atributos
¿Qué técnica se usa para reducir el sobreajuste en regresión lineal?
A) Aumento del conjunto de datos
B) Regularización (Ridge/Lasso)
C) Incrementar la tasa de aprendizaje
B) Regularización (Ridge/Lasso)
¿Qué significa que un modelo tenga un R^2 negativo?
A) El modelo predice perfectamente
B) Es peor que predecir usando la media
C) No puede ser interpretado
B) Es peor que predecir usando la media
¿Qué factor afecta más la eficacia de KNN?
A) La normalización de los datos
B) El número de instancias
C) El número de atributos
A) La normalización de los datos
¿Qué problema surge al usar atributos con diferentes escalas en KNN?
A) Cálculo erróneo de la distancia
B) Mayor velocidad de predicción
C) Eliminación de atributos
A) Cálculo erróneo de la distancia
¿Qué método usa KNN para determinar la predicción en regresión?
A) Media de los vecinos
B) Moda de los vecinos
C) Mediana de los vecinos
A) Media de los vecinos
Describe el proceso de entrenamiento en regresión lineal OLS.
Se busca minimizar el error cuadrático medio (MSE) ajustando los coeficientes mediante descenso de gradiente o solución analítica.
¿Cómo afecta la multicolinealidad a la regresión lineal?
Provoca inestabilidad en los coeficientes y dificulta la interpretación del modelo.
¿Qué representa la tasa de aprendizaje en descenso de gradiente?
Controla el tamaño de los pasos que da el algoritmo al ajustar los coeficientes para minimizar la función de costo.
Explica la diferencia entre regresión lineal simple y múltiple.
La regresión simple usa un solo atributo como predictor, mientras que la múltiple utiliza varios atributos para predecir la variable dependiente.
¿Qué representa la línea de referencia en la gráfica de evaluación de regresión?
La línea x=y indica el punto ideal donde la predicción es igual al valor real.
¿Cuál es el propósito de la normalización en KNN?
Igualar la escala de los atributos para evitar que unos influyan más que otros en el cálculo de distancias.
¿Cómo se determina el número óptimo de vecinos k en KNN?
Se selecciona probando distintos valores y evaluando la métrica de error en validación cruzada.
¿Por qué la distancia Euclídea es la más utilizada en KNN?
Porque es intuitiva y mide la similitud entre puntos en un espacio multidimensional.
Explica por qué el descenso de gradiente es útil en regresión lineal.
Permite encontrar los coeficientes óptimos ajustando iterativamente los pesos para minimizar el error.
¿Cómo se interpreta un R^2 cercano a 1 y a 0 en regresión?
Un R^2 cercano a 1 indica que el modelo explica bien la variabilidad, mientras que un R^2 cercano a 0 indica baja capacidad predictiva.
¿Por qué KNN no tiene un proceso de entrenamiento tradicional?
Porque simplemente almacena los datos y calcula distancias en la fase de predicción.
Explica cómo la selección de atributos mejora KNN.
Reduce la dimensionalidad, eliminando atributos irrelevantes que pueden agregar ruido y disminuir la precisión.
¿Cómo afecta el número de vecinos k al sesgo y la varianza en KNN?
Un k pequeño genera alta varianza y bajo sesgo, mientras que un k grande genera bajo sesgo y alta varianza.
¿Cómo influye la homocedasticidad en la regresión lineal?
Permite que los errores del modelo sean constantes y no dependan de los valores de los atributos.
Explica la diferencia entre sobreajuste y subajuste en KNN.
Un k muy bajo causa sobreajuste, adaptándose demasiado a los datos de entrenamiento, mientras que un k muy alto causa subajuste, generando predicciones imprecisas.
¿Cómo mejora el uso de ponderaciones en los vecinos más cercanos?
Asigna mayor influencia a vecinos más cercanos, mejorando la precisión en problemas donde la distancia es un factor crítico.