Tema3 Flashcards

1
Q

¿Cuál es la función principal del algoritmo de regresión lineal OLS?

A

Encontrar una combinación lineal de atributos que minimice el error cuadrático medio (MSE).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

¿Cómo se interpreta el coeficiente w_1 en un modelo de regresión lineal simple?

A

Representa la pendiente de la recta, indicando el cambio en y por cada unidad de cambio en x.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

¿Qué representa el coeficiente de determinación R^2 en regresión lineal?

A

Indica qué porcentaje de la variabilidad de la variable dependiente es explicado por el modelo.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

¿Por qué es importante la tasa de aprendizaje en el descenso de gradiente?

A

Controla la magnitud de los cambios en los coeficientes para minimizar la función de costo.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

¿Qué problemas pueden surgir si los atributos en regresión lineal no son independientes?

A

Puede producirse multicolinealidad, afectando la interpretabilidad y estabilidad del modelo.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

¿Cómo afecta la normalización de los datos a KNN?

A

Mejora la precisión evitando que atributos con escalas mayores dominen el cálculo de distancias.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

¿Cómo se seleccionan los vecinos más cercanos en KNN?

A

Se eligen en función de la menor distancia según una métrica definida, como Minkowski o Euclídea.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

¿Por qué la selección de atributos es crucial en KNN?

A

Reduce la dimensionalidad del problema y mejora la eficiencia y precisión del modelo.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

¿El algoritmo OLS minimiza la suma de errores absolutos? (Sí/No)

A

No, minimiza la suma de los errores al cuadrado.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

¿El valor de R^2 puede ser negativo? (Sí/No)

A

Sí, indica que el modelo es peor que la predicción por media.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

¿El descenso de gradiente garantiza encontrar el óptimo global en todos los casos? (Sí/No)

A

No, en problemas no convexos puede quedar atrapado en mínimos locales.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

¿El modelo KNN requiere un proceso de entrenamiento complejo? (Sí/No)

A

No, solo almacena los datos de entrenamiento.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

¿Un mayor valor de k en KNN siempre mejora la precisión? (Sí/No)

A

No, puede suavizar demasiado la predicción y perder precisión.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

¿Qué función de distancia se usa más comúnmente en KNN?

A

La distancia Euclídea.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

¿El modelo de regresión lineal es adecuado para datos con relaciones no lineales? (Sí/No)

A

No, suposiciones de linealidad limitan su eficacia en esos casos.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

¿El algoritmo KNN puede utilizar pesos en la distancia para mejorar la precisión? (Sí/No)

A

Sí, los pesos pueden ajustar la influencia de cada vecino.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

La función objetivo en OLS es minimizar el ____ de los errores.

A

cuadrado.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

La tasa de aprendizaje en descenso de gradiente controla el ____ de los pasos en cada iteración.

A

tamaño.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

En regresión lineal, el término w_0 representa la ____ de la recta.

A

intersección.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Si R^2=1, significa que el modelo tiene una ____ perfecta.

A

predicción.

21
Q

KNN determina la clase o valor de una instancia basándose en sus ____ más cercanos.

22
Q

La distancia de Minkowski se convierte en distancia Euclídea cuando p es ____.

23
Q

La selección de atributos en regresión lineal evita el problema de la ____.

A

multicolinealidad.

24
Q

En KNN, la normalización de los datos es crucial para evitar ____ de ciertos atributos.

A

dominancia.

25
Q

¿Qué métrica de evaluación NO es usada en regresión lineal?
A) MSE
B) MAE
C) Precisión

A

C) Precisión

26
Q

¿Cuál de las siguientes es una desventaja de KNN?
A) No requiere entrenamiento
B) Puede ser lento en predicción
C) No utiliza funciones de distancia

A

B) Puede ser lento en predicción

27
Q

¿Cuál es la principal suposición de la regresión lineal?
A) No hay correlación entre atributos
B) La distribución de datos es binaria
C) No existen valores atípicos

A

A) No hay correlación entre atributos

28
Q

¿Qué técnica se usa para reducir el sobreajuste en regresión lineal?
A) Aumento del conjunto de datos
B) Regularización (Ridge/Lasso)
C) Incrementar la tasa de aprendizaje

A

B) Regularización (Ridge/Lasso)

29
Q

¿Qué significa que un modelo tenga un R^2 negativo?
A) El modelo predice perfectamente
B) Es peor que predecir usando la media
C) No puede ser interpretado

A

B) Es peor que predecir usando la media

30
Q

¿Qué factor afecta más la eficacia de KNN?
A) La normalización de los datos
B) El número de instancias
C) El número de atributos

A

A) La normalización de los datos

31
Q

¿Qué problema surge al usar atributos con diferentes escalas en KNN?
A) Cálculo erróneo de la distancia
B) Mayor velocidad de predicción
C) Eliminación de atributos

A

A) Cálculo erróneo de la distancia

32
Q

¿Qué método usa KNN para determinar la predicción en regresión?
A) Media de los vecinos
B) Moda de los vecinos
C) Mediana de los vecinos

A

A) Media de los vecinos

33
Q

Describe el proceso de entrenamiento en regresión lineal OLS.

A

Se busca minimizar el error cuadrático medio (MSE) ajustando los coeficientes mediante descenso de gradiente o solución analítica.

34
Q

¿Cómo afecta la multicolinealidad a la regresión lineal?

A

Provoca inestabilidad en los coeficientes y dificulta la interpretación del modelo.

35
Q

¿Qué representa la tasa de aprendizaje en descenso de gradiente?

A

Controla el tamaño de los pasos que da el algoritmo al ajustar los coeficientes para minimizar la función de costo.

36
Q

Explica la diferencia entre regresión lineal simple y múltiple.

A

La regresión simple usa un solo atributo como predictor, mientras que la múltiple utiliza varios atributos para predecir la variable dependiente.

37
Q

¿Qué representa la línea de referencia en la gráfica de evaluación de regresión?

A

La línea x=y indica el punto ideal donde la predicción es igual al valor real.

38
Q

¿Cuál es el propósito de la normalización en KNN?

A

Igualar la escala de los atributos para evitar que unos influyan más que otros en el cálculo de distancias.

39
Q

¿Cómo se determina el número óptimo de vecinos k en KNN?

A

Se selecciona probando distintos valores y evaluando la métrica de error en validación cruzada.

40
Q

¿Por qué la distancia Euclídea es la más utilizada en KNN?

A

Porque es intuitiva y mide la similitud entre puntos en un espacio multidimensional.

41
Q

Explica por qué el descenso de gradiente es útil en regresión lineal.

A

Permite encontrar los coeficientes óptimos ajustando iterativamente los pesos para minimizar el error.

42
Q

¿Cómo se interpreta un R^2 cercano a 1 y a 0 en regresión?

A

Un R^2 cercano a 1 indica que el modelo explica bien la variabilidad, mientras que un R^2 cercano a 0 indica baja capacidad predictiva.

43
Q

¿Por qué KNN no tiene un proceso de entrenamiento tradicional?

A

Porque simplemente almacena los datos y calcula distancias en la fase de predicción.

44
Q

Explica cómo la selección de atributos mejora KNN.

A

Reduce la dimensionalidad, eliminando atributos irrelevantes que pueden agregar ruido y disminuir la precisión.

45
Q

¿Cómo afecta el número de vecinos k al sesgo y la varianza en KNN?

A

Un k pequeño genera alta varianza y bajo sesgo, mientras que un k grande genera bajo sesgo y alta varianza.

46
Q

¿Cómo influye la homocedasticidad en la regresión lineal?

A

Permite que los errores del modelo sean constantes y no dependan de los valores de los atributos.

47
Q

Explica la diferencia entre sobreajuste y subajuste en KNN.

A

Un k muy bajo causa sobreajuste, adaptándose demasiado a los datos de entrenamiento, mientras que un k muy alto causa subajuste, generando predicciones imprecisas.

48
Q

¿Cómo mejora el uso de ponderaciones en los vecinos más cercanos?

A

Asigna mayor influencia a vecinos más cercanos, mejorando la precisión en problemas donde la distancia es un factor crítico.