tema_2 Flashcards

1
Q

¿Qué es una Máquina de Vectores Soporte (SVM)?

A

Es un clasificador no paramétrico basado en funciones discriminantes lineales que busca encontrar un hiperplano óptimo para separar dos clases.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

¿Cómo se define el margen en un clasificador SVM?

A

Es la distancia entre el hiperplano de separación y los puntos más cercanos de cada clase, llamados vectores soporte.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

¿Qué problema soluciona el método Soft Margin en SVM?

A

Permite manejar datos que no son linealmente separables, introduciendo una variable de holgura para minimizar errores de predicción.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

¿Para qué se usa la técnica del kernel en SVM?

A

Se usa para transformar datos no separables linealmente en un espacio de mayor dimensión donde sí puedan separarse.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

¿Qué es el parámetro C en SVM?

A

Es un hiperparámetro que regula la penalización de los errores de clasificación y el ancho del margen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

¿Cómo funciona el algoritmo Random Forest?

A

Combina múltiples árboles de decisión entrenados en subconjuntos aleatorios de datos para mejorar la precisión y reducir el sobreajuste.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

¿Cómo se diferencian Bagging y Boosting?

A

Bagging entrena clasificadores en paralelo con datos muestreados aleatoriamente, mientras que Boosting entrena secuencialmente, dando más peso a errores anteriores.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

¿Cuál es la principal ventaja de AdaBoost frente a otros algoritmos de clasificación?

A

Mejora la precisión combinando clasificadores débiles en una decisión final ponderada.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

¿SVM solo funciona con problemas de clasificación binaria? (Sí/No)

A

No, puede adaptarse a problemas multiclase con estrategias como One-vs-Rest.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

¿El hiperplano óptimo en SVM maximiza el margen entre clases? (Sí/No)

A

Sí.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

¿El parámetro C en SVM controla la rigidez del margen? (Sí/No)

A

Sí.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

¿El kernel lineal es el único disponible en SVM? (Sí/No)

A

No, también existen el polinomial, gaussiano y RBF, entre otros.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

¿El algoritmo Random Forest es un método de Bagging? (Sí/No)

A

Sí.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

¿AdaBoost entrena sus clasificadores en paralelo? (Sí/No)

A

No, lo hace de manera secuencial.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

¿Un valor alto de gamma en SVM con kernel RBF genera una frontera de decisión más curva? (Sí/No)

A

Sí.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

¿Bagging reduce la varianza de un modelo? (Sí/No)

A

Sí.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

En SVM, los puntos más cercanos al hiperplano se llaman ____.

A

vectores soporte.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

La función del kernel en SVM permite transformar los datos a un espacio de mayor ____.

A

dimensión.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Un margen más ancho en SVM reduce el ____, pero puede aumentar el ____.

A

sobreajuste, error de clasificación.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

El algoritmo Random Forest usa múltiples ____ de decisión entrenados en subconjuntos de datos.

21
Q

Boosting ajusta el peso de cada ____ en función de su precisión.

A

clasificador débil.

22
Q

AdaBoost pondera cada clasificador en función de su ____.

A

error de predicción.

23
Q

En Random Forest, el uso de diferentes subconjuntos de datos se conoce como ____.

A

bootstrapping.

24
Q

En Boosting, los clasificadores posteriores intentan corregir los errores de los ____.

A

anteriores.

25
Q

¿Cuál es el objetivo principal de SVM?
A) Minimizar la distancia entre todas las clases
B) Maximizar el margen entre clases
C) Ajustar el hiperplano a la mayoría de los datos

A

B) Maximizar el margen entre clases

26
Q

¿Qué técnica usa Random Forest para seleccionar variables?
A) Selección manual
B) Selección automática en cada árbol
C) Solo usa todas las variables

A

B) Selección automática en cada árbol

27
Q

¿Cómo se combinan las predicciones en Bagging?
A) Promediando resultados
B) Usando la técnica de Boosting
C) Escogiendo el árbol más preciso

A

A) Promediando resultados

28
Q

¿Cuál es la diferencia clave de Boosting respecto a Bagging?
A) Usa un solo clasificador
B) Entrena modelos secuencialmente
C) Solo funciona con árboles de decisión

A

B) Entrena modelos secuencialmente

29
Q

¿Qué problema soluciona el kernel en SVM?
A) Datos no balanceados
B) Separabilidad no lineal
C) Sobreajuste en redes neuronales

A

B) Separabilidad no lineal

30
Q

¿Qué parámetro controla la influencia de cada clasificador en AdaBoost?
A) Gamma
B) Peso
C) Lambda

31
Q

¿Qué tipo de modelos usa Random Forest?
A) Redes neuronales
B) Máquinas de vectores soporte
C) Árboles de decisión

A

C) Árboles de decisión

32
Q

¿Cuál es un posible inconveniente de Boosting?
A) Genera modelos débiles
B) Es sensible al ruido
C) No funciona en datos grandes

A

B) Es sensible al ruido

33
Q

Explica la diferencia entre Hard Margin y Soft Margin en SVM.

A

Hard Margin solo funciona con datos linealmente separables, mientras que Soft Margin permite errores en la clasificación.

34
Q

¿Cómo se combinan los modelos en Bagging?

A

Se entrenan múltiples modelos en subconjuntos aleatorios y sus predicciones se promedian.

35
Q

¿Qué ventajas ofrece Random Forest sobre un solo árbol de decisión?

A

Reduce el sobreajuste y mejora la generalización combinando múltiples árboles.

36
Q

Explica la relación entre el parámetro C y el sobreajuste en SVM.

A

Un C alto minimiza errores pero puede sobreajustar el modelo; un C bajo aumenta el margen pero puede subajustar.

37
Q

¿Cómo se evalúa la calidad de un modelo SVM?

A

Se usan métricas como la precisión, recall, F1-score y la curva ROC-AUC para medir el rendimiento del modelo.

38
Q

¿Por qué Random Forest reduce la varianza en comparación con un solo árbol de decisión?

A

Porque combina múltiples árboles entrenados en subconjuntos de datos, promediando sus resultados y reduciendo el impacto de datos atípicos.

39
Q

¿Qué diferencias existen entre el kernel lineal y el kernel RBF en SVM?

A

El kernel lineal es útil cuando los datos son separables linealmente, mientras que el kernel RBF permite modelar relaciones más complejas en espacios de mayor dimensión.

40
Q

¿Por qué AdaBoost es más sensible al ruido que Bagging?

A

Porque asigna mayor peso a los errores en cada iteración, lo que puede amplificar la influencia de valores atípicos en la clasificación.

41
Q

Explica cómo el parámetro gamma afecta el modelo SVM con kernel RBF.

A

Un gamma alto ajusta demasiado el modelo a los datos, mientras que un gamma bajo genera una frontera de decisión más suave.

42
Q

¿Cómo afecta el número de árboles en Random Forest a su desempeño?

A

Un número mayor de árboles mejora la estabilidad del modelo pero aumenta el costo computacional.

43
Q

Explica cómo se construye un modelo de Boosting paso a paso.

A

1) Se entrena un clasificador débil en los datos originales.

44
Q

¿Cómo influye la selección de atributos en Random Forest?

A

Cada árbol se entrena con un subconjunto aleatorio de atributos, lo que mejora la diversidad de los árboles y reduce la correlación entre ellos.

45
Q

Explica la diferencia entre regularización L1 y L2 en SVM.

A

L1 (Lasso) selecciona solo algunas características importantes, reduciendo otras a cero, mientras que L2 (Ridge) distribuye el peso entre todas las características sin eliminarlas completamente.

46
Q

¿Cómo afecta el número de clasificadores débiles en AdaBoost al rendimiento del modelo?

A

Un número bajo puede no capturar bien los patrones, mientras que un número alto puede llevar al sobreajuste. Se debe encontrar un balance adecuado.

47
Q

¿Por qué el parámetro C en SVM puede generar sobreajuste o subajuste?

A

Un C alto penaliza más los errores, forzando al modelo a ajustarse demasiado a los datos de entrenamiento (sobreajuste), mientras que un C bajo permite más errores, generando una mayor generalización (subajuste).

48
Q

Explica la importancia del “majority voting” en Random Forest.

A

Permite que la predicción final se base en la decisión de la mayoría de los árboles, lo que ayuda a suavizar errores individuales y mejorar la precisión del modelo.