Clase 4 - Aprendizaje Supervisado Flashcards
Clasificación
Salida del modelo es un conjunto discreto de clases.
Regresión
Salida del modelo es un valor numérico (continuo)
Diferencia entre modelo y algoritmo
Ej: Modelo -> árbol de decisión, redes neuronales
Algoritmo -> ID3
Hay distintos algoritmos para un mismo modelo
Aprendizaje basado en instancias (aprendizaje perezoso)
- Toman el conjunto de datos de entrenamiento y lo almacena
- Se extraen un conjunto de instancias que sean similares
- Ejemplo: k-NN
(k vecinos para tomar la decisión). Medida de similitud (distancia euclídea para decidir los vecinos) - En clasificación se elige la clase más frecuente de los vecinos y en regresión se toma la media de los vecinos más cercanos.
Árboles de decisión
- Nodos raíz, rama y hoja
- Diagrama que representa condiciones sucesivas sobre los atributos para clasificar una instancia.
- El objetivo es construir el árbol más sencillo que mejor separe las instancias por clase.
Construcción inductiva: - 1º Decidir cual es el atributo del nodo raíz (atributo que mejor separe las clases).
- 2º Se continúa añadiendo atributos hasta llegar a resultados satisfactorios.
- Mecanismos de prepoda y postpoda (nos intentamos quedar con el subárbol más pequeño).
Criterios de separación en árboles de decisión
- Ganancia de información
- Ratio de ganancia de información
- Precisión
- Ganancia mínima
- Profundidad máxima del árbol (para facilitar la comprensión del modelo)
Reglas de decisión
Se pueden simplificar los árboles de decisión en reglas de decisión.
La diferencia de las reglas es que no mantienen la relación jerárquica de los árboles.
- Construcción inductiva: se elige combinación atributo/valor que más reglas cubra y se descartan los ejemplos cubiertos y se repite hasta cubrir todos los ejemplos.
Aprendizaje Bayesiano.
- Problema de decisión se puede describir en términos probabilísticos
- Todas las probabilidades del problema son conocidas o al menos se pueden estimar.
Notación clasificadores Bayesianos
Conjunto de clases C
Conjunto de atributos A
Instancia X (valores de los atributos)
P(c|x) -> probabilidad de observar la clase c dada la instancia x.
P(x|c) -> probabilidad de observar la instancia x dada la clase c.
Teorema de Bayes
P(c|x) = (P(x|c)*P(c))/P(x)
Clasificador Bayesiano
arg max P(x|c)*P(c)
Clasificador Naive Bayes
Se parte del supuesto de que los valores de los atributos son independientes.
Conjuntos de clasificadores
Es un grupo de clasificadores cuyas decisiones individuales se combinan de alguna manera.
Métodos de construcción de conjuntos.
- Manipulación de los datos de entrenamiento: bagging, comités de validación cruzada, adaboost (boosting)
Bagging
Usamos distintos tipos de modelos, con reemplazo de los ejemplo de entrenamiento.