Métricas_Classificação Flashcards
O que é Acurácia e como é calculada?
Acurácia é a proporção de previsões corretas em relação ao total de previsões. Fórmula:
TP + TN / TP + TN + FP + FN
É útil quando as classes estão balanceadas.
O que é Precisão (Precision) e como é calculada?
Precisão é a proporção de previsões positivas que são realmente positivas.
TP / TP + EP
É importante quando o custo de falsos positivos é alto.
O que é Revocação (Recall) ou Sensibilidade (Sensitivity) e como é calculada?
Revocação é a proporção de positivos reais identificados corretamente pelo modelo.
TP / TP + FN
É importante quando o custo de falsos negativos é alto.
O que é o F1 Score e como ele é calculado?
O F1 Score é a média harmônica da precisão e da revocação, proporcionando um equilíbrio entre as duas métricas.
2 x Precision x Revocação / Precision + Revocação
O que é Especificidade (Specificity) e como é calculada?
Especificidade é a proporção de negativos reais que são corretamente identificados pelo modelo.
Especificidade=TN / TN+FP
É importante para avaliar a capacidade do modelo de evitar falsos positivos.
Qual é a diferença entre Precisão Macro e Micro?
Precisão Macro: Média das precisões de cada classe, tratando todas as classes igualmente.
Precisão Micro: Média ponderada das precisões, considerando o total de verdadeiros positivos e falsos positivos.
O que é a Curva ROC (Receiver Operating Characteristic)?
A Curva ROC plota a taxa de verdadeiros positivos (TPR) contra a taxa de falsos positivos (FPR) em vários limiares de classificação. Avalia a capacidade do modelo de discriminar entre classes.
O que é AUC-ROC e como ela é utilizada?
A AUC-ROC (Area Under the ROC Curve) é a área sob a curva ROC, que plota a TPR (Taxa de Verdadeiros Positivos) contra a FPR (Taxa de Falsos Positivos). Avalia a capacidade do modelo de discriminar entre classes. A AUC varia de 0 a 1, onde 1 indica um modelo perfeito.
O que é a Curva Precision-Recall e quando ela é mais útil que a ROC?
A Curva Precision-Recall plota a precisão contra a revocação para diferentes limiares de classificação. É mais útil que a ROC quando se trabalha com conjuntos de dados desbalanceados, pois foca nas classes positivas e suas previsões.
Como a Precisão Micro é calculada e em que situações é mais útil?
A Precisão Micro é calculada somando os verdadeiros positivos e falsos positivos de todas as classes e, em seguida, dividindo o total de verdadeiros positivos pelo total combinado.
Precisão Micro=∑TPi / ∑(TPi+FPi)
É mais útil quando as classes têm tamanhos diferentes e se quer uma métrica geral para o desempenho do modelo.
O que é a Métrica de G-Mean e quando deve ser usada?
G-Mean é a média geométrica da sensibilidade e especificidade, usada para avaliar modelos em conjuntos de dados desbalanceados.
G-Mean= raiz (Sensibilidade×Especificidade)
É útil quando se deseja equilibrar a taxa de verdadeiros positivos e verdadeiros negativos.