Modelo: regressão logística com sklearn.
Resolvi comparar os resultados mostrados no classification_report, calculando-os utilizando a matriz de confusão mas aparentemente os resultados não batem:
classification_report
precision recall f1-score support
0 0.54 0.94 0.68 56000
1 0.96 0.62 0.75 119341
avg / total 0.82 0.72 0.73 175341
matriz de confusão gerada:
[[52624 3376]
[45307 74034]]
Meus cálculos:
Quanto em média o modelo acerta (acurácia)?
(TP + TN)/total
(74034 + 52624)/(52624 + 74034 +45307 + 74034)*100 = 51%
Qual a precisão do modelo (razão entre o número de TP e e a soma dos TP e FP)?
74034/(74034 + 3376)*100 = 95%
Qual o Recall R do modelo (razão entre o número de TP e a soma de TP e FN)
74034/(74034 + 45307)*100 = 62%
Como podemos ver, recall e precision não batem. O que está errado? Como interpretar os resultados? O que representam f1-score e support?