1
resposta

Taxa de acerto válida

Olá,

Gostaria de saber como é considerado em um modelo de classificação, uma taxa de acerto válida? Casos onde a accuracy_score é maior que 85%? Ou melhor, isso varia de acordo com o que estamos aprendendo?

Muito obrigado.

1 resposta

Oii Bruno, tudo certinho por ai?

Desculpa pela demora em te dar um retorno.

A acurácia indica a performance geral do modelo e representa a quantidade de acertos geral, dentre todas as classificações, então quanto maior a acurácia, melhor é o seu modelo. Claro que temos outras métricas tão importantes quanto acurácia, então é complicado avaliar apenas ela, e depende do problema que você está trabalhando, mas é muito comum a confiabilidade ser maior em um projeto se a acurácia for maior que 85% sim.

Para você avaliar melhor um projeto, é bom sempre analisar outras métricas também. Vou explicar mais quatro delas para você.

Matriz de confusão: é uma tabela que indica a quantidade de erros e acertos do modelo, comparando com os resultados esperados. Na matriz temos os Verdadeiros Positivos - classificação correta da classe Positivo, Falsos Negativos - erro em que o modelo previu a classe Negativo quando o valor real era classe Positivo, Falsos Positivos - erro em que o modelo previu a classe Positivo quando o valor real era classe Negativo e Verdadeiros Negativos - classificação correta da classe Negativo.

Matriz de confusão composta por uma tabela três por três. Na primeira coluna, o primeiro valor é nulo, o segundo é Classe Positiva e o terceiro é Classe Negativa. Na segunda coluna, o primeiro valor é Classe positiva, o segundo valor é o Verdadeiro Positivo e a célula está em verde, e o terceiro valor é o Falso negativo com a célula em vermelho. Na terceira coluna, a primeira célula é Classe negativo, o segundo é Falso positivo e a cor da célula é vermelha, e a terceira são os verdadeiros negativos e a célula tem cor verde

Precisão: dentre todas as classificações de classe Positivo que o modelo fez, quantas delas estão corretas, então usamos os verdadeiros positivos e falsos positivos.

Recall: dentre todas as situações de classe Positivo como valor esperado, quantas estão corretas, usa-se o valor de verdadeiros positivos.

F1-Score: média harmônica entre precisão e recall.

O ideal é sempre usar essas métricas para avaliar o modelo, e não só a acurácia! Se ainda ficou alguma dúvida, pode me chamar, ok?

Bons estudos ^^