Olá, Antonio, tudo bem?
Não existe um intervalo universal de acurácia que, isoladamente, indique que um modelo está bem ajustado. O que é considerado “bom” depende do problema, do desbalanceamento das classes, do custo dos erros e de um baseline de comparação. Em alguns cenários, 60% pode ser aceitável; em outros, nem 95% é suficiente.
O mais importante é analisar a acurácia em contexto. Comparar o modelo com um baseline simples, como prever sempre a classe majoritária, ajuda a entender se ele realmente aprendeu algo relevante. Também é fundamental observar a diferença entre treino e teste: uma acurácia muito maior no treino sugere overfitting; valores baixos em ambos indicam underfitting.
Além disso, a acurácia não deve ser usada sozinha. Métricas como matriz de confusão, precisão, recall, F1-score e, quando aplicável, ROC AUC, oferecem uma visão mais completa do desempenho. A validação cruzada também é importante para avaliar a estabilidade e a capacidade de generalização do modelo.
Então, um modelo bem ajustado é aquele que supera baselines simples, generaliza bem para dados não vistos e é avaliado com métricas adequadas ao problema, não apenas pela acurácia.
Espero ter ajudado.
Qualquer dúvida que surgir, compartilhe no fórum. Abraços e bons estudos!
Caso este post tenha lhe ajudado, por favor, marcar como solucionado ✓. Bons Estudos!