Percebo que ao longo dos testes, a acurácia, mesmo que de maneira não muito significativa, vai diminuindo.
Essa otimização é em relação ao overfitting ou à acurácia?
Um exemplo real:
Supondo que a acurácia média de um radiologista para diagnóstico de pneumonia em imagem de raio-x é de 84% (baseline).
Um profissional de TI desenvolve uma solução e encontra um valor igual ao superior ao do especialista, ou seja, 84%.
O valor, porém, foi alcançado, conforme as técnicas empregadas mais lá atrás somente com train_test_split, naquela abordagem em que se separa o conjunto em 3 partes para testar com valores que o estimador nunca viu antes e usando o SVC.
O profissional de TI já poderia considerar a solução dele como válida? Ou teria que fazer todos esses ensaios incluindo cross validation, utilizando outros estimadores, além de estratégias de otimização de hiperparâmetros para tentar obter valores melhores?