1
resposta

Necessidade do uso do cross_val_score (validação depois da busca pelo hiperparâmetro)

Prezados, a abordagem a seguir é válida?

No caso, usar o accuracy_score nos 20% usados no final para validação para saber se o meu modelo vai performar bem para as minhas necessidades.

best = busca.best_estimator_
best.fit(x_treino_teste, y_treino_teste)
from sklearn import metrics
metrics.accuracy_score(y_validacao, best.predict(x_validacao))

(Com ou sem fit)

No caso de não podermos fazer um cross validation, eu não sei se fazer a validação com cross_val_score representa alguma vantagem já que só teremos uma rodada de treino e teste na busca pelos hiper parâmetros. No outro caso, eu tinha entendido que era para evitar um vício nos dados de treino, um overfitting, mas aqui temos um conjunto de dados que não foi usado no treino. Aqui também é o caso?

Pelo que entendi, o cross_val_score faria apenas um split nesses 20% de dados separados pra fazer a validação. Eu não entendi a necessidade de fazer essa nova rodada de teste-treino nessa porção de dados, sendo que só vai ter um split (e ainda incorre num risco de ser uma porção muito pequena dos dados dependendo do caso).

Por que a score oferecida pelo cross_val_score me oferecia uma métrica mais confiável da performance do meu modelo neste caso específico em que não poderemos fazer cross validation?

1 resposta

E aí, Gean. Tudo certo?

Quando usamos essa abordagem de abrir mão da validação cruzada no GridSearchCV, nós perdemos um pouco da robustez que a media dos splits nos traria em troca de ter esse resultado mais rápido.

Nesse contexto, uma boa forma de identificar se estamos bem é checar se os scores de teste e validação são bem próximos e particularmente sobre a vantagem em aplicar a validação cruzada sobre os dados de validação, é a de entender um pouco sobre o comportamento do modelo dada a variância dos dados.

Se dois modelos acertam por exemplo (0.7, 0.8, 0.9) e (0.79, 0.8, 0.81) os dois tem média 0.8, mas o segundo é muito melhor porque podemos confiar que as previsões vão estar sempre muito mais perto da média que no primeiro e essa informação de resultados em situações diferentes, que nos da é a validação cruzada.

Espero ter dado uma luz aí.

Abraço.