1
resposta

Devo testar todas as técnicas no momento da construção de modelo?

Ao construir um modelo, eu preciso (via de regra) fazer o teste de várias técnicas e fazer a comparação conforme foi passado durantes aulas, certo?

Dessa manera eu posso impedir um overfiting ou que o hajam muitos viéses da predição dos dados, certo?

1 resposta

Olá, Tarsis, tudo bem?

Exatamente! Experimentar diferentes algoritmos e métodos é uma prática comum e recomendada em machine learning, pois ajuda a identificar qual técnica funciona melhor para o seu conjunto de dados específico.

Mas, é importante lembrar que testar várias técnicas por si só não impede o overfitting ou viés. O overfitting ocorre quando o modelo se ajusta muito bem aos dados de treinamento, mas não generaliza bem para novos dados. Para evitar isso, você pode usar técnicas como validação cruzada, regularização e limitar a complexidade do modelo.

Em relação aos vieses, é importante garantir que seus dados sejam representativos e que você esteja utilizando métricas de avaliação adequadas para o seu problema. A comparação de diferentes modelos pode ajudar a identificar qual deles tem o menor viés e a melhor capacidade de generalização.

Espero ter esclarecido.

Qualquer dúvida, não hesite em compartilhar no fórum.

Abraços!

Caso este post tenha lhe ajudado, por favor, marcar como solucionado