Solucionado (ver solução)
Solucionado
(ver solução)
2
respostas

Balanceamento

Boa noite pessoal. Dos modelos:
• Regressão Logística;
• KNN (K-Nearest Neighbors);
• Random Forest;
• SVM (Support Vector Machine);
• Coeficientes em modelos lineares, pesos em redes neurais, ou importância relativa em boosting (como XGBoost).
Quais eu devo fazer o Balanceamento antes de usá-los. Alguém pode me ajudar Grato!

2 respostas

Olá, Eduardo, tudo bem?

Quando trabalhamos com um conjunto de dados em que uma classe aparece muito mais do que a outra, alguns modelos sentem mais o impacto dessa diferença. A Regressão Logística, o KNN e o SVM, por exemplo, costumam sofrer bastante nesse cenário, porque acabam “puxando” as previsões para a classe mais frequente, o que atrapalha a detecção dos casos mais raros. Por isso, nesses modelos, equilibrar as classes antes de treinar normalmente traz bons resultados.

Já o Random Forest e modelos de boosting como o XGBoost lidam melhor com o desbalanceamento, pois a forma como eles constroem e combinam várias árvores ajuda a reduzir o problema. Mesmo assim, se a diferença entre as classes for muito grande, ainda pode valer a pena aplicar alguma técnica de balanceamento para ver se melhora.

Nas redes neurais, o efeito vai depender tanto do quanto os dados estão desbalanceados quanto das estratégias usadas no treino, como ajustar os pesos das classes na função de perda. Em resumo, alguns modelos são mais resistentes, outros são mais sensíveis, mas na prática sempre vale testar o balanceamento em todos e comparar, porque muitas vezes ele traz melhorias mesmo onde a gente não espera.

Espero ter ajudado.

Qualquer dúvida que surgir, compartilhe no fórum. Abraços e bons estudos!

Caso este post tenha lhe ajudado, por favor, marcar como solucionado ✓. Bons Estudos!
solução!

Olá Monalisa! Eu estou bem obrigado, e espero que Você também o esteja.
Eu te agradeço pela pronta resposta, e principalmente pela ampla explicação do assunto. Você vai me ajudar muito a desenvolver o meu trabalho do Challenge da TeleconX2. Muito Obrigado, um forte abraço, e sucesso!