Solucionado (ver solução)
Solucionado
(ver solução)
1
resposta

[Reclamação] Falta de aula complementar

Olá, queria deixar aqui uma pequena reclamação com relação ao "mão na massa" do Curso de Classificação: combinando classificadores para a melhoria de performance

No final do curso o instrutor deixou um notebook de sugestão de solução: https://github.com/alura-cursos/combina-classificadores/blob/main/mao_na_massa.ipynb porém eu achei o conteúdo bastante "jogado" seria bom uma aula do professor fazendo a correção do conteúdo pois tem coisas que eu fiquei bastante perdido como na parte dos parâmetros, que são diferentes dos das aulas,Como ele chegou nesses parâmetros? E por que ele usou o Scaler.transform() nos X_treino e X_teste? Sinceramente eu fiquei completamente perdido!

1 resposta
solução!

Oii, Breno! Como você está?

Sinto muito que tenha passado por essa experiência e agradeço por compartilhar o seu feedback conosco. Ele é muito importante para podermos aplicar melhorias em nossos conteúdos. Inclusive, caso queira replicá-lo no formulário que é disponibilizado ao final do curso, fique à vontade. Dessa forma a equipe responsável também terá conhecimento.

Sobre os parâmetros diferentes, eles podem variar dependendo do contexto e dos dados específicos que estamos utilizando. O instrutor pode ter ajustado os parâmetros com base em experimentações para otimizar a desempenho do modelo. O uso do Scaler.transform() nos conjuntos de X_treino e X_teste é uma prática comum de pré-processamento. Quando você ajusta (fit) um Scaler nos dados de treino, ele calcula a média e o desvio padrão (ou outros parâmetros dependendo do tipo de scaler) dos dados de treino. Em seguida, ao usar transform(), ele aplica essa transformação aos dados. Isso é importante porque queremos aplicar a mesma transformação nos dados de teste para garantir que ambos os conjuntos de dados estejam na mesma escala.

Espero ter ajudado. Caso tenha mais dúvidas, não deixe de compartilhar no fórum para podermos te auxiliar.

Bons estudos, Breno!