1
resposta

StandardScaler

No processo de "scalagem" o instrutor treinar o Scalador com os dados de treino e transforma os próprios dados de treino e os de teste, porque eu posso transformar os dados de teste com o Scalador treinado com os dados de treino? Eu não deveria transformar os dados de teste com um outro Scalador treinado com os dados de teste ?

1 resposta

Olá Marcus, tudo bem?

Imagine dois conjuntos de dados: os dados de treino e os dados de teste. Quando treinamos um modelo de machine learning, queremos que tanto os dados de treino quanto os dados de teste estejam na mesma escala. Isso é importante para que o modelo aprenda corretamente. E para colocar os dados na mesma escala, utilizamos um "Escalador" (Scaler). Esse Escalador é treinado com os dados de treino. Depois de treinar o Escalador com os dados de treino, usamos esse mesmo Escalador para transformar tanto os dados de treino quanto os dados de teste. Com isso, garantimos que tanto os dados de treino quanto os dados de teste estejam na mesma escala, o que é importante para que o modelo funcione bem.

Se usássemos um Escalador diferente para transformar os dados de teste, isso poderia fazer com que os dados de teste ficassem em uma escala diferente dos dados de treino. Então, utilizamos o mesmo Escalador treinado com os dados de treino para transformar tanto os dados de treino quanto os dados de teste é para manter a consistência entre os conjuntos de dados e garantir que o modelo seja treinado e avaliado de forma justa.

Espero ter esclarecido.

Qualquer dúvida, compartilhe no fórum.

Abraços e bons estudos!

Caso este post tenha lhe ajudado, por favor, marcar como solucionado ✓. Bons Estudos!