No final da Parte I de Regressão Linear (primeiro curso) foi comentado que o modelo pode começar a errar mais nos valores grandes, o que causa instabilidade e pode gerar problemas como heterocedasticidade.
Agora estamos aplicando transformações logarítmicas nas variáveis. Minha dúvida é: essa transformação com log é justamente uma forma de reduzir esse problema, tornando os erros mais estáveis ao longo da escala dos dados?
Ou seja, o objetivo principal do log aqui é melhorar o comportamento do modelo quando há muita assimetria ou crescimento desproporcional nos valores?
É esse o raciocinio?