Olá, espero que esteja tudo bem com vocês ;)
Possuo uma dúvida quanto ao método de cross-validation utilizando pyspark. Lendo a documentação disponível em: https://spark.apache.org/docs/latest/ml-tuning.html , entendi que o método de cross-validation irá separar o conjunto de dados em treino e teste em k folds diversas vezes, de formas diferentes, para cada separação destas o modelo ou pipeline (estimator) será ajustado aos dados de treino utilizando o mapa de parâmetros que escolhemos e avaliado de acordo com o "evaluator" escolhido.
Ao fim de tudo isso, o modelo retornado será aquele que melhor se ajustou aos dados de acordo com o mapa de hiper-parâmetros.
Minha dúvida é: se eu quisesse saber os hiper-parâmetros do melhor modelo escolhido durante o processo de cross-validação, como eu faria isso? Que parâmetro do meu modelo retornado me permite visualizar esse tipo de informação?