Nesse curso é ensinado a utilizar o Data Factory para orquestrar todos os pipelines de dados. Existe algum motivo para não trabalhar tudo dentro do Databricks, utilizando o workflows?
Outra dúvida é sobre o funcionamento do cluster. Ao agendar uma pipeline para ser executada em determinado horário do dia, o cluster é ligado automaticamente? E ao finalizar, ele também é desligado automaticamente?
E sobre os custos, ao utilizar o Databricks, o custo é calculado pelo uso do cluster, porém esse custo é pago na assinatura do Azure, ou é feita uma cobrança a parte?
E pra finalizar, gostaria de saber como é o trabalho em um ambiente profissional. O engenheiro de dados desenvolve todo o código direto no Databricks, consumindo horas do cluster, ou isso é feito localmente?