Já vi os primeiros dois cursos da formação de Python com SPark.
Estou vendo esse curso agora também.
Mas nem aqui, nem nos outros dois que vi, percebi o processamento sendo de fato distribuído.
No que vi até agora, o Spark parece uma junção do Pandas com SKlearn e mais algumas funcionalidades para fazer streaming.
A distribuição do processamento é feita de forma de automática? Não precisa configurar?
O Spark também distribui processamento em GPU?
Em qual curso da Alura eu posso ver o processamento sendo distribuído de fato?