0
respostas

Como distribuir processamento com o Spark?

Já vi os primeiros dois cursos da formação de Python com SPark.

Estou vendo esse curso agora também.

Mas nem aqui, nem nos outros dois que vi, percebi o processamento sendo de fato distribuído.

No que vi até agora, o Spark parece uma junção do Pandas com SKlearn e mais algumas funcionalidades para fazer streaming.

A distribuição do processamento é feita de forma de automática? Não precisa configurar?

O Spark também distribui processamento em GPU?

Em qual curso da Alura eu posso ver o processamento sendo distribuído de fato?