Solucionado (ver solução)
Solucionado
(ver solução)
2
respostas

[Bug] Correção para o artigo https://www.alura.com.br/artigos/iniciando-projeto-spark-no-colab

Boa tarde encontrei um erro ao tentar seguir os passos no seguinte artigo sobre instalação e configuração de ambiente Spark no Colab: https://www.alura.com.br/artigos/iniciando-projeto-spark-no-colab

Encontrei um erros ao rodar os trechos de código !pip install pyspark==3.3.1 e !wget -q https://dlcdn.apache.org/spark/spark-3.3.1/spark-3.3.1-bin-hadoop3.tgz.

Verifiquei na página que a versão disponível atualmente é a 3.5.6 e neste caso é necessário mudar a versão dos exemplos pyspark e Spark para:

!pip install pyspark==3.5.6

!wget -q https://dlcdn.apache.org/spark/spark-3.5.6/spark-3.5.6-bin-hadoop3.tgz

2 respostas
solução!

Olá, Carlos! Como vai?

Obrigado pela observação! É sempre importante lembrar que as versões dos pacotes são atualizadas mesmo.

É bom mencionar que o Google Colab sempre inicia uma nova sessão com várias ferramentas instaladas, inclusive o PySpark. Você pode verificar isso ao criar um novo notebook e executar o seguinte código:

import pyspark
print(pyspark.__version__)

E na data de hoje (18/06/25) temos como resultado:

3.5.1

Ou seja, nativamente o Google Colab já possui a versão 3.5.1 instalada no atual período em que estamos, ficando por opção nossa instalar uma versão diferente ou não.

Fico à disposição! E se precisar, conte sempre com o apoio do fórum.

Abraço e bons estudos!

AluraConte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!

Obrigado Daniel