Boa tarde encontrei um erro ao tentar seguir os passos no seguinte artigo sobre instalação e configuração de ambiente Spark no Colab: https://www.alura.com.br/artigos/iniciando-projeto-spark-no-colab
Encontrei um erros ao rodar os trechos de código !pip install pyspark==3.3.1 e !wget -q https://dlcdn.apache.org/spark/spark-3.3.1/spark-3.3.1-bin-hadoop3.tgz.
Verifiquei na página que a versão disponível atualmente é a 3.5.6 e neste caso é necessário mudar a versão dos exemplos pyspark e Spark para:
!pip install pyspark==3.5.6
!wget -q https://dlcdn.apache.org/spark/spark-3.5.6/spark-3.5.6-bin-hadoop3.tgz