1
resposta

[Sugestão] Ler varios arquivos no spark.read.csv() - Windows

Pessoal, quem tiver tendo dificuldade com essa função a solução que eu encontrei foi criar uma lista. Assim ele vai ler cada um dos arquivos

dir_path=os.path.abspath("path/estabelecimentos")

res = []

for path in os.listdir(dir_path):
    # check if current path is a file
    if os.path.isfile(os.path.join(dir_path, path)):
        res.append(os.path.join(dir_path, path))
print(res)
estabelecimentos=spark.read.csv(res, sep=';', inferSchema=True)

Fonte do código de como listar arquivos no python: https://pynative.com/python-list-files-in-a-directory/

1 resposta

Olá Romario, tudo bem com você?

Fico feliz em ver a sua postagem e contribuição para o fórum da Alura. Existem várias maneiras de alcançar um resultado e o que você mostrou também atende ao objetivo demonstrado na atividade. Continue praticando e não hesite em voltar ao fórum para continuar aprendendo e interagindo com a comunidade.

Abraços e bons estudos!

Quer mergulhar em tecnologia e aprendizagem?

Receba a newsletter que o nosso CEO escreve pessoalmente, com insights do mercado de trabalho, ciência e desenvolvimento de software