1
resposta

Resolvido!!

Confesso que esse foi o mais dificil de descobrir o porque sozinha, nem o meu chatgpt me deu solução kkk

Mas graças ao forum, e as respostas dos alunos Yuri e John entendi o porque do Pandas não leu o arquivo, a então biblioteca não foi feita para navegar na web, só extrai tabelas quando ja temos o HTML. Por isso usaram a biblioteca 'requests' com um User-Agent de navegador.

Insira aqui a descrição dessa imagem para ajudar na acessibilidade

1 resposta

Olá, Adriely! Como vai?

Agradeço por compartilhar seu código com a comunidade Alura.

Você mostrou um ótimo entendimento do desafio! Usar requests com um User-Agent foi a escolha certa para obter o conteúdo da página antes de extrair as tabelas.

Uma dica interessante para o futuro é usar o método response.status_code para conferir se a requisição realmente funcionou. Veja este exemplo:


import requests

url = "https://exemplo.com"
resposta = requests.get(url)
print(resposta.status_code)

Esse código imprime o código de status da requisição, ajudando a identificar se a pagina foi carregada corretamente.

Qualquer dúvida que surgir, compartilhe no fórum. Abraços e bons estudos!

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!