1
resposta

[Reclamação] Inconsistências, Versoes de Bibliotecas, Vídeos Repetidos e Divergência no GitHub

Olá equipe Alura e colegas.

Gostaria de registrar um feedback sobre algumas das falhas estruturais deste curso, especificamente a partir da Aula 3. Identifiquei problemas que prejudicam severamente a reprodutibilidade dos experimentos:

  • Obsolescência de Bibliotecas e Ambiente: O curso foi gravado há cerca de 8/9 meses, o que em IA Generativa é um tempo enorme. Mesmo utilizando o arquivo requirements.txt disponibilizado, diversas funcionalidades do LangChain (como os parsers e as integrações com Ollama) não funcionam nas versões atuais. O aluno é forçado a realizar um troubleshooting exaustivo de versões por conta própria, pois o material didático não reflete as mudanças do ecossistema.

  • Divergência entre Aula e Repositório: Os códigos apresentados pelo instrutor em tela não coincidem com os arquivos no GitHub. Há funções e estruturas de chains que aparecem no vídeo, mas não estão no material de apoio, deixando o aluno perdido na tentativa de localizar o código-fonte original.

  • Falta de Preparação e Cortes de Edição: É evidente a falta de validação prévia das aulas. Em vários momentos, o instrutor se depara com erros de execução, interrompe a gravação e retorna com o erro "resolvido" sem explicar a causa raiz ou o ajuste feito. Isso elimina o aprendizado do debug, essencial em um curso técnico.

  • Vídeos Repetidos e Erro de Transição: O vídeo "Validação Final" está duplicado, aparecendo de forma idêntica no capítulo anterior. Claramente, se vê que houve erro de edicação, pois a transcrição do vídeo não bate com o vídeo em si. Além disso, a transição entre os módulos é incoerente, o Capítulo 2 (Entendendo o Vector Store) encerra-se prometendo o uso de Pinecone (nuvem) para o próximo passo, porém o Capítulo 3 (Querys e Ollama) inicia-se tratando de Ollama (local) e modelos da OpenAI, sem qualquer explicação sobre a mudança de arquitetura ou critério de escolha.

  • Falhas Graves na Avaliação (QA-Eval): O Capítulo 4 (Validação) é o mais crítico. O instrutor obtém resultados de 10% (0.1) ou 0% de acerto devido a erros básicos de parsing (o código de contagem não reconhece o formato da resposta do LLM). Prosseguir com métricas irreais em vez de corrigir a lógica de extração da string "CORRECT" invalida a confiança técnica no pipeline ensinado.

Sugiro uma revisão completa e atualização dos scripts e vídeos, pois o tema (RAG Avançado) é excelente, o instrutor tem muito conhecimento, porém a entrega atual é pedagogamente e tecnicamente sofrível, exigindo que o aluno corrija o material para conseguir concluir o aprendizado.

1 resposta

Olá Fábio!

Agradeço por compartilhar seu feedback de forma tão detalhada. Esse tipo de contribuição é muito importante para que possamos evoluir continuamente a qualidade dos cursos.

Já encaminhei seus apontamentos para a equipe responsável, para que possam analisar com atenção.

Seguimos à disposição por aqui caso queira compartilhar mais percepções ou dúvidas ao longo do seu aprendizado.

Bons estudos!

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!