Nesta atividade, desenvolvi um projeto de agente RAG utilizando a Vertex AI para responder perguntas com base em documentos. Primeiro, realizei a ingestão dos dados a partir de arquivos armazenados no Cloud Storage ou tabelas no BigQuery , formando uma base de conhecimento do sistema. Em seguida, os documentos foram divididos em menores depósitos , facilitando o processamento e melhorando a recuperação de contexto.
Depois disso, apliquei o processo de embeddings , convertendo cada trecho textual em vetores numéricos que representam seu significado semântico. Esses vetores foram então indexados em um banco vetorial , permitindo uma busca semântica eficiente dos conteúdos mais relevantes. Na etapa de testes, ajustei o parâmetro TopK para recuperar os trechos mais úteis de acordo com a pergunta feita pela pessoa usuária.
Por fim, integrei uma etapa de recuperação com um LLM na Vertex AI , permitindo que o modelo gerasse respostas fundamentadas nos documentos recuperados. Assim, o agente passou a responder de forma mais precisa, contextualizada e com menor risco de alucinação, demonstrando o funcionamento completo de um pipeline RAG.