Nesta etapa, implementei uma VectorStore para armazenar embeddings gerados a partir de dados brutos. Primeiro, organizei os documentos em uma estrutura textual, adicionando metadados como origem, seção e categoria. Em seguida, dividi os textos em chunks utilizando uma estratégia de divisão recursiva com overlap, para preservar o contexto entre os trechos.
Depois, utilizei um modelo open source de embeddings para converter cada chunk em um vetor numérico. Esses vetores foram armazenados no ChromaDB, junto com o texto original e seus metadados, formando uma VectorStore persistente e adequada para uma pipeline RAG.
Com a VectorStore criada, configurei um retriever para realizar busca semântica. Dessa forma, quando uma consulta é feita pelo usuário, ela também é transformada em embedding e comparada com os vetores armazenados. O sistema retorna os chunks mais próximos semanticamente, permitindo localizar o contexto mais relevante mesmo quando a pergunta não usa exatamente as mesmas palavras dos documentos.
Por fim, realizei testes com diferentes consultas, validando se a busca recuperava corretamente trechos relacionados a garantia, cancelamento, pagamento e suporte. Esse processo demonstrou a importância da qualidade dos chunks, dos metadados e da escolha da VectorStore para a construção de uma arquitetura RAG eficiente.