Implementei um fluxo com LangGraph no Google Colab, adaptando o provedor de LLM para Gemini, mas preservando a lógica central proposta em aula. A solução foi estruturada com um estado tipado por TypedDict, três nós principais e roteamento condicional. O primeiro nó atua como roteador, analisando a consulta do usuário e decidindo se o tema se refere a praia ou montanha. Em seguida, o fluxo é direcionado para a cadeia especializada correspondente, responsável por gerar a resposta final. Para isso, foram criados prompts específicos com ChatPromptTemplate para cada assistente, além de cadeias independentes com parser de saída em string. O grafo foi montado com StateGraph, utilizando START, END e add_conditional_edges, e executado com nós assíncronos, validando o fluxo de decisão de forma organizada e previsível.
https://github.com/Moquiuti/LangChainePython/blob/main/LangGraph_e_cadeias.ipynb