Solucionado (ver solução)
Solucionado
(ver solução)
2
respostas

[Projeto] Faça como eu fiz: LangGraph e cadeias

Implementei um fluxo com LangGraph no Google Colab, adaptando o provedor de LLM para Gemini, mas preservando a lógica central proposta em aula. A solução foi estruturada com um estado tipado por TypedDict, três nós principais e roteamento condicional. O primeiro nó atua como roteador, analisando a consulta do usuário e decidindo se o tema se refere a praia ou montanha. Em seguida, o fluxo é direcionado para a cadeia especializada correspondente, responsável por gerar a resposta final. Para isso, foram criados prompts específicos com ChatPromptTemplate para cada assistente, além de cadeias independentes com parser de saída em string. O grafo foi montado com StateGraph, utilizando START, END e add_conditional_edges, e executado com nós assíncronos, validando o fluxo de decisão de forma organizada e previsível.

https://github.com/Moquiuti/LangChainePython/blob/main/LangGraph_e_cadeias.ipynb

2 respostas

Oi, Leandro! Como vai?

Agradeço por compartilhar seu código com a comunidade Alura.

Achei bem interessante como você estruturou o fluxo com LangGraph, principalmente o uso de TypedDict para organizar o estado e o roteamento condicional entre praia e montanha. Isso mostra um bom entendimento de orquestração e separação de responsabilidades, deixando o fluxo mais claro e escalável.

Uma dica interessante para o futuro é utilizar um fallback no roteador para tratar casos que não sejam claramente classificados, evitando respostas inesperadas:


def roteador(estado):
    pergunta = estado["pergunta"].lower()
    if "praia" in pergunta:
        return "praia"
    elif "montanha" in pergunta:
        return "montanha"
    else:
        return "default"

Esse código adiciona uma rota segura caso nenhuma condição seja atendida, melhorando a robustez do fluxo.

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!
solução!

Olá Rafaela, excelente semana! obrigado pelo feedback e pela dica!