1
resposta

exercicio de Multi Agent com LangGraf

Pessoal segue meu link do git onde coloquei o exercício feito aqui neste modulo.

Ainda sou iniciante, e teve alguma ajuda da IA no Cursor para resolveros bugs kkk.
https://github.com/Cascapera/Multi_Agent_IA

1 resposta

Oi, Guilherme! Como vai?

Agradeço por compartilhar seu código com a comunidade Alura.

Ficou bem legal ver o fluxo de moderação multi-agente com LangGraph e Human in the Loop: você organizou bem o estado com TypedDict, usou add_conditional_edges para decidir quando pesquisar políticas, e ainda colocou MemorySaver + interrupt_before para pausar antes da ação final e permitir update_state com a decisão humana.

Uma dica interessante para o futuro é adicionar retry na chamada do LLM para reduzir falhas pontuais de rede ou API e deixar o fluxo mais estável. Veja este exemplo:


from tenacity import retry, stop_after_attempt, wait_exponential

@retry(stop=stop_after_attempt(3), wait=wait_exponential(min=1, max=8))
def call_llm(llm, prompt: str) -> str:
    return llm.invoke(prompt).content

resposta = call_llm(llm, prompt)

Esse código tenta chamar o modelo até 3 vezes, aguardando de forma exponencial entre as tentativas, o que ajuda quando a API oscila.

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!