Pessoal segue meu link do git onde coloquei o exercício feito aqui neste modulo.
Ainda sou iniciante, e teve alguma ajuda da IA no Cursor para resolveros bugs kkk.
https://github.com/Cascapera/Multi_Agent_IA
Pessoal segue meu link do git onde coloquei o exercício feito aqui neste modulo.
Ainda sou iniciante, e teve alguma ajuda da IA no Cursor para resolveros bugs kkk.
https://github.com/Cascapera/Multi_Agent_IA
Oi, Guilherme! Como vai?
Agradeço por compartilhar seu código com a comunidade Alura.
Ficou bem legal ver o fluxo de moderação multi-agente com LangGraph e Human in the Loop: você organizou bem o estado com TypedDict, usou add_conditional_edges para decidir quando pesquisar políticas, e ainda colocou MemorySaver + interrupt_before para pausar antes da ação final e permitir update_state com a decisão humana.
Uma dica interessante para o futuro é adicionar retry na chamada do LLM para reduzir falhas pontuais de rede ou API e deixar o fluxo mais estável. Veja este exemplo:
from tenacity import retry, stop_after_attempt, wait_exponential
@retry(stop=stop_after_attempt(3), wait=wait_exponential(min=1, max=8))
def call_llm(llm, prompt: str) -> str:
return llm.invoke(prompt).content
resposta = call_llm(llm, prompt)
Esse código tenta chamar o modelo até 3 vezes, aguardando de forma exponencial entre as tentativas, o que ajuda quando a API oscila.