Fala pessoal! Compartilhando mais um projeto do curso de Engenharia de Agentes de IA.
Construi um sistema de moderacao de conteudo para plataformas educacionais usando 4 agentes especializados orquestrados com LangGraph:
- Agente Analisador — classifica comentarios como POSITIVO, NEUTRO ou PROBLEMATICO
- Agente Pesquisador de Politicas — consulta diretrizes internas + busca externa (Tavily)
- Agente Revisor — consolida analise e recomenda acao final (APROVAR/REMOVER/EDITAR)
- Executor de Acao — aplica a decisao final
O diferencial do projeto e o Human in the Loop (HITL): quando o sistema detecta conteudo problematico, ele pausa a execucao e solicita revisao humana
antes de agir. O moderador pode confirmar, cancelar ou editar a decisao do agente — inclusive modificar o estado interno do grafo com update_state.
Conceitos aplicados:
- StateGraph com TypedDict para estado tipado
- interrupt_before para pausar no no critico
- AsyncSqliteSaver para persistencia de checkpoints
- Conditional edges com funcao de roteamento
- Lazy singleton para inicializacao segura do LLM
- Busca contextual com Tavily Search
Stack: Python, LangGraph, LangChain, OpenAI GPT-3.5, Tavily, SQLite async
Repo: https://github.com/recuperarcontato4-prog/moderacao-ia
Aceito feedback e sugestoes! Se alguem quiser trocar ideia sobre LangGraph ou HITL, estou por aqui.