Glossário
Arquitetura de AgentesFundamental

Human-in-the-Loop (HITL)

Fluxos de trabalho que exigem revisão ou aprovação humana antes que um sistema de AI finalize uma ação.

Definição

Human-in-the-Loop (HITL) é um princípio de design para sistemas de AI onde o julgamento humano é exigido em pontos de decisão críticos antes que o sistema possa prosseguir com ações de grande impacto. Em vez de conceder autonomia total, os fluxos de trabalho HITL inserem pontos de verificação onde uma pessoa revisa, aprova, modifica ou rejeita a próxima etapa proposta pela AI.

As principais características dos fluxos de trabalho HITL incluem:

  1. Portões de Aprovação: O sistema pausa em pontos predefinidos, como antes de implantar código, enviar comunicações ou modificar dados de produção, e aguarda a confirmação humana explícita.

  2. Autonomia Graduada: Ações de baixo risco (leitura de arquivos, execução de testes) podem prosseguir automaticamente, enquanto ações de alto risco (excluir recursos, publicar conteúdo) exigem aprovação humana, criando um modelo de permissão em camadas.

  3. Integração de Feedback: Correções humanas durante a revisão são realimentadas ao agente, melhorando a qualidade das etapas subsequentes dentro da mesma sessão e informando futuras melhorias do sistema.

  4. Trilha de Auditoria: Sistemas HITL naturalmente produzem um registro do que foi proposto, do que foi aprovado e do que foi alterado, o que é essencial para conformidade e depuração.

HITL é considerado uma boa prática para implantações de AI em produção e é um recurso central de ferramentas como Claude Code, GitHub Copilot e plataformas de automação empresarial.

No Manual de Desenvolvimento Agêntico, o HITL é o mecanismo de aplicação do pilar de Governança Baseada em Portões. Portões humanos obrigatórios são exigidos para mudanças críticas de segurança (fluxos de autenticação, criptografia, controle de acesso), decisões arquitetônicas que cruzam fronteiras de módulos e implantações de alto raio de impacto que afetam dados de produção ou serviços voltados para o usuário. O Eval Harness executa verificações automatizadas primeiro — linting, verificação de tipo, suítes de teste e comparações de amostras-ouro — e só escala para um revisor humano quando a validação automatizada é insuficiente.

Quando um agente encontra um obstáculo que não consegue resolver, o manual define uma Escada de Escalonamento de Quatro Fases: (1) portões automatizados são executados e falham, (2) o agente tenta novamente com contexto ajustado, (3) uma Blocker Flag é levantada para intervenção humana, e (4) se a tarefa permanecer travada, uma Rescue Mission é iniciada onde um humano assume para desbloquear o trabalho e documentar a resolução para futuras execuções do agente. Este escalonamento estruturado garante que a atenção humana seja reservada para decisões genuinamente ambíguas ou de alto risco, em vez de aprovações rotineiras.

Última atualização: 3/11/2026