Glosario
Arquitectura de AgentesFundamental

Human-in-the-Loop (HITL)

Flujos de trabajo que requieren revisión o aprobación humana antes de que un sistema de AI finalice una acción.

Definición

Human-in-the-Loop (HITL) es un principio de diseño para sistemas de AI donde se requiere el juicio humano en puntos de decisión críticos antes de que el sistema pueda proceder con acciones de gran impacto. En lugar de otorgar autonomía total, los flujos de trabajo HITL insertan puntos de control donde una persona revisa, aprueba, modifica o rechaza el siguiente paso propuesto por la AI.

Las características clave de los flujos de trabajo HITL incluyen:

  1. Puertas de Aprobación: El sistema se detiene en puntos predefinidos, como antes de implementar código, enviar comunicaciones o modificar datos de producción, y espera una confirmación humana explícita.

  2. Autonomía Gradual: Las acciones de bajo riesgo (leer archivos, ejecutar pruebas) pueden proceder automáticamente, mientras que las acciones de alto riesgo (eliminar recursos, publicar contenido) requieren la aprobación humana, creando un modelo de permisos escalonado.

  3. Integración de Retroalimentación: Las correcciones humanas durante la revisión se retroalimentan al agente, mejorando la calidad de los pasos subsiguientes dentro de la misma sesión e informando futuras mejoras del sistema.

  4. Rastro de Auditoría: Los sistemas HITL producen naturalmente un registro de lo que se propuso, lo que se aprobó y lo que se cambió, lo cual es esencial para el cumplimiento normativo y la depuración.

HITL se considera una mejor práctica para implementaciones de AI en producción y es una característica central de herramientas como Claude Code, GitHub Copilot y plataformas de automatización empresarial.

En el Agentic Development Handbook, HITL es el mecanismo de aplicación del pilar de Gate-Based Governance. Se requieren puertas humanas obligatorias para cambios críticos de seguridad (flujos de autenticación, cifrado, control de acceso), decisiones arquitectónicas que cruzan los límites de los módulos y despliegues de alto radio de impacto que afectan datos de producción o servicios de cara al usuario. El Eval Harness ejecuta primero verificaciones automatizadas — linting, verificación de tipos, suites de pruebas y comparaciones de muestras doradas — y solo escala a un revisor humano cuando la validación automatizada es insuficiente.

Cuando un agente encuentra un obstáculo que no puede resolver, el manual define una Escalera de Escalada de Cuatro Fases: (1) las puertas automatizadas se ejecutan y fallan, (2) el agente reintenta con contexto ajustado, (3) se levanta una Blocker Flag para intervención humana, y (4) si la tarea permanece atascada, se inicia una Rescue Mission donde un humano toma el control para desbloquear el trabajo y documentar la resolución para futuras ejecuciones del agente. Esta escalada estructurada asegura que la atención humana se reserve para decisiones genuinamente ambiguas o de alto riesgo en lugar de aprobaciones rutinarias.

Última actualización: 3/11/2026