Gobernar al agente

20 de Enero de 2026

Víctor Gómez Ayala
Víctor Gómez Ayala
Economista en Jefe de Finamex Casa de Bolsa y Fundador de Daat Analytics.

Gobernar al agente

Victor Gomez Ayala.jpg

Una vez que la inteligencia artificial “agentic” logra insertarse en una organización rediseñada, el problema ya no es técnico ni operativo. Es institucional. La pregunta deja de ser cómo actúa la IA y pasa a ser quién responde cuando actúa.

Delegar acción siempre ha sido una decisión política dentro de las organizaciones. Cuando una empresa delega en un gerente, acepta un conjunto de riesgos y crea mecanismos de control: supervisión, incentivos, sanciones. Con la IA, ese esquema se desajusta. El agente ejecuta sin intención, sin responsabilidad moral y sin conciencia del contexto normativo. Sin embargo, sus actos producen consecuencias reales.

Aquí emerge el núcleo del problema. La IA agentic no encaja bien en los modelos tradicionales de responsabilidad. No es un empleado. No es un proveedor. No es una simple herramienta. Es un agente delegado que actúa dentro de reglas fijadas por otros, pero cuya ejecución puede ser opaca, rápida y difícil de auditar en tiempo real.

La teoría económica ofrece un lenguaje útil para entender este dilema. Desde Michael C. Jensen y William Meckling, sabemos que toda delegación introduce costos de agencia: desalineaciones entre quien decide y quien ejecuta, problemas de información, necesidad de monitoreo. Con la IA, estos costos no desaparecen, se transforman.

El monitoreo humano se vuelve el cuello de botella. Supervisar agentes que actúan a gran velocidad exige nuevas formas de control: límites ex ante, reglas de intervención, auditorías algorítmicas. El viejo esquema de “corregir después” deja de funcionar cuando la acción ocurre en milisegundos y escala sin fricción.

A esto se suma un problema más profundo: la atribución de responsabilidad. Cuando un sistema “agentic” comete un error —discrimina, prioriza mal, genera un daño—, ¿quién responde? ¿El desarrollador? ¿La empresa que lo despliega? ¿El humano que lo supervisa? La ambigüedad no es un detalle jurídico, es una señal de que la arquitectura institucional no está preparada para esta forma de delegación.

Por eso, la discusión sobre IA agentic no puede limitarse al ámbito empresarial. En sectores regulados —finanzas, salud, justicia, administración pública—, la delegación de acción a sistemas automatizados reconfigura el poder de decisión. No porque la IA decida fines, sino porque define los medios con tal eficacia que condiciona los resultados.

Este punto ha sido advertido desde una perspectiva distinta por Jamie Susskind: cuando delegamos funciones críticas a sistemas que no rinden cuentas, el problema no es la inteligencia de la máquina, sino la erosión de los mecanismos democráticos de control. La pregunta central deja de ser qué puede hacer la tecnología y pasa a ser quién la gobierna.

A los dilemas de control y responsabilidad se suman límites materiales que en 2025 dejaron de ser abstractos. La IA agentic consume energía, depende de infraestructura y concentra datos. Gobernarla implica decidir sobre inversión energética, acceso a información y estándares de medición. No es casual que el debate sobre IA haya empezado a cruzarse con política energética, competencia económica y estadísticas nacionales.

Visto en conjunto, el cierre de esta serie es claro. La IA agentic no es un problema de conciencia artificial. Es un problema de delegación institucional. Hemos aprendido a definir objetivos y a rediseñar organizaciones. Falta ahora construir reglas de control, responsabilidad y rendición de cuentas a la altura de sistemas que actúan sin ser sujetos.

En 2025, la inteligencia artificial tocó tierra. En 2026, la tarea será más incómoda: decidir hasta dónde delegamos acción sin perder control. Esa decisión ya no es tecnológica. Es económica, jurídica y, en última instancia, política.