En 2025, la inteligencia artificial empezó a ser descrita con una palabra que incomoda: agentic. No porque las máquinas hayan adquirido voluntad, sino porque empezaron a actuar. A planear tareas, a ejecutarlas en secuencia, a corregirse, a coordinar flujos completos de trabajo. La IA dejó de ser solo una herramienta que responde y comenzó a ocupar un lugar funcional dentro de procesos reales.
Ese cambio —más semántico que técnico— merece atención. Llamar agentic a la IA no significa atribuirle intención, conciencia o autonomía moral. Significa reconocer que hemos empezado a delegar acción, no solo cálculo o asistencia. Y delegar acción siempre tiene consecuencias.
La distinción es importante. Durante años, el debate sobre IA se concentró en si las máquinas “piensan” o “entienden”. En 2025, la pregunta relevante fue otra: ¿qué hacemos cuando dejamos que actúen? Cuando una IA agenda, prioriza, responde, clasifica, decide el siguiente paso dentro de un proceso, ya no es solo una interfaz. Es un ejecutor.
Esta es la intuición detrás del ejercicio reciente de la Columbia Business School, donde varios académicos coincidieron en que el rasgo definitorio del año no fue un modelo más grande o más rápido, sino la transición hacia sistemas que operan dentro de la organización. No sustituyen al humano en la decisión final, pero reordenan cómo se toman las decisiones.
Aquí conviene poner un freno conceptual. Agentic no es sinónimo de autonomía fuerte. No implica que la IA defina fines propios. La acción de estos sistemas está siempre contenida: por objetivos humanos, por reglas explícitas, por datos históricos, por infraestructura disponible. Actúan, sí, pero actúan dentro de marcos diseñados por otros.
Esta idea no es nueva. Ya en el siglo pasado, Herbert A. Simon insistía en que los sistemas artificiales no deben juzgarse por si “imitan” la inteligencia humana, sino por cómo ejecutan objetivos definidos en entornos específicos. La conducta observable —decía— depende menos de una supuesta inteligencia interna que del diseño del sistema y del contexto en el que opera.
Visto así, la IA agentic no representa un salto ontológico, sino organizacional. No creamos máquinas que deciden; rediseñamos quién decide qué, cuándo y cómo. Delegamos la ejecución de tareas completas —no el juicio último— a sistemas que pueden operar sin pausa, sin fatiga y con una consistencia difícil de replicar.
Pero delegar acción no es un gesto inocente. Toda delegación introduce un problema clásico: el del control. ¿Cómo supervisamos a quien ejecuta por nosotros? ¿Cómo detectamos errores cuando la acción es rápida y automatizada? ¿Qué hacemos cuando la ejecución es correcta desde el punto de vista técnico, pero cuestionable desde el normativo?
Estos dilemas no son exclusivos de la IA. Son los mismos que enfrentan las organizaciones humanas cuando delegan en empleados, gerentes o contratistas. La diferencia es que ahora el agente no es humano, y los mecanismos tradicionales de supervisión —intuición, experiencia, responsabilidad personal— no aplican de la misma manera.
Por eso, hablar de agentic AI obliga a desplazar la conversación. No hacia la conciencia artificial, sino hacia la arquitectura de la delegación. Quién define los objetivos. Quién fija los límites. Quién responde cuando algo sale mal. Y, sobre todo, qué decisiones estamos dejando de tomar directamente.
En 2025, la IA tocó tierra no porque haya dejado de ser impresionante, sino porque empezó a ocupar espacios donde antes solo actuaban personas. La pregunta ya no es si puede hacerlo, sino hasta dónde queremos que lo haga.
Esa es la conversación que apenas comienza. En la siguiente entrega, el foco estará en lo que ocurre cuando esta delegación entra en la organización: por qué la agencia de la IA no se traduce automáticamente en productividad y por qué el rediseño del trabajo es el verdadero cuello de botella.