La primera burocracia de las máquinas

25 de Marzo de 2026

La primera burocracia de las máquinas

Victor Gomez Ayala.jpg

La semana pasada hablábamos de túneles de viento. De cómo, antes de confiar en una tecnología, los ingenieros necesitan observar la falla. El estudio “Agents of Chaos” —que ha circulado con insistencia estos días—, encaja bien en esa tradición: no es un retrato del
funcionamiento cotidiano de la inteligencia artificial, sino un laboratorio donde se exponen sus posibles errores. Pero si uno se detiene un poco más en los experimentos, aparece algo más interesante que los fallos. Aparece una forma incipiente de organización.

En el trabajo, los agentes de inteligencia artificial no operan de manera aislada. Se comunican, se reparten tareas, comparten información y, en algunos casos, incluso se “enseñan” entre sí cómo resolver problemas. Un agente descubre una forma de hacer algo —descargar un archivo, ejecutar un comando, sortear una limitación—, y otro agente puede aprender ese procedimiento. No es coordinación perfecta. Tampoco es aprendizaje formal. Es algo más rudimentario y, al mismo tiempo, más familiar: conocimiento que circula dentro de un sistema.

Si eso suena conocido, es porque lo es. Así funcionan las organizaciones humanas. En cualquier oficina, laboratorio o institución, una parte importante del trabajo no está en los manuales. Está en lo que alguien aprendió “sobre la marcha” y luego le explica a otra persona. Está en los correos reenviados, en las instrucciones que se ajustan sobre la práctica, en las soluciones improvisadas que terminan volviéndose rutina. A ese conjunto difuso de reglas, hábitos y aprendizajes solemos llamarlo burocracia. No en el sentido peyorativo del papeleo interminable, sino en su acepción más estructural: un sistema donde la acción se coordina a través de procedimientos, información compartida y cierta división del trabajo.

Lo interesante de “Agents of Chaos” es que sugiere que algo parecido empieza a emerger en sistemas de inteligencia artificial cuando dejan de ser herramientas individuales y pasan a operar como redes de agentes. Por supuesto, estamos muy lejos de una burocracia en sentido pleno. No hay jerarquías claras, no hay responsabilidad definida, no hay reglas estables. Pero sí aparecen los primeros indicios de algo más que simples respuestas automáticas: agentes que delegan tareas, agentes que transmiten instrucciones, agentes que interpretan —y a veces malinterpretan—, información recibida, agentes que incorporan soluciones aprendidas previamente.
Y, como en cualquier organización incipiente, también aparecen errores. En el documento, algunos de los comportamientos más llamativos —agentes que obedecen a la persona equivocada o que comparten información sin verificar—, pueden leerse de otra manera. No como señales de caos inminente, sino como ejemplos de algo mucho más cotidiano: fallas de coordinación. Un correo enviado a la persona incorrecta. Una instrucción ambigua que se interpreta mal. Un procedimiento que alguien aplica fuera de contexto. Nada de eso es ajeno a la experiencia humana. Lo que cambia aquí es el tipo de actor que participa en el sistema.

Durante mucho tiempo, la inteligencia artificial se ha pensado como una herramienta: algo que usamos, que consultamos, que ejecuta tareas bajo demanda. Pero cuando múltiples agentes empiezan a interactuar entre sí, esa metáfora se queda corta. Lo que empieza a formarse no es solo una herramienta más sofisticada, sino una infraestructura organizacional. Y eso cambia la pregunta. Ya no se trata únicamente de qué tan bien responde un modelo o qué tan precisa es una predicción. La pregunta empieza a parecerse más a las que hacemos sobre instituciones humanas: cómo se coordina la información, quién tiene autoridad para dar instrucciones, cómo se verifican las decisiones, qué reglas evitan errores sistemáticos.

En otras palabras, el problema deja de ser puramente tecnológico y se vuelve, en buena medida, institucional. Esto no debería sorprender demasiado. Cada vez que surge una tecnología que permite coordinar acciones a escala —desde el telégrafo hasta internet—, eventualmente aparecen estructuras organizadas alrededor de ella. La diferencia es que, en este caso, algunos de los “participantes” en esa organización no son humanos.

Una forma útil de pensar en estos sistemas es verlos como organizaciones en su fase más temprana. Equipos improvisados donde las reglas todavía no están claras, donde la información circula sin filtros suficientes y donde los errores son visibles porque aún no existen mecanismos que los absorban. Con el tiempo, si la historia sirve como guía, esos sistemas tenderán a estabilizarse. Aparecerán protocolos, jerarquías, mecanismos de validación. Lo que hoy parece desorden terminará convirtiéndose en un conjunto robusto de reglas de gobernanza.