A principios del siglo XX, cuando la aviación apenas comenzaba a abrirse paso entre la incredulidad y la fascinación, los ingenieros entendieron algo fundamental: antes de confiar en un avión había que hacerlo fallar. Por eso construyeron los primeros túneles de viento, enormes instalaciones donde las alas de los prototipos se sometían a corrientes de aire controladas. Ahí se observaban vibraciones, deformaciones, pérdidas de estabilidad. Los aparatos se rompían, los cálculos se corregían y los diseños se ajustaban. Aquellos espacios no eran un espectáculo del fracaso; eran laboratorios para comprenderlo. La ingeniería moderna, en buena medida, nació dentro de esos túneles donde el error se volvía información. Algo parecido está ocurriendo hoy con la inteligencia artificial.
En los últimos días ha circulado con insistencia un paper con un título que parece anunciar el apocalipsis tecnológico: “Agents of Chaos”. El estudio describe una serie de experimentos con agentes de inteligencia artificial capaces de interactuar entre sí y con humanos dentro de un entorno digital relativamente amplio. Los agentes podían enviar mensajes, acceder a archivos, ejecutar comandos y coordinar acciones. En ese contexto, los investigadores documentaron varios comportamientos problemáticos: agentes que obedecían instrucciones de personas equivocadas, que compartían información sensible o que ejecutaban acciones que no correspondían a la tarea inicial.
Leído de manera apresurada, el estudio puede generar una sensación inquietante. El propio título parece diseñado para alimentar la narrativa de que la inteligencia artificial se acerca peligrosamente a perder el control. Sin embargo, esa lectura pierde de vista el punto más importante del experimento: los autores no estaban tratando de observar cómo funcionan normalmente estos sistemas. Estaban intentando provocar sus fallas. Dicho de otra manera, construyeron un túnel de viento.
En el mundo de la seguridad informática existe una práctica conocida como penetration testing. Equipos especializados intentan hackear sistemas deliberadamente para descubrir vulnerabilidades antes de que lo hagan actores maliciosos. Nadie interpreta esos ejercicios como prueba de que internet es intrínsecamente inseguro o inviable. Al contrario: son una parte esencial del proceso mediante el cual las infraestructuras digitales se vuelven más robustas.
“Agents of Chaos” se sitúa en esa tradición. Los investigadores crearon un entorno experimental en el que varios agentes de inteligencia artificial podían comunicarse, ejecutar tareas y compartir información. Luego observaron qué ocurría cuando esos agentes interactuaban entre sí y con usuarios humanos. El resultado no es un retrato del comportamiento cotidiano de la tecnología, sino un catálogo de posibles modos de falla. Lejos de ser alarmante, eso es exactamente lo que se necesita cuando aparece una tecnología nueva.
Durante mucho tiempo hemos pensado en la inteligencia artificial como una herramienta individual: un chatbot que responde preguntas, redacta textos o resume documentos. Pero la siguiente etapa parece apuntar hacia algo diferente. En lugar de modelos aislados, empiezan a surgir sistemas donde múltiples agentes colaboran, se reparten tareas y coordinan acciones dentro de un mismo entorno digital. Cuando eso ocurre, la inteligencia artificial deja de parecerse a una calculadora sofisticada y empieza a parecerse a algo que conocemos muy bien: una organización.
Las organizaciones humanas —una empresa, un laboratorio, una red de investigación—, funcionan mediante coordinación imperfecta. La información circula entre personas, se interpreta de maneras distintas, se corrige y a veces se transmite de forma incompleta. Surgen malentendidos, se acumula conocimiento informal y las reglas se van ajustando con la experiencia. Nada de eso significa que el sistema esté fuera de control. Significa que es un sistema complejo.
Los experimentos como los de “Agents of Chaos” permiten observar cómo podrían comportarse sistemas de inteligencia artificial que empiezan a tener esa misma naturaleza organizacional. No porque las máquinas estén conspirando, sino porque cualquier sistema donde múltiples actores —humanos o artificiales—, interactúan termina desarrollando dinámicas de coordinación, error y aprendizaje.
Por eso conviene leer este tipo de estudios con una dosis saludable de perspectiva histórica. Cada vez que surge una infraestructura tecnológica nueva, las primeras etapas suelen estar llenas de episodios que parecen alarmantes cuando se observan de forma aislada. La historia de internet, de la aviación o incluso de los sistemas eléctricos está llena de experimentos fallidos y vulnerabilidades inesperadas. Con el tiempo, esos problemas dieron lugar a estándares, protocolos y arquitecturas institucionales que permitieron estabilizar la tecnología.
Trabajos como “Agents of Chaos” no muestran cómo es un futuro dominado por máquinas caóticas. Muestran algo más interesante y, en cierto sentido, más familiar: el nacimiento de una infraestructura tecnológica que todavía está aprendiendo a organizarse. En esa etapa temprana, los experimentos que exponen las fallas no son señales de alarma definitiva. Son parte del proceso que permite entender dónde deben construirse las barandillas del sistema. Si los ingenieros de la aviación hubieran interpretado cada vibración en un túnel de viento como evidencia de que volar era imposible, probablemente seguiríamos viajando en barco. La lección de aquellos laboratorios era otra: antes de confiar en una tecnología, hay que obligarla a enfrentarse a sus propias debilidades.