La trifecta letal

26 de Febrero de 2026

La trifecta letal

Victor Gomez Ayala.jpg

En el poema de Goethe, el aprendiz de brujo descubre un hechizo que le permite animar una escoba para que cargue agua en su lugar. Cansado del trabajo repetitivo, decide delegarlo. La escoba obedece con disciplina impecable: va y viene, cumple la instrucción, no se distrae, no cuestiona. El problema no es que funcione, sino que no sabe detenerla. Cuando el aprendiz intenta corregir el exceso, ya es tarde; el agua inunda la habitación y partir la escoba solo multiplica el caos. La historia no trata sobre magia descontrolada, sino sobre delegación sin comprensión completa del conjuro.

Hace unos días, una noticia aparentemente técnica confirma que estamos entrando en una etapa distinta de la inteligencia artificial. Peter Steinberger, creador del agente open source OpenClaw, se integra a OpenAI con la misión de impulsar la siguiente generación de agentes personales. OpenClaw no es un simple modelo conversacional; es un sistema capaz de vaciar bandejas de entrada, hacer reservaciones, documentar vuelos y comunicarse en nombre del usuario a través de aplicaciones externas. Hasta ahora, la mayor parte de los modelos generativos respondían preguntas, redactaban textos o sintetizaban información. El usuario conservaba la acción final. El salto que representan estos agentes es otro: no aconsejan, ejecutan. Su frontera funcional es de agencia.

En paralelo al entusiasmo, han surgido señales de alerta. Un usuario reportó que, tras conceder acceso a su sistema de mensajería, el agente comenzó a enviar cientos de mensajes no deseados. Especialistas en ciberseguridad describieron el riesgo con una expresión inquietante: la “trifecta letal”. Se trata de la combinación de tres elementos: acceso a datos privados, capacidad de comunicarse externamente y exposición a contenido no confiable. Cuando estos factores coinciden, el riesgo deja de ser abstracto. Un modelo que se equivoca escribe mal; pero un agente que se equivoca actúa mal. Y actuar mal, cuando se tienen llaves digitales —correo, agenda, mensajería, eventualmente pagos—, no es un error retórico, sino una ejecución defectuosa con consecuencias reales.

La escoba del poema no tiene intención ni voluntad. No se rebela. Simplemente sigue la instrucción bajo las reglas que le fueron dadas. El desastre proviene de la literalidad de su obediencia y de la insuficiencia del aprendiz para anticipar escenarios no previstos. Algo similar ocurre con los agentes autónomos. No “se vuelven rebeldes”; operan dentro de parámetros diseñados que pueden resultar incompletos frente a la complejidad del entorno digital. Cuando un sistema tiene acceso a información privada, puede interactuar con terceros y está expuesto a estímulos potencialmente manipulados, se encuentra en una posición estructuralmente sensible. No porque tenga malas intenciones, sino porque tiene capacidad operativa.

La conversación pública sobre inteligencia artificial se ha centrado en empleo, creatividad y sesgos algorítmicos. Los agentes introducen una dimensión distinta: la externalización de acción. Estamos delegando tareas, sí, pero también estamos delegando ejecución. Delegar una tarea es eficiencia; delegar la ejecución es poder. Si millones de personas permiten que sistemas automatizados gestionen su correspondencia, coordinen reuniones o interactúen con servicios en su nombre, el fenómeno deja de ser individual. La escala convierte lo que era un riesgo personal en una cuestión sistémica. Errores agregados, decisiones automatizadas mal calibradas o manipulaciones externas pueden amplificarse con rapidez.

Existe además un dilema adicional en el hecho de que OpenClaw permanezca como proyecto open source dentro de una fundación. La apertura ha sido uno de los motores más poderosos de innovación digital, permitiendo auditoría y mejora colectiva. Pero cuando lo que se abre no es solo un modelo que genera texto, sino un agente con capacidad de actuar, la discusión cambia de tono. La facilidad de uso, aspiración explícita de quienes desarrollan estos sistemas, ampliará inevitablemente la superficie de exposición. En el mundo físico, entregar las llaves de casa implica confianza y límites claros; en el mundo digital, dar acceso a un agente implica permitir que interactúe con múltiples sistemas interconectados cuya complejidad rara vez comprendemos por completo.

El poema de Goethe no condena la magia, advierte sobre el uso incompleto del conocimiento. El error del aprendiz no fue automatizar el esfuerzo, sino iniciar un proceso cuyo alcance no entendía y cuya reversibilidad no podía garantizar. La inteligencia artificial ya aprendió a escribir; ahora está aprendiendo a actuar. La diferencia es profunda. Es el tránsito de la sugerencia a la intervención. La pregunta no es si tendremos agentes personales, sino bajo qué reglas, con qué mecanismos de interrupción y con qué estándares de responsabilidad. Si algo puede actuar en nuestro nombre, la gobernanza se erige como la regla de seguridad cotidiana.

Víctor Gómez Ayala
Víctor Gómez Ayala
Economista en Jefe de Finamex Casa de Bolsa y Fundador de Daat Analytics.