El reto no está en el algoritmo

20 de Abril de 2026

El reto no está en el algoritmo

Victor Gomez Ayala.jpg

En las dos entregas anteriores de esta serie describí un problema con una lógica draconiana: la inteligencia artificial de agentes es suficientemente buena como para que sea racional dejar de aprender, y cuando suficientes personas toman esa decisión racional, el conocimiento colectivo que hace útil a la propia inteligencia artificial comienza a desaparecer. Partiendo de esa premisa, la pregunta que permanece es compleja: ¿qué nos queda por hacer?

Acemoglu propone una solución técnicamente elegante: limitar deliberadamente la precisión de los sistemas de inteligencia artificial para preservar los incentivos de aprendizaje (si el algoritmo no puede darte una recomendación perfecta, sigues teniendo razones para desarrollar criterio propio). El problema es que esa solución difícilmente sobreviviría en la realidad. Ningún gobierno puede coordinarla globalmente sin que los países que no la adopten capturen todas las ventajas competitivas. Ninguna empresa tiene incentivos para hacerla unilateralmente. Y ningún usuario, enfrentado a la opción entre una herramienta más capaz y una deliberadamente limitada, elegiría la segunda. Pedirle a la gente que use una tecnología disminuida en capacidad para preservar un bien que no puede ver ni medir es, en el mejor de los casos, una propuesta políticamente impracticable.

La pregunta entonces se desplaza: si no podemos limitar el algoritmo, ¿podemos fortalecer lo que se erosiona con su uso? La historia de otros bienes comunes sugiere que sí, pero con condiciones muy específicas. La pesca es el caso más estudiado. Durante décadas, la solución propuesta para evitar el agotamiento de los océanos fue técnica: mejores modelos de poblaciones de peces, cuotas más precisas, tecnología de monitoreo más sofisticada. Funcionó parcialmente, pero los colapsos pesqueros más graves no ocurrieron por falta de datos, sino por la ausencia de instituciones capaces de hacer cumplir las reglas cuando hacerlo era costoso.

Lo que terminó funcionando, donde funcionó, fueron comunidades pesqueras con identidad compartida, reglas negociadas localmente y mecanismos de sanción social que ningún modelo externo podía replicar. Ostrom lo documentó con precisión: los comunes no se gestionan con tecnología sino con instituciones, y las instituciones no se diseñan desde afuera sino que se construyen endógenamente.

El conocimiento colectivo no es exactamente un banco de peces, pero la lógica institucional es parecida. Lo que convierte el aprendizaje privado en acervo compartido no es un mecanismo de mercado sino una red de instituciones con exactamente esa función: universidades, sistemas de revisión por pares, publicaciones científicas abiertas, comunidades profesionales con normas de divulgación. Esas instituciones existen, llevan siglos funcionando, y son precisamente las que están bajo mayor presión, no solo por la inteligencia artificial sino por décadas de lógica que privilegia el rendimiento individual medible sobre la generación de bienes que no aparecen explícitamente en los indicadores.

Aquí el argumento tiene una dimensión particularmente concreta para México. Las universidades públicas son, entre otras cosas, mecanismos de agregación de conocimiento: convierten el aprendizaje de cientos de miles de personas en investigación publicada, en formación de nuevas generaciones, en un acervo que pertenece al país. CONAHCYT, con todos sus problemas de financiamiento y dirección, cumple una función similar: canalizar recursos públicos hacia la generación de conocimiento que el mercado no produciría por su cuenta. Cuando esas instituciones se debilitan, se pierde la infraestructura que convierte la experiencia individual en conocimiento colectivo. Y esa pérdida, no genera titulares, se percibe después, cuando el conocimiento hace falta.
La ironía más profunda del argumento de Acemoglu es que aplica también a sí mismo. Los beneficios de mantener una universidad fuerte, un sistema científico robusto, comunidades profesionales activas, se distribuyen entre toda la sociedad. Pero los costos los paga alguien en particular: el contribuyente que financia instituciones lentas y a veces ineficientes, el investigador que publica en lugar de consultar, el profesional que comparte su experiencia en lugar de monetizarla. En un mundo donde la inteligencia artificial hace cada vez más fácil obtener conocimiento sin contribuir a producirlo, esos costos se vuelven más visibles y los beneficios más invisibles.

La presión política para recortar o simplemente ignorar esas instituciones no parece que vaya a ceder. Por eso el problema, en última instancia, no es tecnológico sino político. Se trata de decidir colectivamente qué tipo de instituciones queremos sostener cuando hacerlo parece individualmente inconveniente. Quizás la lección inveterada de todo esto es que ningún algoritmo se hará cargo de dicha decisión.